CN102341776B - 信息处理设备、信息处理方法和信息处理程序 - Google Patents
信息处理设备、信息处理方法和信息处理程序 Download PDFInfo
- Publication number
- CN102341776B CN102341776B CN201080010400.0A CN201080010400A CN102341776B CN 102341776 B CN102341776 B CN 102341776B CN 201080010400 A CN201080010400 A CN 201080010400A CN 102341776 B CN102341776 B CN 102341776B
- Authority
- CN
- China
- Prior art keywords
- finger
- operating surface
- unit
- contact
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
可以使得用户在不对操作面进行视觉辨认的情况下容易地执行操作输入。在辨认出对触摸板(3C)的操作面进行了其中在保持手指与该操作面的接触的同时手指的接触部分从指腹改变为指尖的操作后,音乐播放器设备(1)将从指尖接触的位置到指腹接触的位置的方向估计为操作触摸板(3C)的手的手腕方向,并对操作面设置将该方向作为下方向的坐标轴。手指与操作面的接触位置基于坐标轴被转换为坐标,并且命令基于坐标而被输入。因此,用户操作可以依据用户的手相对于操作面的朝向来辨认,所以可以使得用户以用户的手相对于操作面的朝向为基准来执行操作,并且可以使得用户即使在不对操作面进行视觉辨认的情况下也容易地执行操作输入。
Description
技术领域
本发明涉及能够适当地应用于例如具有触摸板的信息处理设备的信息处理设备、信息处理方法和信息处理程序。
背景技术
近年来,在显示单元的显示屏上具有透明板并且支持用户通过触摸触摸板上的操作面而进行的操作输入的信息处理设备已被广泛使用。
对于这种信息处理设备,如下信息处理设备被提议:其中用户例如通过借助操作面用手指按压来选择显示屏上显示的诸如按钮、图标等显示元素,并且与所选显示元素相对应的处理被运行。
另外,对于这种信息处理设备,如下信息处理设备被提议:其中用户例如借助操作面来执行诸如在显示屏上显示的画面上绘制预定路径之类的操作,并且与该路径相对应的处理被运行(例如,参见专利文献1)。
引用列表
专利文献1:日本未实审专利申请公开No.2005-339420
发明内容
现在,上述信息处理设备被配置成在显示屏上显示将被操作的画面和操作元素,并且通过经由操作面对这些操作元素或画面进行操作,命令被输入。
因此,对于上述信息处理设备,为了执行希望的操作,用户不得不通过对显示屏上显示的显示元素和画面等进行视觉辨认来借助操作面执行操作输入。
因此,在用户已将上述信息处理设备放在包或衣服口袋里的情况中,为了对操作面进行视觉辨认,信息处理设备不得不被取出,而这很不方便。
本发明是鉴于以上几点而做出的,并且提议了即使不对操作面进行视觉辨认,用户也能借此容易地进行操作的信息处理设备、信息处理方法和信息处理程序。
根据用于解决问题的本发明的信息处理设备包括:接触检测单元,所述接触检测单元检测手指与操作单元的操作面接触的位置;坐标转换单元,所述坐标转换单元基于所述操作面上设置的坐标轴,将所述接触检测单元检测到的位置转换成坐标;命令输入单元,所述命令输入单元基于从所述坐标转换单元获得的坐标来输入命令;操作辨认单元,所述操作辨认单元辨认对所述操作面执行的如下操作:在所述手指与所述操作面保持接触的情况下,接触部分从指腹改变为指尖或从指尖改变为指腹;以及坐标轴设置单元,所述坐标轴设置单元在所述操作辨认单元辨认出所述操作后,将从指腹接触的位置到指尖接触的位置的方向估计为对操作单元进行操作的手的手腕方向,并根据该方向来在操作面上设置坐标轴。
通过按这种方式根据用户的手相对于操作面的朝向来设置操作面的坐标轴,用户的操作可以依据用户的手相对于操作面的朝向来辨认。因此,无论用户的手相对于操作面的朝向如何,用户总能够以用户的手相对于操作面的朝向为基准来执行操作。
另外,根据用于解决问题的本发明的信息处理设备包括:接触检测单元,所述接触检测单元检测手指与操作单元的操作面接触的位置以及手指与操作单元的操作面接触的范围;坐标转换单元,所述坐标转换单元基于所述操作面上设置的坐标轴,将所述接触检测单元检测到的位置转换成坐标;命令输入单元,所述命令输入单元基于从所述坐标转换单元获得的坐标来输入命令;操作辨认单元,所述操作辨认单元辨认如下操作的执行:所述手指在与所述操作面保持接触的同时旋转;以及坐标轴设置单元,在所述操作辨认单元辨认出所述操作后,所述坐标轴设置单元从所述手指接触的范围中检测指根接触的位置和指尖接触的位置,将从指根接触的位置到指尖接触的位置的方向估计为对操作单元进行操作的手的手腕方向,并根据该方向来在操作面上设置坐标轴。
通过按这种方式根据用户的手相对于操作面的朝向来设置操作面的坐标轴,用户的操作可以依据用户的手相对于操作面的朝向来辨认。因此,无论用户的手相对于操作面的朝向如何,用户总能够以用户的手相对于操作面的朝向为基准来执行操作。
根据本发明,通过根据用户的手相对于操作面的朝向来设置操作面的坐标轴,用户的操作可以依据用户的手相对于操作面的朝向来辨认。因此,无论用户的手相对于操作面的朝向如何,用户总能够以用户的手相对于操作面的朝向为基准来执行操作。从而,可以实现即使不对操作面进行视觉辨认,用户也能借此容易地执行操作的信息处理设备、信息处理方法和信息处理程序。
附图说明
图1是例示了根据本发明的音乐播放器设备的配置的示意图。
图2是例示了根据本发明的音乐播放器设备的配置的框图。
图3是用于描述根据本发明的乐曲切换操作的示意图。
图4是用于描述根据本发明的第一实施例的盲模式切换操作的示意图。
图5是用于描述根据本发明的乐曲切换操作的示意图。
图6是用于描述根据本发明第一实施例的盲操作处理过程的流程图。
图7是例示了根据本发明第一实施例的音乐播放器设备的功能配置的框图。
图8是用于描述根据本发明第二实施例的盲模式切换操作的示意图。
图9是用于描述根据本发明第二实施例的盲操作处理过程的流程图。
图10是例示了根据本发明第二实施例的音乐播放器设备的功能配置的框图。
图11是用于描述根据本发明另一实施例的盲模式切换操作的示意图。
具体实施方式
以下是对实施本发明的最佳方式(以下称为实施例)的描述。注意,该描述是按以下次序进行的。
1.第一实施例(作为盲模式切换操作的手指竖起操作的示例)
2.第二实施例(作为盲模式切换操作的手指旋转操作的示例)
3.其他实施例
<第一实施例>
[1-1音乐播放器设备的整体配置]
在图1中,1代表整个音乐播放器设备。该音乐播放器设备1是便携式的,并具有能够单手握住的(所谓巴掌大小的)扁平矩形状的壳体2。矩形板形式的显示单元3被设置在壳体2的表面上。如图1(B)所示,显示单元是通过在LCD(液晶显示器)3A的显示面上依次布置透明压敏传感器3B和透明触摸板3C而形成的。
音乐播放器设备1被配置成在辨认出对于触摸板3C的操作面的操作后,根据该操作来输入各种类型的命令,如播放和停止乐曲、增大和减小音量等等。注意,这里,电容型触摸板3C被使用。
另外,布置了各种电子电路的板子4被布置在显示单元3的反面,板子4和显示单元3电连接。
顺便提及,在以下描述中,壳体2被形成为在一个方向上相对较短,所以将称呼该方向为壳体横向。另外,在以下描述中,壳体被形成为在另一个方向上相对较长,所以将称呼该方向为壳体纵向。另外,这里,壳体横向是壳体2的水平方向,并且壳体纵向是壳体2的竖直方向。另外,在以下描述中,关于壳体2的四个侧面,右侧面也称为右面,左侧面也称为左面,上侧面也称为上面,并且下侧面也称为下面。
耳机端子(未示出)被设置在壳体2的下面,所以耳机5可以经由该耳机端子被连接。音乐播放器设备1被配置成使得用户能够经由该耳机5聆听播放的乐曲的音频。
[1-2音乐播放器设备的电路配置]
接下来,将通过图2来描述音乐播放器设备的各种电路部分。对于音乐播放器设备1,各种电路单元通过总线10被连接。CPU 11将非易失性存储器12中存储的程序读出到RAM(随机存取存储器)13。CPU 11被配置成随后将已读出的程序加载到RAM 13,依据所加载的程序来控制各种电路,还运行各种类型的处理。
CPU 11被配置成使得在经由连接单元(未示出)被连接到外部设备后,乐曲数据被从外部设备获取,并且该乐曲数据被存储在非易失性存储器12中。顺便提及,乐曲数据不仅包括乐曲的音频数据,而且包括与该乐曲有关的信息数据(标题、艺术家姓名、专辑标题、封面摄影图像等)。
另外,在辨认出借助触摸板3C执行了用于播放乐曲的操作后,CPU11响应于此而从非易失性存储器12读出该乐曲的音频数据,并将其发送到播放单元14。
播放单元14通过使该乐曲的音频数据经历诸如解码处理和放大处理等预定播放处理来获得音频信号,并将该音频信号发送到音频输出单元15。结果,基于该音频信号的乐曲音频经由耳机5从音频输出单元输出。
另外,CPU 11从非易失性存储器12中存储的乐曲数据中获取与乐曲有关的信息(标题、艺术家姓名、专辑标题、封面摄影图像等),并且这些信息在LCD 3A上显示。
触摸板3C具有格状排列的多个电容传感器。电容传感器被布置成当用户的手指与之接触时增大电容。
在电容传感器的电容改变时,触摸板3C将指示电容传感器在触摸板3C的操作面上的位置和电容传感器的电容值的电容传感器信息发送到CPU 11。
基于电容传感器信息,CPU 11检测用户的手指在触摸板3C上接触的范围(以下也称为接触范围),并基于触摸板3C的操作面上设置的坐标轴将该接触范围转换成坐标。
CPU 11随后基于坐标来计算接触范围的形状,并计算该形状的重心的坐标。CPU 11随后将重心的坐标计算为用户的手指接触的位置(以下也称为接触位置)的坐标。CPU 11随后基于接触位置的坐标来辨认用户对触摸板3C的操作面的操作,并基于该操作输入各种类型的命令。
压敏传感器3B检测用户的手指按压触摸板3C的操作面的压力(以下也称为按压压力),并将指示该按压压力的按压压力值发送到CPU 11。注意,这里,按压压力取0到255的值。
[1-3乐曲切换操作]
接下来,将详细描述音乐播放器设备1处的乐曲切换操作。首先,CPU 11读出非易失性存储器12中记录的乐曲数据的多个封面摄影图像。CPU 11随后在LCD 3A上显示乐曲切换画面20,其中这些封面摄影图像J(J0,J1,J2,...,Jn)被排列成在深度方向上相继重叠,如图3(A)所示。
具体地,CPU 11将最新近的封面摄影图像J0显示为朝近侧放倒(封面摄影图像J1在封面摄影图像J0后面显示)以便不与其他封面摄影图像重叠。在该乐曲切换画面20中,CPU 11处于选择了与封面摄影图像J1相对应的乐曲的状态。
此时,我们会说,CPU 11处于用户对显示单元3进行视觉辨认并执行操作的正常模式。在正常模式中,CPU 11在操作面上设置以触摸板3C的操作面的中心为原点、横向为X轴、纵向为Y轴的坐标轴。CPU 11将该坐标轴设置成Y轴正方向为上方向、Y轴负方向为下方向、X轴正方向为右方向、X轴负方向为左方向。在正常模式中,CPU 11在LCD 3A上依据这些坐标轴来显示各种类型的显示画面(例如,乐曲切换画面20),以便用户执行各种类型的操作。
在该正常模式中,比方说,用户用手指按压例如触摸板3C的操作面内的右侧区域,即按压X轴正区域。
此时,CPU 11经由触摸板3C获得接触位置的坐标,并经由压敏传感器3B获得按压压力值。在判定接触位置是X轴正区域并且如图3(B)所示按压压力值大于等于预定阈值A1(例如,50)且小于预定阈值A2(例如,70)后,CPU 11将被选择的乐曲切换到下一乐曲。
另外,在判定接触位置是X轴正区域并且按压压力值大于等于阈值A2且小于预定阈值A3(例如,90)后,CPU 11将被选择的乐曲切换到来自下一专辑的乐曲。
另外,在判定接触位置是X轴正区域并且按压压力值大于等于阈值A3后,CPU 11将被选择的乐曲切换到来自标题以下一字母开头的专辑的乐曲。例如,如果当前选择的乐曲的专辑标题中的首字母为“A”,则标题以下一字母开头的专辑是标题以“B”开头的专辑。
因此,CPU 11被布置成根据按压压力来改变乐曲被切换的增量(increment),以使得用户用手指按压触摸板3C越有力,切换乐曲的增量越大。
于是,CPU 11将对应于目前被选择的乐曲的例如封面摄影图像J1的动画显示为朝近侧放倒,并且与切换后的乐曲相对应的封面摄影图像J2被新显示。因此,CPU 11可以使得用户辨认出被选乐曲已被切换到下一乐曲。
另外,比方说,用户将手指从触摸板3C移开。此时,CPU 11经由触摸板3C辨认出用户的手指从触摸板3C移开,并令播放单元14播放被选乐曲(与封面摄影图像J2相对应的乐曲)的音频数据。结果,该乐曲的音频被从音频输出单元15输出。
另外,在该正常模式中,比方说,用户用手指按压例如触摸板3C的操作面内的左侧区域,即按压X轴负区域。
此时,CPU 11经由触摸板3C获得接触位置的坐标,并经由压敏传感器3B获得按压压力值。在判定接触位置是X轴负区域并且按压压力值大于等于阈值A1且小于阈值A2后,CPU 11将被选择的乐曲切换到上一乐曲。
另外,在判定接触位置是X轴负区域并且按压压力值大于等于阈值A2且小于阈值A3后,CPU 11将被选择的乐曲切换到来自上一专辑的乐曲。
另外,在判定接触位置是X轴负区域并且按压压力值大于等于阈值A3后,CPU 11将被选择的乐曲切换到来自标题以上一字母开头的专辑的乐曲。
于是,CPU 11将朝近侧放倒的例如封面摄影图像J0的动画显示为被抬起,以便与切换后的乐曲相对应的封面摄影图像J0以随时可查看的方式被显示。因此,CPU 11可以使得用户辨认出被选乐曲已被切换到上一乐曲。
另外,比方说,用户将手指从触摸板3C移开。此时,CPU 11经由触摸板3C辨认出用户的手指从触摸板3C移开,并令播放单元14播放被选乐曲(与封面摄影图像J0相对应的乐曲)的音频数据。结果,该乐曲的音频被从音频输出单元15输出。
另外,比方说,在播放乐曲时,用户用手指接触触摸板3C的操作面并执行例如从下向上滑动手指的操作。此时,CPU 11经由触摸板3C辨认出从下向上滑动手指的操作被执行,并控制音频输出单元15以升高将要被输出的音频的音量。
另一方面,比方说,用户用手指接触触摸板3C的操作面并执行例如从上向下滑动手指的操作。此时,CPU 11经由触摸板3C辨认出从上向下滑动手指的操作被执行,并控制音频输出单元15以降低将要被输出的音频的音量。
因此,音乐播放器设备1被配置成在辨认出触摸板3C的操作面内的右侧区域被用户按压后,将被选择的乐曲切换到下一乐曲,并在辨认出触摸板3C的操作面内的左侧区域被按压后,将被选择的乐曲切换到上一乐曲。
另外,音乐播放器设备1被配置成在辨认出用户将手指从触摸板3C的操作面移开后,播放当时被选择的乐曲。
另外,音乐播放器设备1被配置成在辨认出用户在触摸板3C的操作面上执行从下向上或从上向下的操作后,升高或降低从音频输出单元14输出的音量。
因此,音乐播放器设备1被配置成使得当处于正常模式时,用户操作依据事先在触摸板3C的操作面上设置的坐标轴被辨认。因此,音乐播放器设备1被配置成被用户以对应于这些坐标轴的预定朝向操作。
[1-4盲操作]
此外,音乐播放器设备1被设置有盲模式,在该盲模式中,用户不对显示单元3进行视觉辨认地执行操作。注意,在不对显示单元3进行视觉辨认的情况下执行的操作也被称为盲操作。将详细描述对音乐播放器设备1的盲操作。
对音乐播放器设备1,从正常模式切换到盲模式的操作被设置(以下也称为盲模式切换操作)。具体地,盲模式切换操作是这样的操作:用户保持手指与触摸板3C的操作面的接触并在该状态下将接触的手指部分从指腹改变为指尖。也就是说,它是这样的操作:用户用指腹按压触摸板3C的操作面,然后在不将手指从操作面移开的情况下弯曲指关节以便用指尖按压操作面。注意,盲模式切换操作是可以用一个手指执行的操作。
现在,比方说,用户执行了这种盲模式切换操作。此时,CPU 11经由触摸板3C获得接触位置的坐标,并经由压敏传感器3B获得按压压力值。CPU 11随后检测从操作开始到操作结束期间接触位置的转变和按压压力值的改变。
现在,对于人类手指,可以想到,由于指腹的重心和指尖的重心是不同的位置,因此盲模式切换操作可以是对触摸板3C的接触位置移动的操作。
另外,可以想到,由于弯曲关节用指尖按压时与用指腹按压时相比、用户的手指处所施加的力量更大,因此当盲模式切换操作被执行时,从操作开始到操作结束,压敏传感器3B检测到的按压压力值增大。
因此,CPU 11基于经由触摸板3C获得的接触位置的坐标来判断接触位置是否已移动预定距离或更大。另外,CPU 11判断与操作开始时的按压压力值相比,按压压力值在操作结束时是否已增大了预定值或更多。
在检测到接触位置是否已移动预定距离或更大并且与操作开始时的按压压力值相比,按压压力值在操作结束时已增大了预定值或更多后,CPU11辨认出操作开始时的接触位置P1是指腹接触的位置并且操作结束时的接触位置P2是指尖接触的位置,如图4所示。CPU 11随后切换到盲模式。
另外,由于人类手指的特征,指腹的重心比指尖的重心更靠近手腕侧,因此可以想到,指尖接触的位置比指腹接触的位置更靠近用户的手腕侧。
因此,在切换到盲模式后,CPU 11将从操作结束时的接触位置P2到操作开始时的接触位置P1的方向估计为操作触摸板3C的手的手腕方向。CPU 11随后将该手腕方向定义为触摸板3C的操作面上的下方向。
CPU 11随后转换触摸板3C的操作面上设置的坐标,以使得已被定义的触摸板3C的下方向是Y轴负方向,并且接触位置P1和接触位置P2穿过的直线是Y轴。也就是说,触摸板3C的操作面被接触位置P1和接触位置P2穿过的直线划分成X轴正区域(Y轴右侧的区域)和X轴负区域(Y轴右侧的区域)
因此,CPU 11被配置成在辨认出盲模式切换操作被执行后,切换到盲模式,并基于盲模式切换操作设置将用户的手腕方向作为触摸板3C的操作面上的下方向的坐标轴。
在该盲模式时,比方说,用户在不对显示单元3进行视觉辨认的情况下将手指从盲模式切换操作被执行的位置移动到对于用户来说为右侧的方向并按压触摸板3C。也就是说,用户在触摸板3C上按压通过盲模式切换操作转换后的坐标中的X轴正区域。
此时,CPU 11经由触摸板3C获得接触位置的坐标,并经由压敏传感器3B获得按压压力值。然后,以和正常模式相同的方式,在判定接触位置的坐标是X轴正区域后,CPU 11根据按压压力值将被选择的乐曲切换到下一乐曲,或下一专辑的乐曲,或标题中的首字母是下一字母的专辑的乐曲。
因此,通过设置与用户的手相对于触摸板3C的操作面的朝向相对应的坐标轴,CPU 11可以依据用户的手相对于操作面的朝向来辨认用户的操作。因此,CPU 11可以令用户以用户的手相对于操作面的朝向为基准来执行操作,所以盲操作可以被执行。
CPU 11随后从非易失性存储器12读取用于通知用户被选乐曲已被切换的音频(以下也称为通知音频)的音频数据,并且它被发送到播放单元14以便在播放单元14处被播放。结果,该通知音频被从音频输出单元15输出。通知音频例如是指示下一乐曲的音频(如,“下一乐曲”)、指示该乐曲的标题的音频等等。
因此,当处于盲模式时,即使用户不对显示单元3进行视觉辨认,音乐播放器设备1也可以令该用户辨认出被选乐曲已被切换。
以和正常模式相同的方式,在检测到用户的手指从触摸板3C的操作面移开时,CPU 11令播放单元14播放被选乐曲的音频数据。结果,该乐曲的音频被从音频输出单元15输出。
另外,当处于盲模式时,比方说,如图5所示用户在不对显示单元3进行视觉辨认的情况下将手指从盲模式切换操作被执行的位置移动到对于用户来说为左侧的方向并按压触摸板3C。也就是说,用户按压通过盲模式切换操作转换后的坐标中的X轴负区域。
此时,CPU 11经由触摸板3C获得接触位置的坐标,并经由压敏传感器3B获得按压压力值。然后,以和正常模式相同的方式,在判定接触位置的坐标是X轴负区域后,CPU 11根据按压压力值将被选择的乐曲切换到上一乐曲,或上一专辑的乐曲,或标题中的首字母是上一字母的专辑的乐曲。然后,CPU 11以如上所述的相同方式来令播放单元14播放通知音频,并且令音频输出单元15输出该通知音频。
另外,以和正常模式相同的方式,在检测到用户的手指从触摸板3C的操作面移开时,CPU 11令播放单元14播放被选乐曲的音频数据。结果,该乐曲的音频被从音频输出单元15输出。
另外,比方说,在不对显示单元3进行辨认的情况下,用户例如在乐曲被播放时使手指与触摸板3C的操作面接触并且手指从用户的手腕方向朝指尖方向滑动。也就是说,用户执行在通过盲模式切换操作转换后的操作面上的坐标轴上从下向上(Y轴正方向)滑动手指的操作。
此时,以和正常模式相同的方式,CPU 11辨认出从下向上滑动手指的操作经由触摸板3C被执行,并控制音频输出单元15以升高输出音频的音量。
另一方面,比方说,在不对显示单元3进行辨认的情况下,用户例如在乐曲被播放时使手指与触摸板3C的操作面接触并且手指从用户的指尖方向朝手腕方向滑动。也就是说,用户执行在通过盲模式切换操作转换后的操作面上的坐标轴上从上向下(Y轴负方向)滑动手指的操作。
此时,以和正常模式相同的方式,CPU 11辨认出从上向下滑动手指的操作经由触摸板3C被执行,并控制音频输出单元15以降低输出音频的音量。
因此,音乐播放器设备1被配置成使得在盲模式中,以和当处于正常模式中相同的方式,在辨认出用户按压了触摸板3C的操作面上设置的坐标轴上的右区域后,被选乐曲被切换到下一乐曲。另外,音乐播放器设备1被配置成使得在辨认出用户按压了坐标轴上的左区域后,被选乐曲被切换到上一乐曲。
另外,音乐播放器设备1被配置成使得在盲模式中,以和当处于正常模式中相同的方式,在辨认出用户将手指从触摸板3C的操作面移开后,当时选择的乐曲被播放。另外,音乐播放器设备1被配置成使得盲模式中,以和当处于正常模式中相同的方式,在辨认出用户在操作面上依据触摸板3C的操作面上设置的坐标轴执行了从上向下或从下向上的操作后,音量被升高或降低。注意,切换乐曲、播放、升高和降低音量等操作都可用一个手指执行。
对于如上所述的音乐播放器设备1,当处于盲模式中时,通过根据用户的手相对于触摸板3C的操作面的朝向来设置操作面上的坐标轴,用户操作可以依据用户的手相对于操作面的朝向来辨认。
因此,无论用户的手相对于操作面的朝向如何,音乐播放器设备1总可以允许用户以手相对于操作面的朝向为基准来执行操作,并因此可以实现盲操作。
另外,因此,音乐播放器设备1可以使得用户能够以和处于正常模式中时同样的感觉来在盲模式中执行诸如切换乐曲、播放乐曲、升高和降低音量等盲操作。
[1-5盲操作处理过程]
接下来,将参考图6所示的流程图来详细描述上述通过音乐播放器设备1进行的盲操作的操作处理过程RT1(以下也称为盲操作处理过程)。顺便提及,该盲操作处理过程RT1被CPU 11依据非易失性存储器12中安装的程序来运行。
如图6所示,在辨认出用户的手指经由触摸板3C按压操作面后,音乐播放器设备1的CPU 11从步骤SP0开始盲操作处理过程RT1,并转变到下一步骤SP1。
在步骤SP1中,CPU 11基于经由触摸板3C获得的接触位置的坐标来判断接触位置是否已移动预定距离或更大。在肯定的结果在该步骤SP1中被获得的情况下,CPU 11此时转变到步骤SP2。
在步骤SP2中,CPU 11基于经由压敏传感器3B获得的按压压力值来判断按压操作结束时的按压压力值与操作开始时的按压压力值相比是否已增大预定值或更多。在肯定的结果在该步骤SP2中被获得的情况下,CPU11此时转变到步骤SP3。
在步骤SP3中,CPU 11辨认出用户已执行盲模式切换操作,并切换到盲模式。另外,此时,CPU 11辨认出操作开始时的接触位置P1是指腹接触的位置,并且操作结束时的接触位置P2是指尖接触的位置。
CPU 11随后将从操作结束时的接触位置P2(图4)到操作开始时的接触位置P1(图4)的方向估计为操作触摸板3C的手的手腕方向,将该手腕方向定义为触摸板3C的操作面上的下方向,并转变到步骤SP4。
在步骤SP4中,CPU 11将在步骤SP3中定义的下方向定义为Y轴方向,转换触摸板3C的操作面上设置的坐标以使得接触位置P1和接触位置P2穿过的直线是Y轴,并转变到步骤SP5。
另一方面,在否定的结果在步骤SP1中被获得的情况下,这意味着用户尚未执行盲模式切换操作,所以在该情况中,CPU 11不执行对触摸板3C的操作面上设置的坐标的转换,并转变到步骤SP5。
另外,在否定的结果在步骤SP2中被获得的情况下,这意味着用户尚未执行盲模式切换操作,所以在该情况中,CPU 11不执行对触摸板3C的操作面上设置的坐标的转换,并转变到步骤SP5。
在步骤SP5中,CPU 11基于经由触摸板3C获得的接触位置的坐标来判断用户是否用手指按压了触摸板3C的操作面上设置的坐标的X轴负区域,即Y轴左边的区域。在肯定的结果在步骤SP5中被获得的情况下,这意味着用户已执行选择上一乐曲的乐曲切换操作,所以CPU 11转变到步骤SP6。
在步骤SP6中,CPU 11根据此时经由压敏传感器3B获得的按压压力值来将被选择的乐曲切换到上一乐曲,或者上一专辑的乐曲,或者标题中的首字母是上一字母的专辑的乐曲,并转变到步骤SP7。
另一方面,在否定的结果在步骤SP5中被获得的情况下,这意味着用户尚未执行选择上一乐曲的乐曲切换操作,所以CPU 11转变到步骤SP7。
在步骤SP7中,CPU 11基于经由触摸板3C获得的接触位置的坐标来判断用户是否用手指按压了触摸板3C的操作面上设置的坐标的X轴正区域,即Y轴右边的区域。在肯定的结果在步骤SP7中被获得的情况下,这意味着用户已执行选择下一乐曲的乐曲切换操作,所以CPU 11转变到步骤SP8。
在步骤SP8中,CPU 11根据此时经由压敏传感器3B获得的按压压力值来将被选择的乐曲切换到下一乐曲,或者下一专辑的乐曲,或者标题中的首字母是下一字母的专辑的乐曲,并返回步骤SP1。
另一方面,在否定的结果在步骤SP7中被获得的情况下,这意味着用户尚未执行选择下一乐曲的乐曲切换操作,所以CPU 11返回步骤SP1。因此,CPU 11重复盲操作处理过程RT1。
CPU 11被配置成能够令用户通过这种盲操作处理过程RT1来执行盲操作。
[1-6操作和优点]
通过以上配置,在触摸板3C的操作面被用户的手指按压时,音乐播放器设备1经由触摸板3C来检测手指对操作面的接触位置。另外,音乐播放器设备1经由压敏传感器3B来检测指示此时用户的手指按压操作面的压力的按压压力值。
当检测到在用户的手指与触摸板3C的操作面接触的情况下接触位置已移动并且操作结束时的按压压力值与操作开始时相比已增大,则音乐播放器设备1辨认出用户已执行盲模式切换操作。此时,音乐播放器设备1辨认出操作开始时的接触位置P1是指腹接触的位置并且操作结束时的接触位置P2是指尖接触的位置。
音乐播放器设备1随后将从指尖接触的操作结束时的接触位置P2到指腹接触的操作开始时的接触位置P1的方向估计为操作触摸板3C的手的手腕方向。音乐播放器设备1随后在触摸板3C的操作面上设置以该方向作为下方向的坐标轴,并将穿过指腹接触的位置和指尖接触的位置的直线设置为该坐标轴的Y轴。
在触摸板3C的操作面被用户的手指按压时,音乐播放器设备1随后检测手指对触摸板3C的操作面的接触位置。音乐播放器设备1随后基于触摸板3C的操作面上设置的坐标轴来将接触位置转换为坐标。音乐播放器设备1随后辨认出与坐标相对应的各种类型的操作,并根据操作来输入各种类型的命令。
因此,音乐播放器设备1根据用户的手相对于触摸板3C的操作面的朝向来设置操作面上的坐标轴,并因此可以依据用户的手相对于操作面的朝向来辨认用户操作。
因此,无论用户的手相对于操作面的朝向如何,音乐播放器设备1总可以允许用户以手相对于操作面的朝向为基准来执行操作,并因此可以令用户始终以用户的手相对于操作面的朝向为基准来执行操作。
另外,音乐播放器设备1已被配置成使得在判定接触位置的坐标是Y轴右侧的区域后,被选乐曲被切换到下一乐曲,并且在判定接触位置的坐标是Y轴左侧的区域后,被选乐曲被切换到上一乐曲。
因此,足以使用户以用户的手腕方向为下方向来执行用手指按压右侧或左侧的操作,所以音乐播放器设备1可以令用户不必学习复杂的操作就能容易地执行操作。
另外,音乐播放器设备1已被配置成使得用户执行盲模式切换操作并用一个手指执行盲操作。
因此,即使在诸如口袋中或包中之类的狭小空间里,音乐播放器设备1也能使得盲模式切换操作和盲操作被容易地执行。
另外,相应地,在令用户用拇指执行盲模式切换操作和盲操作的情况中,音乐播放器设备1可以使得音乐播放器设备1的壳体2被用不执行操作的四个手指把持,所以壳体2可以被以稳定的方式把持。
另外,音乐播放器设备1已被配置成将如下操作作为盲模式切换操作,即:保持手指与触摸板3C的操作面的接触并且将手指接触的部分从指腹改变为指尖。
因此,音乐播放器设备1可以不与盲模式切换操作相混淆地辨认通常在触摸板上正常地执行的诸如触摸操作、拖曳操作、滚动操作等操作,所以错误的辨认可以被避免。
根据以上配置,音乐播放器设备1已被配置以便检测手指与触摸板3C的操作面接触的位置。另外,音乐播放器设备1已被配置以便在手指保持接触并且接触部分从指腹变为指尖的情况下辨认对触摸板3C的操作面执行的盲模式切换操作。另外,音乐播放器设备1已被配置为使得在辨认出该操作时,将从指尖接触的位置到指腹接触的位置的方向估计为操作触摸板3C的手的手腕方向,并与该方向相对应地在触摸板3C的操作面上设置坐标轴。音乐播放器设备1随后基于触摸板3C上设置的坐标轴来转换手指与触摸板3C的操作面接触的接触位置,并基于坐标来输入命令。
因此,通过与用户的手相对于触摸板3C的操作面的朝向相对应地在操作面上设置坐标轴,音乐播放器设备1可以依据用户的手相对于触摸板3C的操作面的朝向来辨认用户操作。
因此,无论用户的手相对于操作面的朝向如何,音乐播放器设备1总可以允许用户以手相对于操作面的朝向为基准来执行操作。因此,音乐播放器设备1可以使得用户能够在不对操作画面进行视觉辨认的情况下容易地执行操作。
[1-7音乐播放器设备的功能配置]
现在,将以上述盲操作为主要对象来描述音乐播放器设备1的功能配置。如图7所示,音乐播放器设备1具有操作单元101、接触检测单元102、压力检测单元103、操作辨认单元104、坐标轴设置单元105、坐标转换单元106和命令输入单元107。
接触检测单元102检测用户的手指在操作单元101的操作面上接触的位置。压力检测单元103检测手指对操作单元101的操作面的按压压力。
在手指与操作单元101的操作面接触时,当检测到手指接触的位置已移动并且手指对操作面的按压压力已改变后,操作辨认单元104辨认出在手指保持接触的同时将接触部分从指腹改变为指尖的操作(本实施例中的盲模式切换操作)已被执行。
在操作辨认单元104辨认出该操作后,坐标轴设置单元105将从指腹接触的位置到指尖接触的位置的方向估计为对操作单元101进行操作的手的手腕方向,并且与该方向相应地对操作单元101的操作面设置坐标轴。
基于对操作单元101的操作面设置的坐标轴,坐标轴转换单元106将被接触检测单元102检测到的位置转换成坐标。命令输入单元107基于从坐标转换单元106获得的坐标来输入命令。
由于这种功能配置,使得音乐播放器设备1能够在功能上实现上述盲操作。这里,操作单元101是与触摸板3C相对应的功能单元。另外,接触检测单元102是与触摸板3C和CPU 11相对应的功能单元。另外,压力检测单元103是与压敏传感器3B相对应的功能单元。另外,操作辨认单元104、坐标轴设置单元105、坐标转换单元106和命令输入单元107是与CPU 11相对应的功能单元。
<2.第二实施例>
接下来,将详细描述本发明的第二实施例。除了音乐播放器设备1的盲模式切换操作不同这一点之外,该第二实施例与上述第一实施例相同,所以作为相同部分的音乐播放器设备1的配置、乐曲切换操作等等的描述将被省略。
[2-1盲操作]
CPU 11在触摸板3C上显示乐曲切换画面20。如图8(A)所示,比方说,用户已执行如下操作作为盲模式切换操作:其中手指以平放的状态保持与触摸板3C的接触并且手指旋转。注意,该盲模式切换操作可以用一个手指执行。
此时,CPU 11经由触摸板3C获得接触位置的坐标和接触范围的坐标,并检测从操作开始到操作结束期间接触位置的转变和接触范围的改变。
现在,由于盲模式切换操作是通过旋转手指将手指接触的部分从指腹改变到侧面或者进行相反改变的操作,因此可以想到,它将是对触摸板3C的操作面的接触位置改变的操作。
因此,CPU 11基于经由触摸板3C获得的接触位置的坐标来判断经由触摸板3C获得的接触位置是否已移动预定距离或更多。
另外,对于人类手指,由于侧面比指腹窄,因此可以想到,指侧接触的范围的形状比指腹接触的范围的形状细长。
因此,如图8(B)所示,CPU 11基于操作开始时的接触范围R1和操作结束时的接触范围R2的坐标来计算围绕操作开始时的接触范围R1的最小面积的矩形RS1和围绕操作结束时的接触范围R2最小面积的矩形RS2。CPU 11随后计算矩形RS1和矩形RS2的短边的长度。
CPU 11随后比较矩形RS1和矩形RS2的短边的长度,并判断矩形RS1的短边和矩形RS2的短边的长度差是否大于等于预定值。
在判定接触位置已移动预定距离或更多并且矩形RS1的短边和矩形RS2的短边的长度差大于等于预定值的情况下,CPU 11辨认出用户已执行盲模式切换操作并切换到盲模式。
另外,如图8(C)所示,当执行其中手指以平放的状态保持接触并且手指旋转的操作时,可以想到,用户的指根从触摸板3C的操作面的边缘伸出。因此,在这种情况下,可以想到,手指的指腹或指侧接触的范围的一部分与触摸板3C的边缘BA接触,并且该部分是靠近指根的手指部分接触的部分。
因此,在切换到盲模式后,操作开始时的接触范围R1与触摸板3C的边缘BA接触的部分被检测,并且其中点PB被检测。CPU 11随后检测操作开始时的接触范围R1中的离中点PB最远的点PF。CPU 11随后辨认出中点PB是指根接触的位置,并且辨认出离中点PB最远的点PF是指尖接触的位置。
CPU 11随后将从点PF到中点PB的方向估计为操作触摸板3C的用户的手的手腕方向。CPU 11随后将用户的手腕方向定义为触摸板3C的操作面的下方向,并据此以和上述第一实施例相同的方式转换触摸板3C的操作面上设置的坐标。
然后,CPU 11在辨认出盲模式切换操作已通过和第一实施例相同的方式被执行后切换到盲模式。
CPU 11随后对触摸板3C的操作面设置以该方向作为下方向的坐标轴,并将穿过点PF和中点PB的直线设置为该坐标轴的Y轴。
另外,CPU 11以和上述第一实施例相同的方式依据触摸板3C的操作面上设置的坐标轴来辨认诸如切换乐曲、播放、升高和降低音量等用户操作。
因此,音乐播放器设备1可以依据用户的手相对于操作面的朝向来辨认用户操作,并且可以使用户能够以用户的手相对于操作面的朝向为基准来执行操作,因此可以使盲操作能够被执行。
[2-2盲操作处理过程]
接下来,将参考图9所示的流程图来详细描述由上述音乐播放器设备1进行的盲操作的操作处理过程RT2(以下也称为盲操作处理过程)。顺便提及,该盲操作处理过程RT2由CPU 11依据非易失性存储器12中安装的程序来运行。
注意,图9所示的盲操作处理过程RT2与上述第一实施例中的盲操作处理过程RT1的相同步骤用相同的标号来表示。
在辨认出用户的手指经由触摸板3C按压操作面后,音乐播放器设备1的CPU 11从步骤SP100开始盲操作处理过程RT2,并转变到下一步骤SP101。
在步骤SP101,CPU 11基于经由触摸板3C获得的接触位置的坐标来判断接触位置是否已移动预定距离或更多。在肯定的结果在该步骤SP101中被获得的情况下,CPU 11此时转变到步骤SP102。
在步骤SP102,CPU 11判断围绕操作开始时的接触范围R1的矩形RS1(图8)和围绕操作结束时的接触范围R2的矩形RS2(图8)的短边之差是否是预定值或更大。在肯定的结果在该步骤SP102中被获得的情况下,CPU 11转变到步骤SP103。
在步骤SP103,CPU 11辨认出用户执行了盲模式切换操作并切换到盲模式。CPU 11随后检测操作开始时的接触范围R1与触摸板3C的边缘BA接触的中点PB以及操作开始时的接触范围R1中离中点PB最远的点PF,并转变到步骤SP104。
在步骤SP104中,CPU 11辨认出中点PB是指根接触的位置并辨认出离中点PB最远的点PF是指尖接触的位置。CPU 11随后将从点PF到中点PB的方向估计为操作触摸板3C的用户的手的手腕方向,将用户的手腕方向定义为触摸板3C的操作面的下方向,并转变到步骤SP105。
在步骤SP105中,CPU 11转换触摸板3C的操作面上设置的坐标以使得在步骤SP103中定义的下方向是Y轴负方向,并转变到步骤SP5。
另一方面,在否定的结果在该步骤SP101中被获得的情况下,这意味着用户尚未执行盲模式切换操作,所以在这种情况下CPU 11不执行对触摸板3C的操作面上设置的坐标的转换,并转变到步骤SP5。
另外,在否定的结果在该步骤SP102中被获得的情况下,这意味着用户尚未执行盲模式切换操作,所以在这种情况下CPU 11不执行对触摸板3C的操作面上设置的坐标的转换,并转变到步骤SP5。
CPU 11以和上述第一实施例相同的方式执行步骤SP5至SP8的处理。也就是说,以和第一实施例相同的方式,依据触摸板3C的操作面上设置的坐标,在辨认出Y轴右侧的区域被按压后,CPU 11将被选择的乐曲切换到下一乐曲,并且在辨认出Y轴左侧的区域被按压后,CPU 11将被选择的乐曲切换到上一乐曲。
通过这种盲操作处理过程RT2,CPU可以使得用户能够执行盲操作。
[2-3操作和优点]
利用以上配置,在触摸板3C的操作面的用户的手指按压后,音乐播放器设备1经由触摸板3C检测手指对操作面的接触位置和接触范围。
在用户的手指与触摸板3C的操作面接触时,当检测到接触位置已移动并且围绕接触范围的矩形的短边的长度在操作开始和操作结束之间已改变后,音乐播放器设备1辨认出用户执行了盲模式切换操作。
音乐播放器设备1随后检测到操作开始时的接触范围R1与触摸板3C的边缘BA接触的部分处的中点PB是指根接触的位置,并检测到盲操作处理过程RT1中离中点PB最远的点PF是指尖接触的位置。
音乐播放器设备1随后将从指尖接触的位置到指根接触的位置的方向估计为操作触摸板3C的用户的手的手腕方向。音乐播放器设备1随后在触摸板3C的操作面上设置坐标轴以使得该方向是下方向。
在触摸板3C的操作面被用户的手指按压后,音乐播放器设备1随后检测手指对触摸板3C的操作面的接触位置。音乐播放器设备1随后基于触摸板3C的操作面上设置的坐标轴来将接触位置转换为坐标,即与用户的手的朝向相对应的坐标。音乐播放器设备1随后辨认与坐标相对应的各种类型的操作,并根据操作来输入各种类型的命令。
因此,音乐播放器设备1根据用户的手相对于触摸板3C的操作面的朝向来在操作面上设置坐标轴,并因此可以依据用户的手相对于操作面的朝向来辨认用户操作。
因此,无论用户的手相对于操作面的朝向如何,音乐播放器设备1总可以允许用户以手相对于操作面的朝向为基准来执行操作,并且因此,可以使用户在用户不对操作面进行视觉辨认的情况下总是以用户的手相对于操作面的朝向为基准来容易地执行操作。
另外,音乐播放器设备1已被配置成使得用户执行如下操作作为盲模式切换操作:其中手指在平放状态下与触摸板3C保持接触并且手指旋转。
因此,即使在仅能容纳一个手指的狭小空间中,音乐播放器设备1也能被切换到盲模式,因此与第一实施例相比,可以令盲操作在更狭小的空间中被更容易地执行。
在其他方面,根据第二实施例的音乐播放器设备1可以产生与根据第一实施例的音乐播放器设备1大约相同的优点。
根据以上配置,音乐播放器设备1已被配置以便检测手指与触摸板3C的操作面接触的接触位置和接触范围。另外,音乐播放器设备1已被配置以便辨认对触摸板3C的操作面执行手指保持接触并且手指旋转的盲模式切换操作。另外,音乐播放器设备1已被配置为在辨认出该操作后,从接触范围中检测指尖接触的位置和指根接触的位置。音乐播放器设备1已被配置为随后将从指尖接触的位置到指根接触的位置的方向估计为操作触摸板3C的手的手腕方向,并与该方向相对应地在触摸板3C的操作面上设置坐标轴。音乐播放器设备1随后基于在触摸板3C上设置的坐标轴来转换手指与触摸板3C的操作面接触的接触位置,并基于坐标来输入命令。
因此,通过与用户的手相对于触摸板3C的操作面的朝向相对应地在操作面上设置坐标轴,音乐播放器设备1可以依据用户的手相对于触摸板3C的操作面的朝向来辨认用户操作。
因此,无论用户的手相对于操作面的朝向如何,音乐播放器设备1总可以允许用户以手相对于操作面的朝向为基准来执行操作。因此音乐播放器设备1可以令用户在不对操作面进行视觉辨认的情况下容易地执行操作。
[2-4音乐播放器设备的功能配置]
现在,将以上述盲操作为主要对象来描述音乐播放器设备1的功能配置。如图10所示,音乐播放器设备1具有操作单元201、接触检测单元202、操作辨认单元203、坐标轴设置单元204、坐标转换单元205和命令输入单元206。
接触检测单元202检测手指与操作单元201的操作面上接触的位置和手指接触的范围。在手指与操作单元201的操作面接触时,当辨认出手指接触的位置已移动并且手指接触的范围的形状已改变后,操作辨认单元203辨认出当保持手指接触时旋转手指的操作已被执行。
在操作辨认单元203辨认出该操作后,坐标轴设置单元204从手指接触的范围内检测指根接触的位置和指尖接触的位置。坐标轴设置单元204随后将从指根接触的位置到指尖接触的位置的方向估计为对操作单元201进行操作的手的手腕方向,并与该方向相对应地对操作单元201的操作面设置坐标轴。
基于对操作单元201的操作面设置的坐标轴,坐标转换单元205将接触检测单元202检测到的位置转换为坐标。命令输入单元206基于从坐标转换单元205获得的坐标来输入命令。
由于这种功能配置,使得音乐播放器设备1能够在功能上实现上述盲操作。这里,操作单元201是与触摸板3C相对应的功能单元。另外,接触检测单元202是与触摸板3C和CPU 11相对应的功能单元。另外,坐标转换单元205、命令输入单元206、操作辨认单元203和坐标轴设置单元204是与CPU 11相对应的功能单元。
<3.其他实施例>
[3-1其他实施例1]
注意,对于上述第一实施例,CPU 11被配置成基于操作开始时和操作结束时的按压压力值的变化来辨认用户已执行盲模式切换操作。
CPU 11不限于此,而是例如可基于操作开始时和操作结束时的接触范围的形状变化来辨认盲模式切换操作是否已被执行。
具体地,比方说,以和第一实施例相同的方式,用户执行了保持手指与触摸板3C的操作面的接触并且在该状态中,将手指接触的部分从指腹改变为指尖的操作,来作为盲模式切换操作。
此时,CPU 11经由触摸板3C获得接触位置的坐标和接触范围的坐标,并检测到从操作开始到操作结束期间接触位置的转变和接触范围的改变。
现在,以和第一实施例相同的方式,可以认为,盲模式切换操作是接触位置相对于触摸板3C移动的操作。因此,CPU 11基于经由触摸板3C获得的接触位置的坐标来判断接触位置是否已移动预定距离或更多。
另外,如图11所示,可以认为,指腹接触的范围面积宽,该范围的形状大体上是以手指的厚度方向为短轴的椭圆形,而指尖接触的范围面积小,该范围的形状大体上是以手指的厚度方向为长轴的椭圆形。因此,可以认为,在将手指接触的部分从指腹改变为指尖后,手指接触的范围的长轴和短轴将改变90度。
因此,CPU 11基于操作开始时的接触范围R3的坐标和操作结束时的接触范围R4的坐标来检测围绕操作开始时的接触范围R3的最小面积的矩形RS3和围绕操作结束时的接触范围R4的最小面积的矩形RS4。CPU 11随后检测矩形RS3和矩形RS4中的每一个的长边轴和短边轴。
CPU 11随后将围绕操作开始时的范围R3的矩形RS3与围绕操作结束时的范围R4的矩形RS4相比较,并判断长边轴和短边轴是否有大约90度的差别。
在判定接触位置已移动预定距离或更多并且矩形RS3和矩形RS4的长边轴和短边轴有大约90度的差别的情况下,CPU 11辨认出用户已执行盲模式切换操作。
在判定用户已执行盲模式切换操作后,CPU 11切换到盲模式。另外,此时,CPU辨认出操作开始时的接触位置P3是指腹接触的位置,并且操作结束时的接触位置P4是指尖接触的位置。
切换到盲模式后,CPU 11随后将从操作结束时的接触位置P4到操作开始时的接触位置P3的方向估计为操作触摸板3C的手的手腕方向。CPU11随后将该手腕方向定义为触摸板3C的操作面上的下方向,并依据此来转换触摸板3C的操作面上设置的坐标。
因此,在辨认出盲模式切换操作已被执行后,CPU 11以和上述第一实施例相同的方式来与用户的手相对于触摸板3C的操作面的朝向相对应地设置坐标轴。
另外,CPU 11不限于此,而是可基于操作开始和操作结束之间的接触范围的面积变化来辨认盲模式切换操作是否已被执行。
如图11所示,可以想到,指腹接触的范围的面积大于指尖接触的范围的面积。因此,CPU 11可在判定接触位置已移动预定距离或更多并且操作开始时的接触范围R3的面积比操作结束时的接触范围R4的面积大预定值后辨认出用户已执行盲模式切换操作。
另外,CPU 11不限于此,而是可通过各种其他方法来辨认其中手指保持接触并且手指接触的部分从指腹改变为指尖的盲模式切换操作已被执行。
另外,虽然在上述第二实施例中,CPU 11基于接触范围的形状改变来辨认其中手指旋转的盲模式切换操作,但是该操作可通过其他各种方法来辨认。
[3-2其他实施例2]
另外,对于上述第一实施例,其中手指与触摸板3C的操作面保持接触并且手指接触的部分从指腹改变为指尖的操作作为盲模式切换操作而被执行。
不限于此,其中手指与触摸板3C的操作面保持接触并且手指接触的部分从指尖改变为指腹的操作可作为盲模式切换操作而被执行。作为替代,可进行如下布置,其中针对用户执行手指接触部分从指腹改变为指尖的操作或执行相反改变的操作这两种情况中的任一种情况来辨认盲模式切换操作。
这种情况下,在用户执行盲模式切换操作后,CPU 11比较操作开始时和操作结束时的按压压力值,并判断哪个按压压力值更大。在操作开始时的按压压力更大的情况下,CPU 11辨认出操作开始时的接触位置是指尖接触的位置,并且操作结束时的接触位置是指腹接触的位置。另一方面,在操作结束时的按压压力更大的情况下,CPU 11辨认出操作结束时的接触位置是指尖接触的位置,并且操作开始时的接触位置是指腹接触的位置。
[3-3其他实施例3]
另外,对于上述第一实施例,CPU 11被配置成在盲模式切换操作时转换在触摸板3C的操作面上设置的坐标,以使得穿过指尖接触的位置和指腹接触的位置的直线成为Y轴。
CPU 11不限于此,而是可在盲模式切换操作时转换在触摸板3C的操作面上设置的坐标,以使得与该Y轴正交并穿过例如指尖接触的位置的直线成为X轴。
因此,CPU 11可以增加指派给例如用户的手指进行的按压操作之类的用户操作的命令输入。例如,CPU 11可被配置成使得当用户按压X轴上方时乐曲被播放并且当X轴下方被按压时播放停止。
[3-4其他实施例4]
此外,对于上述第一和第二实施例,CPU 11被配置成使得在用户按压Y轴右侧后,被选乐曲被切换到下一乐曲,并且在用户按压Y轴左侧后,被选乐曲被切换到上一乐曲。
CPU 11不限于此,而是可基于触摸板3C上设置的坐标轴来辨认各种其他用户操作并对这些用户操作指派其他各种命令。
[3-5其他实施例5]
此外,对于上述第二实施例,CPU 11被配置成将操作开始时的接触范围R1与触摸板3C的边缘BA接触的部分处的中点PB检测为指根接触的位置。CPU 11还被配置成将接触范围R1中离中点PB最远的点PF检测为指尖接触的位置。
CPU 11不限于此,而是可检测操作开始时的接触范围R1的形状,并将该形状变细的接触范围R1的那一侧检测为指尖接触的位置,还可将接触范围R1中离上述位置最远的位置检测为指根接触的位置。另外,CPU11不限于此,而是可通过各种其他方法来检测指根接触的位置和指腹接触的位置。
[3-6其他实施例6]
此外,对于上述第一实施例,CPU 11被配置成将盲模式切换操作中从指尖接触的位置到指腹接触的位置的方向估计为用户的手腕方向。CPU 11还被配置成在触摸板3C的操作面上设置以该方向作为下方向的坐标轴。
CPU 11不限于此,而是可在触摸板3C的操作面上设置各种其他坐标轴,只要是与被估计为用户手腕方向的方向相对应的坐标轴即可。
例如,CPU 11可被配置成以将方向从盲模式切换操作中被估计为用户手腕方向的方向偏移预定角度(例如,10到30度)的坐标轴设置为下方向。还可以想到,用户会在手腕有些偏离操作面的下方向的情况下对操作面进行操作。这种情况下,CPU 11可通过将方向从被估计为用户手腕方向的方向偏移预定角度的坐标轴设置为下方向,来使得用户能够以和处于正常模式中时同样的感觉来在盲模式中执行操作。因此,CPU 11可以更进一步提高处于盲模式中时的可操作性。
[3-7其他实施例7]
此外,对于上述第一和第二实施例,用于令音乐播放器设备1运行操作处理的程序被存储在非易失性存储器12中。
不限于此,该程序可被存储在诸如CD(致密盘)等预定记录介质中,CPU 11从记录介质读出程序并运行。另外,CPU 11可从互联网上的预定服务器下载程序并将其安装在非易失性存储器12中。
[3-8其他实施例8]
此外,对于上述实施例,用作信息处理设备的音乐播放器设备1被设置了用作接触检测单元的触摸板3c、用作压力检测单元的压敏传感器3B和用作接触检测单元、坐标转换单元、命令输入单元、操作辨认单元和坐标轴设置单元的CPU 11。
不限于此,上述音乐播放器设备1的功能可通过其他类型的硬件或软件来配置,只要具有相同功能即可。例如,接触检测单元可由触摸板单独实现,并且坐标转换单元、命令输入单元、操作辨认单元和坐标轴设置单元可各自利用单独硬件来实现。
[3-9其他实施例9]
此外,本发明不限于上述第一和第二实施例以及目前描述的其他实施例1至8。也就是说,本发明的范围中涵盖可选地组合上述第一和第二实施例及其他实施例1至8的全部或部分的形式,或者其部分已被抽出的形式。例如,上述第二实施例和其他实施例3可被组合。
工业适用性
根据本发明的信息处理设备、信息处理方法和信息处理程序可应用于例如便携式音频播放器、PDA(个人数字助理)、移动电话或其他各种类型的电子设备。
参考符号列表
1音乐播放器设备
3显示单元
3B压敏传感器
3C触摸板
11CPU
101,201操作单元
102,202接触检测单元
103压力检测单元
104,203操作辨认单元
105,204坐标轴设置单元
106,205坐标转换单元
107,206命令输入单元
P1,P2,P3,P4接触位置
R1,R2,R3,R4接触范围
PB中点
PF点
Claims (10)
1.一种信息处理设备,包括:
接触检测单元,所述接触检测单元检测手指与操作单元的操作面接触的位置;
操作辨认单元,所述操作辨认单元辨认对所述操作面执行的如下操作:在所述手指与所述操作面保持接触的情况下,接触部分从指腹改变为指尖或从指尖改变为指腹;
坐标轴设置单元,所述坐标轴设置单元在所述操作辨认单元辨认出所述操作后,将从指腹接触的位置到指尖接触的位置的方向估计为对所述操作单元进行操作的手的手腕方向,并根据所述方向来在所述操作面上设置坐标轴,
坐标转换单元,所述坐标转换单元基于所述操作面上设置的坐标轴,将所述接触检测单元检测到的位置转换成坐标;以及
命令输入单元,所述命令输入单元基于从所述坐标转换单元获得的坐标来输入命令。
2.根据权利要求1所述的信息处理设备,还包括:
压力检测单元,所述压力检测单元检测所述手指对所述操作面的按压压力;
其中,在所述手指与所述操作面接触的情况下,当检测到所述手指接触的位置已改变并且所述手指对所述操作面的按压压力已改变,则所述操作辨认单元辨认出如下操作被执行:在所述手指与所述操作面保持接触的情况下,所述接触部分从指腹改变为指尖或从指尖改变为指腹。
3.根据权利要求2所述的信息处理设备,其中所述坐标轴设置单元在所述操作面上设置将所述手腕方向作为下方向的坐标轴,并将穿过所述指腹接触的位置和所述指尖接触的位置的直线设置为所述坐标轴的Y轴。
4.根据权利要求3所述的信息处理设备,其中所述命令输入单元在从所述坐标转换单元获得的坐标位于所述坐标轴的Y轴右侧的区域的情况下输入第一命令,并在从所述坐标转换单元获得的坐标位于所述坐标轴的Y轴左侧的区域的情况下输入第二命令。
5.根据权利要求1所述的信息处理设备,其中所述接触检测单元检测所述手指与所述操作面接触的位置以及所述手指与所述操作面接触的范围;
并且其中,在所述手指与所述操作面接触的情况下,当检测到所述手指接触的位置已移动并且所述手指接触的范围的形状已改变,则所述操作辨认单元辨认出如下操作被执行:在所述手指与所述操作面保持接触的情况下,所述接触部分从指腹改变为指尖或从指尖改变为指腹。
6.一种信息处理设备,包括:
接触检测单元,所述接触检测单元检测手指与操作单元的操作面接触的位置以及手指与操作单元的操作面接触的范围;
操作辨认单元,所述操作辨认单元辨认所述手指在与所述操作面保持接触的同时旋转的操作;
坐标轴设置单元,所述坐标轴设置单元在所述操作辨认单元辨认出所述操作后,从所述手指接触的范围中检测指根接触的位置和指尖接触的位置,将从指根接触的位置到指尖接触的位置的方向估计为对所述操作单元进行操作的手的手腕方向,并根据所述方向来在所述操作面上设置坐标轴,
坐标转换单元,所述坐标转换单元基于所述操作面上设置的坐标轴,将所述接触检测单元检测到的位置转换成坐标;以及
命令输入单元,所述命令输入单元基于从所述坐标转换单元获得的坐标来输入命令。
7.根据权利要求6所述的信息处理设备,其中,在所述手指与所述操作面接触的情况下,当检测到所述手指接触的位置已移动并且所述手指接触的范围的形状已改变,则所述操作辨认单元辨认出如下操作被执行:所述手指在与所述操作面保持接触的同时旋转。
8.根据权利要求6所述的信息处理设备,其中所述坐标轴设置单元基于所述手指接触的范围的形状来从所述手指接触的范围中检测指根接触的位置和指尖接触的位置。
9.一种信息处理方法,包括:
由接触检测单元检测手指与操作单元的操作面接触的位置;
由操作辨认单元辨认在所述手指与所述操作面保持接触的情况下接触部分从指腹改变为指尖或从指尖改变为指腹的操作;
在所述操作辨认单元辨认出所述操作后,由坐标轴设置单元将从指腹接触的位置到指尖接触的位置的方向估计为对所述操作单元进行操作的手的手腕方向,并根据所述方向来在所述操作面上设置坐标轴;
由坐标转换单元基于坐标轴,将所述接触检测单元检测到的位置转换成坐标;以及
由命令输入单元基于从所述坐标转换单元获得的坐标来输入命令。
10.一种信息处理方法,包括以下步骤:
由接触检测单元检测手指与操作单元的操作面接触的位置以及手指与操作单元的操作面接触的范围的步骤;
由操作辨认单元辨认所述手指在与所述操作面保持接触的同时旋转的操作的步骤;
在所述操作辨认单元辨认出所述操作后,由坐标轴设置单元从所述手指接触的范围中检测指根接触的位置和指尖接触的位置,将从指根接触的位置到指尖接触的位置的方向估计为对所述操作单元进行操作的手的手腕方向,并根据所述方向来在所述操作面上设置坐标轴的步骤;
由坐标转换单元基于所述操作面上设置的坐标轴,将所述接触检测单元检测到的位置转换成坐标的步骤;以及
由命令输入单元基于从所述坐标转换单元获得的坐标来输入命令的步骤。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009-055407 | 2009-03-09 | ||
JP2009055407A JP5267229B2 (ja) | 2009-03-09 | 2009-03-09 | 情報処理装置、情報処理方法及び情報処理プログラム |
PCT/JP2010/053706 WO2010104015A1 (ja) | 2009-03-09 | 2010-03-01 | 情報処理装置、情報処理方法及び情報処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102341776A CN102341776A (zh) | 2012-02-01 |
CN102341776B true CN102341776B (zh) | 2014-02-12 |
Family
ID=42728305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201080010400.0A Expired - Fee Related CN102341776B (zh) | 2009-03-09 | 2010-03-01 | 信息处理设备、信息处理方法和信息处理程序 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20110310049A1 (zh) |
EP (1) | EP2407868A1 (zh) |
JP (1) | JP5267229B2 (zh) |
CN (1) | CN102341776B (zh) |
BR (1) | BRPI1009499A2 (zh) |
RU (1) | RU2011136682A (zh) |
WO (1) | WO2010104015A1 (zh) |
Families Citing this family (58)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5651494B2 (ja) | 2011-02-09 | 2015-01-14 | 日立マクセル株式会社 | 情報処理装置 |
US9417754B2 (en) | 2011-08-05 | 2016-08-16 | P4tents1, LLC | User interface system, method, and computer program product |
US20130067366A1 (en) * | 2011-09-14 | 2013-03-14 | Microsoft Corporation | Establishing content navigation direction based on directional user gestures |
US9524050B2 (en) | 2011-11-29 | 2016-12-20 | Google Inc. | Disambiguating touch-input based on variation in pressure along a touch-trail |
US8436827B1 (en) * | 2011-11-29 | 2013-05-07 | Google Inc. | Disambiguating touch-input based on variation in characteristic such as speed or pressure along a touch-trail |
BR112014023286A8 (pt) * | 2012-03-28 | 2017-07-25 | Sony Corp | Aparelho e método de processamento de informação, e, programa |
CN108241465B (zh) | 2012-05-09 | 2021-03-09 | 苹果公司 | 用于针对在用户界面中执行的操作提供触觉反馈的方法和装置 |
WO2013169865A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input |
WO2013169843A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for manipulating framed graphical objects |
WO2013169875A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for displaying content associated with a corresponding affordance |
WO2013169845A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for scrolling nested regions |
DE112013002412T5 (de) | 2012-05-09 | 2015-02-19 | Apple Inc. | Vorrichtung, Verfahren und grafische Benutzeroberfläche zum Bereitstellen von Rückmeldung für das Wechseln von Aktivierungszuständen eines Benutzerschnittstellenobjekts |
WO2013169849A2 (en) | 2012-05-09 | 2013-11-14 | Industries Llc Yknots | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
WO2013169842A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for selecting object within a group of objects |
CN106201316B (zh) | 2012-05-09 | 2020-09-29 | 苹果公司 | 用于选择用户界面对象的设备、方法和图形用户界面 |
WO2013169851A2 (en) * | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for facilitating user interaction with controls in a user interface |
KR101683868B1 (ko) | 2012-05-09 | 2016-12-07 | 애플 인크. | 제스처에 응답하여 디스플레이 상태들 사이를 전이하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스 |
CN108052264B (zh) | 2012-05-09 | 2021-04-27 | 苹果公司 | 用于移动和放置用户界面对象的设备、方法和图形用户界面 |
EP2975512B1 (en) | 2012-05-09 | 2019-02-06 | Apple Inc. | Device and method for displaying a virtual loupe in response to a user contact |
JP6158947B2 (ja) | 2012-12-29 | 2017-07-05 | アップル インコーポレイテッド | タッチ入力からディスプレイ出力への関係間を遷移するためのデバイス、方法及びグラフィカルユーザインタフェース |
KR102001332B1 (ko) | 2012-12-29 | 2019-07-17 | 애플 인크. | 콘텐츠를 스크롤할지 선택할지 결정하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스 |
WO2014105279A1 (en) | 2012-12-29 | 2014-07-03 | Yknots Industries Llc | Device, method, and graphical user interface for switching between user interfaces |
WO2014105274A1 (en) | 2012-12-29 | 2014-07-03 | Yknots Industries Llc | Device, method, and graphical user interface for navigating user interface hierarchies |
WO2014105277A2 (en) | 2012-12-29 | 2014-07-03 | Yknots Industries Llc | Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics |
AU2013368441B2 (en) | 2012-12-29 | 2016-04-14 | Apple Inc. | Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture |
US9514299B2 (en) * | 2013-03-29 | 2016-12-06 | Rakuten, Inc. | Information processing device, method for controlling information processing device, program, and information storage medium |
US9665206B1 (en) | 2013-09-18 | 2017-05-30 | Apple Inc. | Dynamic user interface adaptable to multiple input tools |
CN104461335A (zh) * | 2013-09-25 | 2015-03-25 | 联想(北京)有限公司 | 一种数据处理方法及电子设备 |
KR102282498B1 (ko) * | 2014-05-19 | 2021-07-27 | 삼성전자주식회사 | 디스플레이를 이용한 입력 처리 방법 및 장치 |
CN105700784A (zh) * | 2014-11-28 | 2016-06-22 | 神讯电脑(昆山)有限公司 | 触控输入方法及其电子装置 |
US10048757B2 (en) | 2015-03-08 | 2018-08-14 | Apple Inc. | Devices and methods for controlling media presentation |
US9632664B2 (en) | 2015-03-08 | 2017-04-25 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US9990107B2 (en) | 2015-03-08 | 2018-06-05 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US10095396B2 (en) | 2015-03-08 | 2018-10-09 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object |
US9645732B2 (en) | 2015-03-08 | 2017-05-09 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US9639184B2 (en) | 2015-03-19 | 2017-05-02 | Apple Inc. | Touch input cursor manipulation |
US9785305B2 (en) | 2015-03-19 | 2017-10-10 | Apple Inc. | Touch input cursor manipulation |
US10067653B2 (en) | 2015-04-01 | 2018-09-04 | Apple Inc. | Devices and methods for processing touch inputs based on their intensities |
US20170045981A1 (en) | 2015-08-10 | 2017-02-16 | Apple Inc. | Devices and Methods for Processing Touch Inputs Based on Their Intensities |
US9891811B2 (en) | 2015-06-07 | 2018-02-13 | Apple Inc. | Devices and methods for navigating between user interfaces |
US9860451B2 (en) | 2015-06-07 | 2018-01-02 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US9674426B2 (en) | 2015-06-07 | 2017-06-06 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US10346030B2 (en) | 2015-06-07 | 2019-07-09 | Apple Inc. | Devices and methods for navigating between user interfaces |
US9830048B2 (en) | 2015-06-07 | 2017-11-28 | Apple Inc. | Devices and methods for processing touch inputs with instructions in a web page |
US10200598B2 (en) | 2015-06-07 | 2019-02-05 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US10416800B2 (en) | 2015-08-10 | 2019-09-17 | Apple Inc. | Devices, methods, and graphical user interfaces for adjusting user interface objects |
US9880735B2 (en) | 2015-08-10 | 2018-01-30 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10235035B2 (en) | 2015-08-10 | 2019-03-19 | Apple Inc. | Devices, methods, and graphical user interfaces for content navigation and manipulation |
US10248308B2 (en) | 2015-08-10 | 2019-04-02 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures |
CN106293051B (zh) | 2015-08-21 | 2020-01-10 | 北京智谷睿拓技术服务有限公司 | 基于手势的交互方法、交互装置及用户设备 |
US11314388B2 (en) * | 2016-06-30 | 2022-04-26 | Huawei Technologies Co., Ltd. | Method for viewing application program, graphical user interface, and terminal |
DE102016120075B4 (de) * | 2016-10-21 | 2020-11-05 | Harman Becker Automotive Systems Gmbh | Bediensystem zur Bedienung eines Multifunktionssystems |
JP6976707B2 (ja) * | 2017-04-13 | 2021-12-08 | キヤノン株式会社 | 電子機器およびその制御方法 |
JP6961451B2 (ja) * | 2017-10-12 | 2021-11-05 | キヤノン株式会社 | 電子機器、その制御方法およびプログラム |
CN107608563B (zh) * | 2017-10-27 | 2021-04-09 | 合肥京东方光电科技有限公司 | 触控显示面板及其驱动方法、显示装置 |
JP7210158B2 (ja) * | 2018-04-23 | 2023-01-23 | キヤノン株式会社 | 電子機器、電子機器の制御方法、プログラム、及び、記録媒体 |
JP7272831B2 (ja) * | 2019-03-13 | 2023-05-12 | Fcnt株式会社 | 携帯端末装置、情報処理方法および情報処理プログラム |
US10983601B1 (en) * | 2020-01-17 | 2021-04-20 | Assa Abloy Ab | Visually impaired mode keypad |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6657614B1 (en) * | 1999-04-21 | 2003-12-02 | Fuji Xerox Co., Ltd. | Detecting apparatus, input apparatus, pointing device, individual identification apparatus, and recording medium |
CN101340559A (zh) * | 2008-03-13 | 2009-01-07 | 北京雷石天地电子技术有限公司 | 一种滑动式视频点播方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4855654B2 (ja) | 2004-05-31 | 2012-01-18 | ソニー株式会社 | 車載装置、車載装置の情報提供方法、車載装置の情報提供方法のプログラム及び車載装置の情報提供方法のプログラムを記録した記録媒体 |
JP2008191791A (ja) * | 2007-02-01 | 2008-08-21 | Sharp Corp | 座標入力装置、座標入力方法、制御プログラム、およびコンピュータ読み取り可能な記録媒体 |
JP2009009252A (ja) * | 2007-06-27 | 2009-01-15 | Panasonic Corp | タッチ式入力装置 |
US20090166098A1 (en) * | 2007-12-31 | 2009-07-02 | Apple Inc. | Non-visual control of multi-touch device |
US9019237B2 (en) * | 2008-04-06 | 2015-04-28 | Lester F. Ludwig | Multitouch parameter and gesture user interface employing an LED-array tactile sensor that can also operate as a display |
JP5423686B2 (ja) * | 2008-12-25 | 2014-02-19 | 富士通株式会社 | コンピュータプログラム、入力装置及び入力方法 |
-
2009
- 2009-03-09 JP JP2009055407A patent/JP5267229B2/ja not_active Expired - Fee Related
-
2010
- 2010-03-01 RU RU2011136682/08A patent/RU2011136682A/ru not_active Application Discontinuation
- 2010-03-01 WO PCT/JP2010/053706 patent/WO2010104015A1/ja active Application Filing
- 2010-03-01 EP EP10750769A patent/EP2407868A1/en not_active Withdrawn
- 2010-03-01 BR BRPI1009499A patent/BRPI1009499A2/pt not_active IP Right Cessation
- 2010-03-01 CN CN201080010400.0A patent/CN102341776B/zh not_active Expired - Fee Related
- 2010-03-01 US US13/254,289 patent/US20110310049A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6657614B1 (en) * | 1999-04-21 | 2003-12-02 | Fuji Xerox Co., Ltd. | Detecting apparatus, input apparatus, pointing device, individual identification apparatus, and recording medium |
CN101340559A (zh) * | 2008-03-13 | 2009-01-07 | 北京雷石天地电子技术有限公司 | 一种滑动式视频点播方法 |
Non-Patent Citations (1)
Title |
---|
JP特开2008-191791A 2008.08.21 |
Also Published As
Publication number | Publication date |
---|---|
CN102341776A (zh) | 2012-02-01 |
BRPI1009499A2 (pt) | 2016-03-15 |
US20110310049A1 (en) | 2011-12-22 |
EP2407868A1 (en) | 2012-01-18 |
JP2010211401A (ja) | 2010-09-24 |
JP5267229B2 (ja) | 2013-08-21 |
RU2011136682A (ru) | 2013-03-10 |
WO2010104015A1 (ja) | 2010-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102341776B (zh) | 信息处理设备、信息处理方法和信息处理程序 | |
CN103677464B (zh) | 信息终端装置和触摸坐标确定方法 | |
US8638311B2 (en) | Display device and data displaying method thereof | |
JP6444758B2 (ja) | 多機能ハンドヘルド装置 | |
CN102257459B (zh) | 输入装置 | |
US20130082824A1 (en) | Feedback response | |
EP2251776B1 (en) | Information processing | |
US20110087983A1 (en) | Mobile communication terminal having touch interface and touch interface method | |
US20200233568A1 (en) | Home screen editing method, graphical user interface, and electronic device | |
US20100117970A1 (en) | Methods of Operating Electronic Devices Using Touch Sensitive Interfaces with Contact and Proximity Detection and Related Devices and Computer Program Products | |
KR101474450B1 (ko) | 전자문서 재생 장치 및 이의 전자문서 재생 방법 | |
JP2011170834A (ja) | 情報処理装置、操作予測方法及び操作予測プログラム | |
KR20100006219A (ko) | 사용자 인터페이스 방법 및 장치 | |
CN105353912A (zh) | 触摸和力感测设备以及力敏显示器 | |
EP2759920B1 (en) | Method and apparatus for controlling content playback | |
CN100483320C (zh) | 输入装置、携带终端装置及内容数据的操作方法 | |
US9417724B2 (en) | Electronic apparatus | |
JP6213467B2 (ja) | 端末装置、表示制御方法およびプログラム | |
US20140085340A1 (en) | Method and electronic device for manipulating scale or rotation of graphic on display | |
JP6391511B2 (ja) | 電子機器 | |
JP2012038062A (ja) | 入力装置 | |
KR100725521B1 (ko) | 터치 패드를 구비한 휴대 단말기 및 그의 리스트 스크롤방법 | |
KR20120134480A (ko) | 디지털 앨범 정보 제공 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20140212 Termination date: 20150301 |
|
EXPY | Termination of patent right or utility model |