[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN102985894B - 第一响应和第二响应 - Google Patents

第一响应和第二响应 Download PDF

Info

Publication number
CN102985894B
CN102985894B CN201080068072.XA CN201080068072A CN102985894B CN 102985894 B CN102985894 B CN 102985894B CN 201080068072 A CN201080068072 A CN 201080068072A CN 102985894 B CN102985894 B CN 102985894B
Authority
CN
China
Prior art keywords
user
response
computing machine
input
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201080068072.XA
Other languages
English (en)
Other versions
CN102985894A (zh
Inventor
R.哈布林斯基
R.坎贝尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Publication of CN102985894A publication Critical patent/CN102985894A/zh
Application granted granted Critical
Publication of CN102985894B publication Critical patent/CN102985894B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种用于检测输入的方法,其包括:使用传感器基于第一位置来识别第一用户并且基于第二位置来识别第二用户;响应于所述传感器检测到来自所述第一用户的第一用户输入从计算机器提供第一响应;以及响应于所述传感器检测到来自所述第二用户的第二用户输入从所述计算机器提供第二响应。

Description

第一响应和第二响应
背景技术
当一个或多个用户正在与设备进行交互时,第一用户最初能够控制该设备并且访问该设备。第一用户能够在设备上输入一个或多个命令,并且该设备能够基于来自该第一用户的输入来提供响应。一旦第一用户已经完成对设备的访问,第二用户就能够继续控制该设备并且访问该设备。第二用户能够在设备上输入一个或多个命令,并且该设备能够基于来自该第二用户的输入来提供响应。这个过程能够针对一个或多个用户而重复。
附图说明
所公开的实施例的各种特征和优点从结合附图进行的如下具体描述中将是显而易见的,所述附图通过示例的方式共同举例说明了所公开实施例的特征。
图1图示了根据本发明的实施例的具有传感器的计算机器。
图2图示了根据本发明的实施例的基于第一位置来识别第一用户并且基于第二位置来识别第二用户的计算机器。
图3图示了根据本发明的实施例的基于第一用户输入来识别第一响应并且基于第二用户输入来识别第二响应的响应应用的方框图。
图4图示了根据本发明的实施例的基于第一用户输入来提供第一响应并且基于第二用户输入来提供第二响应的响应应用的方框图。
图5图示了根据本发明的实施例的在计算机器上的响应应用和在正被计算机器访问的可移动介质上存储的响应应用。
图6是图示了根据本发明的实施例的用于检测输入的方法的流程图。
图7是图示了根据本发明的另一实施例的用于检测输入的方法的流程图。
具体实施方式
通过利用传感器来基于第一位置来识别第一用户并且基于第二位置来识别第二用户,计算机器能够基于第一位置来检测第一用户输入并且基于第二位置来检测第二用户输入。另外,通过响应于第一用户输入从计算机器提供第一响应并且响应于第二用户输入提供第二响应,能够响应于与计算机器交互的用户针对一个或多个用户创建不同的用户体验。
图1图示了根据本发明的实施例的具有传感器130的计算机器100。在一个实施例中,计算机器100是台式机、膝上型计算机、平板电脑、上网本、一体化系统、和/或服务器。在另一实施例中,计算机器100是GPS、蜂窝设备、PDA、电子阅读器、和/或能够包括一个或多个传感器130的任何附加的计算设备。
如图1中所图示的那样,计算机器100包括处理器120、传感器130、存储设备140、以及用于该计算机器100和/或该计算机器100的一个或多个部件彼此进行通信的通信信道150。在一个实施例中,存储设备140被另外配置成包括响应应用。在其他实施例中,除了上文中所指出的并且在图1中所图示的那些之外和/或代替那些,计算机器100还包括附加的部件和/或被耦合到附加的部件。
如上文所指出的那样,计算机器100包括处理器120。处理器120将数据和/或指令发送到计算机器100的部件,诸如传感器130和响应应用。另外,处理器120从诸如传感器130和响应应用之类的计算机器100的部件接收数据和/或指令。
响应应用是能够被与处理器120相结合地利用以通过检测一个或多个输入来控制或管理计算机器100的应用。当检测到一个或多个输入时,传感器130基于第一位置来识别第一用户并且该传感器130基于第二位置来识别第二用户。出于此应用的目的,用户可以是能够被传感器130检测到正与传感器130和/或计算机器100交互的任何人。另外,用户的位置对应于在传感器130或计算机器100的环境周围的用户的位置。环境包括在传感器130和/或计算机器100周围的空间。
另外,处理器120和/或响应应用将计算机器100配置为响应于传感器130检测到来自第一用户的第一用户输入来提供第一响应。进一步地,计算机器100能够被配置成响应于传感器130检测到来自第二用户的第二用户输入来提供第二响应。出于此应用的目的,输入包括语音动作、姿势动作、触摸动作、和/或传感器130能够从用户检测到的任何附加动作。另外,响应包括处理器120、响应应用、和/或计算机器100能够响应于检测到来自用户的输入执行的任何指令或命令。
响应应用可以是被嵌入到处理器120、计算机器100、和/或存储设备140上的固件。在另一实施例中,响应应用是在ROM内的在计算机器100上存储的或者在可由计算机器100访问的存储设备140上存储的软件应用。在其他实施例中,响应应用被存储在可由计算机器100读取和访问的计算机可读介质或来自不同位置的存储设备140上。
另外,在一个实施例中,存储设备140被包括在计算机器100中。在其他实施例中,存储设备140未被包括在计算机器100中,但是对于利用在计算机器100中包括的网络接口的计算机器100是可访问的。该网络接口可以是有线的或无线的网络接口卡。在其他实施例中,存储设备140能够被配置成无线地或通过有线的连接耦合到计算机器100上的一个或多个端口或接口。
在进一步的实施例中,响应应用通过凭借局域网或广域网耦合的服务器而被存储和/或访问。响应应用与通过在计算机器100中包括的或附连到计算机器100的通信总线150被物理地或无线地耦合到计算机器100的设备和/或部件进行通信。在一个实施例中,通信总线150是存储器总线。在其他实施例中,通信总线150是数据总线。
如上文所指出的那样,处理器120能够被与响应应用相结合地利用以通过检测来自用户的一个或多个输入来管理或控制计算机器100。至少一个传感器130能够由处理器120和/或响应应用来指示、提示和/或配置以基于第一位置来识别第一用户并且基于第二位置来识别第二用户。传感器130是被配置成检测、扫描、接收和/或捕获来自在传感器130或计算机器100周围的环境的信息的检测设备。
图2图示了根据本发明的实施例的基于第一位置来识别第一用户280并且基于第二位置来识别第二用户285的计算机器200。如图2中所示出的那样,传感器230能够针对一个或多个用户280、285和来自该用户280、285的一个或多个输入检测、扫描、和/或捕获传感器230周围的视野(view)。传感器230能够被耦合到在计算机器200上或在其周围的一个或多个位置。在其他实施例中,传感器230能够被集成为计算机器200的一部分或者传感器230能够被耦合到或集成为计算机器200的一个或多个部件的一部分,诸如显示设备260。
另外,如本实施例中所图示的,传感器230可以为图像捕获设备。图像捕获设备可以为或者包括3D深度图像捕获设备。在一个实施例中,3D深度图像捕获设备可以为或者包括飞行时间设备、立体设备和/或光传感器。在另一实施例中,传感器230包括来自包括以下内容的组的至少一个:运动检测设备、接近传感器、红外设备、GPS、立体设备、麦克风、和/或触摸设备。在其他实施例中,传感器230能够包括被配置成检测、接收、扫描和/或捕获来自在传感器230或计算机器200周围的环境的信息的附加设备和/或部件。
在一个实施例中,计算机器200的处理器和/或响应应用发送用于传感器230检测环境中的一个或多个用户280、285的指令。传感器230能够检测和/或扫描具有与用户匹配的尺寸的环境内的对象。在另一实施例中,能够将环境内由传感器230所检测到的任何对象识别为用户。在其他实施例中,传感器230能够发出一个或多个信号并且当检测到一个或多个用户280、285时检测响应。
如图2中所图示的那样,传感器230已经检测到第一用户280和第二用户285。响应于检测到环境中的一个或多个用户,传感器230通知处理器或响应应用检测到一个或多个用户。传感器230将继续识别第一用户的第一位置和第二用户的第二位置。当识别到一个或多个用户的位置时,传感器230检测环境内的用户280、285中的一个或多个的位置或坐标。在另一实施例中,如图2中所图示的那样,传感器230针对用户280、285的位置主动地扫描或检测环境内的传感器230的查看区域。
在其他实施例中,传感器230另外检测用户280、285相对于传感器230的接近角。如图2中所示出的那样,传感器230已经在传感器230和计算机器200的左边的位置处检测到第一用户280。另外,传感器230已经在传感器230和计算机器200的右边的位置处检测到第二用户285。在其他实施例中,用户中的一个或多个能够被传感器230检测为被定位在除了在上文中所指出的并且在图2中所图示的那些之外和/或代替那些的附加位置处。
传感器230将要将所检测到或捕获到的用户280、285的位置的信息传送到处理器和/或响应应用。第一用户280、第二用户285以及任何附加的用户的位置信息能够通过处理器或响应应用来使用和存储以分配用于第一用户280的第一位置、用于第二用户的第二位置285、以及对于任何检测到的用户也是如此。在一个实施例中,处理器和/或响应应用另外创建坐标的映射并且标记该映射以表示在哪里检测到用户280、285。另外,能够标记坐标的映射以示出用户280、285相对于传感器130的角度。坐标的映射能够包括像素图、位图、和/或二值图。
一旦已经针对一个或多个用户识别到位置,传感器230就继续检测来自用户中的一个或多个的用户输入。当检测到输入时,传感器230能够检测、扫描和/或捕获与传感器230和/或计算机器200交互的用户。在其他实施例中,一个或多个传感器230能够被独立地或彼此相结合地利用以检测一个或多个用户280、285和与显示设备260和/或计算机器200交互的用户280、285。
如图2中所图示的那样,计算机器200能够包括显示设备260,并且用户280、285能够与显示设备260进行交互。显示设备260可以为被配置成呈现、显示和/或投射一个或多个图片和/或移动视频的模拟的或数字的设备。显示设备260可以为电视、监视器、和/或投射设备。如图2中所示出的那样,显示设备260由处理器和/或响应应用配置成呈现用于用户280、285与其交互的用户界面270。用户界面270能够显示一个或多个对象、菜单、图像、视频、和/或图以用于用户280、285与其交互。在另一实施例中,显示设备260能够呈现不止一个的用户界面。
第一用户界面能够被针对第一用户280而呈现并且第二用户界面能够被针对第二用户285而呈现。第一用户界面能够响应于第一用户位置而被呈现并且第二用户界面能够响应于第二用户位置而被呈现。第一用户界面和第二用户界面可以为相同或者它们能够被彼此不同地呈现。在其他实施例中,显示设备260和/或计算机器200可以被配置成输出音频以用于用户280、285以与其交互。
当用户正在与计算机器200的用户界面270或任何部件进行交互时,传感器230能够检测到来自该用户的一个或多个动作。如图2中所图示的那样,动作能够包括姿势动作或触摸动作。传感器230能够通过检测由用户做出的一个或多个运动来检测姿势动作或触摸动作。另外,传感器340能够通过检测触摸显示设备260、用户界面270、和/或计算机器200的任何部件的用户来检测触摸动作。在另一实施例中,动作能够包括语音动作并且传感器230能够通过检测来自用户的任何噪声、语音和/或话语来检测语音动作。在其他实施例中,用户当与计算机器200的用户界面270和/或任何部件交互时能够做出可由传感器230检测到的任何附加动作。
另外,当确定了用户280、285中的哪一个正在与计算机器200的用户界面270或部件交互时,处理器和/或响应应用将确定是否从第一位置、第二位置和/或任何附加的位置来检测动作。如果从第一位置来检测动作,则处理器和/或响应应用将确定已经从第一用户280检测到了第一用户输入。另外,如果从第二位置来检测动作,则第二用户输入将已经被从第二用户285检测到。处理器和/或响应应用能够重复这个方法以检测来自与传感器230或计算机器200交互的任何附加的用户的任何输入。
如图2中所图示的那样,传感器230已经检测到来自第一位置和第二位置的姿势动作。另外,传感器230检测到第一姿势动作由第一用户280的手来做出并且第二姿势动作从第二用户285的手被检测到。因此,处理器和/或响应应用确定已经检测到第一用户输入和第二用户输入。在一个实施例中,传感器230当检测到第一用户输入和第二用户输入时另外地检测第一用户280和第二用户285的手或手指的方位。
在另一实施例中,当检测到第一用户输入和第二用户输入时,传感器230进一步检测来自第一位置和第二位置的姿势动作的接近角。传感器230能够检测到在传感器230前面的180度的查看区域。如果动作从在传感器230前面的0至90度被检测到,则该动作能够被检测为第一用户输入。另外,如果动作从在传感器230前面的91到180度被检测到,则该动作能够被检测为第二用户输入。在其他实施例中,当检测到来自用户的一个或多个输入时能够针对传感器230定义度的附加范围。
响应于检测到第一用户输入,处理器和/或响应应用继续识别第一用户输入并且将计算机器200配置为基于第一用户输入和第一用户位置来提供第一响应。另外,处理器和/或响应应用将计算机器200配置为基于第二用户输入和第二用户位置来提供第二响应。在一个实施例中,用户界面270被另外配置成呈现第一响应和/或第二响应。
图3图示了根据本发明的实施例的基于第一用户输入来识别第一响应并且基于第二用户输入来识别第二响应的响应应用310的方框图。如图3中所图示的那样,传感器330能够检测来自第一用户的第一用户输入的接近角和/或方位。另外,传感器330能够检测来自第二用户的第二用户输入的接近角和/或方位。进一步地,传感器330发送响应应用310第一用户输入和第二用户输入的信息。
一旦响应应用310已经接收到所检测到的信息,响应应用310就尝试识别第一用户输入和第一响应。另外,响应应用310尝试采用所检测到的信息来识别第二用户输入和第二响应。当识别到输入时,响应应用310利用从传感器330所检测到的信息。信息能够包括语音动作的细节,诸如来自语音动作的一个或多个话语或噪声。如果信息包括话语和/或噪声,则响应应用310能够另外利用语音检测或语音识别技术来识别来自语音动作的噪声和/或话语。
在另一实施例中,信息能够包括执行触摸动作所在的位置。在其他实施例中,信息能够指定姿势动作或触摸动作的开始、结束、方向和/或模式。另外,信息能够识别是否从第一用户位置370或第二用户位置375检测动作。在其他实施例中,信息能够包括被利用来定义或补充除了上文中所指出的并且在图3中所图示的那些之外和/或代替那些的动作的附加细节。
利用所检测到的信息,响应应用310访问数据库360以识别第一用户输入和第二用户输入。如图3中所图示的那样,数据库360基于第一用户位置370列举识别的输入并且基于第二用户位置370列举识别的输入。另外,在已识别的输入条目内包括用于响应应用310当识别到输入时参考的信息。如图3中所示出的那样,信息能够列举与语音动作、触摸动作和/或姿势动作相对应的信息。在其他实施例中,已识别的输入、响应和/或任何附加的信息能够被存储在响应应用310可访问的列表和/或文件中。
响应应用310能够将从传感器330检测到的信息与在数据库360的条目内的信息相比较并且扫描匹配。如果响应应用310确定所检测到的信息与在第一用户位置370下列举的已识别的输入中的任何一个匹配,则响应应用310将已经识别到第一用户输入。另外,如果响应应用310确定被检测到的信息与在第二用户位置375下列举的已识别的输入中的任何一个匹配,则响应应用310将已经识别到第二用户输入。
如图3中所示出的那样,紧跟已识别的输入之后包括响应应用310能够执行或者提供的响应。响应于识别到第一用户输入,响应应用310继续识别第一响应。另外,响应于识别到第二用户输入,响应应用310识别第二响应。如上文所指出的并且如图3中所图示的那样,基于第一用户输入和第一位置来识别第一响应。另外,基于第二用户输入和第二位置来识别第二响应。因此,当识别到第一响应时,响应应用310选择被紧跟第一用户输入之后列举并且在数据库360的第一用户位置370列之下列举的响应。另外,当识别到第二响应时,响应应用310选择被紧跟第二用户输入之后列举并且在数据库360的第二用户位置375列之下列举的响应。
一旦已经识别到第一响应和/或第二响应,响应应用310就继续将计算机器300配置成提供第一响应和/或第二响应。在其他实施例中,可以独立地和/或与响应应用310相结合地利用计算机器300的处理器来识别第一用户输入、第二用户输入、第一响应和/或第二响应。
图4图示了根据本发明的实施例的基于第一用户输入来提供第一响应并且基于第二用户输入来提供第二响应的响应应用410的方框图。如本实施例中所示出的那样,第一用户480和第二用户485正在与显示设备460的用户界面进行交互。另外,传感器430已经检测到从第一用户位置执行触摸动作的第一用户480。另外,该触摸动作是对显示设备460上的菜单图标执行的。进一步地,传感器430已经检测到第二用户485从第二位置对显示设备460的菜单图标执行触摸动作。因此,响应应用410确定已经检测到第一用户输入并且已经检测到第二用户输入。
如上文所指出的那样,响应于检测到第一用户输入和第二用户输入,响应应用410访问数据库460以识别第一用户输入和第二用户输入。如本实施例中所示出的那样,响应应用410扫描数据库460的第一用户位置470列,以得到包括对菜单图标所执行的触摸动作的经识别的输入。响应应用410确定找到了匹配(触摸动作 – 触摸菜单图标)。另外,响应应用410扫描数据库460的第二用户位置475列,以得到包括对菜单图标所执行的触摸动作的经识别的输入,并且确定找到了匹配(触摸动作 – 触摸菜单图标)。
因此,响应应用410确定已经识别到第一用户输入和第二用户输入,并且响应应用410继续识别第一响应和/或第二响应以提供第一用户480和第二用户485。如上文所指出的那样,响应包括计算机器能够被配置成执行的一个或多个指令和/或命令。响应能够被利用来执行和/或拒绝从一个或多个用户所接收到的输入。另外,当提供响应时,计算机器能够访问、执行、修改和/或删除一个或多个文件、项目和/或功能。在另一实施例中,响应能够被利用来拒绝访问、执行、修改和/或删除一个或多个文件、项目和/或功能的用户。
如图4中所图示的那样,当识别到第一响应和第二响应时,响应应用410确定数据库460针对用来拒绝第一用户输入的第一响应并且针对用来允许访问主菜单的第二响应来列举。如本实施例中所图示的那样,当第一用户输入和第二用户输入相同时第一响应可以不同于第二响应。因此,响应于用户的位置,当与计算机器交互时,针对第一用户480所创建的体验可以不同于针对第二用户485所创建的体验。在其他实施例中,针对第一用户和第二用户的一个或多个响应可以是相同的。
如上文所指出的那样,一旦已经识别到第一响应和第二响应,响应应用410就继续将计算机器配置成提供第一响应并且提供第二响应。当将计算机器配置成提供第一响应和/或第二响应时,响应应用410能够发送用于计算机器执行经识别的响应的一个或多个指令。如图4中所图示的那样,在一个实施例中,当提供第一响应和第二响应时,计算机器将显示设备460配置成呈现用于显示的第一响应和第二响应。
如本实施例中所示出的那样,因为响应应用410先前确定了第一响应包括拒绝第一用户输入,所以计算机器将显示设备460配置成将用户界面呈现为不对来自第一用户480的触摸动作做出反应。在一个实施例中,可以拒绝来自第一用户480和/或第一位置的任何触摸动作或姿势动作。
另外,因为响应应用410先前确定了第二响应包括访问主菜单,所以显示设备460将用户界面呈现为响应来自第二用户485的触摸动作。在一个实施例中,显示设备460将用户界面呈现为响应于第二用户485访问主菜单呈现附加的对象、图像和/或视频。在其他实施例中,计算机器的一个或多个部件可以由响应应用410和/或处理器配置成呈现或者提供除了上文所指出的并且在图4中所图示的那些之外和/或代替那些的一个或多个音频响应、触觉反馈响应、视觉响应和/或任何附加的响应。
图5图示了根据本发明的实施例的具有响应应用510的设备和在正被设备500访问的可移动介质上存储的响应应用510。出于本描述的目的,可移动介质是任何有形的装置,其包含、存储、传送或者传输用于供设备500使用或者与其相关地使用的应用。如上文所指出的那样,在一个实施例中,响应应用510是被嵌入到作为ROM的设备500的一个或多个部件中的固件。在其他实施例中,响应应用510是软件应用,其被从硬盘驱动器、紧致盘、闪盘、网络驱动器或被耦合到设备500的任何其他形式的计算机可读介质存储和访问。
图6是图示了根据本发明的实施例的用于检测输入的方法的流程图。图6的方法使用具有处理器、传感器、通信信道、存储设备以及响应应用的计算机器。在其他实施例中,图6的方法使用除了上文所指出的并且在图1、2、3、4以及5中所图示的那些之外和/或代替那些的附加的部件和/或设备。
如上文所指出的那样,响应应用是能够响应于检测到来自用户的一个或多个输入独立地或者与处理器相结合地管理和/或控制计算机器的应用。用户是能够通过一个或多个动作与计算机器和/或传感器进行交互的任何人。在一个实施例中,计算机器另外包括被配置成呈现用于用户与其交互的用户界面的显示设备。一个或多个用户能够通过一个或多个动作与用户界面和/或显示设备进行交互。
动作能够包括触摸动作、姿势动作、语音动作和/或传感器能够检测到的任何附加动作。另外,传感器是计算机器的部件或设备,其被配置成检测、扫描、接收和/或捕获来自在该传感器和/或计算机器周围的环境的信息。在一个实施例中,传感器包括3D深度捕获设备。当检测到用户时,传感器能够由处理器和/或响应应用来指示以基于第一位置来识别第一用户并且基于第二位置来识别第二用户600。
当识别到第一用户和第二用户时,传感器能够检测计算机器的环境内的一个或多个对象,并且继续识别具有与用户匹配的尺寸的对象的位置和/或坐标。传感器能够将所检测到的任何对象的位置或坐标的信息传送到处理器和/或响应应用。响应于接收到该信息,处理器和/或响应应用能够将第一对象识别为第一用户,将第二对象识别为第二用户,以及对于任何另外的用户也是如此。
另外,处理器和/或响应应用将第一用户的第一位置识别为第一对象的位置或坐标,将第二用户的第二位置识别为第二对象的位置或坐标,以及对于任何其他用户也是如此。如文所指出的那样,另外能够创建和标记像素图、坐标图和/或二值图来表示用户和用户的位置。
一旦处理器和/或响应应用已经识别到一个或多个用户以及针对用户的对应位置,传感器就继续检测来自该用户的一个或多个动作。当检测到动作时,传感器另外检测或者捕获该动作的信息。信息能够包括由用户所制造的语音或噪声。另外,信息能够包括由用户进行的任何运动和该运动的细节。该细节能够包括在运动中包括的开始、结束和/或一个或方向。进一步地,信息能够包括由用户所进行的任何触摸和触摸的位置。在其他实施例中,信息可以是或者包括由传感器所检测到的动作的附加细节。
另外,传感器通过检测动作正在哪里被执行来进一步识别是否正从第一位置、第二位置和/或任何附加的位置进行动作。在一个实施例中,传感器通过检测动作的接近角来检测动作正在哪里被执行。在另一实施例中,当动作是运动动作或触摸动作时,传感器进一步检测手指和/或手的方位。一旦由传感器检测到动作,传感器就能够将所检测到信息发送到处理器和/或响应应用。
处理器和/或响应应用然后能够使用从第一位置所检测到的信息来识别第一用户输入。另外,处理器和/或响应应用能够使用从第二位置所检测到的信息来识别第二用户输入。如文所指出的那样,当识别到第一用户输入时,数据库、列表和/或文件可以被处理器和/或响应应用访问。数据库、列表和/或文件能够包括用于每个用户的一个或多个经识别的输入的条目。另外,条目包括当识别到输入时处理器和/或响应应用能够扫描的与经识别的输入相对应的信息。
处理器和/或响应应用能够将来自传感器的所检测到的信息与数据库中的信息相比较并且扫描匹配。如果处理器和/或响应应用确定经识别的输入具有与来自第一位置的所检测到的信息匹配的信息,则将已经识别到第一用户输入。另外,如果处理器和/或响应应用确定经识别的输入具有与来自第二位置的所检测到的信息匹配的信息,则将已经识别到第二用户输入。
响应于检测到和/或识别到来自第一位置的第一用户输入,处理器和/或响应应用能够识别第一响应,并且将计算机器配置成提供第一响应610。另外,响应于检测到和/或识别到来自第二位置的第二用户输入,处理器和/或响应应用能够识别第二响应,并且将计算机器配置成提供第二响应620。
如上文所指出的那样,数据库包括与已识别的输入相对应的条目。对应的条目列举了可以被计算机器执行或者提供的响应。当识别到第一响应时,处理器和/或响应应用将识别被列举为紧跟被识别为第一用户输入的已识别的输入之后的响应。另外,当识别到第二响应时,处理器和/或响应应用将识别被列举为紧跟被识别为第二用户输入的已识别的输入之后的响应。
如上文所指出的那样,响应包括计算机器能够执行的一个或多个指令和/或命令。响应可以被利用来访问、执行和/或拒绝从一个或多个用户所接收到的输入。当提供响应时,计算机器可以由处理器和/或响应应用指示来访问、执行、修改和/或删除一个或多个文件、项目和/或功能。在一个实施例中,处理器和/或响应应用另外将显示设备配置成呈现第一响应和/或第二响应。在其他实施例中,如果检测到任何另外的用户并且从另外的用户检测到任何附加的输入,则能够使用上文中所公开的方法中的一个或多个来重复该过程。在其他实施例中,图6的方法包括除图6中所描绘的那些之外和/或代替那些的附加步骤。
图7是图示了根据本发明的另一实施例的用于检测输入的方法的流程图。与上文中所公开的方法类似,图7的方法使用具有处理器、传感器、通信信道、存储设备以及响应应用的计算机器。在其他实施例中,图7的方法使用除上文所指出的并且在图1、2、3、4以及5中所图示的那些之外和/或代替那些的附加的部件和/或设备。
在一个实施例中,计算机器另外包括显示设备。该显示设备是被配置成呈现一个或多个图像和/或视频的输出设备。处理器和/或响应应用能够将显示设备配置成呈现用于一个或多个用户与其交互的、具有一个或多个图像和/或视频的用户界面700。如上文所指出的那样,传感器能够检测与用户界面进行交互的一个或多个用户。当检测到与用户界面进行交互的第一用户和第二用户时,传感器能够基于第一位置来检测和/或识别第一用户并且基于第二位置来检测和/或识别第二用户710。
在一个实施例中,传感器能够通过发出一个或多个信号来检测在传感器和/或计算机器周围的环境内的对象。传感器然后能够检测和/或扫描由环境中的用户反射的信号所生成的任何响应,并且将所检测到的信息传递到处理器和/或响应应用。在另一实施例中,传感器能够扫描或者捕获用户中的一个或多个的视野,并且将该信息传递到处理器和/或响应应用。使用所检测到的信息,处理器和/或响应应用能够识别多个用户和用户中的每一个的位置。
传感器在检测到第一用户输入时然后能够继续检测来自第一用户的第一位置的一个或多个动作。如上文所指出的那样,动作可以是或者包括姿势动作、触摸动作、语音动作和/或可由传感器从用户检测到的任何附加的动作。在一个实施例中,传感器在检测到来自第一用户的第一用户输入时另外检测第一用户的手或手指的方位和/或接近角720。传感器将然后将所检测到的来自第一位置的信息传递到处理器和/或响应应用,以响应于检测到来自第一位置的第一用户输入来识别计算机器的第一用户输入730。
另外,传感器在检测到第二用户输入时能够检测来自第二用户的第二位置的一个或多个动作。在一个实施例中,传感器在检测到来自第一用户的第二用户输入时另外检测第二用户的手或手指的方位和/或接近角740。传感器将然后将所检测到的来自第二位置的信息传递到处理器和/或响应应用,以响应于检测到来自第二位置的第二用户输入来识别用于计算机器的第二用户输入750。进一步地,传感器能够独立地和/或并行地检测第一用户输入和第二用户输入。
当识别到第一用户输入和/或第二用户输入时,处理器和/或响应应用能够访问数据库。该数据库能够包括一个或多个列,其中每一列都对应于由传感器所检测到的用户。另外,每一列都能够包括一个或多个条目,所述条目列举了针对对应用户的经识别的输入、经识别的输入的信息、以及与经识别的输入相关联的响应。处理器和/或响应应用能够将所检测到的来自第一用户位置的信息与在第一位置列中包括的信息相比较,并且在识别到第一用户输入时扫描匹配。另外,处理器和/或响应应用能够将所检测到的来自第二用户位置的信息与在第二位置列中包括的信息相比较,并且在识别到第二用户输入时扫描匹配。
一旦已经识别到第一用户输入和/或第二用户输入,处理器和/或响应应用就能够识别能够被提供的第一响应和/或第二响应。如上文所指出的那样,响应可以是执行或者拒绝经识别的第一用户输入或第二用户输入。另外,响应可以被计算机器使用来访问、执行、修改和/或删除一个或多个文件、项目和/或功能。当识别到第一响应时,处理器和/或响应应用将识别被列举为紧跟在经识别的第一用户输入之后或者与其相关联的响应。另外,当识别第二响应时,处理器和/或响应应用将识别被列举为紧跟在经识别的第二用户输入之后或者与其相关联的响应。
一旦已经识别了第一响应和/或第二响应,处理器和/或响应应用就能够指示计算机器基于第一用户输入和第一位置将第一响应提供给第一用户760。另外,处理器和/或响应应用能够指示计算机器基于第二用户输入和第二位置将第二响应提供给第二用户770。当提供响应时,处理器和/或响应应用能够指示计算机器拒绝或者执行对应的输入。在一个实施例中,显示设备被另外配置成呈现第一响应和/或第二响应780。在其他实施例中,图7的方法包括除了图7中所描绘的那些之外和/或代替那些的附加的步骤。

Claims (10)

1.一种用于检测输入的方法,其包括:
通过计算机器使用由至少一个图像捕获设备所捕获的图像数据基于第一位置来识别第一用户并且基于第二位置来识别第二用户;
响应于检测到由所述至少一个图像捕获设备所捕获的图像数据中第一用户的姿势的第一接近角通过所述计算机器识别第一用户输入;
响应于检测到由所述至少一个图像捕获设备所捕获的图像数据中第二用户的姿势的不同的第二接近角通过所述计算机器识别第二用户输入;
响应于检测到来自所述第一用户的第一用户输入,从计算机器提供第一响应;以及
响应于检测到来自所述第二用户的第二用户输入,从所述计算机器提供第二响应;
其中所述计算机器在检测到第一用户输入时检测来自所述第一用户的第一位置的一个或多个动作;
所述计算机器在检测到第二用户输入时检测来自所述第二用户的第二位置的一个或多个动作;
所述一个或多个动作包括语音动作并且所述计算机器通过检测来自用户的任何噪声、语音和/或话语来检测语音动作。
2.根据权利要求1所述的用于检测输入的方法,其中,所述计算机器基于所述第一用户输入和所述检测到的第一接近角提供所述第一响应。
3.根据权利要求1所述的用于检测输入的方法,其中,所述计算机器基于第二用户输入和所述检测到的第二接近角提供所述第二响应。
4.一种计算机器,其包括:
图像捕获设备,其被配置成检测第一用户的第一位置和第二用户的第二位置;以及
处理器,其被配置成:
响应于检测到由所述图像捕获设备所捕获的图像数据中第一用户的姿势的第一接近角识别第一用户输入;
响应于检测到由所述图像捕获设备所捕获的图像数据中第二用户的姿势的不同的第二接近角识别第二用户输入;
响应于检测到来自所述第一用户的第一用户输入来提供第一响应;并且
响应于检测到来自所述第二用户的第二用户输入来提供第二响应;
其中所述计算机器在检测到第一用户输入时检测来自所述第一用户的第一位置的一个或多个动作;
其中所述计算机器在检测到第二用户输入时检测来自所述第二用户的第二位置的一个或多个动作;
所述一个或多个动作包括语音动作并且所述计算机器通过检测来自用户的任何噪声、语音和/或话语来检测语音动作。
5.根据权利要求4所述的计算机器,进一步包括被配置成呈现来自包括所述第一响应和所述第二响应的组的至少一个的显示设备。
6.根据权利要求5所述的计算机器,其中,所述显示设备被配置成呈现用于所述第一用户和所述第二用户与其交互的用户界面。
7.根据权利要求5所述的计算机器,其中,所述显示设备被配置成响应于所述第一用户的第一位置呈现第一用户界面并且响应于所述第二用户的第二位置呈现第二用户界面。
8.根据权利要求4所述的计算机器,其中所述图像捕获设备是3D深度捕获设备。
9.根据权利要求4所述的计算机器,进一步包括被配置成存储至少一个经识别的输入和与经识别的输入相对应的至少一个响应的数据库。
10.一种用于检测输入的设备,其包括:
用于基于第一位置来识别第一用户并且基于第二位置来识别第二用户的装置;
用于响应于检测到第一用户的姿势的第一接近角识别第一用户输入的装置;
用于响应于检测到第二用户的姿势的不同的第二接近角识别第二用户输入的装置;
用于响应于检测到来自所述第一用户的第一用户输入提供第一响应的装置;
用于响应于检测到来自所述第二用户的第二用户输入提供第二响应的装置;以及
用于在检测到第一用户输入时检测来自所述第一用户的第一位置的一个或多个动作的装置;
用于在检测到第二用户输入时检测来自所述第二用户的第二位置的一个或多个动作的装置;
所述一个或多个动作包括语音动作;并且还包括
用于通过检测来自用户的任何噪声、语音和/或话语来检测语音动作的装置。
CN201080068072.XA 2010-07-15 2010-07-15 第一响应和第二响应 Expired - Fee Related CN102985894B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2010/042082 WO2012008960A1 (en) 2010-07-15 2010-07-15 First response and second response

Publications (2)

Publication Number Publication Date
CN102985894A CN102985894A (zh) 2013-03-20
CN102985894B true CN102985894B (zh) 2017-02-08

Family

ID=45469730

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201080068072.XA Expired - Fee Related CN102985894B (zh) 2010-07-15 2010-07-15 第一响应和第二响应

Country Status (4)

Country Link
US (1) US20130106757A1 (zh)
EP (1) EP2593847A4 (zh)
CN (1) CN102985894B (zh)
WO (1) WO2012008960A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9164579B2 (en) * 2011-11-15 2015-10-20 Lg Electronics Inc. Electronic device for granting authority based on context awareness information
US10835361B2 (en) 2016-02-24 2020-11-17 3Shape A/S Detecting and monitoring development of a dental condition
CN107735752A (zh) * 2016-04-26 2018-02-23 索尼公司 信息处理设备、信息处理方法和程序

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1394325A (zh) * 2000-09-01 2003-01-29 美国索尼电脑娱乐公司 与图形图象相互作用的用户输入设备和方法
CN101282859A (zh) * 2005-10-07 2008-10-08 松下电器产业株式会社 数据处理设备
CN101405177A (zh) * 2006-03-22 2009-04-08 大众汽车有限公司 交互式操纵装置和用于运行所述交互式操纵装置的方法

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7050606B2 (en) * 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
JP2002133401A (ja) * 2000-10-18 2002-05-10 Tokai Rika Co Ltd 操作者判定方法及び操作者判定装置
US20060285678A1 (en) * 2001-09-05 2006-12-21 Tetsu Ota Telephone
US7257255B2 (en) * 2001-11-21 2007-08-14 Candledragon, Inc. Capturing hand motion
US20090143141A1 (en) * 2002-08-06 2009-06-04 Igt Intelligent Multiplayer Gaming System With Multi-Touch Display
JP2004067031A (ja) * 2002-08-08 2004-03-04 Nissan Motor Co Ltd 操作者判別装置およびこれを用いた車載装置
GB0222554D0 (en) * 2002-09-28 2002-11-06 Koninkl Philips Electronics Nv Data processing system and method of operation
GB0319056D0 (en) * 2003-08-14 2003-09-17 Ford Global Tech Inc Sensing systems
DE10337852A1 (de) * 2003-08-18 2005-03-17 Robert Bosch Gmbh Fahrzeugsystem
US7961909B2 (en) * 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
JP2005274409A (ja) * 2004-03-25 2005-10-06 Sanyo Electric Co Ltd カーナビゲーション装置
EP1811362A4 (en) * 2004-10-27 2011-07-27 Fujitsu Ten Ltd DISPLAY
US7925996B2 (en) * 2004-11-18 2011-04-12 Microsoft Corporation Method and system for providing multiple input connecting user interface
US20060220788A1 (en) * 2005-04-04 2006-10-05 Dietz Paul H Control system for differentiating multiple users
JP2007212342A (ja) * 2006-02-10 2007-08-23 Denso Corp 車両用表示装置
JP2007265221A (ja) * 2006-03-29 2007-10-11 Sanyo Electric Co Ltd 複数画像表示装置及び車載ナビゲーションシステム
US9405372B2 (en) * 2006-07-14 2016-08-02 Ailive, Inc. Self-contained inertial navigation system for interactive control using movable controllers
ES2556678T3 (es) * 2006-07-28 2016-01-19 Koninklijke Philips N.V. Distribución automática de vitrinas privadas a lo largo de un escaparate
DE112008001396B4 (de) * 2007-06-05 2015-12-31 Mitsubishi Electric Corp. Fahrzeugbedienungsvorrichtung
EP2003421B1 (en) * 2007-06-13 2017-01-11 Alpine Electronics, Inc. On-vehicle position detection system
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US11441919B2 (en) * 2007-09-26 2022-09-13 Apple Inc. Intelligent restriction of device operations
GB2457690A (en) * 2008-02-21 2009-08-26 Sharp Kk Viewer position tracking display
US8514251B2 (en) * 2008-06-23 2013-08-20 Qualcomm Incorporated Enhanced character input using recognized gestures
KR101548997B1 (ko) * 2008-09-03 2015-09-01 엘지전자 주식회사 투사 표시 장치
US8176442B2 (en) * 2009-05-29 2012-05-08 Microsoft Corporation Living cursor control mechanics
KR100969927B1 (ko) * 2009-08-17 2010-07-14 (주)예연창 사용자 지향적 비접촉식 상호 작용 디스플레이 장치
CN102822784A (zh) * 2010-03-31 2012-12-12 诺基亚公司 用于虚拟触笔的装置、方法和计算机程序
US8751215B2 (en) * 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1394325A (zh) * 2000-09-01 2003-01-29 美国索尼电脑娱乐公司 与图形图象相互作用的用户输入设备和方法
CN101282859A (zh) * 2005-10-07 2008-10-08 松下电器产业株式会社 数据处理设备
CN101405177A (zh) * 2006-03-22 2009-04-08 大众汽车有限公司 交互式操纵装置和用于运行所述交互式操纵装置的方法

Also Published As

Publication number Publication date
CN102985894A (zh) 2013-03-20
EP2593847A4 (en) 2017-03-15
EP2593847A1 (en) 2013-05-22
WO2012008960A1 (en) 2012-01-19
US20130106757A1 (en) 2013-05-02

Similar Documents

Publication Publication Date Title
US20210365492A1 (en) Method and apparatus for identifying input features for later recognition
US9923974B2 (en) Method and device for identifying devices which can be targeted for the purpose of establishing a communication session
KR101821729B1 (ko) 의사랜덤 가이드되는 지문등록
US10317947B2 (en) Electronic device and method for processing gesture thereof
US10564806B1 (en) Gesture actions for interface elements
CN106104434B (zh) 使用触摸屏设备确定用户利手和定向
EP2444918B1 (en) Apparatus and method for providing augmented reality user interface
JP5807686B2 (ja) 画像処理装置、画像処理方法及びプログラム
US9213436B2 (en) Fingertip location for gesture input
US20190019035A1 (en) Mobile terminal and method for operating the same
KR20180124640A (ko) 전자 장치 및 전자 장치 제어 방법
WO2010098050A1 (ja) 電子機器のインターフェース、電子機器、並びに電子機器の操作方法、操作プログラム及び操作システム
US9213410B2 (en) Associated file
JP6253127B2 (ja) 情報提供装置
AU2015296666B2 (en) Reflection-based control activation
CN109241832B (zh) 一种人脸活体检测的方法及终端设备
CN110730298A (zh) 一种显示控制方法及电子设备
CN102985894B (zh) 第一响应和第二响应
CN108664204B (zh) 一种解锁方法、装置及移动终端
US9898183B1 (en) Motions for object rendering and selection
CN110213205A (zh) 验证方法、装置及设备
CN107422854A (zh) 应用于虚拟现实的动作识别方法及终端
KR20140103021A (ko) 객체 인식이 가능한 전자 장치
KR20240142445A (ko) 네트워크-중심적 증강 현실 프로세싱을 위한 장치, 컴퓨터-구현 방법, 및 컴퓨터 프로그램 제품
CN109358755A (zh) 用于移动终端的手势检测方法、装置和移动终端

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170208

Termination date: 20200715