[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN112789577B - 增强现实系统中的神经肌肉文本输入、书写和绘图 - Google Patents

增强现实系统中的神经肌肉文本输入、书写和绘图 Download PDF

Info

Publication number
CN112789577B
CN112789577B CN201980062920.7A CN201980062920A CN112789577B CN 112789577 B CN112789577 B CN 112789577B CN 201980062920 A CN201980062920 A CN 201980062920A CN 112789577 B CN112789577 B CN 112789577B
Authority
CN
China
Prior art keywords
input
user
mode
neuromuscular
identifying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201980062920.7A
Other languages
English (en)
Other versions
CN112789577A (zh
Inventor
亚当·贝雷恩兹维戈
丹尼尔·韦特莫尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meta Platforms Technologies LLC
Original Assignee
Meta Platforms Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meta Platforms Technologies LLC filed Critical Meta Platforms Technologies LLC
Publication of CN112789577A publication Critical patent/CN112789577A/zh
Application granted granted Critical
Publication of CN112789577B publication Critical patent/CN112789577B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurosurgery (AREA)
  • Neurology (AREA)
  • Health & Medical Sciences (AREA)
  • Dermatology (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

用于至少部分地基于神经肌肉信号向增强现实系统或扩展现实系统提供输入的方法、系统和套件。该系统、方法、套件包括使用布置在一个或更多个可穿戴设备上的一个或更多个神经肌肉传感器来检测来自用户的神经肌肉信号;确定计算机化系统处于被配置为向增强现实系统提供输入的模式;至少部分地根据神经肌肉信号和/或根据基于神经肌肉信号的信息来识别输入,其中至少部分地基于模式来进一步识别输入;以及向增强现实系统提供所识别的输入。

Description

增强现实系统中的神经肌肉文本输入、书写和绘图
相关申请的交叉引用
本申请根据35U.S.C.§119(e)要求2018年9月20日提交的标题为“NEUROMUSCULARTEXT ENTRY,WRITING AND DRAWING IN AUGMENTED REALITY SYSTEMS”的美国临时专利申请序列号62/734,138的权益,该申请的全部内容通过引用并入本文。
背景
增强现实(AR)系统通过将计算机生成的感知或虚拟信息覆盖(overlay)在真实世界环境的各个方面,为用户提供了以虚拟信息为补充的真实世界环境的交互式体验。存在各种技术来控制AR系统的操作。典型地,一个或更多个输入设备,例如控制器、键盘、鼠标、相机、麦克风等,可以用于控制AR系统的操作。例如,用户可以操纵输入设备(例如控制器或键盘)上的多个按钮,以实现对AR系统的控制。在另一个示例中,用户可以使用语音命令来控制AR系统的操作。当前用于控制AR系统的操作的技术存在许多缺陷,因此需要改进的技术。
概述
一些实施例涉及将经由神经肌肉传感器感测神经肌肉信号的系统与执行扩展现实(XR)功能的系统相耦合。应当理解,XR功能可以包括增强现实(AR)、虚拟现实(VR)功能、混合现实(MR)功能等。特别地,感测神经肌肉信号的系统可以与XR系统结合使用,以为用户提供改善的XR体验。神经肌肉信号可以直接用作XR系统的输入(例如,通过使用运动单元动作电位作为输入信号),和/或可以处理神经肌肉信号(包括通过使用本文描述的推理模型),以便确定用户身体的一部分(例如,手指、手和手腕)的移动、力和/或位置。例如,在两个系统中获得的信息可以用来改善整个XR体验。在基于传感器数据生成与身体部位相关联的肌肉骨骼表示的实施例中,XR系统中的相机可以捕获用于提高肌肉骨骼表示的模型的准确性和/或用于校准该模型的数据。此外,在另一实现中,肌肉激活数据可以在XR环境中可视化并显示给用户。在又一个示例中,XR环境中的显示信息可以用作对用户的反馈,以允许用户更准确地控制他们对系统的肌肉骨骼输入。此外,可以提供允许神经肌肉信号控制XR系统元件(包括XR系统本身的操作)的控制特征。此外,基于神经肌肉信号识别的各种形式的输入(例如,文本、书写和/或绘图)可被提供作为对XR系统的输入,以及基于特定姿势对XR系统的输入。
根据本文描述的技术的方面,提供了一种用于向扩展现实系统提供输入的计算机化系统。该系统可以包括被配置成检测来自用户的神经肌肉信号的一个或更多个神经肌肉传感器,其中该一个或更多个神经肌肉传感器被布置在一个或更多个可穿戴设备上;和至少一个计算机处理器。至少一个计算机处理器可以被编程为:确定计算机化系统处于被配置为向扩展现实系统提供输入的模式;至少部分地根据多个神经肌肉信号和/或根据基于多个神经肌肉信号的信息来识别输入;以及将所识别的输入提供给扩展现实系统。
在一个方面,根据多个神经肌肉信号和/或根据基于多个神经肌肉信号的信息来确定模式。
在一个方面,基于从用户检测到的姿势来确定模式,其中根据多个神经肌肉信号和/或根据基于多个神经肌肉信号的信息来识别姿势。
在一个方面,通过从由扩展现实系统提供的扩展现实环境中显示的用户界面接收对模式的选择来确定模式,其中用户界面被配置为标识多个模式,用户可以从该多个模式中进行选择。
在一个方面,基于从用户检测到的一个或更多个打字、书写、绘图动作或单手动作来确定模式。
在另一方面,响应于从扩展现实系统接收信号来确定模式。在一个方面,该信号是由扩展现实系统响应于对事件的检测而生成的,对于该事件,期望在由扩展现实系统提供的扩展现实环境内进行输入。
在一个方面,模式包括打字模式,并且识别输入包括至少部分地基于多个神经肌肉信号和/或根据基于多个神经肌肉信号的信息来识别一个或更多个敲击或打字动作。
在一个方面,计算机化系统还包括物理键盘或虚拟键盘。
在一个方面,识别一个或更多个敲击或打字动作包括检测用户在物理键盘或虚拟键盘上的敲击或打字。
在一个方面,该模式包括书写模式,并且识别输入包括至少部分地根据多个神经肌肉信号和/或根据基于多个神经肌肉信号的信息来识别从用户检测到的一个或更多个书写动作。
在一个方面,计算机化系统还包括物理触笔、物理书写工具、虚拟触笔和/或虚拟书写工具。
在一个方面,识别一个或更多个书写动作包括检测用户使用物理触笔、物理书写工具、虚拟触笔和/或虚拟书写工具。
在一个方面,一个或更多个书写动作被识别为在空中(mid-air)被检测到。
在一个方面,该模式包括绘图模式,并且识别输入包括至少部分地根据多个神经肌肉信号和/或根据基于多个神经肌肉信号的信息来识别从用户检测到的一个或更多个绘图动作。
在一个方面,从用户检测到的一个或更多个绘图动作包括多个线段和/或曲线。
在一个方面,针对绘图模式,识别输入包括将输入识别为绘图和/或文本。
在一个方面,至少一个计算机处理器还被编程为组合绘图输入和文本输入,使得文本覆盖或注释绘图。
在一个方面,该模式包括单手模式,并且识别输入包括至少部分地根据多个神经肌肉信号和/或根据基于多个神经肌肉信号的信息来识别从用户检测到的一个或更多个单手动作。
在一个方面,扩展现实系统被配置为向用户显示所识别的输入的指示。在一个方面,所识别的输入的指示包括基于从用户检测到的一个或更多个打字、书写、绘图动作或单手动作而识别的文本输入。
在一个方面,计算机化系统还包括视觉显示器或界面,该视觉显示器或界面被配置为呈现用于文本输入的一个或更多个建议的或预测的单词或短语。
在一个方面,计算机化系统还包括视觉显示器或界面,该视觉显示器或界面被配置为呈现与从用户检测到的一个或更多个笔画相关联的一个或更多个虚拟墨迹。
在一个方面,计算机化系统还包括视觉显示器或界面,该视觉显示器或界面被配置为呈现基于从用户检测到的一个或更多个绘图动作而识别的绘图。
在一个方面,计算机化系统还包括至少一个惯性测量单元(IMU)传感器,其中识别输入包括至少部分地基于与至少一个IMU传感器相关联的至少一个输出信号来识别输入。
在一个方面,计算机化系统还包括至少一个相机,其中识别输入包括至少部分地基于与至少一个相机相关联的至少一个输出信号来识别输入。
在一个方面,该模式包括第一模式,并且所述至少一个计算机处理器还被编程为:至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的信息来识别第二输入,其中至少部分地基于第二模式来进一步识别所述第二输入;以及将识别的第二输入提供给扩展现实系统。
在一个方面,一个或更多个可穿戴设备包括被配置为检测来自用户第一手臂的神经肌肉信号的第一可穿戴设备和被配置为检测来自用户第二手臂的神经肌肉信号的第二可穿戴设备。
在一个方面,扩展现实系统是增强现实系统。
根据本文描述的技术的方面,提供了一种由计算机化系统执行的用于向扩展现实系统提供输入的方法。该方法包括使用布置在一个或更多个可穿戴设备上的一个或更多个神经肌肉传感器来检测来自用户的多个神经肌肉信号;确定计算机化系统处于被配置为向扩展现实系统提供输入的模式;至少部分地根据多个神经肌肉信号和/或根据基于多个神经肌肉信号的信息来识别输入;以及将识别的输入提供给扩展现实系统。
根据本文描述的技术的方面,一种用于向扩展现实(XR)系统提供一个或更多个输入的系统。该系统包括:被配置成检测来自用户的神经肌肉信号的一个或更多个神经肌肉传感器,其中该一个或更多个神经肌肉传感器被布置在一个或更多个可穿戴设备上;一个或更多个辅助传感器,其被配置为检测来自用户的关于生理状态和/或行为的信息;和至少一个计算机处理器。所述至少一个计算机处理器被编程为:确定系统处于被配置为向XR系统提供一个或更多个输入的模式,将神经肌肉信号与由一个或更多个辅助传感器检测到的信息相关联,使用一个或更多个推理模型处理神经肌肉信号和/或由一个或更多个辅助传感器检测到的信息;基于经处理的神经肌肉信号和/或经处理的由一个或更多个辅助传感器检测到的信息来识别一个或更多个输入;以及将所识别的一个或更多个输入提供给XR系统。
根据本文描述的技术的方面,提供了一种与扩展现实(XR)系统一起使用的套件。该套件包括:一个或更多个神经肌肉传感器,其被配置为检测来自用户的神经肌肉信号,其中该一个或更多个神经肌肉传感器被布置在一个或更多个可穿戴设备上;一个或更多个辅助传感器,其被配置为检测来自用户的关于生理状态和/或行为的信息;和至少一个存储介质,其存储指令。当由至少一个计算机处理器执行时,这些指令使得该至少一个计算机处理器:处理来自神经肌肉传感器的神经肌肉信号,处理由一个或更多个辅助传感器检测到的信息,基于经处理的神经肌肉信号和/或经处理的由一个或更多个辅助传感器检测到的信息来识别一个或更多个用户输入,以及将所识别的一个或更多个用户输入传送到XR系统。
根据本文描述的技术的方面,提供了一种用于至少部分地基于神经肌肉信号向增强现实系统提供输入的计算机化系统。该系统包括被配置为记录来自用户的多个神经肌肉信号的多个神经肌肉传感器,其中该多个神经肌肉传感器被布置在一个或更多个可穿戴设备上;和至少一个计算机处理器。至少一个计算机处理器被编程为:确定计算机化系统处于被配置为向增强现实系统提供包括文本的输入的模式;至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的信息来识别所述输入,其中至少部分地基于所述模式来进一步识别所述输入;以及将识别的输入提供给增强现实系统。
在一个方面,该模式包括打字模式,并且识别输入包括至少部分地根据多个神经肌肉信号和/或根据基于多个神经肌肉信号的信息来识别一个或更多个敲击或打字动作;以及基于一个或更多个敲击或打字动作识别针对打字模式的文本输入。
在一个方面,识别一个或更多个敲击或打字动作包括识别在物理键盘的表面上的一个或更多个敲击或打字动作。
在一个方面,识别一个或更多个敲击或打字动作包括识别在表面上的一个或更多个敲击或打字动作,该表面具有由增强现实系统投射在其上的虚拟键盘。
在一个方面,该模式包括书写模式,并且识别输入包括至少部分地根据多个神经肌肉信号和/或根据基于多个神经肌肉信号的信息来识别由用户执行的一个或更多个书写动作;以及基于一个或更多个书写动作识别针对书写模式的文本输入。
在一个方面,识别由用户执行的一个或更多个书写动作包括识别用物理触笔、物理书写工具或用户的一个指尖或更多个指尖在表面上执行的一个或更多个书写动作。
在一个方面,识别由用户执行的一个或更多个书写动作包括识别用虚拟触笔或虚拟书写工具在表面上执行的一个或更多个书写动作。
在一个方面,识别由用户执行的一个或更多个书写动作包括识别在空中执行的一个或更多个书写动作。
在一个方面,该模式包括绘图模式,并且识别输入包括至少部分地根据多个神经肌肉信号和/或根据基于多个神经肌肉信号的信息来识别由用户执行的一个或更多个绘图动作;以及基于一个或更多个绘图动作识别针对绘图模式的输入。
在一个方面,针对绘图模式的输入包括多个线段和/或曲线。
在一个方面,针对绘图模式的输入包括基于由用户执行的一个或更多个绘图动作控制的像素位置序列而确定的输入。
在一个方面,识别针对绘图模式的输入包括基于用户执行的一个或更多个绘图动作来识别绘图;以及基于用户执行的一个或更多个绘图动作来识别文本。
在一个方面,至少一个计算机处理器还被编程为组合绘图和文本,使得文本覆盖或注释绘图。
在一个方面,识别针对绘图模式的输入包括基于用户执行的一个或更多个绘图动作来识别绘图;以及从绘图中识别文本。
在一个方面,该模式包括单手模式,并且识别输入包括至少部分地根据多个神经肌肉信号和/或根据基于多个神经肌肉信号的信息来识别用户执行的一个或更多个单手动作;以及基于一个或更多个单手动作识别针对单手模式的输入。
在一个方面,确定计算机化系统处于被配置为提供输入的模式包括接收用户对模式的选择。
在一个方面,接收用户对模式的选择包括从由增强现实系统提供的增强现实环境中显示的用户界面接收用户的选择,其中用户界面被配置为标识多个模式,用户可以从该多个模式中进行选择。
在一个方面,确定计算机化系统处于被配置为提供输入的模式包括根据多个神经肌肉信号和/或根据基于多个神经肌肉信号的信息来确定模式。
在一个方面,确定模式包括根据多个神经肌肉信号和/或根据基于多个神经肌肉信号的信息来识别用户执行的至少一个姿势;以及确定对应于该至少一个姿势的模式。
在一个方面,确定模式包括基于用户执行的一个或更多个打字、书写、绘图动作或单手动作来确定模式。
在一个方面,确定计算机化系统处于被配置为提供输入的模式包括响应于从增强现实系统接收信号来确定模式。在一个方面,响应于对事件的检测,在增强现实系统处生成信号,对于该事件,期望在由增强现实系统提供的增强现实环境内进行输入。
在一个方面,增强现实系统被配置为向用户显示所识别的输入的指示。
在一个方面,所识别的输入的指示包括基于用户执行的一个或更多个打字、书写、绘图动作或单手动作而识别的文本输入。
在一个方面,所识别的输入的指示包括用于文本输入的一个或更多个建议的或预测的单词或短语的列表。
在一个方面,所识别的输入的指示包括与书写工具做出的一个或更多个笔画相关联的一个或更多个虚拟墨迹。
在一个方面,所识别的输入的指示包括基于用户执行的一个或更多个绘图动作而识别的绘图。
在一个方面,该指示经由在增强现实系统提供的增强现实环境内呈现的用户界面来显示。
在一个方面,该指示被渲染在用户正通过增强现实系统与之交互的表面上。
在一个方面,计算机化系统还包括至少一个惯性测量单元(IMU)传感器,其中识别文本输入包括至少部分地基于与至少一个IMU传感器相关联的至少一个输出信号来识别文本输入。
在一个方面,计算机化系统还包括至少一个相机,其中识别文本输入包括至少部分地基于与至少一个相机相关联的至少一个输出信号来识别文本输入。
在一个方面,所述模式包括第一模式,并且其中所述至少一个计算机处理器还被编程为:至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的信息来识别第二输入,其中至少部分地基于第二模式来进一步识别所述第二输入;以及将所识别的第二输入提供给增强现实系统。
在一个方面,提供给增强现实系统的所识别的输入包括从多个源识别的输入,其中多个源包括多个神经肌肉信号和不同于多个神经肌肉信号的至少一个源。
根据本文描述的技术的方面,提供了一种由计算机化系统执行的用于至少部分地基于神经肌肉信号向增强现实系统提供输入的方法。该方法包括使用布置在一个或更多个可穿戴设备上的多个神经肌肉传感器记录来自用户的多个神经肌肉信号;确定计算机化系统处于被配置为向增强现实系统提供包括文本的输入的模式;至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的信息来识别所述输入,其中至少部分地基于所述模式来进一步识别所述输入;以及向增强现实系统提供所识别的输入。
根据本文描述的技术的方面,提供了一种用于向增强现实系统提供输入的计算机化系统。该计算机化系统包括一个或更多个神经肌肉传感器,其被配置成检测来自用户的神经肌肉信号,其中该一个或更多个神经肌肉传感器被布置在一个或更多个可穿戴设备上;和至少一个计算机处理器。所述至少一个计算机处理器被编程为:确定所述计算机化系统处于被配置为向所述增强现实系统提供包括文本的输入的模式,其中所述模式根据所述神经肌肉信号和/或根据基于所述神经肌肉信号的信息来确定,并且所述模式选自由打字模式、书写模式、绘图模式和单手模式组成的组;至少部分地根据神经肌肉信号和/或根据基于神经肌肉信号的信息来识别输入,其中至少部分地基于模式来进一步识别输入;以及将识别的输入提供给增强现实系统。
在一个方面,基于姿势来确定模式,该姿势根据神经肌肉信号和/或根据基于神经肌肉信号的信息被从用户检测到。
在一个方面,该模式包括打字模式,并且识别输入包括至少部分地根据神经肌肉信号和/或根据基于神经肌肉信号的信息来识别一个或更多个敲击或打字动作;以及基于一个或更多个敲击或打字动作识别针对打字模式的文本输入。
在一个方面,识别一个或更多个敲击或打字动作包括识别在物理键盘的表面上或在其上投射有键盘表示的表面上的一个或更多个敲击或打字动作。
在一个方面,该模式包括书写模式,并且识别输入包括至少部分地根据神经肌肉信号和/或根据基于神经肌肉信号的信息来识别从用户检测到的一个或更多个书写动作;以及基于一个或更多个书写动作识别针对书写模式的文本输入。
在一个方面,识别从用户检测到的一个或更多个书写动作包括识别用物理触笔、物理书写工具、虚拟触笔或虚拟书写工具在表面上执行的一个或更多个书写动作。
在一个方面,识别从用户检测到的一个或更多个书写动作包括识别在空中检测到的一个或更多个书写动作。
在一个方面,该模式包括绘图模式,并且识别输入包括至少部分地根据神经肌肉信号和/或根据基于神经肌肉信号的信息来识别从用户检测到的一个或更多个绘图动作;以及基于一个或更多个绘图动作识别针对绘图模式的输入。
在一个方面,一个或更多个绘图动作包括多个线段和/或曲线。
在一个方面,识别针对绘图模式的输入包括基于从用户检测到的一个或更多个绘图动作来识别绘图;以及基于从用户检测到的一个或更多个绘图动作来识别文本。
在一个方面,所述至少一个计算机处理器还被编程为组合所述绘图和文本,使得所述文本覆盖或注释所述绘图。
在一个方面,识别针对绘图模式的输入包括基于从用户检测到的一个或更多个绘图动作来识别绘图;以及从绘图中识别文本。
在一个方面,该模式包括单手模式,并且识别输入包括至少部分地根据神经肌肉信号和/或根据基于神经肌肉信号的信息来识别从用户检测到的一个或更多个单手动作;以及基于一个或更多个单手动作识别针对单手模式的输入。
在一个方面,增强现实系统被配置为向用户显示所识别的输入的指示。
在一个方面,所识别的输入的指示包括基于从用户检测到的一个或更多个打字、书写、绘图动作或单手动作而识别的文本输入。
在一个方面,所识别的输入的指示包括用于文本输入的一个或更多个建议的或预测的单词或短语。
在一个方面,所识别的输入的指示包括与从用户检测到的一个或更多个笔画相关联的一个或更多个虚拟墨迹。
在一个方面,所识别的输入的指示包括基于从用户检测到的一个或更多个绘图动作而识别的绘图。
在一个方面,该指示经由在增强现实系统提供的增强现实环境内呈现的用户界面来显示。
在一个方面,该指示被渲染在用户正通过增强现实系统与之交互的表面上。
在一个方面,计算机化系统还包括至少一个惯性测量单元(IMU)传感器,其中识别文本输入包括至少部分地基于与至少一个IMU传感器相关联的至少一个输出信号来识别文本输入。
在一个方面,计算机化系统还包括至少一个相机,其中识别文本输入包括至少部分地基于与至少一个相机相关联的至少一个输出信号来识别文本输入。
在一个方面,所述模式包括第一模式,并且其中所述至少一个计算机处理器还被编程为:至少部分地根据所述神经肌肉信号和/或根据基于所述神经肌肉信号的信息来识别第二输入,其中至少部分地基于第二模式来进一步识别所述第二输入;确定计算机化系统将从第一模式切换到第二模式;响应于确定计算机化系统将从第一模式切换到第二模式,将计算机化系统从第一模式切换到第二模式;以及将所识别的第二输入提供给增强现实系统。
在一个方面,提供给增强现实系统的所识别的输入包括从多个源识别的输入,其中多个源包括神经肌肉信号和至少一个不同于神经肌肉信号的源。
在一个方面,至少一个不同于神经肌肉信号的源包括至少一个物理输入设备,并且提供给增强现实系统的所识别的输入包括从多个源识别的输入的组合。
在一个方面,一个或更多个可穿戴设备包括被配置为检测来自用户第一手臂的神经肌肉信号的第一可穿戴设备和被配置为检测来自用户第二手臂的神经肌肉信号的第二可穿戴设备。
根据本文描述的技术的方面,提供了一种由计算机化系统执行的用于向增强现实系统提供输入的方法。该方法包括使用布置在一个或更多个可穿戴设备上的一个或更多个神经肌肉传感器来检测来自用户的神经肌肉信号;确定所述计算机化系统处于被配置为向所述增强现实系统提供包括文本的输入的模式,其中所述模式根据所述神经肌肉信号和/或根据基于所述神经肌肉信号的信息来确定,并且所述模式选自由打字模式、书写模式、绘图模式和单手模式组成的组;至少部分地根据神经肌肉信号和/或根据基于神经肌肉信号的信息来识别输入,其中至少部分地基于模式来进一步识别输入;以及向增强现实系统提供所识别的输入。
在一个方面,基于从用户检测到的姿势来确定模式,其中根据神经肌肉信号和/或根据基于神经肌肉信号的信息来检测姿势。
根据本文描述的技术的方面,一种非暂时性计算机可读介质,其编码有指令,该指令当由至少一个计算机处理器执行时,执行以下方法:使用布置在一个或更多个可穿戴设备上的多个神经肌肉传感器来检测来自用户的神经肌肉信号;确定计算机化系统处于被配置为向增强现实系统提供包括文本的输入的模式,其中该模式根据神经肌肉信号和/或根据基于神经肌肉信号的信息来确定,并且该模式选自由打字模式、书写模式、绘图模式和单手模式组成的组;至少部分地根据神经肌肉信号和/或根据基于神经肌肉信号的信息来识别输入,其中至少部分地基于模式来进一步识别输入;以及向增强现实系统提供所识别的输入。
应当认识到,前面的概念和下面更详细讨论的另外的概念的所有组合(假设这样的概念不是相互不一致的)被设想为本文公开的创造性主题的一部分。特别是,出现在本公开的结尾处的所主张的主题的所有组合被设想为本文公开的创造性主题的一部分。
附图简述
将参考下面的附图来描述技术的各种非限制性实施例。应当认识到,附图不一定按比例绘制。
图1是根据本文描述的技术的一些实施例的用于处理神经肌肉传感器数据的基于计算机的系统的示意图;
图2是根据本文描述的技术的一些实施例的将增强现实(AR)系统与神经肌肉活动系统集成的基于分布式计算机的系统的示意图;
图3是根据本文描述的技术的一些实施例的用于向AR系统提供输入的过程的流程图;
图4是根据本文描述的技术的一些实施例的基于一个或更多个神经肌肉信号向AR系统提供输入的过程的流程图;
图5示出了根据本文描述的技术的一些实施例的腕带,在该腕带上周向地布置有EMG传感器;以及
图6示出了根据本文描述的技术的一些实施例的用户在键盘上打字时戴着图5的腕带。
图7A示出了根据本文描述的技术的一些实施例的可穿戴系统,该可穿戴系统具有围绕弹性带周向地布置的16个EMG传感器,该弹性带被配置为围绕用户的下臂或手腕穿戴。
图7B是图7A中所示的16个EMG传感器之一的横截面视图。
图8A和图8B示意性地示出了在其上实现一些实施例的基于计算机的系统的部件。图8A示出了基于计算机的系统的可穿戴部分,并且图8B示出了连接到计算机的加密狗(dongle)部分,其中加密狗部分被配置成与可穿戴部分通信。
图9A-9C描绘了根据本文描述的技术的一些实施例,可以向XR系统提供用户输入的示例性场景。
详细描述
发明人开发了用于向扩展现实(XR)系统提供输入的新技术,该系统尤其包括增强现实(AR)系统、虚拟现实(VR)系统和混合现实(MR)系统。本文描述的各种实施例提供了某些优点,包括但不限于避免使用不期望的或繁重的物理键盘、操纵杆或其他控制器;克服与由相机捕获的用户的低质量图像的耗时和高延迟处理相关的问题;允许捕捉和检测细微的、小的或快速的移动和/或用户施加的力的变化(例如,通过触笔、书写工具或手指按压表面施加的力的变化量),这对于解析文本输入和其他控制信号可能是重要的;收集和分析从用户处检测到的各种生理和/或行为信息,这些信息增强了识别过程并且不容易通过传统的输入设备获得;允许用户的手被遮挡或者在相机的视野之外的情况,例如用户的手在用户的口袋中,或者当用户戴着手套时;以及在XR环境内允许更好的用户可操作性和导航性。
其他实施例考虑了个人不能访问输入设备或者可能想要在不使用输入设备的情况下以其他方式向XR系统提供输入的情况。例如,个人可能想以隐蔽的方式向XR系统提供输入,而不被其他人注意到。
根据一些实施例,从可穿戴传感器记录或检测到的信号用于识别输入并向XR系统提供该输入。各种形式的输入,例如离散控制信号、连续(例如2D)控制信号、经由键盘的文本输入或其他模式的文本输入、书写和/或绘图,可以从记录或检测到的信号和/或从基于记录或检测到的信号的信息中被识别,以实现用于向XR系统提供输入(例如文本)的改进的技术。在一些实施例中,可以基于经由可穿戴传感器感测信号并向XR系统提供输入的系统模式来识别各种形式的输入。至少部分地基于从用户检测到的神经肌肉数据,用户可以手动地或者系统可以自动地在输入模式之间切换。在一个实施例中,系统可以进入打字模式,并且可以基于由用户执行的一个或更多个敲击或打字动作(例如,在物理键盘的表面上敲击、在具有由XR系统投射在其上的虚拟键盘的表面上敲击、在没有键盘投射在其上的表面上敲击、或者在空中执行与打字风格的移动相对应的姿势)来识别将被提供给XR系统的来自用户的文本。本文描述的系统和方法可以根据记录或检测到的信号和/或根据基于记录或检测到的信号的信息来识别来自用户的文本输入。在另一个实施例中,系统可以进入书写模式,并且可以通过根据记录或检测到的信号和/或根据基于记录或检测到的信号的信息来识别由用户执行的一个或更多个书写动作(例如,用物理或虚拟的书写工具在表面上书写),来向XR系统提供文本输入。在又一个实施例中,系统可以进入绘图模式,并且可以通过根据记录或检测到的信号和/或根据基于记录或检测到的信号的信息来识别由用户执行的一个或更多个绘图动作(例如,在表面上绘制一个或更多个线段和/或曲线),来向XR系统提供输入。在另一个实施例中,系统可以进入单手模式(即,用户仅使用一只手来提供输入的模式),并且可以通过根据记录或检测到的信号和/或根据基于记录或检测到的信号的信息来识别由用户执行的一个或更多个单手动作(例如,诸如各种手指和手指组合的挤压(squeeze)、捏合(pinch)和/或敲击的姿势),来向XR系统提供输入。
在一些实施例中,XR系统可以通过向用户显示所识别的输入的指示来提供视觉反馈,这可以促进文本输入或作为输入被提供给XR系统的其他信息。该指示可以经由在XR系统提供的XR环境内呈现的用户界面来显示。例如,与XR系统相关联的显示器可以在用户界面中覆盖所识别的输入的视觉表示,或者向用户提供关于所识别的输入的音频反馈。在一些实施例中,指示可以由AR系统渲染在用户与之交互的表面上。
在一些实施例中,本文描述的系统经由可穿戴传感器感测信号,并且向XR系统提供输入,使得系统从第一输入模式平滑地转换到第二输入模式,而不需要来自用户的明确的模式切换指令。这为向XR系统提供输入提供了一种灵活的方法。例如,本文描述的系统可以在打字模式下操作,其中用户通过在物理键盘上打字来向系统提供文本输入。用户可以停止在物理键盘上打字,并通过用触笔书写来恢复提供文本输入。作为响应,系统可以自动检测输入模式的改变,并从打字模式无缝地切换到书写模式。在一些实施例中,当系统处于相同模式时,用户可以切换到不同形式的文本输入。例如,用户可以由在物理键盘上打字开始,并通过在虚拟键盘上打字或在没有键盘的任何虚拟表示的情况下使用打字动作来恢复文本输入。在这种场景中,尽管系统保持在打字模式,但是用户提供文本输入的方式已经改变。在一些实施例中,由XR系统提供的视觉反馈可以不间断地继续,而不管文本输入的模式或形式如何。
根据一些实施例,要提供给XR系统的输入可以至少部分地从由一个或更多个可穿戴传感器收集的原始(例如,未处理的)传感器信号中被识别。在一些实施例中,要提供给XR系统的输入可以至少部分地从基于原始传感器信号的信息(例如,经处理的传感器信号)中被识别,其中由一个或更多个可穿戴传感器收集的原始传感器信号被处理以执行放大、滤波、整流和/或其他形式的信号处理,其示例在下面被更详细地描述。在一些实施例中,要提供给XR系统的输入可以至少部分地从接收传感器信号(或传感器信号的经处理的版本)作为输入的一个或更多个训练的推理模型的输出中被识别。
如本文所述,在一些实施例中,可以直接从记录或检测到的传感器数据中识别各种肌肉激活状态。在其他实施例中,可以至少部分地基于训练的推理模型的输出来识别手部状态、姿势、姿态等(统称或单独称为肌肉激活状态)。在一些实施例中,各种形式的输入可以被提供给AR系统,并且可以直接从记录的传感器数据中来识别。在其他实施例中,输入可以被提供给AR系统,并且可以至少部分地基于一个或更多个训练的推理模型的输出来识别。在一些实施例中,训练的推理模型可以输出计算机生成的肌肉骨骼模型的节段的运动单元或肌肉激活和/或位置、定向和/或力估计。在一个示例中,人类肌肉骨骼系统的全部或部分可以被建模为多节段铰接刚体系统,其中关节形成不同节段之间的接合部(interface),并且关节角度定义了模型中连接的节段之间的空间关系。关节处移动的限制由连接节段的关节类型和限制关节处移动范围的生物结构(例如,肌肉、肌腱、韧带)决定。例如,连接上臂和躯干的肩关节以及连接大腿和躯干的髋关节是球窝关节,这些球窝关节允许伸展和弯曲移动以及旋转移动。相比之下,连接上臂和前臂的肘关节以及连接大腿和小腿的膝关节允许更有限的运动范围。在这个示例中,多节段铰接刚体系统用于对人类肌肉骨骼系统的部分进行建模。然而,应当理解,人类肌肉骨骼系统的一些节段(例如,前臂)虽然在铰接刚体系统中近似为刚体,但是可以包括多个刚性结构(例如,前臂的尺骨和桡骨),这些刚性结构在刚体模型没有明确考虑的节段内提供了更复杂的移动。因此,与本文描述的技术的一些实施例一起使用的铰接刚体系统的模型可以包括表示不是严格刚体的身体部位的组合的节段。将会理解,在不脱离本公开的范围的情况下,可以使用除多节段铰接刚体系统之外的物理模型来对人类肌肉骨骼系统的部分进行建模。
继续上面的示例,在运动学中,刚体是表现出各种运动属性(例如,位置、定向、角速度、加速度)的物体。知道刚体的一个节段的运动属性使得刚体的其他节段的运动属性能够基于节段如何连接的约束来被确定。例如,手可以被建模为多节段铰接体,其中手腕和每个手指中的关节形成模型中多个节段之间的接合部。在一些实施例中,如下面更详细描述的,刚体模型中节段的移动可以被模拟为铰接刚体系统,其中节段相对于模型中其他节段的位置(例如,实际位置、相对位置或定向)信息使用训练的推理模型来被预测。
在一个非限制性示例中,由肌肉骨骼表示近似的人体部分是手或手与一个或更多个手臂节段的组合。在肌肉骨骼表示中,用于描述节段之间的位置关系、单独的节段或节段的组合的力关系、以及节段之间的肌肉和运动单元激活关系的当前状态的信息在本文中被称为肌肉骨骼表示的“手部状态”。然而,应当理解,本文描述的技术也适用于除了手之外的身体部分的肌肉骨骼表示,这些身体部分包括但不限于手臂、腿、脚、躯干、颈部或前述的任何组合。
除了空间(例如,位置和/或定向)信息之外,一些实施例被配置成预测与肌肉骨骼表示的一个或更多个节段相关联的力信息。例如,可以估计由一个或更多个节段施加的线性力或旋转(扭矩)力。线性力的示例包括但不限于手指或手按压在诸如桌子的实体对象上的力,以及当两个节段(例如,两个手指)被捏合在一起时施加的力。旋转力的示例包括但不限于,当手腕或手指中的节段扭转或弯曲时产生的旋转力。在一些实施例中,被确定为当前手部状态估计的一部分的力信息包括捏合力信息、抓握力信息或关于由肌肉骨骼表示所表示的肌肉之间的共收缩力的信息中的一个或更多个。
图1示出了根据一些实施例的示例性系统100,其包括神经肌肉活动系统。该系统包括一个或更多个传感器102(例如,神经肌肉传感器),其被配置为记录由人体骨骼肌中的神经肌肉活动产生的信号。本文使用的术语“神经肌肉活动”是指对支配肌肉的脊髓运动神经元的神经激活、肌肉激活、肌肉收缩、或者神经激活、肌肉激活和/或肌肉收缩的任意组合。神经肌肉传感器可以包括一个或更多个肌电图(EMG)传感器、一个或更多个肌动图(MMG)传感器、一个或更多个声肌图(SMG)传感器、EMG传感器,MMG传感器和SMG传感器中两种或更多种类型的组合、和/或被配置成检测神经肌肉信号的任何合适类型的一个或更多个传感器。在一些实施例中,神经肌肉传感器可以用于感测与由肌肉控制的身体部位的移动相关的肌肉活动,神经肌肉传感器被布置成从这些肌肉感测肌肉活动。描述移动的空间信息(例如,位置和/或定向信息)和力信息可以在用户随着时间移动时基于所感测的神经肌肉信号来被预测。在一些实施例中,神经肌肉传感器可用于感测与由外部物体引起的移动(例如,被外部物体推动的手的移动)相关的肌肉活动。
在执行运动任务期间,随着肌肉张力的增加,活跃神经元的放电率(firing rate)增加,并且额外的神经元可能变得活跃,这是被称为运动单元募集(recruitment)的过程。神经元变得活跃并增加其放电率的模式是定型的,使得预期的运动单元募集模式定义了与标准或正常移动相关联的活动流形(manifold)。一些实施例记录单个运动单元或一组运动单元的激活,所述运动单元或一组运动单元是“流形外的”,因为运动单元激活的模式不同于预期的或典型的运动单元募集模式。这种脱离流形的激活在本文中被称为“肌肉下激活”或“肌肉下结构的激活”,其中肌肉下结构是指与脱离流形的激活相关联的单个运动单元或一组运动单元。脱离流形的运动单元募集模式的示例包括但不限于,选择性地激活高阈值运动单元而不激活通常在募集顺序中被较早地激活的较低阈值运动单元,以及在相当大的范围内调节运动单元的放电率而不调节通常在典型的运动募集模式中被共同调节的其他神经元的活动。在一些实施例中,神经肌肉传感器可用于感测不具有可观察到的移动的肌肉下激活。根据本文描述的技术的一些实施例,可以至少部分地使用肌肉下激活来识别输入并向增强现实系统提供该输入。
在一些实施例中,传感器或感测部件102包括一个或更多个神经肌肉传感器(例如,EMG传感器)。在其他实施例中,传感器102包括一个或更多个辅助传感器(例如惯性测量单元(IMU)),其使用例如加速度计、陀螺仪、磁力计、或一个或更多个加速度计、陀螺仪和磁力计的任意组合、或者能够检测时空定位、运动、力或用户生理状态和/或行为的其他方面的任何其他部件或设备,来测量运动的物理方面的组合。在一些实施例中,IMU可以用于感测关于附接有IMU的身体部位的移动的信息,并且当用户随时间的推移而移动时,从感测到的数据导出的信息(例如,位置和/或定向信息)可以被跟踪。例如,当用户随时间的推移而移动时,一个或更多个IMU可以用于跟踪用户躯干近端的用户身体部分(例如,手臂、腿)相对于传感器的移动。在其他实施例中,传感器102包括多个神经肌肉传感器和被配置成连续记录多个辅助信号的至少一个辅助传感器。其他辅助传感器的示例包括但不限于麦克风、成像设备(例如相机)、与辐射产生设备(例如激光扫描设备)一起使用的基于辐射的传感器、或其他类型的传感器,例如热传感器、红外传感器、心率或血压监视器和/或视频眼睛跟踪器。
在包括至少一个IMU和一个或更多个神经肌肉传感器的实施例中,IMU和神经肌肉传感器可以被布置成检测人体的相同或不同部位的移动。例如,IMU可以被布置成检测躯干近端的一个或更多个体段(body segment)(例如,上臂)的移动,而神经肌肉传感器可以被布置成检测躯干远端的一个或更多个体段(例如,前臂或手腕)的移动。然而,应当理解,传感器可以以任何合适的方式被布置,并且本文描述的技术的实施例不限于基于特定的传感器布置。例如,在一些实施例中,至少一个IMU和多个神经肌肉传感器可以共同位于一个体段上,以使用不同类型的测量来跟踪体段的移动。在下面更详细描述的一个实现中,IMU传感器和多个EMG传感器被布置在可穿戴设备上,该可穿戴设备被配置成围绕用户的下臂或手腕穿戴。在这样的布置中,IMU传感器可以被配置成跟踪与一个或更多个手臂节段相关联的移动信息(例如,随时间的定位和/或定向),以确定例如用户是否已经举起或放下了他们的手臂,而EMG传感器可以被配置成确定与手腕或手节段相关联的移动信息,以确定例如用户是否具有张开或闭合的手配置或与手腕或手的肌肉中的肌肉下结构的激活相关联的肌肉下信息。
每个传感器102包括被配置成感测关于用户的信息的一个或更多个感测部件。在IMU的情况下,感测部件可以包括一个或更多个加速度计、陀螺仪、磁力计或其任意组合,以测量身体运动的特征和/或与身体运动相关的特征,这些特征的示例包括但不限于加速度、角速度和身体周围的感测磁场。在神经肌肉传感器的情况下,感测部件可以包括但不限于被配置成检测身体表面上的电位的电极(例如,对于EMG传感器)、被配置成测量皮肤表面振动的振动传感器(例如,对于MMG传感器)、以及被配置成测量由肌肉活动产生的超声信号的声学感测部件(例如,对于SMG传感器)。
在一些实施例中,多个传感器102中的至少一些被布置为可穿戴设备的一部分,该可穿戴设备被配置成穿戴在用户身体部位上或围绕用户身体部位穿戴。例如,在一个非限制性示例中,IMU传感器和多个神经肌肉传感器围绕可调节的和/或弹性的带(例如被配置成围绕用户的手腕或手臂穿戴的腕带或臂带)周向地布置。可替换地,至少一些传感器可以被布置在可穿戴贴片(patch)上,该可穿戴贴片被配置成附着到用户身体的一部分。在一些实施例中,多个可穿戴设备(每个可穿戴设备上包括一个或更多个IMU和/或神经肌肉传感器)可用于检测神经肌肉数据,并基于肌肉和肌肉下结构的激活和/或涉及身体多个部位的移动来生成控制信息。
在一个实施例中,16个EMG传感器围绕弹性带周向地布置,该弹性带被配置成围绕用户的下臂穿戴。例如,图5示出了围绕弹性带502周向地布置的EMG传感器504。应当理解,可以使用任何合适数量的神经肌肉传感器,并且所使用的神经肌肉传感器的数量和布置可以取决于可穿戴设备所用于的特定应用。例如,可穿戴臂带或腕带可用于检测神经肌肉数据并生成控制信息,用于控制增强现实系统、机器人,控制车辆,滚动浏览文本,控制虚拟化身,或任何其他合适的控制任务。例如,如图6所示,用户506可以在手508上穿戴弹性带502。以这种方式,EMG传感器504可以被配置成在用户使用手指510控制键盘512时记录EMG信号。在一些实施例中,弹性带502也可以包括如上面讨论的被配置成记录移动信息的一个或更多个IMU(未示出)。虽然图5描绘了用户在手上穿戴一个可穿戴设备,但是将会理解,一些实施例包括多个可穿戴设备(具有与其集成的一个或更多个神经肌肉传感器),该多个可穿戴设备被配置为穿戴在用户的一只或两只手/手臂上。
在一些实施例中,可以可选地使用硬件信号处理电路来处理一个或更多个感测部件的输出(例如,以执行放大、滤波和/或整流)。在其他实施例中,可以在软件中执行对感测部件的输出的至少部分的信号处理。因此,对由传感器记录的信号的信号处理可以在硬件、软件中执行,或由硬件和软件的任何合适组合执行,因为本文描述的技术的方面在这一点上不受限制。
在一些实施例中,由传感器102记录的传感器数据可以可选地被处理以计算附加的导出测量值,这些测量值然后被提供给一个或更多个推理模型作为输入,如下面更详细描述的。例如,来自IMU传感器的记录的信号可以被处理,以导出指定刚体节段随时间的定向的定向信号。传感器102可以使用集成部件来实现信号处理,或者信号处理的至少一部分可以由与传感器通信但不直接与传感器集成的一个或更多个部件来执行。
系统100还可以包括一个或更多个计算机处理器104,其被编程为通过单向或双向通信路径与传感器102通信。例如,由一个或更多个传感器记录的信号可以被提供给处理器,该处理器可以被编程为执行一个或更多个机器学习算法,该算法处理由传感器102输出的信号以训练(或再训练)一个或更多个推理模型106,并且所得到的训练(或再训练)的推理模型106可以被存储以供以后用于识别输入和向XR系统提供该输入,如下面更详细描述的。将会理解,推理模型可以是利用基于概率分布的统计推理来推断结果的模型;在这方面,推理模型可以包括统计模型。
在一些实施例中,由布置在穿戴在一只手/手臂上的第一可穿戴设备上的传感器记录的信号和由布置在穿戴在另一只手/手臂上的第二可穿戴设备上的传感器记录的信号可以使用相同的推理模型或单独的推理模型来处理。
可选地,系统100还包括一个或更多个控制器108。例如,控制器108可以是被配置为显示视觉表示(例如,手的表示)的显示控制器。如本文更详细讨论的,一个或更多个计算机处理器可以实现一个或更多个训练的推理模型,该训练的推理模型接收由传感器102记录的信号作为输入,并提供可用于识别输入并向XR系统提供该输入的信息(例如,预测的手部状态信息)作为输出。在一些实施例中,当用户执行不同的移动时,训练的推理模型将由可穿戴神经肌肉传感器记录的神经肌肉信号解释为用于更新肌肉骨骼表示的位置和力估计(例如,手部状态信息)。因为神经肌肉信号被连续感测和记录,所以肌肉骨骼表示被实时更新,并且手的视觉表示(例如,在XR环境内的)可以基于当前手部状态估计来渲染。将会理解,用户手部状态的估计可以用于确定用户正在执行的姿势和/或预测用户将执行的姿势。
根据一些实施例,肌肉骨骼表示(例如,手-渲染)可以包括仿生(现实)手、合成(机器人)手的实际视觉表示,以及用作姿势控制(例如,到其他应用、系统等)的输入的抽象“内部表示”。也就是说,手的位置和/或力可以被提供给下游算法(例如,XR系统中的控制算法),但是可能不被直接渲染。
在一些实施例中,如图1所示,系统100可选地包括计算机应用110,计算机应用110被配置为模拟虚拟现实(VR)、增强现实(AR)和/或混合现实(MR)环境(统称为扩展现实、“X现实”或“XR”系统或环境),并且计算机应用110可以在XR环境中(例如,经由控制器108)显示视觉角色,例如化身。基于训练的推理模型的输出,由虚拟现实环境内的视觉角色的各部分施加的定位、移动和/或力可以在XR环境中显示。XR环境中的视觉表示可以随着连续信号被传感器102记录、被计算机处理器处理并被发送到推理模型106以获得训练或推断的输出而动态更新,使得系统可以提供在XR环境中实时更新的视觉角色移动的计算机生成的表示。
在任一系统中生成的信息(例如,来自XR系统的XR相机输入、来自基于传感器数据生成肌肉骨骼表示的基于计算机的系统的神经肌肉传感器输入)可以用于改善用户体验、准确性、反馈、推理模型、校准功能以及整个系统中的其他方面。为此,例如,在XR环境中,系统100可以包括XR系统,该XR系统包括以下中的一个或更多个:处理器、相机(例如,被包含在头戴式显示器中的一个或更多个相机)、显示器(例如,经由XR眼镜或其他观察设备)、或在用户的视野内提供XR信息或向用户提供XR信息的任何其他辅助传感器。在一些实施例中,来自XR系统中的头戴式显示器中包含的相机的信息可以与来自神经肌肉传感器的信息结合使用,以解释用户执行的移动、姿势和/或动作。系统100还可以包括将XR系统与基于计算机的系统耦合的系统元件,该基于计算机的系统基于传感器数据生成肌肉骨骼表示。例如,这些系统可以经由专用或其他类型的计算机系统被耦合,所述专用或其他类型的计算机系统从XR系统和生成基于计算机的肌肉骨骼表示的系统接收输入。这种系统可以包括游戏系统、机器人控制系统、个人计算机或能够解释XR和肌肉骨骼信息的其他系统。XR系统和生成基于计算机的肌肉骨骼表示的系统也可以被编程为直接通信。这种信息可以使用任意数量的接口、协议或介质来传送。
在一些实施例中,推理模型106可以是神经网络,并且例如可以是循环神经网络。在一些实施例中,循环神经网络可以是长短期记忆(LSTM)神经网络。然而,应当理解,循环神经网络不限于LSTM神经网络,并且可以具有任何其他合适的架构。例如,在一些实施例中,循环神经网络可以是完全循环神经网络(fully recurrent neural network)、门控循环神经网络(gated recurrent neural network)、递归神经网络(recursive neuralnetwork)、Hopfield神经网络、联想记忆神经网络(associative memory neuralnetwork)、Elman神经网络、Jordan神经网络、回声状态神经网络(echo state neuralnetwork)、二阶循环神经网络(second order recurrent neural network)和/或任何其他合适类型的循环神经网络。在其他实施例中,可以使用不是循环神经网络的神经网络。例如,可以使用深度神经网络、卷积神经网络和/或前馈神经网络。
在一些实施例中,一个或更多个推理模型的输出包括一个或更多个离散输出。例如,当用户执行特定姿势或导致特定模式的激活(包括单独的神经尖峰事件)发生时,可以使用离散输出(例如,分类标签)。例如,可以训练模型来估计或推断用户是否正在激活特定的运动单元、以特定的定时激活特定的运动单元、以特定的放电模式激活特定的运动单元或者激活运动单元的特定组合。在较短的时间尺度上,在一些实施例中使用离散分类来估计特定的运动单元是否在给定的时间量内放电了动作电位。在这样的实施例中,这些估计然后可被累加,以获得该运动单元的估计的放电率。
在推理模型被实现为被配置成输出离散信号的神经网络的实施例中,该神经网络可以包括柔性最大值传输函数(softmax)层,使得输出加起来为1并且可以被解释为概率。柔性最大值传输函数层的输出可以是与相应的控制信号集对应的值的集合,其中每个值指示用户想要执行特定控制动作的概率。作为一个非限制性示例,柔性最大值传输函数层的输出可以是三个概率(例如,0.92、0.05和0.03)的集合,这三个概率指示检测到的活动模式是三个已知模式之一的相应概率。
应当理解,当推理模型是被配置成输出离散输出(例如,离散信号)的神经网络时,不要求神经网络产生加起来为1的输出。例如,代替柔性最大值传输函数层,神经网络的输出层可以是sigmoid层(其不将输出限制为加起来等于1的概率)。在这样的实施例中,可以用sigmoid交叉熵代价来训练神经网络。当多个不同的控制动作可能在阈值时间量内发生并且区分这些控制动作发生的顺序并不重要(例如,用户可能在阈值时间量内激活两种神经活动模式)时,在这种情况下,这种实现可以是有利的。在一些实施例中,可以使用任何其他合适的非概率多类(multi-class)分类器,因为本文描述的技术的方面在这一点上不受限制。
在一些实施例中,推理模型的输出可以是连续信号,而不是离散信号。例如,该模型可以输出每个运动单元的放电率的估计,或者该模型可以输出对应于每个运动单元或肌肉下结构的时间序列电信号。
应当理解,本文描述的技术的方面不限于使用神经网络,因为在一些实施例中可以采用其他类型的推理模型。例如,在一些实施例中,推理模型可以包括隐马尔可夫模型(HMM)、切换HMM(switching HMM)(其中切换允许在不同的动态系统之间跳变)、动态贝叶斯网络(dynamic Bayesian network)和/或具有时间分量的任何其他合适的图形模型。可以使用记录的传感器信号来训练任何这样的推理模型。
作为另一个示例,在一些实施例中,推理模型是采用从记录的传感器信号中导出的特征作为输入的分类器。在这样的实施例中,可以使用从传感器数据中提取的特征来训练分类器。分类器可以是支持向量机(support vector machine)、高斯混合模型、基于回归的分类器、决策树分类器、贝叶斯分类器和/或任何其他合适的分类器,因为本文描述的技术的方面在这一点上不受限制。要提供给分类器的输入特征可以以任何合适的方式从传感器数据中导出。例如,可以使用小波(wavelet)分析技术(例如,连续小波变换、离散时间小波变换等)、傅立叶分析技术(例如,短时傅立叶变换、傅立叶变换等)和/或任何其他合适类型的时间频率分析技术将传感器数据分析为时间序列数据。作为一个非限制性示例,可以使用小波变换来对传感器数据进行变换,并且可以将得到的小波系数作为输入提供给分类器。
在一些实施例中,可以根据训练数据来估计推理模型的参数的值。例如,当推理模型是神经网络时,可以根据训练数据来估计神经网络的参数(例如,权重)。在一些实施例中,可以使用梯度下降、随机梯度下降和/或任何其他合适的迭代优化技术来估计推理模型的参数。在推理模型是循环神经网络(例如,LSTM)的实施例中,可以使用随机梯度下降和随时间反向传播(backpropagation through time)来训练推理模型。训练可以采用交叉熵损失函数(cross-entropy loss function)和/或任何其他合适的损失函数,因为本文描述的技术的方面在这一点上不受限制。
如上面所讨论的,一些实施例涉及使用推理模型来基于从可穿戴传感器记录的信号预测肌肉骨骼信息。如上面在人类肌肉骨骼系统的部分可被建模为多节段铰接刚体系统的示例中简要讨论的,多节段铰接刚体模型中的节段之间的关节类型约束刚体的移动。此外,不同的人类个体在执行任务时倾向于以特有的方式移动,这可以在个体用户行为的推理模式中捕捉到。根据一些实施例,这些对人体移动的约束中的至少一些约束可以被明确地结合到用于预测的推理模型中。附加地或替代地,约束可以由推理模型通过基于记录的传感器数据的训练来学习,如上面简要讨论的。
如上面所讨论的,一些实施例涉及使用推理模型来预测手部状态信息,以能够生成和/或实时更新基于计算机的肌肉骨骼表示。推理模型可以用于基于当用户执行一个或更多个移动时检测到的IMU信号、神经肌肉信号(例如,EMG、MMG和/或SMG信号)、外部设备信号(例如,相机或激光扫描信号)、或者IMU信号、神经肌肉信号和外部设备信号的组合来预测手部状态信息。例如,如上面所讨论的,与XR系统相关联的相机可用于捕捉与基于计算机的肌肉骨骼表示的人类对象相关的实际位置数据,并且这种实际位置信息可用于提高表示的准确性。此外,推理模型的输出可用于生成基于计算机的肌肉骨骼表示在XR环境中的视觉表示。例如,可以在XR系统的视觉显示器中渲染肌肉群放电、施加力、经由移动输入文本或由基于计算机的肌肉骨骼表示产生的其他信息的视觉表示。在一些实施例中,其他输入/输出设备(例如,听觉输入/输出、触觉设备等)可用于进一步提高整个系统的准确性和/或改善用户体验。
本文描述的技术的一些实施例涉及使用推理模型,至少部分地用于将从神经肌肉信号识别的一个或更多个动作映射(例如,将从神经肌肉传感器识别的肌肉激活状态信息映射)到包括文本的输入信号。推理模型可以接收当用户执行一个或更多个肌肉下激活、一个或更多个移动和/或一个或更多个姿势时检测到的IMU信号、神经肌肉信号(例如,EMG、MMG和/或SMG信号)、外部设备信号(例如,相机或激光扫描信号)、或者IMU信号、神经肌肉信号和外部设备信号的组合作为输入。推理模型可用于预测要提供给AR系统的输入,而无需用户进行可感知的移动。
图2示出了根据一些实施例的将增强现实(AR)系统201与神经肌肉活动系统202集成在一起的基于分布式计算机的系统200的示意图。神经肌肉活动系统202类似于上面参照图1描述的系统100。
通常,增强现实(AR)系统201可以采取一副护目镜、眼镜或其他类型的设备的形式,该设备向用户显示可以叠加在“现实”上的显示元素,在某些情况下,该“现实”可以是用户对环境的视图(例如,通过用户的眼睛观看到的),或者是用户对环境的视图的捕捉(例如,通过相机)的版本。在一些实施例中,AR系统201可以包括安装在用户穿戴的设备内的一个或更多个相机(例如,相机204),该相机捕捉用户在其环境中经历的一个或更多个视图。系统201可以具有在用户设备和/或外围设备或计算机系统内操作的一个或更多个处理器205,并且这样的处理器可以能够发送和接收视频信息和其他类型的传感器数据。
AR系统201还可以包括一个或更多个传感器207,例如麦克风、GPS元件、加速度计、红外探测器、触觉反馈元件或任何其他类型的传感器、或其任意组合。在一些实施例中,AR系统201可以是基于音频的AR系统,并且一个或更多个传感器207还可以包括一个或更多个头戴式耳机(headphone)或扬声器。此外,AR系统201还可以具有一个或更多个显示器208,除了AR系统所呈现的用户环境的视图之外,显示器208还允许AR系统向用户覆盖和/或显示信息。AR系统201还可以包括一个或更多个通信接口(例如接口206),用于向一个或更多个计算机系统(例如游戏系统或能够渲染或接收AR数据的其他系统)传送信息的目的。AR系统可以采取许多形式,由许多不同的制造商提供。例如,各种实施例可以结合一种或更多种类型的AR系统来实现。例如,各种实施例可以用可从Microsoft公司获得的HoloLens全息现实眼镜、可从Magic Leap获得的Lightwear AR头戴式装置(headset)、可从Alphabet获得的Google Glass AR眼镜、可从ODG获得的R-7Smartglasses System或任何其他类型的AR和/或VR设备来实现。尽管通过示例的方式进行了讨论,但是应当理解,一个或更多个实施例可以在VR或XR系统内实现。
AR系统201可以通过一种或更多种通信方法可操作地耦合到神经肌肉活动系统202,所述通信方法包括但不限于蓝牙协议、Wi-Fi、类以太网(Ethernet-like)协议或任何数量的无线和/或有线连接类型。应当理解,例如,系统201和202可以通过一个或更多个中间计算机系统或网络元件直接连接或耦合。图2中的双向箭头表示系统201和202之间的通信耦合。
神经肌肉活动系统202可以在结构和功能上类似于上面参照图1描述的系统100。具体地,系统202可以包括结合图1描述的一个或更多个神经肌肉传感器209和/或辅助传感器、一个或更多个推理模型210,并且可以创建、维护和存储肌肉骨骼表示211。在上面讨论的示例实施例中,系统202可以包括诸如带的设备,用户可以穿戴该设备以便收集和分析神经肌肉信号。此外,系统202可以包括一个或更多个通信接口212,其允许系统202(例如通过蓝牙、Wi-Fi或其他通信方法)与AR系统201通信。值得注意的是,AR系统201和神经肌肉活动系统202可以传递信息,该信息可以用于增强用户体验和/或允许AR系统更准确和有效地运行。
虽然图2描述了将AR系统201与神经肌肉活动系统202集成在一起的基于分布式计算机的系统,但是将会理解,该集成本质上可以是非分布式的。在一些实施例中,神经肌肉活动系统202可以集成到AR系统201中,使得神经肌肉活动系统202的各种部件可以被认为是AR系统的一部分。例如,由神经肌肉传感器209记录的神经肌肉信号可以被视为AR系统201的任何其他输入(例如,相机204、传感器207)。此外,对从神经肌肉传感器209获得的传感器信号的处理可以集成到AR系统201中。
图3示出了用于识别输入并向XR系统提供该输入的过程300。具体而言,过程300是根据一些实施例关于识别输入并向AR系统(例如AR系统201)提供该输入来描述的。过程300可以由神经肌肉活动系统202执行。在动作302中,传感器信号可以由神经肌肉活动系统202的一个或更多个传感器102记录(在本文中也被称为“原始传感器信号”)。在一些实施例中,传感器包括布置在用户穿戴的可穿戴设备上的多个神经肌肉传感器(例如,EMG传感器)。例如,EMG传感器可以被布置在弹性带上,该弹性带被配置成围绕用户的手腕或前臂而穿戴,以在用户执行各种移动或姿势时记录来自用户的神经肌肉信号。在一些实施例中,EMG传感器可以是布置在带502上的传感器504,如图5所示;在一些实施例中,EMG传感器可以是布置在弹性带720上的传感器710,如图7A所示。
如本文所用,术语“姿势”指一个或更多个身体部位的静态或动态配置,包括一个或更多个身体部位的位置和与该配置相关联的力。例如,用户执行的姿势包括指示一个或更多个身体部位的静态配置的静态/离散姿势(也称为“姿态”)。例如,姿态可以包括拳头、张开的手、静态地将手掌朝下放置在或按压在实体表面上或抓住球。姿态可以通过提供姿态的位置信息(例如,节段坐标、关节角度或类似信息),或者通过提供对应于姿态的标识符(例如,参数、函数自变量或变量值)来指示静态配置。用户执行的姿势可以包括指示一个或更多个身体部位的动态配置的动态/连续姿势。动态配置可以描述一个或更多个身体部位的位置、一个或更多个身体部位的移动以及与该动态配置相关联的力。例如,动态姿势可以包括来回挥动手指、扔球或抓住并扔球。姿势可以包括其他人察觉不到的隐蔽姿势,例如通过共同收缩相对的肌肉来稍微拉紧关节,或者使用肌肉下激活。姿势可以由被配置为提示用户执行姿势的应用来定义,或者可选择地,姿势可以由用户任意定义。用户执行的姿势可以包括符号姿势(例如,基于指定映射的姿势词汇表,映射到其他姿势、交互或命令的姿势)。在某些情况下,手和手臂姿势可能是象征性的,并根据文化标准用于交流。
在一些实施例中,用户执行的移动或姿势可以包括敲击或打字动作,例如,在物理键盘的表面上的敲击或打字动作、在具有由AR系统201投射在其上的虚拟键盘的表面上的敲击或打字动作、在没有键盘的任何虚拟表示的情况下的敲击或打字动作和/或在空中(例如,不在表面上)执行的打字动作或其他姿势。
在一些实施例中,用户执行的移动或姿势可以包括书写动作,例如,用物理触笔、物理书写工具或用户的一个指尖或更多个指尖在表面上执行的书写动作(例如,用户可能通过将他的指尖一起保持在书写位置来想象他正在握着笔或触笔),用虚拟触笔或虚拟书写工具在表面上执行的书写动作,和/或用物理书写工具、虚拟书写工具或用户的指尖在空中而不是在特定表面上执行的书写动作。
在一些实施例中,用户执行的移动或姿势可以包括绘图动作,例如在表面上执行的绘图动作,包括绘制一条或更多条线段和/或曲线、和/或通过AR系统201投射的虚拟键盘(例如,虚拟滑动(swipe)键盘)滑动。
在一些实施例中,用户执行的移动或姿势可以包括单手动作,例如单手和弦(chord)姿势,包括用一只手的各种手指或手指组合挤压、敲击或捏合。
除了多个神经肌肉传感器之外,一些实施例还包括被配置成记录辅助信号的一个或更多个辅助传感器,该辅助信号也可以作为输入被提供给一个或更多个训练的推理模型。辅助传感器的示例包括IMU传感器、成像设备、辐射检测设备(例如,激光扫描设备)、心率监视器或被配置为在执行上述一个或更多个移动或姿势期间记录来自用户的生物物理信息的任何其他类型的生物传感器。在一些实施例中,神经肌肉信号可以与从辅助传感器检测到的信息(例如,提供指示用户生理状态和/或行为的信息的辅助信号)相关联或相关连。例如,辅助信号可以与神经肌肉信号一起使用,以解释用户的移动、姿势、动作或以其他方式增强和加强神经肌肉信号或下面详细描述的输入识别过程。
过程300然后进行到动作304,在动作304中,可选地处理由传感器102记录的原始传感器信号。在一些实施例中,可以使用硬件信号处理电路来处理原始传感器信号(例如,以执行放大、滤波和/或整流)。在其他实施例中,对原始传感器信号的至少一些信号处理可以在软件中执行。因此,对由传感器记录的原始传感器信号的信号处理可以在硬件、软件中执行,或由硬件和软件的任何适当组合来执行。在一些实现中,原始传感器信号可以被处理以导出其他信号数据。例如,由一个或更多个IMU传感器记录的加速度计数据可以被积分和/或滤波,以确定在肌肉激活或姿势执行期间与一个或更多个肌肉相关联的导出的信号数据。
过程300然后进行到动作306,在动作306中,原始传感器信号或经处理的传感器信号可选地被提供给训练的推理模型作为输入,该训练的推理模型被配置为输出表示用户活动的信息,例如手部状态信息和/或肌肉激活状态信息(例如,姿势或姿态),如上所述。
过程300然后进行到动作308,在动作308中,基于原始传感器信号、经处理的传感器信号和/或训练的推理模型的输出(例如,手部状态信息)来识别要提供给AR系统201的输入。在一些实施例中,可以基于从原始传感器信号、经处理的传感器信号和/或训练的推理模型的输出中识别的移动、姿势或动作来识别要提供给AR系统201的输入。例如,要提供给AR系统201的文本输入可以基于敲击或打字动作、书写动作、绘图动作和/或单手动作来识别。可以识别不同于文本输入的输入或除了文本输入之外的输入,例如,可以基于绘图动作来识别绘图。
根据一些实施例,系统100的一个或更多个计算机处理器104可以被编程为从传感器102记录的信号(例如,原始传感器信号)和/或从基于这些信号的信息中识别要提供给AR系统201的输入。基于由传感器102记录的信号的信息可以包括与经处理的传感器信号(例如,经处理的EMG信号)相关联的信息和/或与训练的推理模型的输出相关联的信息(例如,手部状态信息)。
根据一些实施例,除了由神经肌肉传感器记录的信号之外,还可以基于从辅助传感器(例如,与神经肌肉活动系统202或增强现实系统201相关联的一个或更多个IMU传感器、一个或更多个相机或成像设备)输出的信号来识别要提供给AR系统201的输入。当用户执行各种移动、姿势和/或动作时,这种辅助传感器可以提供关于笔、触笔、指尖的移动的附加信息。附加信息可用于提高识别过程的准确性。
在一些实施例中,所识别的输入可以被提供给AR系统201。AR系统201可以通过向用户显示所识别的输入的指示来提供视觉反馈(和/或可以提供其他形式的反馈,例如音频或触觉反馈)。视觉反馈可以例如通过提示用户调整各种移动、姿势和/或动作的执行方式来促进文本输入。视觉反馈在用户使用物体或用户的手/指尖提供输入的情况下可能是有用的,例如,当在表面上书写或绘图时,这不会留下物理标记。在一些实施例中,所识别的输入的指示包括基于用户执行的敲击或打字动作、书写动作、绘图动作和/或单手动作识别的文本输入。在一些实施例中,所识别的输入的指示包括针对文本输入的一个或更多个建议的或预测的单词或短语的列表。例如,可以向用户呈现多个选项、猜测或替代单词。用户可以通过例如执行某些移动或姿势(基于神经肌肉信号被识别)或使用替代控制方案(例如光标/指针)从所呈现的项目中进行选择。在一些实施例中,所识别的输入的指示包括与书写工具做出的一个或更多个笔画相关联的一个或更多个虚拟墨迹。在一些实施例中,所识别的输入的指示包括基于用户执行的绘图动作而识别的绘图。在一些实施例中,该指示可以经由在AR系统201提供的增强现实环境内呈现的用户界面来显示。例如,该指示可以在用户界面中的虚拟文档上被提供,或者作为在AR环境中被示出为在空间中浮动的表示被提供。在一些实施例中,该指示可以通过AR系统201渲染在用户正与之交互的表面上。该指示可以渲染在用户正在打字的表面上,例如,作为滚动纸带(scrolling tickertape)或面向行的打字机(line-oriented typewriter)。该指示可以渲染在用户正在书写的表面上,例如作为表面上的虚拟墨水。
图4示出了用于识别输入并向XR系统提供该输入的过程400。具体而言,过程400是根据一些实施例关于识别输入并向AR系统(例如AR系统201)提供该输入来描述的。过程400可以由神经肌肉活动系统202执行。在动作402中,传感器信号由神经肌肉活动系统202的一个或更多个传感器例如神经肌肉传感器(例如,EMG传感器)和/或辅助传感器(例如,IMU传感器、成像设备、辐射检测设备、心率监视器或任何其他类型的生物传感器)记录。
在动作404中,可以确定神经肌肉活动系统202处于被配置为向AR系统201提供包括文本的输入的模式。该模式可以包括打字模式,其中用户可以在物理或虚拟键盘上执行敲击或打字动作以提供文本输入;书写模式,其中用户可以用物理或虚拟的书写工具(例如,笔、触笔等)和/或指尖执行书写动作来提供文本输入;绘图模式,其中用户可以用物理或虚拟的书写工具(例如,笔、触笔等)和/或指尖执行绘图动作来提供文本和/或绘图输入;单手模式,其中用户可以执行单手动作来提供文本输入;和/或可以向AR系统201提供离散和/或连续控制信号作为输入的模式。
在一些实施例中,可以基于用户对模式的选择来进行模式确定。换句话说,可以响应于接收到用户对模式的选择来确定神经肌肉活动系统202所处的模式。用户选择可以从在AR系统201提供的AR环境中显示的用户界面被接收。用户界面可以识别和显示多种模式,用户可以从该多种模式中选择特定模式。例如,可以提供可用模式的列表,例如打字模式、书写模式、绘图模式和/或单手模式,并且用户可以从列表中选择模式。
在一些实施例中,可以根据传感器信号和/或根据基于传感器信号的信息来进行模式确定。换句话说,神经肌肉活动系统202所处的模式可以根据传感器信号和/或根据基于传感器信号的信息来确定。在一个实施例中,可以根据传感器信号和/或根据基于传感器信号的信息来识别用户执行的特定姿势,并且可以通过识别对应于该特定姿势的模式来确定模式。例如,不同的姿势可以被映射到不同的模式,并且特定模式可以基于用户执行的对应姿势来确定。基于特定姿势或肌肉激活状态进入的模式可以取决于系统的状态(例如,系统的当前模式)和/或可以根据用户的偏好设置来个性化。在一些实施例中,当用户执行与相应模式相关联的一个或更多个动作时,可以确定该模式。例如,当用户开始执行打字动作时,神经肌肉活动系统202可以被配置为识别输入模式是打字模式,并且当用户开始执行书写动作时,神经肌肉活动系统202可以被配置为识别输入模式是书写模式。基于对用户执行的不同动作的检测,神经肌肉活动系统202可以从一种模式切换到另一种模式。例如,用户可以在执行打字动作和书写动作之间切换,并且系统可以确定输入模式应该相应地在打字模式和书写模式之间切换,而不中断文本输入。
在一些实施例中,可以基于从AR系统201接收到的信号来进行模式确定。换句话说,神经肌肉活动系统202可以被配置成以响应于从AR系统接收到信号而确定的模式来操作。AR系统201可以响应于对事件的检测来生成信号,对于该事件,期望在AR系统提供的AR环境内进行输入。例如,可能需要文本输入来完成在AR环境中显示的用户界面中呈现的表单的一部分。表单的呈现可以触发AR系统生成信号,该信号指示文本输入被期望。该信号可以标识可用于提供输入的各种模式。AR系统201可以将该信号传送给神经肌肉活动系统202,并且神经肌肉活动系统202可以切换到特定的可用模式来提供文本输入。
在动作406中,可以根据原始或经处理的信号和/或根据基于记录的信号的信息(例如,手部状态和/或肌肉激活状态信息)来识别要提供给AR系统201的输入。在一些实施例中,系统100的一个或更多个计算机处理器可以被编程为基于传感器信号、手部状态信息、对姿势或肌肉激活状态的检测、和/或前述任意的组合来识别输入。
在一些实施例中,可以基于神经肌肉活动系统202的当前模式来进一步识别要提供给AR系统201的输入。当神经肌肉活动系统202处于打字模式时,可以通过根据传感器信号和/或根据基于传感器信号的信息识别由用户执行的一个或更多个敲击或打字动作来识别针对打字模式要提供给AR系统201的输入。例如,可以基于传感器信号来识别在物理键盘的表面上或在其上有AR系统投射的虚拟键盘的表面上执行的敲击或打字动作,并且可以基于敲击/打字动作来识别针对打字模式的文本输入。图9A描绘了用户在放置在桌子上的物理键盘902上执行打字动作。可以基于与这些打字动作相关联的神经肌肉信号和/或肌肉激活状态(如可穿戴部分810所检测到的)来识别要提供给AR系统的输入,并且可以经由虚拟头戴式装置904向用户显示所识别的输入的指示。
当神经肌肉活动系统202处于书写模式时,可以通过根据传感器信号和/或根据基于传感器信号的信息识别由用户执行的一个或更多个书写动作来识别针对书写模式要提供给AR系统201的输入。例如,可以基于传感器信号来识别用物理书写工具、虚拟书写工具和/或用户的指尖在表面上执行的书写动作,并且可以基于书写动作识别针对书写模式的文本输入。图9B描绘了用户使用可选的触笔910在可选的平板设备912上执行书写动作。可以基于与这些书写动作相关联的神经肌肉信号和/或肌肉激活状态(如可穿戴部分810所检测到的)来识别要提供给AR系统的输入,并且可以经由虚拟头戴式装置904向用户显示所识别的输入的指示。
当神经肌肉活动系统202处于绘图模式时,可以通过根据传感器信号和/或根据基于传感器信号的信息识别由用户执行的一个或更多个绘图动作(例如,在表面上绘制多个线段和/或曲线)来识别针对绘图模式要提供给AR系统的输入。可以基于绘图动作来识别针对绘图模式的输入(例如,文本输入和/或绘图输入)。在一些实施例中,针对绘图模式的输入可以包括一个或更多个线段和/或曲线。在一些实施例中,针对绘图模式的输入可以包括基于由用户执行的绘图动作控制的像素位置序列确定的输入。图9C描绘了用户在空中(即,在不使用任何书写工具的情况下)执行绘图动作。可以基于与这些绘图动作相关联的神经肌肉信号和/或肌肉激活状态(如可穿戴部分810所检测到的)来识别要提供给AR系统的输入,并且可以经由虚拟头戴式装置904向用户显示所识别的输入的指示。在本文描述的该场景和其他场景中,辅助传感器(例如,相机)(未示出)可以作为虚拟头戴式装置的一部分或者作为单独的部件被提供,并且可以提供附加信息(例如,手的位置),该附加信息可以用于进一步解释用户动作和相关联的神经肌肉信号和/或肌肉激活状态。
在一些实施例中,可以基于用户执行的绘图动作来识别文本输入和绘图。在一些实现中,传感器信号的处理可以由多个处理器执行。神经肌肉传感器可以被配置成将至少一些传感器信号传送到第一计算机处理器和第二计算机处理器,其中绘图可以由第一计算机处理器识别,文本输入(例如,手写(handwriting))可以由第二计算机处理器识别。来自第一和第二计算机处理器的文本输入和绘图可以被组合,使得文本覆盖或注释绘图,或者被存储为元数据用于以后的处理(例如,搜索和过滤)。在其他实现中,可以基于用户执行的绘图动作来识别绘图,并且可以从绘图中识别文本输入。例如,可以从传感器信号中识别绘图,并且可以通过在绘图上运行手写识别过程来从绘图中识别文本。
当神经肌肉活动系统202处于单手模式(即,用户仅使用一只手来提供输入的模式)时,可以通过根据传感器信号和/或根据基于传感器信号的信息识别用户执行的一个或更多个单手动作(例如,各种手指和手指组合的挤压、捏合和/或敲击)来识别针对单手模式要提供给AR系统的输入。针对单手模式的文本输入可以基于单手动作来识别。
在一些实施例中,除了打字/敲击、书写、绘图和/或单手动作之外,还可以识别一个或更多个姿势,以允许编辑和/或更正所识别的文本。例如,除了书写动作(基于哪种文本输入被识别)之外,还可以识别允许删除文本输入中识别的字母或单词的一个或更多个删除姿势。一个或更多个删除姿势可以包括删除单个字母的姿势、删除先前单词的姿势和/或删除所选单词的姿势。在一些实施例中,对要删除的单词的选择可以使用神经肌肉控制(例如光标导航)来完成。一个或更多个删除姿势可以涉及操纵用户正在持有的物体(例如,触笔或铅笔)。例如,一个或更多个删除姿势可以包括将诸如铅笔的物体弹到橡皮擦位置,然后用特定的手指在对象上滑动或按下虚构按钮,以启动一个或更多个字母或单词的删除。
在一些实施例中,一个或更多个姿势(例如指示文本行的结束和新文本行的开始的换行符姿势、指示文本中的空格符的空格姿势和/或其他姿势)可以被标识并与识别文本输入相结合,以允许用户在不必物理地移动他的手(例如,将手移动到虚拟文档中的虚拟页面右侧或下侧)的情况下编写更长的文本序列。例如,在特定方向上的滑动或轻击(flick)可以用作换行符姿势,而“抬起笔(pen up)”动作可以用于空格或断字。
在动作408中,动作406中识别的输入可以被提供给AR系统201。根据传感器信号和/或根据基于传感器信号的信息识别的文本输入和/或绘图输入可以被提供给AR系统201。系统100的一个或更多个计算机处理器可以识别输入并向AR系统提供该输入。
在一些实施例中,神经肌肉活动系统202可以在例如打字、书写、绘图和/或单手模式的不同模式之间切换,以提供输入。例如,用户可以通过在物理键盘的表面上敲击、用触笔在表面上书写、通过在AR环境中投射的虚拟滑动键盘滑动、或者使用从神经肌肉信号到文本的自定义无移动映射来提供基于文本的输入。这些不同的方法都可以通过公共应用编程接口(API)与AR系统201集成。换句话说,不同形式的文本输入可以由神经肌肉活动系统202识别并被提供给AR系统201,其中AR系统经由公共文本API接收不同形式的文本输入。
在一些实施例中,可以从多个源中识别要提供给AR系统201的输入,其中源可以包括神经肌肉信号和至少一个不同于神经肌肉信号的源。例如,该至少一个源可以包括物理输入设备,例如物理键盘或触笔。从多个源接收的输入可以被组合,并且组合的输入可以被提供给AR系统201。在一些实现中,公共API可以从多个源接收输入。在一些实施例中,由AR系统提供的视觉反馈可以继续,而不管文本输入的源、模式或形式。
在一些实施例中,当与物理输入设备结合使用时,神经肌肉活动系统202可以学习使用神经肌肉信号来仿真物理输入设备,从而允许在物理输入设备和它们的虚拟仿真之间的无缝切换。
图7A示出了具有16个神经肌肉传感器710(例如,EMG传感器)的可穿戴系统,这些传感器围绕弹性带720周向地布置,弹性带720被配置成围绕用户的下臂或手腕穿戴。如所示的,EMG传感器710围绕弹性带720周向地布置。应当理解,可以使用任何合适数量的神经肌肉传感器。神经肌肉传感器的数量和布置可以取决于可穿戴设备所用于的特定应用。例如,可穿戴臂带或腕带可以用于生成控制信息,以控制增强现实系统、机器人,控制车辆,滚动浏览文本,控制虚拟化身,或用于任何其他合适的控制任务。
在一些实施例中,传感器710包括神经肌肉传感器(例如,EMG传感器)的集合。在其他实施例中,传感器710可以包括神经肌肉传感器的集合和被配置成连续记录辅助信号的至少一个“辅助”传感器。辅助传感器的示例包括但不限于其他传感器,例如IMU传感器、麦克风、成像传感器(例如,相机)、与辐射产生设备(例如,激光扫描设备)一起使用的基于辐射的传感器、或者其他类型的传感器(例如心率监视器)。如所示的,传感器710可以使用结合到可穿戴设备中的柔性电子器件730来耦合在一起。图7B示出了图7A所示的可穿戴设备的传感器710之一的横截面视图。
在一些实施例中,可选地,可以使用硬件信号处理电路来处理(例如,以执行放大、滤波和/或整流)一个或更多个感测部件的输出。在其他实施例中,对感测部件的输出的至少一些信号处理可以在软件中执行。因此,对由传感器采样的信号的信号处理可以在硬件、软件中执行,或由硬件和软件的任何适当组合执行,因为本文描述的技术的方面在这一点上不受限制。下面结合图8A和图8B更详细地讨论用于处理来自传感器710的所记录的数据的信号处理链的非限制性示例。
图8A和图8B示出了根据本文描述的技术的一些实施例的具有16个EMG传感器的可穿戴系统的内部部件的示意图。如所示的,可穿戴系统包括可穿戴部分810(图8A)和(例如,经由蓝牙或另一种合适的短程无线通信技术)与可穿戴部分810通信的加密狗部分820(图8B)。如图8A所示,可穿戴部分810包括传感器710,其示例结合图7A和图7B进行了描述。传感器710的输出被提供给模拟前端830,模拟前端830被配置成对所记录的信号执行模拟处理(例如,降噪、滤波等)。经处理的模拟信号然后被提供给模数转换器832,模数转换器832将模拟信号转换成可以由一个或更多个计算机处理器处理的数字信号。根据一些实施例可以使用的计算机处理器的一个示例是图8A所示的微控制器(MCU)834。如所示的,MCU 834也可以包括来自其他传感器(例如,IMU传感器840)以及电源和电池模块842的输入。由MCU执行的处理的输出可以被提供给天线850,用于传输到图8B所示的加密狗部分820。
加密狗部分820包括天线852,天线852被配置成与作为可穿戴部分810的一部分被包括的天线850通信。可以使用任何合适的无线技术和协议(其非限制性示例包括射频信令和蓝牙)进行天线850和852之间的通信。如所示的,由加密狗部分820的天线852接收的信号可以被提供给主计算机,用于进一步处理、显示和/或用于实现对特定物理或虚拟对象的控制。
虽然参考图7A、7B和图8A、8B提供的示例是在与EMG传感器的接口的上下文中讨论的,但是应当理解,本文描述的用于减少电磁干扰的技术也可以在与其他类型的传感器的可穿戴接口中实现,包括但不限于肌电图(MMG)传感器、声肌图(SMG)传感器和电阻抗断层摄影(EIT)传感器。此外,将会理解,本文描述的用于向AR系统提供输入的技术也可以在VR、MR或XR系统内实现。
将会理解,本公开不限于使用打字、书写、绘图和/或单手模式或者基于敲击/打字动作、书写动作、绘图动作和/或单手动作的识别的输入,并且可以使用其他模式或动作。例如,在不脱离本公开的范围的情况下,除了在表面上的打字、敲击、书写或绘图之外,还可以使用双手动作,例如双手的指尖挤压、手部手势或手指移动的组合。
可以以多种方式中的任一种来实现上述实施例。例如,可以使用硬件、软件或其组合来实现实施例。当以软件实现时,软件代码可以在任何合适的处理器或处理器集群(无论是在单个计算机中提供的,还是分布在多个计算机之间的)上执行。应当认识到,执行上述功能的任何部件或部件集群可以一般地被考虑为控制上面讨论的功能的一个或更多个控制器。可以以多种方式例如利用专用硬件或者利用使用微码或软件被编程为执行上面列举的功能的一个或更多个处理器来实现一个或更多个控制器。
在这方面,应当理解,本发明的实施例的一个实现包括编码有计算机程序(即,多个指令)的至少一个非暂时性计算机可读存储介质(例如,计算机存储器、便携式存储器、光盘等),该计算机程序当在处理器上执行时,执行本发明的实施例的以上所讨论的功能。计算机可读存储介质可以是可传输的,使得存储在其上的程序可以被加载到任何计算机资源上,以实现本文所讨论的本发明的各方面。此外,应当认识到,对当被执行时执行上面讨论的功能的计算机程序的提及不限于在主计算机上运行的应用程序。相反,术语“计算机程序”在本文中以一般意义使用,以指代任何类型的计算机代码(例如,软件或微码),其可以用于对处理器进行编程以实现本发明的以上所讨论的各方面。
本发明的各个方面可以单独使用、组合使用或者以在前面描述的实施例中没有具体讨论的各种布置使用,因此它们的应用不限于在前面描述中阐述的或者在附图中示出的部件的细节和布置。例如,在一个实施例中描述的方面可以以任何方式与在其他实施例中描述的方面组合。
此外,本发明的实施例可以被实现为一种或更多种方法,已经提供了其示例。作为方法的一部分被执行的动作可以以任何合适的方式被排序。相应地,可以构造这样的实施例,其中动作以与所示出的不同的顺序被执行,这可以包括同时执行一些动作,即使这些动作在说明性实施例中被示为顺序动作。
在本文讨论的任何实施例中,前述特征可以单独地或者以任何组合的方式一起被使用。
此外,尽管可以指出本发明的优点,但是应当理解,不是本发明的每个实施例都包括每个描述的优点。一些实施例可能不实现本文中被描述为有利的任何特征。因此,前面的描述和附图仅作为示例。
公开的实施例的变化是可能的。例如,本技术的各个方面可以单独使用、组合使用,或者在前面描述的实施例中没有具体讨论的各种布置中使用,因此它们的应用不限于在前面描述中阐述的或在附图中示出的部件的细节和布置。一个实施例中描述的方面可以以任何方式与其他实施例中描述的方面相结合。
在权利要求中使用序数术语例如“第一”、“第二”、“第三”等来修改权利要求元素并不单独地暗示一个权利要求元素相对于另一个权利要求元素的任何优先级、优先权、或顺序或者方法的动作被执行的时间顺序。这样的术语仅用作标签以将具有特定名称的一个权利要求元素与具有相同名称的另一个元素区分开(但对于序数术语的使用)。
如在本文在说明书和权利要求中使用的不定冠词“一个(a)”和“一个(an)”,除非有相反的明确指示,否则应理解为表示“至少一个”。
关于一个或更多个元素的列表,短语“至少一个”的任何使用应理解为表示从元素列表中的任何一个或更多个元素中选择的至少一个元素,但不一定包括元素列表内具体列出的每个元素中的至少一个,并且不排除元素列表中元素的任何组合。该定义还允许除了在短语“至少一个”所指的元素的列表内特别标识的元素以外的元素可以可选地存在,而不管与被特别标识的那些元素相关或不相关。
短语“相等”或“相同”在涉及两个值(例如,距离、宽度等)时的任何使用意味着两个值在制造公差范围内是相同的。因此,两个值相等或相同,可能意味着两个值彼此相差±5%。
如在本文在说明书中和在权利要求中使用的短语“和/或”应当被理解为意指这样连接的元素中的“任一者或两者”,即,在一些情况下连接着地存在并且在其他的情况下分离地存在的元素。用“和/或”列出的多个元素应该以相同的方式被解释,即这样连接的元素中的“一个或更多个”。除了被“和/或”子句特别标识的元素之外,其他元素可以可选地存在,而不管是否与特别标识的那些元素相关或不相关。因此,作为非限制性示例,对“A和/或B”的提及当与开放的语言例如“包括”结合来使用时可以在一个实施例中指仅仅A(可选地包括除了B以外的元素);在另一个实施例中指仅仅B(可选地包括除了A以外的元素);在又一个实施例中指A和B两者(可选地包括其他元素);等等。
如在本文在说明书和权利要求中使用的,“或”应该理解为具有与上面定义的“和/或”相同的含义。例如,当分离列表中的项目时,“或”或“和/或”应被解释为包含性的,即包括多个元素或元素列表中的至少一个,但也包括该多个元素或元素列表中的一个以上的元素,以及可选地包括附加的未列出的项目。只有明确表示相反的术语,例如“仅其中之一”或“恰好其中之一”,或者当在权利要求中使用时的“由……组成”,将指的是包含多个元素或元素列表中的恰好一个元素。一般而言,当前面有排他性的术语时,例如“任一”、“其中之一”、“仅其中之一”或“恰好其中之一”,本文使用的术语“或”应当仅被解释为表示排他性的替代物(即,“一个或另一个,但不是两者”)。当在权利要求中使用时,“基本上由……组成”应具有其在专利法领域中使用的普通含义。
本文所使用的措辞和术语是为了描述的目的,且不应被视为限制性的。“包括(including)”、“包括(comprising)”、“具有(having)”、“包含(containing)”、“涉及(involving)”、及它们的变形的使用意指包括在其后列出的项和另外的项。
已经详细描述了本发明的几个实施例,本领域技术人员将容易想到各种修改和改进。这些修改和改进旨在落入本发明的精神和范围内。因此,前面的描述仅仅是作为示例,且并不旨在为限制性的。本发明仅由所附权利要求及其等同物限定。

Claims (34)

1.一种用于向扩展现实系统提供输入的计算机化系统,所述计算机化系统包括:
一个或更多个神经肌肉传感器,其被配置为检测来自用户的神经肌肉信号,其中所述一个或更多个神经肌肉传感器被布置在第一可穿戴设备和第二可穿戴设备上,所述第一可穿戴设备被配置为检测来自所述用户的第一手臂的神经肌肉信号,并且所述第二可穿戴设备被配置为检测来自所述用户的第二手臂的神经肌肉信号;和
至少一个计算机处理器,所述至少一个计算机处理器被编程为:
确定所述计算机化系统处于被配置为向所述扩展现实系统提供第一输入的第一模式;
至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的信息来识别所述第一输入;和
向所述扩展现实系统提供所识别的第一输入;
其中所述至少一个计算机处理器还被编程为:
至少部分地根据所述神经肌肉信号和/或根据基于所述神经肌肉信号的信息来识别第二输入,其中至少部分地基于第二模式来进一步识别所述第二输入;
确定所述计算机化系统将从所述第一模式切换到所述第二模式;
响应于确定所述计算机化系统将从所述第一模式切换到所述第二模式,将所述计算机化系统从所述第一模式切换到所述第二模式;以及
将所识别的第二输入提供给所述扩展现实系统;
其中所述第一模式和所述第二模式是基于从所述用户检测到的手势来确定的,其中所述手势是根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的所述信息来识别的;
其中所述第一模式和所述第二模式包括以下项中的一个或多个:
打字模式,其中识别输入包括至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的所述信息来识别一个或更多个敲击或打字动作,其中所述计算机化系统还包括物理键盘或虚拟键盘;
书写模式,其中识别输入包括至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的所述信息来识别从所述用户检测到的一个或更多个书写动作,其中所述计算机化系统还包括物理触笔或虚拟触笔或物理书写工具或虚拟书写工具,和/或其中所述一个或更多个书写动作被识别为在空中被检测到;
绘图模式,其中识别输入包括至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的所述信息来识别从所述用户检测到的一个或更多个绘图动作,其中针对所述绘图模式,识别所述输入包括将输入识别为绘图和/或文本;以及
单手模式,其中识别输入包括至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的所述信息来识别从所述用户检测到的一个或更多个单手动作。
2.根据权利要求1所述的计算机化系统,其中从所述用户检测到的一个或更多个绘图动作包括多个线段和/或曲线。
3.根据权利要求1所述的计算机化系统,其中所述至少一个计算机处理器还被编程为组合绘图输入和文本输入,使得文本对绘图进行覆盖或注释。
4.根据权利要求1所述的计算机化系统,其中所述扩展现实系统被配置为向所述用户显示所识别的输入的指示。
5.根据权利要求4所述的计算机化系统,其中所识别的输入的指示包括基于从所述用户检测到的一个或更多个打字、书写、绘图动作或单手动作而识别的文本输入。
6.根据权利要求1所述的计算机化系统,还包括视觉显示器或界面,所述视觉显示器或界面被配置为呈现用于文本输入的一个或更多个建议的或预测的单词或短语。
7.根据权利要求1所述的计算机化系统,还包括视觉显示器或界面,所述视觉显示器或界面被配置为呈现与从所述用户检测到的一个或更多个笔画相关联的一个或更多个虚拟墨迹。
8.根据权利要求1所述的计算机化系统,还包括视觉显示器或界面,所述视觉显示器或界面被配置为呈现基于从所述用户检测到的一个或更多个绘图动作而识别的绘图。
9.根据权利要求1所述的计算机化系统,还包括:
至少一个惯性测量单元(IMU)传感器,
其中识别所述输入包括至少部分地基于与所述至少一个IMU传感器相关联的至少一个输出信号来识别所述输入。
10.根据权利要求1所述的计算机化系统,还包括:
至少一个相机,
其中识别所述输入包括至少部分地基于与所述至少一个相机相关联的至少一个输出信号来识别所述输入。
11.根据权利要求1所述的计算机化系统,其中所述扩展现实系统是增强现实系统。
12.一种由计算机化系统执行的用于向扩展现实系统提供输入的方法,所述方法包括:
使用布置在第一可穿戴设备和第二可穿戴设备上的一个或更多个神经肌肉传感器来检测来自用户的多个神经肌肉信号,所述第一可穿戴设备被配置为检测来自所述用户的第一手臂的神经肌肉信号,并且所述第二可穿戴设备被配置为检测来自所述用户的第二手臂的神经肌肉信号;
确定所述计算机化系统处于被配置为向所述扩展现实系统提供第一输入的第一模式;
至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的信息来识别所述第一输入;和
向所述扩展现实系统提供所识别的第一输入;
其中所述方法还包括:
至少部分地根据所述神经肌肉信号和/或根据基于所述神经肌肉信号的信息来识别第二输入,其中至少部分地基于第二模式来进一步识别所述第二输入;
确定所述计算机化系统将从所述第一模式切换到所述第二模式;
响应于确定所述计算机化系统将从所述第一模式切换到所述第二模式,将所述计算机化系统从所述第一模式切换到所述第二模式;以及
将所识别的第二输入提供给所述扩展现实系统;
其中所述第一模式和所述第二模式是基于从所述用户检测到的手势来确定的,其中所述手势是根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的所述信息来识别的;
其中所述第一模式和所述第二模式包括以下项中的一个或多个:
打字模式,其中识别输入包括至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的所述信息来识别一个或更多个敲击或打字动作,其中所述计算机化系统还包括物理键盘或虚拟键盘;
书写模式,其中识别输入包括至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的所述信息来识别从所述用户检测到的一个或更多个书写动作,其中所述计算机化系统还包括物理触笔或虚拟触笔或物理书写工具或虚拟书写工具,和/或其中所述一个或更多个书写动作被识别为在空中被检测到;
绘图模式,其中识别输入包括至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的所述信息来识别从所述用户检测到的一个或更多个绘图动作,其中针对所述绘图模式,识别所述输入包括将输入识别为绘图和/或文本;以及
单手模式,其中识别输入包括至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的所述信息来识别从所述用户检测到的一个或更多个单手动作。
13.一种用于向扩展现实XR系统提供一个或更多个输入的根据权利要求1所述的计算机化系统,所述计算机化系统还包括:
一个或更多个辅助传感器,其被配置为检测来自所述用户的关于生理状态和/或行为的信息;和
至少一个计算机处理器,所述至少一个计算机处理器被编程为:
确定所述系统处于被配置为向所述XR系统提供第一输入或第二输入的第一模式或第二模式,
将所述神经肌肉信号与由所述一个或更多个辅助传感器检测到的所述信息相关联,
使用一个或更多个推理模型处理所述神经肌肉信号和/或由所述一个或更多个辅助传感器检测到的所述信息;
基于经处理的神经肌肉信号和/或经处理的由所述一个或更多个辅助传感器检测到的信息来识别所述第一输入或所述第二输入;和
向所述XR系统提供识别的第一输入或第二输入。
14.一种用于至少部分地基于神经肌肉信号向增强现实系统提供输入的根据权利要求1所述的计算机化系统,所述计算机化系统还包括:
多个神经肌肉传感器,所述多个神经肌肉传感器被配置为记录来自用户的多个神经肌肉信号,其中,所述多个神经肌肉传感器被布置在所述第一可穿戴设备和所述第二可穿戴设备上;以及
其中所述至少一个计算机处理器还被编程为:
确定所述计算机化系统处于被配置为向所述增强现实系统提供第一输入的第一模式,所述输入包括文本;
至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的信息来识别所述第一输入,其中至少部分地基于所述第一模式来进一步识别所述第一输入;和
向所述增强现实系统提供所识别的第一输入;
其中所述至少一个计算机处理器还被编程为:
至少部分地根据所述神经肌肉信号和/或根据基于所述神经肌肉信号的信息来识别第二输入,其中至少部分地基于第二模式来进一步识别所述第二输入;
确定所述计算机化系统将从所述第一模式切换到所述第二模式;
响应于确定所述计算机化系统将从所述第一模式切换到所述第二模式,将所述计算机化系统从所述第一模式切换到所述第二模式;以及
将所识别的第二输入提供给所述增强现实系统;
其中所述第一模式和所述第二模式是基于从所述用户检测到的手势来确定的,其中所述手势是根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的所述信息来识别的;
其中所述第一模式和所述第二模式包括以下项中的一个或多个:
打字模式,其中用户能够在物理键盘或虚拟键盘上执行一个或多个敲击或打字动作以向所述增强现实系统提供文本输入;
书写模式,其中用户能够用物理书写工具或虚拟书写工具和/或指尖执行一个或多个书写动作来向所述增强现实系统提供文本输入;
绘图模式,其中用户能够执行一个或多个绘图动作来向所述增强现实系统提供文本和/或绘图输入;以及
单手模式,其中用户能够执行一个或多个单手动作来向所述增强现实系统提供文本输入;以及
其中动作包括分别与所述打字模式、所述书写模式、所述绘图模式和所述单手模式相关联的打字动作、书写动作、绘图动作以及单手动作。
15.根据权利要求14所述的计算机化系统,其中识别所述一个或更多个敲击或打字动作包括:
识别在物理键盘的表面上的一个或更多个敲击或打字动作。
16.根据权利要求14所述的计算机化系统,其中识别所述一个或更多个敲击或打字动作包括:
识别在具有虚拟键盘的表面上的一个或更多个敲击或打字动作,所述虚拟键盘由所述增强现实系统投射在所述表面上。
17.根据权利要求14所述的计算机化系统,其中识别所述用户执行的一个或更多个书写动作包括:
识别用物理触笔、物理书写工具或所述用户的一个或更多个指尖在表面上执行的一个或更多个书写动作。
18.根据权利要求14所述的计算机化系统,其中识别所述用户执行的一个或更多个书写动作包括:
识别用虚拟触笔或虚拟书写工具在表面上执行的一个或更多个书写动作。
19.根据权利要求14所述的计算机化系统,其中识别所述用户执行的一个或更多个书写动作包括:
识别在空中执行的一个或更多个书写动作。
20.根据权利要求14所述的计算机化系统,其中针对所述绘图模式的输入包括多个线段和/或曲线。
21.根据权利要求14所述的计算机化系统,其中针对所述绘图模式的输入包括基于由所述用户执行的一个或更多个绘图动作控制的像素位置序列而确定的输入。
22.根据权利要求14所述的计算机化系统,其中识别针对所述绘图模式的输入包括:
基于所述用户执行的一个或更多个绘图动作来识别绘图;和
基于所述用户执行的一个或更多个绘图动作来识别文本。
23.根据权利要求22所述的计算机化系统,其中,所述至少一个计算机处理器还被编程为:
组合所述绘图和所述文本,使得所述文本覆盖或注释所述绘图。
24.根据权利要求14所述的计算机化系统,其中识别针对所述绘图模式的输入包括:
基于所述用户执行的一个或更多个绘图动作来识别绘图;和
从所述绘图中识别文本。
25.根据权利要求14所述的计算机化系统,其中所述增强现实系统被配置为向所述用户显示所识别的输入的指示。
26.根据权利要求25所述的计算机化系统,其中所识别的输入的指示包括基于所述用户执行的一个或更多个打字、书写、绘图动作或单手动作而识别的文本输入。
27.根据权利要求26所述的计算机化系统,其中,所识别的输入的指示包括针对所述文本输入的一个或更多个建议的或预测的单词或短语的列表。
28.根据权利要求25所述的计算机化系统,其中,所识别的输入的指示包括与书写工具做出的一个或更多个笔画相关联的一个或更多个虚拟墨迹。
29.根据权利要求25所述的计算机化系统,其中所识别的输入的指示包括基于所述用户执行的一个或更多个绘图动作而识别的绘图。
30.根据权利要求25所述的计算机化系统,其中,所述指示经由在所述增强现实系统提供的增强现实环境内呈现的用户界面来显示。
31.根据权利要求25所述的计算机化系统,其中所述指示被渲染在表面上,所述用户正通过所述增强现实系统与所述表面交互。
32.根据权利要求14所述的计算机化系统,还包括:
至少一个惯性测量单元(IMU)传感器,
其中识别所述文本输入包括至少部分地基于与所述至少一个IMU传感器相关联的至少一个输出信号来识别所述文本输入。
33.根据权利要求14所述的计算机化系统,还包括:
至少一个相机,
其中识别所述文本输入包括至少部分地基于与所述至少一个相机相关联的至少一个输出信号来识别所述文本输入。
34.根据权利要求14所述的计算机化系统,其中提供给所述增强现实系统的所识别的输入包括从多个源识别的输入,其中所述多个源包括所述多个神经肌肉信号和不同于所述多个神经肌肉信号的至少一个源。
CN201980062920.7A 2018-09-20 2019-09-20 增强现实系统中的神经肌肉文本输入、书写和绘图 Active CN112789577B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862734138P 2018-09-20 2018-09-20
US62/734,138 2018-09-20
PCT/US2019/052151 WO2020061451A1 (en) 2018-09-20 2019-09-20 Neuromuscular text entry, writing and drawing in augmented reality systems

Publications (2)

Publication Number Publication Date
CN112789577A CN112789577A (zh) 2021-05-11
CN112789577B true CN112789577B (zh) 2024-04-05

Family

ID=69884192

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980062920.7A Active CN112789577B (zh) 2018-09-20 2019-09-20 增强现实系统中的神经肌肉文本输入、书写和绘图

Country Status (4)

Country Link
US (1) US11567573B2 (zh)
EP (1) EP3853698A4 (zh)
CN (1) CN112789577B (zh)
WO (1) WO2020061451A1 (zh)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
WO2015081113A1 (en) 2013-11-27 2015-06-04 Cezar Morun Systems, articles, and methods for electromyography sensors
EP3697297A4 (en) 2017-10-19 2020-12-16 Facebook Technologies, Inc. SYSTEMS AND METHODS FOR IDENTIFYING BIOLOGICAL STRUCTURES ASSOCIATED WITH NEUROMUSCULAR SOURCE SIGNALS
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
US11493993B2 (en) 2019-09-04 2022-11-08 Meta Platforms Technologies, Llc Systems, methods, and interfaces for performing inputs based on neuromuscular control
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
US11481030B2 (en) 2019-03-29 2022-10-25 Meta Platforms Technologies, Llc Methods and apparatus for gesture detection and classification
CN112789577B (zh) 2018-09-20 2024-04-05 元平台技术有限公司 增强现实系统中的神经肌肉文本输入、书写和绘图
EP3886693A4 (en) 2018-11-27 2022-06-08 Facebook Technologies, LLC. METHOD AND DEVICE FOR AUTOCALIBRATION OF A PORTABLE ELECTRODE SENSING SYSTEM
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof
US20220374085A1 (en) * 2021-05-19 2022-11-24 Apple Inc. Navigating user interfaces using hand gestures
US12081059B1 (en) * 2021-08-03 2024-09-03 Meta Platforms Technologies, Llc Systems and methods for providing a distributed battery architecture
US20240192765A1 (en) * 2022-12-08 2024-06-13 Meta Platforms Technologies, Llc Activation force detected via neuromuscular-signal sensors of a wearable device, and systems and methods of use thereof
CN115857706B (zh) * 2023-03-03 2023-06-06 浙江强脑科技有限公司 基于面部肌肉状态的文字输入方法、装置及终端设备
CN117389441B (zh) * 2023-11-23 2024-03-15 首都医科大学附属北京天坛医院 基于视觉追随辅助的书写想象汉字轨迹确定方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105511615A (zh) * 2015-12-04 2016-04-20 深圳大学 基于emg的可穿戴式文本输入系统及方法
CN107203272A (zh) * 2017-06-23 2017-09-26 山东万腾电子科技有限公司 基于肌电感知技术的可穿戴增强现实作业指导系统及方法

Family Cites Families (632)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1411995A (en) 1919-06-20 1922-04-04 Raymond W Dull Link belt
US3580243A (en) 1968-10-21 1971-05-25 Marquette Electronics Inc Means and method for subtracting dc noise from electrocardiographic signals
US3620208A (en) 1969-11-03 1971-11-16 Atomic Energy Commission Ekg amplifying electrode pickup
US3735425A (en) 1971-02-10 1973-05-29 Us Of America The Secretary Of Myoelectrically controlled prothesis
US3880146A (en) 1973-06-04 1975-04-29 Donald B Everett Noise compensation techniques for bioelectric potential sensing
US4055168A (en) 1976-09-21 1977-10-25 The Rockefeller University Posture training device
LU84250A1 (de) 1982-07-01 1984-03-22 Mardice Holding Verfahren und vorrichtung fuer das kontaktlose messen von spannungsunterschieden bei lebenden organismen
US4817064A (en) 1985-02-05 1989-03-28 Milles Victor A Structure for fabricating jewelry parts or wrist watches
US5003978A (en) 1985-08-21 1991-04-02 Technology 21, Inc. Non-polarizable dry biomedical electrode
IL78244A0 (en) 1986-03-24 1986-07-31 Zvi Kamil Instrumentation amplifier arrangement
ATE38569T1 (de) 1986-04-01 1988-11-15 Altop Sa An einer klammer montierte uhr.
JPH01126692A (ja) 1987-07-24 1989-05-18 Univ Leland Stanford Jr 音楽およびビデオ用のバイオポテンシャルディジタルコントローラ
USD322227S (en) 1989-03-23 1991-12-10 North American Watch Company Watch
US5625577A (en) 1990-12-25 1997-04-29 Shukyohojin, Kongo Zen Sohonzan Shorinji Computer-implemented motion analysis method using dynamics
US5081852A (en) 1991-02-14 1992-01-21 Cox Michael F Display bracelet
JP3103427B2 (ja) 1992-04-01 2000-10-30 ダイヤメディカルシステム株式会社 生体電気現象検出装置
AU670311B2 (en) 1992-07-06 1996-07-11 Immersion Corporation Determination of kinematically constrained multi-articulated structures
US5251189A (en) 1992-10-16 1993-10-05 Timex Corporation Wristwatch radiotelephone
JPH06216475A (ja) 1993-01-21 1994-08-05 Matsushita Electric Ind Co Ltd フレキシブル基板
USD348660S (en) 1993-04-29 1994-07-12 Micro-Integration Corp. Hand-held computer input device
US5482051A (en) 1994-03-10 1996-01-09 The University Of Akron Electromyographic virtual reality system
WO1995027341A1 (en) 1994-04-04 1995-10-12 Motorola Inc. Shielded circuit assembly and method for forming same
DE4412278A1 (de) 1994-04-09 1995-10-12 Bosch Gmbh Robert Starre und flexible Bereiche aufweisende Leiterplatte
US6032530A (en) 1994-04-29 2000-03-07 Advantedge Systems Inc. Biofeedback system for sensing body motion and flexure
US5462065A (en) 1994-08-17 1995-10-31 Cusimano; Maryrose Integrated movement analyziing system
US5605059A (en) 1995-03-09 1997-02-25 Woodward; Robin Sleeved bangle bracelet
US6238338B1 (en) 1999-07-19 2001-05-29 Altec, Inc. Biosignal monitoring system and method
JP3141737B2 (ja) 1995-08-10 2001-03-05 株式会社セガ 仮想画像生成装置及びその方法
US6066794A (en) 1997-01-21 2000-05-23 Longo; Nicholas C. Gesture synthesizer for electronic sound device
US5683404A (en) 1996-06-05 1997-11-04 Metagen, Llc Clamp and method for its use
CN1168057C (zh) 1996-08-14 2004-09-22 挪拉赫梅特·挪利斯拉莫维奇·拉都包夫 追踪并显示使用者在空间的位置与取向的方法,向使用者展示虚拟环境的方法以及实现这些方法的系统
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US6880364B1 (en) 1998-04-23 2005-04-19 Michael F. Vidolin Friendship band with exchangeable closed loop members
EP1107693A4 (en) 1998-08-24 2003-03-19 Univ Emory METHOD AND APPARATUS FOR PREDICTING THE APPEARANCE OF CRISES BASED ON CHARACTERISTICS DERIVED FROM SIGNALS INDICATING BRAIN ACTIVITY
EP1116211A4 (en) 1998-09-22 2001-11-21 Vega Vista Inc INTUITIVE CONTROL OF A PORTABLE DATA PRESENTATION SCREEN
US6745062B1 (en) 1998-10-05 2004-06-01 Advanced Imaging Systems, Inc. Emg electrode apparatus and positioning system
US6244873B1 (en) 1998-10-16 2001-06-12 At&T Corp. Wireless myoelectric control apparatus and methods
US6774885B1 (en) 1999-01-20 2004-08-10 Motek B.V. System for dynamic registration, evaluation, and correction of functional human behavior
US7640007B2 (en) 1999-02-12 2009-12-29 Fisher-Rosemount Systems, Inc. Wireless handheld communicator in a process control environment
US6411843B1 (en) 1999-05-28 2002-06-25 Respironics, Inc. Method and apparatus for producing a model EMG signal from a measured EMG signal
US6972734B1 (en) 1999-06-11 2005-12-06 Canon Kabushiki Kaisha Mixed reality apparatus and mixed reality presentation method
CA2276962A1 (en) 1999-07-07 2001-01-07 Universite De Montreal Electromyogram signal analysis method and system for use with electrode array
US6807438B1 (en) 1999-08-26 2004-10-19 Riccardo Brun Del Re Electric field sensor
JP4168221B2 (ja) 1999-09-06 2008-10-22 株式会社島津製作所 身体装着型表示システム
US6527711B1 (en) 1999-10-18 2003-03-04 Bodymedia, Inc. Wearable human physiological data sensors and reporting system therefor
US6619836B1 (en) 1999-11-11 2003-09-16 The Swatch Group Management Services Ag Electronic wristwatch including a printed circuit incorporated in a flexible wristband
US6771294B1 (en) 1999-12-29 2004-08-03 Petri Pulli User interface
GB0004688D0 (en) 2000-02-28 2000-04-19 Radley Smith Philip J Bracelet
WO2001078577A2 (en) 2000-04-17 2001-10-25 Vivometrics, Inc. Systems and methods for ambulatory monitoring of physiological signs
US6683600B1 (en) * 2000-04-19 2004-01-27 Microsoft Corporation Adaptive input pen mode selection
US6510333B1 (en) 2000-05-16 2003-01-21 Mark J. Licata Sensor for biopotential measurements
US6720984B1 (en) 2000-06-13 2004-04-13 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Characterization of bioelectric potentials
WO2002009037A2 (en) 2000-07-24 2002-01-31 Reflex Systems Inc. Modeling human beings by symbol manipulation
US20030036691A1 (en) 2000-08-10 2003-02-20 Stanaland Thomas G. Capacitively coupled electrode system with variable capacitance for sensing potentials at the surface of tissue
US6487906B1 (en) 2000-09-18 2002-12-03 Advantedge Systems Inc Flexible film sensor system for monitoring body motion
AU2002230578A1 (en) 2000-10-30 2002-05-15 Naval Postgraduate School Method and apparatus for motion tracking of an articulated rigid body
US6743982B2 (en) 2000-11-29 2004-06-01 Xerox Corporation Stretchable interconnects using stress gradient films
WO2002050652A2 (en) 2000-12-18 2002-06-27 Human Bionics Llc, Method and system for initiating activity based on sensed electrophysiological data
WO2002065904A1 (en) 2001-02-23 2002-08-29 Cordless Antistatic Research Inc. Enhanced pickup bio-electrode
JP2002287869A (ja) 2001-03-26 2002-10-04 System Lsi Kk 筋電位信号の識別方式および筋電位信号を用いた入力装置
JP2002358149A (ja) 2001-06-01 2002-12-13 Sony Corp ユーザ入力装置
USD459352S1 (en) 2001-08-10 2002-06-25 Michael C. Giovanniello Wireless mouse wristband
US20030051505A1 (en) 2001-09-14 2003-03-20 Robertson Catrina M. Selectively self-adjustable jewelry item and method of making same
US6755795B2 (en) 2001-10-26 2004-06-29 Koninklijke Philips Electronics N.V. Selectively applied wearable medical sensors
US6865409B2 (en) 2001-11-07 2005-03-08 Kinesense, Inc. Surface electromyographic electrode assembly
JP4391717B2 (ja) 2002-01-09 2009-12-24 富士通マイクロエレクトロニクス株式会社 コンタクタ及びその製造方法並びにコンタクト方法
AU2003217253A1 (en) 2002-01-25 2003-09-02 Intellipatch, Inc. Evaluation of a patient and prediction of chronic symptoms
JP2003220040A (ja) 2002-01-31 2003-08-05 Seiko Instruments Inc 生体情報観測装置
JP2003255993A (ja) 2002-03-04 2003-09-10 Ntt Docomo Inc 音声認識システム、音声認識方法、音声認識プログラム、音声合成システム、音声合成方法、音声合成プログラム
CA2379268A1 (en) 2002-03-26 2003-09-26 Hans Kolpin Skin impedance matched biopotential electrode
US20050119701A1 (en) 2002-03-29 2005-06-02 Koninklijka Philips Electronics N.V. Wearable monitoring system and method of manufacturing of a wearable monitoring system
US6942621B2 (en) 2002-07-11 2005-09-13 Ge Medical Systems Information Technologies, Inc. Method and apparatus for detecting weak physiological signals
US6984208B2 (en) 2002-08-01 2006-01-10 The Hong Kong Polytechnic University Method and apparatus for sensing body gesture, posture and movement
US7409242B2 (en) 2002-09-11 2008-08-05 National Institute Of Information And Communications Technology Active muscle display device
DE60215504T2 (de) 2002-10-07 2007-09-06 Sony France S.A. Verfahren und Gerät zur Analyse von Gesten eines Menschen, z.B. zur Steuerung einer Maschine durch Gestik
KR100506084B1 (ko) 2002-10-24 2005-08-05 삼성전자주식회사 경혈점 탐색 장치 및 방법
CA2415173A1 (en) 2002-12-09 2004-06-09 Thomas Hemmerling Neuromuscular monitoring using phonomyography
US7491892B2 (en) 2003-03-28 2009-02-17 Princeton University Stretchable and elastic interconnects
US7028507B2 (en) 2003-04-03 2006-04-18 Broadway Entertainment, Inc. Article of jewelry
US20040194500A1 (en) 2003-04-03 2004-10-07 Broadway Entertainment, Inc. Article of jewelry
US7265298B2 (en) 2003-05-30 2007-09-04 The Regents Of The University Of California Serpentine and corduroy circuits to enhance the stretchability of a stretchable electronic device
KR20060023149A (ko) 2003-06-12 2006-03-13 컨트롤 바이오닉스 상호작용 통신 및 분석을 위한 방법, 시스템 및 소프트웨어
US7022919B2 (en) 2003-06-30 2006-04-04 Intel Corporation Printed circuit board trace routing method
US8323190B2 (en) 2003-07-09 2012-12-04 Med-Tek Llc Comprehensive neuromuscular profiler
EP2008581B1 (en) 2003-08-18 2011-08-17 Cardiac Pacemakers, Inc. Patient monitoring, diagnosis, and/or therapy systems and methods
TWI240819B (en) 2003-08-21 2005-10-01 Toppoly Optoelectronics Corp Flexible printed circuit board (FPC) for liquid crystal display (LCD) module
CN1838933B (zh) 2003-08-21 2010-12-08 国立大学法人筑波大学 穿着式动作辅助装置、穿着式动作辅助装置的控制方法和控制用程序
JP4178186B2 (ja) 2003-08-21 2008-11-12 国立大学法人 筑波大学 装着式動作補助装置、装着式動作補助装置の制御方法および制御用プログラム
WO2005032447A2 (en) 2003-08-22 2005-04-14 Foster-Miller, Inc. Physiological monitoring garment
US7565295B1 (en) 2003-08-28 2009-07-21 The George Washington University Method and apparatus for translating hand gestures
US7574253B2 (en) 2003-09-26 2009-08-11 Northwestern University Signal processing using non-linear regression with a sinusoidal model
US20050070227A1 (en) 2003-09-30 2005-03-31 Chih-Hsiang Shen Detecting and actuating method of bluetooth devices and a control system thereof
US7961909B2 (en) 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
USD502662S1 (en) 2004-02-23 2005-03-08 Broadway Entertainment, Inc. Bracelet
USD503646S1 (en) 2004-02-23 2005-04-05 Broadway Entertainment, Inc. Bracelet
USD502661S1 (en) 2004-02-23 2005-03-08 Broadway Entertainment, Inc. Bracelet
WO2005083546A1 (en) 2004-02-27 2005-09-09 Simon Richard Daniel Wearable modular interface strap
KR100541958B1 (ko) 2004-04-21 2006-01-10 삼성전자주식회사 연성인쇄회로기판
US7173437B2 (en) 2004-06-10 2007-02-06 Quantum Applied Science And Research, Inc. Garment incorporating embedded physiological sensors
EP1782733B1 (en) 2004-06-16 2019-03-13 The University of Tokyo Muscular strength acquiring method and device based on musculoskeletal model
US8061160B2 (en) 2004-08-17 2011-11-22 Carissa Stinespring Adjustable fashion mechanism
KR100594117B1 (ko) 2004-09-20 2006-06-28 삼성전자주식회사 Hmd 정보 단말기에서 생체 신호를 이용하여 키를입력하는 장치 및 방법
KR100680023B1 (ko) 2004-12-06 2007-02-07 한국전자통신연구원 생체신호를 이용한 착용형 휴대폰 입력 장치 및 그 제어방법
US7254516B2 (en) 2004-12-17 2007-08-07 Nike, Inc. Multi-sensor monitoring of athletic performance
US7901368B2 (en) 2005-01-06 2011-03-08 Braingate Co., Llc Neurally controlled patient ambulation system
EP1850907A4 (en) 2005-02-09 2009-09-02 Univ Southern California METHOD AND SYSTEM FOR PRACTICING THE ADAPTIVE CONTROL OF STATE MOVEMENTS
US8702629B2 (en) 2005-03-17 2014-04-22 Great Lakes Neuro Technologies Inc. Movement disorder recovery system and method for continuous monitoring
US7351975B2 (en) 2005-03-29 2008-04-01 Duke University Sensor system for identifying and tracking movements of multiple sources
US20070132785A1 (en) 2005-03-29 2007-06-14 Ebersole John F Jr Platform for immersive gaming
USD535401S1 (en) 2005-06-21 2007-01-16 Biocare Systems, Inc. Heat and light therapy device
US7428516B2 (en) 2005-06-23 2008-09-23 Microsoft Corporation Handwriting recognition using neural networks
US8190249B1 (en) 2005-08-01 2012-05-29 Infinite Biomedical Technologies, Llc Multi-parametric quantitative analysis of bioelectrical signals
US7086218B1 (en) 2005-08-18 2006-08-08 M & J - R & R Grosbard, Inc. Linked ring structures
US7725147B2 (en) 2005-09-29 2010-05-25 Nellcor Puritan Bennett Llc System and method for removing artifacts from waveforms
US7733224B2 (en) 2006-06-30 2010-06-08 Bao Tran Mesh network personal emergency response appliance
US7271774B2 (en) 2005-10-21 2007-09-18 Suunto Oy Electronic wearable device
US7517725B2 (en) 2005-11-28 2009-04-14 Xci, Inc. System and method for separating and packaging integrated circuits
US8280503B2 (en) 2008-10-27 2012-10-02 Michael Linderman EMG measured during controlled hand movement for biometric analysis, medical diagnosis and related analysis
US8280169B2 (en) * 2005-12-21 2012-10-02 Michael Linderman Recordation of handwriting and hand movement using electromyography
US7365647B2 (en) 2005-12-23 2008-04-29 Avinoam Nativ Kinesthetic training system with composite feedback
USD543212S1 (en) 2006-01-04 2007-05-22 Sony Computer Entertainment Inc. Object for interfacing with a computer program
US7809435B1 (en) 2006-01-11 2010-10-05 Iq Biolabs, Inc. Adjustable wireless electromyography sensor and system
JP4826459B2 (ja) 2006-01-12 2011-11-30 株式会社豊田中央研究所 筋骨格モデル作成方法、人体応力/ひずみ推定方法、プログラムおよび記録媒体
US8762733B2 (en) 2006-01-30 2014-06-24 Adidas Ag System and method for identity confirmation using physiologic biometrics to determine a physiologic fingerprint
US7580742B2 (en) 2006-02-07 2009-08-25 Microsoft Corporation Using electroencephalograph signals for task classification and activity recognition
US7827000B2 (en) 2006-03-03 2010-11-02 Garmin Switzerland Gmbh Method and apparatus for estimating a motion parameter
JP4937341B2 (ja) 2006-04-04 2012-05-23 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 表現ペン
US8311623B2 (en) 2006-04-15 2012-11-13 The Board Of Trustees Of The Leland Stanford Junior University Systems and methods for estimating surface electromyography
JP2009534108A (ja) 2006-04-21 2009-09-24 クァンタム・アプライド・サイエンス・アンド・リサーチ・インコーポレーテッド 電気信号測定システム
US7636549B2 (en) 2006-04-21 2009-12-22 Abbott Medical Optics Inc. Automated bonding for wireless devices
US7558622B2 (en) 2006-05-24 2009-07-07 Bao Tran Mesh network stroke monitoring appliance
GB2453263A (en) 2006-05-16 2009-04-01 Douglas S Greer System and method for modeling the neocortex and uses therefor
US7539533B2 (en) 2006-05-16 2009-05-26 Bao Tran Mesh network monitoring appliance
US7661068B2 (en) 2006-06-12 2010-02-09 Microsoft Corporation Extended eraser functions
US9405372B2 (en) 2006-07-14 2016-08-02 Ailive, Inc. Self-contained inertial navigation system for interactive control using movable controllers
GB0614261D0 (en) 2006-07-18 2006-08-30 Univ Sussex The Electric Potential Sensor
US7844310B2 (en) 2006-07-20 2010-11-30 L3 Communications Corporation Wearable communication device with contoured back
US7848797B2 (en) 2006-08-17 2010-12-07 Neurometrix, Inc. Motor unit number estimation (MUNE) for the assessment of neuromuscular function
US8437844B2 (en) 2006-08-21 2013-05-07 Holland Bloorview Kids Rehabilitation Hospital Method, system and apparatus for real-time classification of muscle signals from self-selected intentional movements
JP4267648B2 (ja) 2006-08-25 2009-05-27 株式会社東芝 インターフェース装置及びその方法
US8212859B2 (en) 2006-10-13 2012-07-03 Apple Inc. Peripheral treatment for head-mounted displays
US7885732B2 (en) 2006-10-25 2011-02-08 The Boeing Company Systems and methods for haptics-enabled teleoperation of vehicles and other devices
US8082149B2 (en) 2006-10-26 2011-12-20 Biosensic, Llc Methods and apparatuses for myoelectric-based speech processing
US20080136775A1 (en) 2006-12-08 2008-06-12 Conant Carson V Virtual input device for computing
US9311528B2 (en) * 2007-01-03 2016-04-12 Apple Inc. Gesture learning
US20090265671A1 (en) 2008-04-21 2009-10-22 Invensense Mobile devices with motion gesture recognition
US20080221487A1 (en) 2007-03-07 2008-09-11 Motek Bv Method for real time interactive visualization of muscle forces and joint torques in the human body
EP1970005B1 (en) 2007-03-15 2012-10-03 Xsens Holding B.V. A system and a method for motion tracking using a calibration unit
WO2008129446A1 (en) 2007-04-24 2008-10-30 Philips Intellectual Property & Standards Gmbh Sensor arrangement and method for monitoring physiological parameters
FR2916069B1 (fr) 2007-05-11 2009-07-31 Commissariat Energie Atomique Procede de traitement pour la capture de mouvement d'une structure articulee
WO2008148067A2 (en) 2007-05-24 2008-12-04 Hmicro, Inc. An integrated wireless sensor for physiological monitoring
US8504146B2 (en) 2007-06-29 2013-08-06 The Regents Of The University Of California Multi-channel myoelectrical control using single muscle
US20090007597A1 (en) 2007-07-02 2009-01-08 Hanevold Gail F Body attached band with removal visual image pockets
US20110172503A1 (en) 2007-07-16 2011-07-14 Sunrise Medical Hhg, Inc. Physiological Data Collection System
DE102007044555A1 (de) 2007-07-18 2009-01-22 Siemens Ag Optische Koppelvorrichtung und Verfahren zu deren Herstellung
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
JP5057070B2 (ja) 2007-07-31 2012-10-24 株式会社エクォス・リサーチ 心電センサー
US7925100B2 (en) 2007-07-31 2011-04-12 Microsoft Corporation Tiled packaging of vector image data
US20090031757A1 (en) 2007-08-01 2009-02-05 Funki Llc Modular toy bracelet
JP4434247B2 (ja) 2007-08-10 2010-03-17 ソニー株式会社 リモートコントローラ、リモートコントロールシステムおよびリモートコントロール方法
AU2008290211A1 (en) 2007-08-19 2009-02-26 Ringbow Ltd. Finger-worn devices and related methods of use
WO2009026289A2 (en) 2007-08-20 2009-02-26 Hmicro, Inc. Wearable user interface device, system, and method of use
JP5559691B2 (ja) * 2007-09-24 2014-07-23 クアルコム,インコーポレイテッド 音声及びビデオ通信のための機能向上したインタフェース
US20090082692A1 (en) 2007-09-25 2009-03-26 Hale Kelly S System And Method For The Real-Time Evaluation Of Time-Locked Physiological Measures
US7714757B2 (en) 2007-09-26 2010-05-11 Medtronic, Inc. Chopper-stabilized analog-to-digital converter
US8343079B2 (en) 2007-10-18 2013-01-01 Innovative Surgical Solutions, Llc Neural monitoring sensor
US8159313B2 (en) 2007-10-22 2012-04-17 D-Wave Systems Inc. Systems, methods, and apparatus for electrical filters and input/output systems
FI20075798A0 (fi) 2007-11-12 2007-11-12 Polar Electro Oy Elektrodirakenne
GB0800144D0 (en) 2008-01-04 2008-02-13 Fitzpatrick Adam P Electrocardiographic device and method
US8355671B2 (en) 2008-01-04 2013-01-15 Kopin Corporation Method and apparatus for transporting video signal over Bluetooth wireless interface
US8456425B2 (en) 2008-01-30 2013-06-04 International Business Machines Corporation Self-adapting keypad
US10969917B2 (en) 2008-01-30 2021-04-06 Apple Inc. Auto scanning for multiple frequency stimulation multi-touch sensor panels
US8344998B2 (en) 2008-02-01 2013-01-01 Wimm Labs, Inc. Gesture-based power management of a wearable portable electronic device with display
US9597015B2 (en) 2008-02-12 2017-03-21 Portland State University Joint angle tracking with inertial sensors
EP2259603B1 (en) 2008-03-28 2015-04-08 Sharp Kabushiki Kaisha Remote operation device, device to be operated, control method for remote operation device, control method for device to be operated, and remote operation system
US20090251407A1 (en) 2008-04-03 2009-10-08 Microsoft Corporation Device interaction with combination of rings
CN102067385B (zh) 2008-05-01 2014-03-26 3M创新有限公司 可拉伸传导连接器
US20100030532A1 (en) 2008-06-12 2010-02-04 Jasbir Arora System and methods for digital human model prediction and simulation
JP2010000283A (ja) 2008-06-23 2010-01-07 Shimadzu Corp リアルタイム同時計測システム、リアルタイム同時計測装置、リアルタイム同時計測方法、およびプログラム
US8207473B2 (en) 2008-06-24 2012-06-26 Imec Method for manufacturing a stretchable electronic device
US8447704B2 (en) * 2008-06-26 2013-05-21 Microsoft Corporation Recognizing gestures from forearm EMG signals
US9037530B2 (en) 2008-06-26 2015-05-19 Microsoft Technology Licensing, Llc Wearable electromyography-based human-computer interface
US8170656B2 (en) 2008-06-26 2012-05-01 Microsoft Corporation Wearable electromyography-based controllers for human-computer interface
BRPI0915729A2 (pt) 2008-07-07 2015-10-27 Heard Sytems Pty Ltd eletrodo para um sistema para sensorear sinais eletrofisiológicos, conjunto de eletrodo, e, sistema para sensorear sinais eletrofisiológicos.
CN102112182A (zh) 2008-07-29 2011-06-29 詹姆斯·B·克莱森 平衡训练系统
US8389862B2 (en) 2008-10-07 2013-03-05 Mc10, Inc. Extremely stretchable electronics
US9393418B2 (en) 2011-06-03 2016-07-19 Great Lakes Neuro Technologies Inc. Movement disorder therapy system, devices and methods of tuning
US8647287B2 (en) 2008-12-07 2014-02-11 Andrew Greenberg Wireless synchronized movement monitoring apparatus and system
US9439566B2 (en) 2008-12-15 2016-09-13 Proteus Digital Health, Inc. Re-wearable wireless device
US7870211B2 (en) 2008-12-23 2011-01-11 At&T Mobility Ii Llc Conversation message routing supporting dynamic class transitions
WO2010086034A1 (en) 2009-01-30 2010-08-05 Interuniversitair Microelektronica Centrum Vzw Stretchable electronic device
WO2010086033A1 (en) 2009-01-30 2010-08-05 Interuniversitair Microelektronica Centrum Vzw Stretchable electronic device
US8444564B2 (en) 2009-02-02 2013-05-21 Jointvue, Llc Noninvasive diagnostic system
USD661613S1 (en) 2009-02-19 2012-06-12 1922 Manifatture Preziose Torino SpA Jewelry
US20100228487A1 (en) 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method
US20100249635A1 (en) 2009-03-26 2010-09-30 Cordial Medical Europe B.V. Hearing screening system for a subject or a patient, and a method for hearing screening
EP2236078A1 (en) 2009-04-02 2010-10-06 Koninklijke Philips Electronics N.V. Processing a bio-physiological signal
US8764676B2 (en) 2009-05-07 2014-07-01 Massachusetts Eye & Ear Infirmary Signal processing in physiological noise
US8376968B2 (en) 2009-05-15 2013-02-19 The Hong Kong Polytechnic University Method and system for quantifying an intention of movement of a user
US9192316B2 (en) 2009-05-15 2015-11-24 Nox Medical Systems and methods using flexible capacitive electrodes for measuring biosignals
US8856691B2 (en) 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US20100315266A1 (en) 2009-06-15 2010-12-16 Microsoft Corporation Predictive interfaces with usability constraints
US8427977B2 (en) 2009-06-23 2013-04-23 CSC Holdings, LLC Wireless network polling and data warehousing
JP5470452B2 (ja) 2009-06-26 2014-04-16 ヴェーデクス・アクティーセルスカプ Eegモニタリング装置およびそこにメッセージを提示する方法
WO2011008459A2 (en) 2009-06-29 2011-01-20 Infinite Corridor Technology, Llc Structured material substrates for flexible, stretchable electronics
JP5545574B2 (ja) 2009-07-15 2014-07-09 国立大学法人 筑波大学 分類推定システムおよび分類推定プログラム
CN102573620B (zh) 2009-07-30 2014-10-22 开普敦大学 非介入式深层肌肉肌电描记
US8718980B2 (en) 2009-09-11 2014-05-06 Qualcomm Incorporated Method and apparatus for artifacts mitigation with multiple wireless sensors
FR2950713A1 (fr) 2009-09-29 2011-04-01 Movea Sa Systeme et procede de reconnaissance de gestes
US20110077484A1 (en) 2009-09-30 2011-03-31 Nellcor Puritan Bennett Ireland Systems And Methods For Identifying Non-Corrupted Signal Segments For Use In Determining Physiological Parameters
US9779267B2 (en) 2009-10-07 2017-10-03 F-Secure Oyj Computer security method and apparatus
TWI496558B (zh) 2009-10-20 2015-08-21 Tatung Co 使用二極電極貼片量測心電圖與呼吸訊號之系統及方法
JP5643829B2 (ja) 2009-10-26 2014-12-17 インぺディメッド リミテッドImpedimed Limited インピーダンス測定の分析において用いるための方法及び装置
US20110119216A1 (en) 2009-11-16 2011-05-19 Microsoft Corporation Natural input trainer for gestural instruction
US20110270135A1 (en) 2009-11-30 2011-11-03 Christopher John Dooley Augmented reality for testing and training of human performance
US8421634B2 (en) 2009-12-04 2013-04-16 Microsoft Corporation Sensing mechanical energy to appropriate the body for data input
KR101708682B1 (ko) 2010-03-03 2017-02-21 엘지전자 주식회사 영상표시장치 및 그 동작 방법.
US8620361B2 (en) 2009-12-08 2013-12-31 At&T Mobility Ii Llc Intelligent routing of SMS and MMS messages to short codes
US20130135223A1 (en) 2009-12-13 2013-05-30 Ringbow Ltd. Finger-worn input devices and methods of use
WO2011072684A1 (en) 2009-12-16 2011-06-23 Ictalcare A/S A system for the prediction of epileptic seizures
US20110151974A1 (en) 2009-12-18 2011-06-23 Microsoft Corporation Gesture style recognition and reward
US9268404B2 (en) 2010-01-08 2016-02-23 Microsoft Technology Licensing, Llc Application gesture interpretation
US8631355B2 (en) 2010-01-08 2014-01-14 Microsoft Corporation Assigning gesture dictionaries
JP5471490B2 (ja) 2010-01-20 2014-04-16 オムロンヘルスケア株式会社 体動検出装置
WO2011091856A1 (en) 2010-02-01 2011-08-04 Widex A/S Portable eeg monitor system with wireless communication
US8947455B2 (en) 2010-02-22 2015-02-03 Nike, Inc. Augmented reality design system
EP2541763B1 (en) 2010-02-25 2018-12-05 Sharp Kabushiki Kaisha Bias circuit, lna, lnb, receiver for communication, transmitter for communication, and sensor system
US20110213278A1 (en) 2010-02-26 2011-09-01 Apdm, Inc. Movement monitoring system and apparatus for objective assessment of movement disorders
CN102906623A (zh) 2010-02-28 2013-01-30 奥斯特豪特集团有限公司 交互式头戴目镜上的本地广告内容
US20110224564A1 (en) 2010-03-10 2011-09-15 Sotera Wireless, Inc. Body-worn vital sign monitor
WO2011113478A1 (de) 2010-03-16 2011-09-22 Carlo Trugenberger Authentifizierungssystem, verfahren zur authentifizierung eines objekts, vorrichtung zur erzeugung einer identifikationseinrichtung, verfahren zur erzeugung einer identifikationseinrichtung
KR101114870B1 (ko) 2010-03-22 2012-03-06 (주)헤리트 지능형 led 조명 제어 시스템 및 제어 방법
US9341659B2 (en) 2010-04-08 2016-05-17 Disney Enterprises, Inc. User interactive living organisms
US20110248914A1 (en) 2010-04-11 2011-10-13 Sherr Alan B System and Method for Virtual Touch Typing
US9110505B2 (en) 2010-04-16 2015-08-18 Innovative Devices Inc. Wearable motion sensing computing interface
JP5702947B2 (ja) 2010-04-22 2015-04-15 矢崎総業株式会社 配線材
US8384683B2 (en) 2010-04-23 2013-02-26 Tong Luo Method for user input from the back panel of a handheld computerized device
US8351651B2 (en) 2010-04-26 2013-01-08 Microsoft Corporation Hand-location post-process refinement in a tracking system
KR101130697B1 (ko) 2010-05-07 2012-04-02 삼성전자주식회사 복수 층의 신축성 배선
WO2011150407A2 (en) 2010-05-28 2011-12-01 The Regents Of The University Of California Cell-phone based wireless and mobile brain-machine interface
US8588884B2 (en) 2010-05-28 2013-11-19 Emkinetics, Inc. Microneedle electrode
US20110313762A1 (en) 2010-06-20 2011-12-22 International Business Machines Corporation Speech output with confidence indication
USD643428S1 (en) 2010-07-07 2011-08-16 Iota, Inc. Wearable mobile accessory
US8754862B2 (en) 2010-07-11 2014-06-17 Lester F. Ludwig Sequential classification recognition of gesture primitives and window-based parameter smoothing for high dimensional touchpad (HDTP) user interfaces
FR2962821B1 (fr) 2010-07-13 2013-02-22 Commissariat Energie Atomique Procede et systeme de classification de signaux neuronaux, et procede de selection d'electrodes pour commande neuronale directe.
US20140052150A1 (en) 2010-08-02 2014-02-20 The Johns Hopkins University Method for presenting force sensor information using cooperative robot control and audio feedback
US20120066163A1 (en) 2010-09-13 2012-03-15 Nottingham Trent University Time to event data analysis method and system
WO2012040402A2 (en) 2010-09-21 2012-03-29 Somaxis Incorporated Methods for promoting fitness in connection with electrophysiology data
US10216893B2 (en) 2010-09-30 2019-02-26 Fitbit, Inc. Multimode sensor devices
US20120117514A1 (en) 2010-11-04 2012-05-10 Microsoft Corporation Three-Dimensional User Interaction
US20130123656A1 (en) 2010-11-15 2013-05-16 Sandy L. Heck Control System and Apparatus Utilizing Signals Originating in the Periauricular Neuromuscular System
US10244988B2 (en) 2010-12-16 2019-04-02 Nokia Technologies Oy Method, apparatus and computer program of using a bio-signal profile
US20120203076A1 (en) 2011-02-08 2012-08-09 Jean Pierre Fatta Portable Physiological Data Monitoring Device
KR101448106B1 (ko) 2011-02-17 2014-10-08 주식회사 라이프사이언스테크놀로지 무구속 근전도 신호를 이용한 재활상태 분석방법
KR101206280B1 (ko) 2011-02-28 2012-11-29 (주)락싸 전기적 비접촉 전위 센서 회로
USD646192S1 (en) 2011-03-11 2011-10-04 Jamie Renae Woode Bracelet
US20120265090A1 (en) 2011-04-13 2012-10-18 Fink Rainer J System and method of acquiring uterine emg signals and wirelessly transmitting the same
WO2012155157A1 (en) 2011-05-06 2012-11-15 Azoteq (Pty) Ltd Multiple media capacitive sensor
MY167168A (en) 2011-05-20 2018-08-13 Univ Nanyang Tech Systems, apparatuses, devices, and processes for synergistic neuro-physiological rehabilitation and/or functional development
US9330499B2 (en) 2011-05-20 2016-05-03 Microsoft Technology Licensing, Llc Event augmentation with real-time information
US8203502B1 (en) 2011-05-25 2012-06-19 Google Inc. Wearable heads-up display with integrated finger-tracking input sensor
US9018532B2 (en) 2011-06-09 2015-04-28 Multi-Fineline Electronix, Inc. Stretchable circuit assemblies
US9921641B1 (en) 2011-06-10 2018-03-20 Amazon Technologies, Inc. User/object interactions in an augmented reality environment
US20130198694A1 (en) 2011-06-10 2013-08-01 Aliphcom Determinative processes for wearable devices
US8879276B2 (en) 2011-06-15 2014-11-04 Power Gold LLC Flexible circuit assembly and method thereof
EP2721582A4 (en) 2011-06-20 2015-03-25 Nokia Corp METHODS, DEVICES AND COMPUTER PROGRAM PRODUCTS FOR IMPLEMENTING DETAILED POSITION PROVISIONS OF OBJECTS
US9089270B2 (en) 2011-06-29 2015-07-28 Lg Electronics Inc. Terminal and control method thereof
US8179604B1 (en) 2011-07-13 2012-05-15 Google Inc. Wearable marker for passive interaction
US9128521B2 (en) 2011-07-13 2015-09-08 Lumo Bodytech, Inc. System and method of biomechanical posture detection and feedback including sensor normalization
US9015245B1 (en) 2011-07-20 2015-04-21 Google Inc. Experience sharing with commenting
US9123155B2 (en) 2011-08-09 2015-09-01 Covidien Lp Apparatus and method for using augmented reality vision system in surgical procedures
US9707393B2 (en) 2011-08-26 2017-07-18 National Yunlin University Of Science And Technology Feedback-control wearable upper-limb electrical stimulation device
USD654622S1 (en) 2011-09-15 2012-02-21 Shih-Ling Hsu Hair band
WO2013093906A1 (en) * 2011-09-19 2013-06-27 Eyesight Mobile Technologies Ltd. Touch free interface for augmented reality systems
US20130080794A1 (en) 2011-09-24 2013-03-28 Jawbone Industrial Co., Ltd. Wireless controller with universal serial bus and system having the same
US20130077820A1 (en) 2011-09-26 2013-03-28 Microsoft Corporation Machine learning gesture detection
US20130271292A1 (en) 2011-10-09 2013-10-17 James Andrew McDermott Driver Alert and Monitoring System
FR2981561B1 (fr) 2011-10-21 2015-03-20 Commissariat Energie Atomique Procede de detection d'activite a capteur de mouvements, dispositif et programme d'ordinateur correspondants
US8467270B2 (en) 2011-10-26 2013-06-18 Google Inc. Smart-watch with user interface features
US20130106686A1 (en) 2011-10-31 2013-05-02 Broadcom Corporation Gesture processing framework
ITTO20111024A1 (it) 2011-11-08 2013-05-09 Bitron Spa Dispositivo di misura per segnali elettromiografici ad alta risoluzione e elevato numero di canali.
US10176299B2 (en) 2011-11-11 2019-01-08 Rutgers, The State University Of New Jersey Methods for the diagnosis and treatment of neurological disorders
US8704882B2 (en) 2011-11-18 2014-04-22 L-3 Communications Corporation Simulated head mounted display system and method
US9152376B2 (en) 2011-12-01 2015-10-06 At&T Intellectual Property I, L.P. System and method for continuous multimodal speech and gesture interaction
US10430066B2 (en) 2011-12-06 2019-10-01 Nri R&D Patent Licensing, Llc Gesteme (gesture primitive) recognition for advanced touch user interfaces
TWI446896B (zh) 2011-12-23 2014-08-01 Ind Tech Res Inst 肌能參數感測器
EP2613223A1 (en) * 2012-01-09 2013-07-10 Softkinetic Software System and method for enhanced gesture-based interaction
US8971023B2 (en) 2012-03-21 2015-03-03 Google Inc. Wearable computing device frame
US20130191741A1 (en) 2012-01-24 2013-07-25 Motorola Mobility, Inc. Methods and Apparatus for Providing Feedback from an Electronic Device
US10188307B2 (en) 2012-02-23 2019-01-29 Bio-Signal Group Corp. Shielded multi-channel EEG headset systems and methods
US8970571B1 (en) 2012-03-13 2015-03-03 Google Inc. Apparatus and method for display lighting adjustment
US8922481B1 (en) 2012-03-16 2014-12-30 Google Inc. Content annotation
USD682728S1 (en) 2012-03-27 2013-05-21 Bulgari S.P.A. Ring
ITMI20120494A1 (it) 2012-03-27 2013-09-28 B10Nix S R L Apparato e metodo per l'acquisizione ed analisi di una attivita' muscolare
JP2013206273A (ja) 2012-03-29 2013-10-07 Sony Corp 情報処理装置、情報処理方法、および情報処理システム
US10448161B2 (en) 2012-04-02 2019-10-15 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for gestural manipulation of a sound field
WO2013151770A1 (en) 2012-04-03 2013-10-10 Carnegie Mellon University Musculoskeletal activity recognition system and method
US9170674B2 (en) 2012-04-09 2015-10-27 Qualcomm Incorporated Gesture-based device control using pressure-sensitive sensors
US8994672B2 (en) 2012-04-09 2015-03-31 Sony Corporation Content transfer via skin input
US9221177B2 (en) 2012-04-18 2015-12-29 Massachusetts Institute Of Technology Neuromuscular model-based sensing and control paradigm for a robotic leg
US20130285916A1 (en) 2012-04-30 2013-10-31 Research In Motion Limited Touchscreen keyboard providing word predictions at locations in association with candidate letters
US20130297460A1 (en) 2012-05-01 2013-11-07 Zambala Lllp System and method for facilitating transactions of a physical product or real life service via an augmented reality environment
US9538940B2 (en) 2012-05-03 2017-01-10 University of Pittsburgh—of the Commonwealth System of Higher Education Intelligent algorithms for tracking three-dimensional skeletal movement from radiographic image sequences
USD716457S1 (en) 2012-05-23 2014-10-28 Neurometrix, Inc. Transcutaneous electrical nerve stimulation device
US9278453B2 (en) 2012-05-25 2016-03-08 California Institute Of Technology Biosleeve human-machine interface
US9867548B2 (en) 2012-05-25 2018-01-16 Emotiv, Inc. System and method for providing and aggregating biosignals and action data
US20130332196A1 (en) 2012-06-07 2013-12-12 The Government Of The United States As Represented By The Secretary Of The Army Diabetes Monitoring Using Smart Device
US9891718B2 (en) 2015-04-22 2018-02-13 Medibotics Llc Devices for measuring finger motion and recognizing hand gestures
US9814426B2 (en) 2012-06-14 2017-11-14 Medibotics Llc Mobile wearable electromagnetic brain activity monitor
US9582072B2 (en) 2013-09-17 2017-02-28 Medibotics Llc Motion recognition clothing [TM] with flexible electromagnetic, light, or sonic energy pathways
US10921886B2 (en) * 2012-06-14 2021-02-16 Medibotics Llc Circumferential array of electromyographic (EMG) sensors
US9536449B2 (en) 2013-05-23 2017-01-03 Medibotics Llc Smart watch and food utensil for monitoring food consumption
US20150366504A1 (en) 2014-06-20 2015-12-24 Medibotics Llc Electromyographic Clothing
US8954135B2 (en) 2012-06-22 2015-02-10 Fitbit, Inc. Portable biometric monitoring devices and methods of operating same
US9615447B2 (en) 2012-07-23 2017-04-04 Zhuhai Advanced Chip Carriers & Electronic Substrate Solutions Technologies Co. Ltd. Multilayer electronic support structure with integral constructional elements
US8484022B1 (en) 2012-07-27 2013-07-09 Google Inc. Adaptive auto-encoders
EP2698686B1 (en) 2012-07-27 2018-10-10 LG Electronics Inc. Wrist-wearable terminal and control method thereof
US20150182165A1 (en) 2012-08-03 2015-07-02 Neurotopia, Inc. Neurophysiological training headset
US20140045463A1 (en) 2012-08-10 2014-02-13 Silverplus, Inc. Wearable Communication Device
TWD152714S (zh) 2012-08-15 2013-04-01 昆盈企業股份有限公司 套戴式滑鼠
US20140049417A1 (en) 2012-08-20 2014-02-20 Playtabase, LLC Wireless motion activated command transfer device, system, and method
WO2014033306A1 (en) 2012-09-03 2014-03-06 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Head mounted system and method to compute and render a stream of digital images using a head mounted system
US8895865B2 (en) 2012-09-07 2014-11-25 Conor P. Lenahan Conductive connections allowing XYZ translation
US9211417B2 (en) 2012-09-10 2015-12-15 Great Lakes Neurotechnologies Inc Movement disorder therapy system, devices and methods, and intelligent methods of tuning
US10606353B2 (en) 2012-09-14 2020-03-31 Interaxon Inc. Systems and methods for collecting, analyzing, and sharing bio-signal and non-bio-signal data
US20170277282A1 (en) 2012-09-14 2017-09-28 Widevantage Inc. Input device for transmitting user input
US10824310B2 (en) 2012-12-20 2020-11-03 Sri International Augmented reality virtual personal assistant for external representation
CN203252647U (zh) 2012-09-29 2013-10-30 艾利佛公司 用于判定生理特征的可佩带的设备
US10234941B2 (en) 2012-10-04 2019-03-19 Microsoft Technology Licensing, Llc Wearable sensor for tracking articulated body-parts
US10413251B2 (en) 2012-10-07 2019-09-17 Rhythm Diagnostic Systems, Inc. Wearable cardiac monitor
US9563740B2 (en) 2012-10-16 2017-02-07 The Florida International University Board Of Trustees Neural interface activity simulator
USD695454S1 (en) 2012-10-24 2013-12-10 Patricia Lynn Moore Hair holding device
EP2911576B1 (en) 2012-10-26 2021-12-22 NIKE Innovate C.V. Athletic performance monitoring system utilizing heart rate information
KR102043703B1 (ko) 2012-11-12 2019-11-12 한국전자통신연구원 신축성 박막트랜지스터의 제조방법
US9477313B2 (en) 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device
US9182826B2 (en) 2012-11-21 2015-11-10 Intel Corporation Gesture-augmented speech recognition
US8743052B1 (en) 2012-11-24 2014-06-03 Eric Jeffrey Keller Computing interface system
US9892655B2 (en) 2012-11-28 2018-02-13 Judy Sibille SNOW Method to provide feedback to a physical therapy patient or athlete
US9351653B1 (en) 2012-11-29 2016-05-31 Intan Technologies, LLC Multi-channel reconfigurable systems and methods for sensing biopotential signals
US10009644B2 (en) 2012-12-04 2018-06-26 Interaxon Inc System and method for enhancing content using brain-state data
US9042829B2 (en) 2013-01-04 2015-05-26 Nokia Corporation Method, apparatus, and computer program product for wireless short-range communication
US20140196131A1 (en) 2013-01-07 2014-07-10 Salutron, Inc. User authentication based on a wrist vein pattern
US10528135B2 (en) 2013-01-14 2020-01-07 Ctrl-Labs Corporation Wearable muscle interface systems, devices and methods that interact with content displayed on an electronic display
US9092664B2 (en) 2013-01-14 2015-07-28 Qualcomm Incorporated Use of EMG for subtle gesture recognition on surfaces
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US10610737B1 (en) 2013-01-22 2020-04-07 Bruce Scott Crawford System and method for using video-synchronized electromyography to improve neuromuscular performance of a target muscle
US9791921B2 (en) 2013-02-19 2017-10-17 Microsoft Technology Licensing, Llc Context-aware augmented reality object commands
US9211073B2 (en) 2013-02-20 2015-12-15 Tosense, Inc. Necklace-shaped physiological monitor
US9299248B2 (en) * 2013-02-22 2016-03-29 Thalmic Labs Inc. Method and apparatus for analyzing capacitive EMG and IMU sensor signals for gesture control
US20140245200A1 (en) 2013-02-25 2014-08-28 Leap Motion, Inc. Display control with gesture-selectable control paradigms
US20140249397A1 (en) 2013-03-01 2014-09-04 Thalmic Labs Inc. Differential non-contact biopotential sensor
US20140257141A1 (en) 2013-03-05 2014-09-11 Great Lakes Neurotechnologies Inc. Movement disorder monitoring and symptom quantification system and method
US20150182113A1 (en) 2013-12-31 2015-07-02 Aliphcom Real-time fatigue, personal effectiveness, injury risk device(s)
US20140285326A1 (en) 2013-03-15 2014-09-25 Aliphcom Combination speaker and light source responsive to state(s) of an organism based on sensor data
US20140334653A1 (en) 2013-03-14 2014-11-13 Aliphcom Combination speaker and light source responsive to state(s) of an organism based on sensor data
US9766709B2 (en) 2013-03-15 2017-09-19 Leap Motion, Inc. Dynamic user interactions for display control
US9361411B2 (en) 2013-03-15 2016-06-07 Honeywell International, Inc. System and method for selecting a respirator
US9495389B2 (en) 2013-03-15 2016-11-15 Qualcomm Incorporated Client-server based dynamic search
US20140277622A1 (en) * 2013-03-15 2014-09-18 First Principles, Inc. System and method for bio-signal control of an electronic device
US9436287B2 (en) 2013-03-15 2016-09-06 Qualcomm Incorporated Systems and methods for switching processing modes using gestures
US9146730B2 (en) 2013-03-15 2015-09-29 Netgear, Inc. System and method for remotely updating cable modem software
JP5900393B2 (ja) 2013-03-21 2016-04-06 ソニー株式会社 情報処理装置、操作制御方法及びプログラム
IN2013MU01148A (zh) 2013-03-26 2015-04-24 Tata Consultancy Services Ltd
US20140299362A1 (en) 2013-04-04 2014-10-09 Electronics And Telecommunications Research Institute Stretchable electric device and manufacturing method thereof
US10620709B2 (en) 2013-04-05 2020-04-14 Ultrahaptics IP Two Limited Customized gesture interpretation
US9717440B2 (en) 2013-05-03 2017-08-01 The Florida International University Board Of Trustees Systems and methods for decoding intended motor commands from recorded neural signals for the control of external devices or to interact in virtual environments
KR102043200B1 (ko) 2013-05-07 2019-11-11 엘지전자 주식회사 스마트 워치 및 제어 방법
US9582317B2 (en) 2013-05-10 2017-02-28 Samsung Electronics Co., Ltd. Method of using use log of portable terminal and apparatus using the same
WO2014186370A1 (en) 2013-05-13 2014-11-20 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices that accommodate different user forms
US9706647B2 (en) 2013-05-14 2017-07-11 Mc10, Inc. Conformal electronics including nested serpentine interconnects
US10314506B2 (en) 2013-05-15 2019-06-11 Polar Electro Oy Heart activity sensor structure
USD750623S1 (en) 2013-05-16 2016-03-01 Samsung Electronics Co., Ltd. Smart watch
USD741855S1 (en) 2013-05-16 2015-10-27 Samsung Electronics Co., Ltd. Smart watch
US10620775B2 (en) 2013-05-17 2020-04-14 Ultrahaptics IP Two Limited Dynamic interactive objects
US9645652B2 (en) 2013-05-28 2017-05-09 The Boeing Company Ubiquitous natural user system for human-machine interaction
US9904356B2 (en) 2013-05-28 2018-02-27 The Boeing Company Tracking a user to support tasks performed on complex-system components
US9395810B2 (en) 2013-05-28 2016-07-19 The Boeing Company Ubiquitous natural user system
US9218574B2 (en) 2013-05-29 2015-12-22 Purepredictive, Inc. User interface for machine learning
JP6466420B2 (ja) 2013-05-31 2019-02-06 プレジデント アンド フェローズ オブ ハーバード カレッジ 人間動作を補助するための軟性外骨格スーツ
KR101933921B1 (ko) 2013-06-03 2018-12-31 삼성전자주식회사 포즈 추정 방법 및 장치
WO2015047462A2 (en) 2013-06-03 2015-04-02 The Regents Of The University Of California Artifact removal techniques with signal reconstruction
EP3003149A4 (en) 2013-06-03 2017-06-14 Kacyvenski, Isaiah Motion sensor and analysis
US9383819B2 (en) 2013-06-03 2016-07-05 Daqri, Llc Manipulation of virtual object in augmented reality via intent
US11083402B2 (en) 2013-06-04 2021-08-10 Medtronic, Inc. Patient state determination based on one or more spectral characteristics of a bioelectrical brain signal
SG11201509901VA (en) * 2013-06-06 2016-01-28 Tricord Holdings L L C Modular physiologic monitoring systems, kits, and methods
KR101501661B1 (ko) 2013-06-10 2015-03-12 한국과학기술연구원 착용형 근전도 센서 시스템
WO2014204330A1 (en) 2013-06-17 2014-12-24 3Divi Company Methods and systems for determining 6dof location and orientation of head-mounted display and associated user movements
KR102131358B1 (ko) 2013-06-17 2020-07-07 삼성전자주식회사 유저 인터페이스 장치 및 유저 인터페이스 장치의 동작 방법
KR102170321B1 (ko) * 2013-06-17 2020-10-26 삼성전자주식회사 파지된 물체를 이용한 모션을 인식하는 장치 및 방법, 시스템
US20140376773A1 (en) 2013-06-21 2014-12-25 Leap Motion, Inc. Tunable operational parameters in motion-capture and touchless interface operation
KR20160022375A (ko) 2013-06-21 2016-02-29 엠씨10, 인크 정합성 전자기기를 구비한 밴드
US10402517B2 (en) 2013-06-26 2019-09-03 Dassault Systémes Simulia Corp. Musculo-skeletal modeling using finite element analysis, process integration, and design optimization
US9146618B2 (en) 2013-06-28 2015-09-29 Google Inc. Unlocking a head mounted device
US10408613B2 (en) 2013-07-12 2019-09-10 Magic Leap, Inc. Method and system for rendering virtual content
US9408316B2 (en) 2013-07-22 2016-08-02 Thalmic Labs Inc. Systems, articles and methods for strain mitigation in wearable electronic devices
US20150029092A1 (en) 2013-07-23 2015-01-29 Leap Motion, Inc. Systems and methods of interpreting complex gestures
US20150057770A1 (en) 2013-08-23 2015-02-26 Thaimic Labs Inc. Systems, articles, and methods for human-electronics interfaces
US10042422B2 (en) 2013-11-12 2018-08-07 Thalmic Labs Inc. Systems, articles, and methods for capacitive electromyography sensors
US11426123B2 (en) 2013-08-16 2022-08-30 Meta Platforms Technologies, Llc Systems, articles and methods for signal routing in wearable electronic devices that detect muscle activity of a user using a set of discrete and separately enclosed pod structures
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
US9788789B2 (en) 2013-08-30 2017-10-17 Thalmic Labs Inc. Systems, articles, and methods for stretchable printed circuit boards
US9976867B2 (en) 2013-09-04 2018-05-22 Essilor International Navigation method based on a see-through head-mounted device
CN105309056B (zh) 2013-09-06 2018-04-03 株式会社村田制作所 多层基板
US9372535B2 (en) 2013-09-06 2016-06-21 Thalmic Labs Inc. Systems, articles, and methods for electromyography-based human-electronics interfaces
US9483123B2 (en) 2013-09-23 2016-11-01 Thalmic Labs Inc. Systems, articles, and methods for gesture identification in wearable electromyography devices
US20160235323A1 (en) 2013-09-25 2016-08-18 Mindmaze Sa Physiological parameter measurement and feedback system
US10048761B2 (en) 2013-09-30 2018-08-14 Qualcomm Incorporated Classification of gesture detection systems through use of known and yet to be worn sensors
US10405786B2 (en) 2013-10-09 2019-09-10 Nedim T. SAHIN Systems, environment and methods for evaluation and management of autism spectrum disorder using a wearable data collection device
KR101839257B1 (ko) 2013-10-14 2018-03-15 나이키 이노베이트 씨.브이. 운동 움직임 속성으로부터의 페이스 및 에너지 지출의 계산
US9389694B2 (en) 2013-10-22 2016-07-12 Thalmic Labs Inc. Systems, articles, and methods for gesture identification in wearable electromyography devices
CN103777752A (zh) 2013-11-02 2014-05-07 上海威璞电子科技有限公司 基于手臂肌肉电流检测和运动传感器的手势识别设备
GB2519987B (en) 2013-11-04 2021-03-03 Imperial College Innovations Ltd Biomechanical activity monitoring
US9594433B2 (en) 2013-11-05 2017-03-14 At&T Intellectual Property I, L.P. Gesture-based controls via bone conduction
US10676083B1 (en) 2013-11-13 2020-06-09 Hrl Laboratories, Llc System and method for prediction of occupant motor response in accidents
WO2015073713A1 (en) 2013-11-13 2015-05-21 Hrl Laboratories, Llc System for controlling brain machine interfaces and neural prosthetic systems
WO2015081113A1 (en) 2013-11-27 2015-06-04 Cezar Morun Systems, articles, and methods for electromyography sensors
US20150157944A1 (en) 2013-12-06 2015-06-11 Glenn I. Gottlieb Software Application for Generating a Virtual Simulation for a Sport-Related Activity
US9367086B2 (en) 2013-12-10 2016-06-14 Atmel Corporation Smart watch with adaptive touch screen
US9367139B2 (en) 2013-12-12 2016-06-14 Thalmic Labs Inc. Systems, articles, and methods for gesture identification in wearable electromyography devices
US9971412B2 (en) 2013-12-20 2018-05-15 Lenovo (Singapore) Pte. Ltd. Enabling device features according to gesture input
US9640181B2 (en) 2013-12-27 2017-05-02 Kopin Corporation Text editing with gesture control and natural speech
USD751065S1 (en) 2013-12-28 2016-03-08 Intel Corporation Wearable computing device
KR20150077684A (ko) 2013-12-30 2015-07-08 삼성전자주식회사 생체 신호 기반 기능 운용 방법 및 이를 지원하는 전자 장치
US20150182130A1 (en) 2013-12-31 2015-07-02 Aliphcom True resting heart rate
US9659403B1 (en) 2014-01-06 2017-05-23 Leap Motion, Inc. Initializing orientation in space for predictive information for free space gesture control and communication
US9600925B2 (en) 2014-01-06 2017-03-21 Oculus Vr, Llc Calibration of multiple rigid bodies in a virtual reality system
US9613262B2 (en) 2014-01-15 2017-04-04 Leap Motion, Inc. Object detection and tracking for providing a virtual device experience
EP3104737A4 (en) 2014-02-14 2017-10-11 Thalmic Labs Inc. Systems, articles, and methods for elastic electrical cables and wearable electronic devices employing same
TWI596994B (zh) 2014-02-20 2017-08-21 Tear-resistant structure of the flexible circuit board
US20150242009A1 (en) 2014-02-26 2015-08-27 Qeexo, Co. Using Capacitive Images for Touch Type Classification
WO2015131157A1 (en) 2014-02-28 2015-09-03 Vikas Gupta Gesture operated wrist mounted camera system
USD751068S1 (en) 2014-03-07 2016-03-08 Sony Mobile Communications Ab Display portion of watch shaped communications equipment
US10613642B2 (en) 2014-03-12 2020-04-07 Microsoft Technology Licensing, Llc Gesture parameter tuning
US9649558B2 (en) 2014-03-14 2017-05-16 Sony Interactive Entertainment Inc. Gaming device with rotatably placed cameras
US20150261306A1 (en) 2014-03-17 2015-09-17 Thalmic Labs Inc. Systems, devices, and methods for selecting between multiple wireless connections
USD736664S1 (en) 2014-03-18 2015-08-18 Google Technology Holdings LLC Wrist band for an electronic device
US10520378B1 (en) 2014-03-20 2019-12-31 Invent.Ly, Llc Wearable user input device and sensors system to detect injury
US10327670B2 (en) 2014-03-26 2019-06-25 GestureLogic Inc. Systems, methods and devices for exercise and activity metric computation
US10199008B2 (en) 2014-03-27 2019-02-05 North Inc. Systems, devices, and methods for wearable electronic devices as state machines
US10409382B2 (en) 2014-04-03 2019-09-10 Honda Motor Co., Ltd. Smart tutorial for gesture control system
TWD165563S (zh) 2014-04-08 2015-01-21 緯創資通股份有限公司 穿戴式電子裝置之部分
US9149938B1 (en) 2014-04-11 2015-10-06 Harris Corporation Robotic exoskeleton with adaptive viscous user coupling
US20150296553A1 (en) 2014-04-11 2015-10-15 Thalmic Labs Inc. Systems, devices, and methods that establish proximity-based wireless connections
US9858391B2 (en) 2014-04-17 2018-01-02 The Boeing Company Method and system for tuning a musculoskeletal model
US9402582B1 (en) 2014-04-21 2016-08-02 Verily Life Sciences Llc Smart surgical glove
US10845982B2 (en) 2014-04-28 2020-11-24 Facebook, Inc. Providing intelligent transcriptions of sound messages in a messaging application
WO2015164951A1 (en) 2014-05-01 2015-11-05 Abbas Mohamad Methods and systems relating to personalized evolving avatars
US20150323998A1 (en) * 2014-05-06 2015-11-12 Qualcomm Incorporated Enhanced user interface for a wearable electronic device
US20150325202A1 (en) 2014-05-07 2015-11-12 Thalmic Labs Inc. Systems, devices, and methods for wearable computers with heads-up displays
WO2015175364A1 (en) 2014-05-12 2015-11-19 Commscope Technologies Llc Remote radio heads having wireless jumper connections and related equipment, systems and methods
US9785247B1 (en) 2014-05-14 2017-10-10 Leap Motion, Inc. Systems and methods of tracking moving hands and recognizing gestural interactions
KR101666399B1 (ko) 2014-05-15 2016-10-14 한국과학기술연구원 다중 채널 표면 근전도에서의 신체 관절 운동학 정보 추출 방법, 이를 수행하기 위한 기록 매체 및 장치
USD717685S1 (en) 2014-05-15 2014-11-18 Thalmic Labs Inc. Expandable armband
USD756359S1 (en) 2014-05-15 2016-05-17 Thalmic Labs Inc. Expandable armband device
US9741169B1 (en) 2014-05-20 2017-08-22 Leap Motion, Inc. Wearable augmented reality devices with object detection and tracking
US10782657B2 (en) 2014-05-27 2020-09-22 Ultrahaptics IP Two Limited Systems and methods of gestural interaction in a pervasive computing environment
CN105320248B (zh) 2014-06-03 2018-12-07 深圳Tcl新技术有限公司 空中手势输入方法及装置
US9329694B2 (en) 2014-06-06 2016-05-03 Google Technology Holdings LLC Preemptive machine learning-based gesture recognition
US9977505B2 (en) 2014-06-06 2018-05-22 International Business Machines Corporation Controlling inadvertent inputs to a mobile device
AU2015274283B2 (en) 2014-06-14 2020-09-10 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
JP6362444B2 (ja) 2014-06-16 2018-07-25 日本メクトロン株式会社 フレキシブルプリント基板およびフレキシブルプリント基板の製造方法
US9880632B2 (en) 2014-06-19 2018-01-30 Thalmic Labs Inc. Systems, devices, and methods for gesture identification
US10216274B2 (en) 2014-06-23 2019-02-26 North Inc. Systems, articles, and methods for wearable human-electronics interface devices
WO2015199747A1 (en) 2014-06-23 2015-12-30 Thalmic Labs Inc. Systems, articles, and methods for wearable human-electronics interface devices
US20150379770A1 (en) 2014-06-27 2015-12-31 David C. Haley, JR. Digital action in response to object interaction
US9552069B2 (en) 2014-07-11 2017-01-24 Microsoft Technology Licensing, Llc 3D gesture recognition
WO2016012865A2 (en) 2014-07-23 2016-01-28 Yonatan Wexler Wearable apparatus and methods for processing image data
US20160050037A1 (en) 2014-08-12 2016-02-18 Valcom, Inc. Emergency alert notification device, system, and method
US9734704B2 (en) 2014-08-12 2017-08-15 Dominick S. LEE Wireless gauntlet for electronic control
US20160071319A1 (en) 2014-09-09 2016-03-10 Schneider Electric It Corporation Method to use augumented reality to function as hmi display
WO2016041088A1 (en) 2014-09-19 2016-03-24 Sulon Technologies Inc. System and method for tracking wearable peripherals in augmented reality and virtual reality applications
US9811555B2 (en) 2014-09-27 2017-11-07 Intel Corporation Recognition of free-form gestures from orientation tracking of a handheld or wearable device
US10783900B2 (en) 2014-10-03 2020-09-22 Google Llc Convolutional, long short-term memory, fully connected deep neural networks
CN105573536B (zh) * 2014-10-16 2018-09-07 华为技术有限公司 触控交互的处理方法、装置和系统
WO2016065020A2 (en) 2014-10-21 2016-04-28 Robert Bosch Gmbh Method and system for automation of response selection and composition in dialog systems
JP6415592B2 (ja) 2014-11-12 2018-10-31 京セラ株式会社 ウェアラブル装置
US9807221B2 (en) 2014-11-28 2017-10-31 Thalmic Labs Inc. Systems, devices, and methods effected in response to establishing and/or terminating a physical communications link
KR20160071732A (ko) 2014-12-12 2016-06-22 삼성전자주식회사 음성 입력을 처리하는 방법 및 장치
EP3234731B1 (en) 2014-12-16 2020-07-01 Somatix Inc. Methods and systems for monitoring and influencing gesture-based behaviors
USD743963S1 (en) 2014-12-22 2015-11-24 Osterhout Group, Inc. Air mouse
US9612661B2 (en) 2015-01-02 2017-04-04 Wearable Devices Ltd. Closed loop feedback interface for wearable devices
US9720515B2 (en) 2015-01-02 2017-08-01 Wearable Devices Ltd. Method and apparatus for a gesture controlled interface for wearable devices
US10362944B2 (en) 2015-01-19 2019-07-30 Samsung Electronics Company, Ltd. Optical detection and analysis of internal body tissues
US9852546B2 (en) 2015-01-28 2017-12-26 CCP hf. Method and system for receiving gesture input via virtual control objects
US9696795B2 (en) 2015-02-13 2017-07-04 Leap Motion, Inc. Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments
WO2016132371A1 (en) 2015-02-22 2016-08-25 Technion Research & Development Foundation Limited Gesture recognition using multi-sensory data
EP3064130A1 (en) 2015-03-02 2016-09-07 MindMaze SA Brain activity measurement and feedback system
US10599216B2 (en) 2015-03-02 2020-03-24 Tap Systems Inc. Arbitrary surface and finger position keyboard
US10124210B2 (en) 2015-03-13 2018-11-13 KO Luxembourg SARL Systems and methods for qualitative assessment of sports performance
GB201504362D0 (en) * 2015-03-16 2015-04-29 Elliptic Laboratories As Touchless user interfaces for electronic devices
US20160274758A1 (en) 2015-03-20 2016-09-22 Thalmic Labs Inc. Systems, devices, and methods for mitigating false positives in human-electronics interfaces
US20160282947A1 (en) 2015-03-26 2016-09-29 Lenovo (Singapore) Pte. Ltd. Controlling a wearable device using gestures
KR101927323B1 (ko) 2015-04-03 2018-12-10 엘지전자 주식회사 이동단말기 및 그 제어방법
US10432842B2 (en) 2015-04-06 2019-10-01 The Texas A&M University System Fusion of inertial and depth sensors for movement measurements and recognition
US20170095178A1 (en) 2015-04-09 2017-04-06 Marco Schoen EMG Home Trainer
US20180107275A1 (en) * 2015-04-13 2018-04-19 Empire Technology Development Llc Detecting facial expressions
WO2016168117A2 (en) 2015-04-14 2016-10-20 John James Daniels Wearable electric, multi-sensory, human/machine, human/human interfaces
US20160309249A1 (en) 2015-04-16 2016-10-20 Hong Fu Jin Precision Industry (Wuhan) Co., Ltd. Wearable electronic device
KR102063895B1 (ko) 2015-04-20 2020-01-08 삼성전자주식회사 서버, 사용자 단말 장치 및 그 제어 방법
US9804733B2 (en) * 2015-04-21 2017-10-31 Dell Products L.P. Dynamic cursor focus in a multi-display information handling system environment
US9972133B2 (en) 2015-04-24 2018-05-15 Jpw Industries Inc. Wearable display for use with tool
US10078435B2 (en) 2015-04-24 2018-09-18 Thalmic Labs Inc. Systems, methods, and computer program products for interacting with electronically displayed presentation materials
US10175492B2 (en) 2015-04-24 2019-01-08 Eon Reality, Inc. Systems and methods for transition between augmented reality and virtual reality
GB2537899B (en) 2015-04-30 2018-02-21 Hy5Pro As Control of digits for artificial hand
US9654477B1 (en) 2015-05-05 2017-05-16 Wells Fargo Bank, N. A. Adaptive authentication
US9740310B2 (en) 2015-05-22 2017-08-22 Adobe Systems Incorporated Intuitive control of pressure-sensitive stroke attributes
US9898864B2 (en) 2015-05-28 2018-02-20 Microsoft Technology Licensing, Llc Shared tactile interaction and user safety in shared space multi-person immersive virtual reality
MX2017015590A (es) 2015-06-02 2018-07-06 Battelle Memorial Institute Manga neuronal para estimulacion, deteccion y registro neuromuscular.
WO2016196784A1 (en) 2015-06-02 2016-12-08 Battelle Memorial Institute Non-invasive motor impairment rehabilitation system
EP3302688B1 (en) 2015-06-02 2020-11-04 Battelle Memorial Institute Systems for neural bridging of the nervous system
US10813559B2 (en) 2015-06-14 2020-10-27 Facense Ltd. Detecting respiratory tract infection based on changes in coughing sounds
US11589814B2 (en) 2015-06-26 2023-02-28 Carnegie Mellon University System for wearable, low-cost electrical impedance tomography for non-invasive gesture recognition
US9240069B1 (en) 2015-06-30 2016-01-19 Ariadne's Thread (Usa), Inc. Low-latency virtual reality display system
WO2017007518A1 (en) 2015-07-07 2017-01-12 Obma Padraic R Noninvasive medical monitoring device, system and method
WO2017019991A1 (en) 2015-07-29 2017-02-02 Sensel Inc. Systems and methods for manipulating a virtual environment
KR101626748B1 (ko) 2015-08-03 2016-06-14 숭실대학교산학협력단 뇌파와 근전도를 이용한 움직임 패턴 측정 장치 및 그 방법
US10854104B2 (en) 2015-08-28 2020-12-01 Icuemotion Llc System for movement skill analysis and skill augmentation and cueing
US10387034B2 (en) * 2015-09-03 2019-08-20 Microsoft Technology Licensing, Llc Modifying captured stroke information into an actionable form
US10348355B2 (en) 2015-09-16 2019-07-09 Intel Corporation Techniques for gesture recognition using photoplethysmographic (PPMG) sensor and low-power wearable gesture recognition device using the same
US20170079828A1 (en) 2015-09-22 2017-03-23 Lim Innovations, Inc. Scoliosis treatment system and method
US9824287B2 (en) 2015-09-29 2017-11-21 Huami Inc. Method, apparatus and system for biometric identification
US10459537B2 (en) 2015-09-30 2019-10-29 Stmicroelectronics, Inc. Encapsulated pressure sensor
US11026628B1 (en) 2015-09-30 2021-06-08 Apple Inc. Systems and methods of spatial filtering for measuring electrical signals
WO2017062544A1 (en) 2015-10-06 2017-04-13 University Of Pittsburgh-Of The Commonwealth System Of Higher Education Method, device and system for sensing neuromuscular, physiological, biomechanical, and musculoskeletal activity
US9881273B2 (en) 2015-10-28 2018-01-30 Disney Interprises, Inc. Automatic object detection and state estimation via electronic emissions sensing
US11106273B2 (en) 2015-10-30 2021-08-31 Ostendo Technologies, Inc. System and methods for on-body gestural interfaces and projection displays
US10595941B2 (en) 2015-10-30 2020-03-24 Orthosensor Inc. Spine measurement system and method therefor
US10552752B2 (en) 2015-11-02 2020-02-04 Microsoft Technology Licensing, Llc Predictive controller for applications
GB201520367D0 (en) 2015-11-19 2016-01-06 Bespoke Vr Ltd Editing interactive motion capture data for creating the interaction characteristics of non player characters
KR102570068B1 (ko) 2015-11-20 2023-08-23 삼성전자주식회사 동작 인식 방법, 동작 인식 장치 및 웨어러블 장치
KR101739656B1 (ko) 2015-11-23 2017-05-24 이경호 핸디형 유방암 검진기
US10776712B2 (en) 2015-12-02 2020-09-15 Preferred Networks, Inc. Generative machine learning systems for drug design
US20170188980A1 (en) 2016-01-06 2017-07-06 Empire Technology Development Llc Wearable sensor based body modeling
US11402402B2 (en) 2016-01-12 2022-08-02 Bigmotion Technologies Inc. Systems and methods for human body motion capture
US10973422B2 (en) 2016-01-22 2021-04-13 Fitbit, Inc. Photoplethysmography-based pulse wave analysis using a wearable device
KR102619981B1 (ko) 2016-02-02 2024-01-02 삼성전자주식회사 근전도 신호를 이용한 동작 분류 방법 및 장치
KR102576908B1 (ko) 2016-02-16 2023-09-12 삼성전자주식회사 동적 파노라마 기능을 제공하는 방법 및 장치
WO2017143303A1 (en) 2016-02-17 2017-08-24 Meta Company Apparatuses, methods and systems for sharing virtual elements
US20170259167A1 (en) 2016-03-14 2017-09-14 Nathan Sterling Cook Brainwave virtual reality apparatus and method
KR102158743B1 (ko) 2016-03-15 2020-09-22 한국전자통신연구원 자연어 음성인식의 성능향상을 위한 데이터 증강장치 및 방법
US9864434B2 (en) 2016-03-30 2018-01-09 Huami Inc. Gesture control of interactive events using multiple wearable devices
US10503253B2 (en) 2016-03-31 2019-12-10 Intel Corporation Sensor signal processing to determine finger and/or hand position
JP6728386B2 (ja) 2016-03-31 2020-07-22 センセル インコーポレイテッドSensel,Inc. 人間コンピュータインタフェースシステム
US10338686B2 (en) 2016-03-31 2019-07-02 Disney Enterprises, Inc. Control system using aesthetically guided gesture recognition
US10852835B2 (en) 2016-04-15 2020-12-01 Board Of Regents, The University Of Texas System Systems, apparatuses and methods for controlling prosthetic devices by gestures and other modalities
US10283859B2 (en) 2016-04-19 2019-05-07 Skyworks Solutions, Inc. Selective shielding of radio frequency modules
US10046229B2 (en) 2016-05-02 2018-08-14 Bao Tran Smart device
US10203751B2 (en) 2016-05-11 2019-02-12 Microsoft Technology Licensing, Llc Continuous motion controls operable using neurological data
US9864431B2 (en) 2016-05-11 2018-01-09 Microsoft Technology Licensing, Llc Changing an application state using neurological data
US10555865B2 (en) 2016-05-25 2020-02-11 Carnegie Mellon University Torque control methods for an exoskeleton device
EP3463550B1 (en) 2016-05-31 2024-03-27 Lab Schöpfergeist AG Nerve stimulation apparatus and method
US10426371B2 (en) 2016-06-07 2019-10-01 Smk Corporation Muscle condition measurement sheet
KR101790147B1 (ko) 2016-06-22 2017-10-25 재단법인 실감교류인체감응솔루션연구단 가상 객체 조작 시스템 및 방법
US10154791B2 (en) 2016-07-01 2018-12-18 L.I.F.E. Corporation S.A. Biometric identification by garments having a plurality of sensors
US10943398B2 (en) 2016-07-15 2021-03-09 Samsung Electronics Co., Ltd. Augmented reality device and operation thereof
US10433052B2 (en) 2016-07-16 2019-10-01 Ron Zass System and method for identifying speech prosody
US10372228B2 (en) 2016-07-20 2019-08-06 Usens, Inc. Method and system for 3D hand skeleton tracking
KR102655669B1 (ko) 2016-07-20 2024-04-05 삼성전자주식회사 생체신호의 특징 추출 장치 및 방법과, 생체정보 검출 장치
US11337652B2 (en) 2016-07-25 2022-05-24 Facebook Technologies, Llc System and method for measuring the movements of articulated rigid bodies
US11216069B2 (en) 2018-05-08 2022-01-04 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
CN110300542A (zh) 2016-07-25 2019-10-01 开创拉布斯公司 使用可穿戴的自动传感器预测肌肉骨骼位置信息的方法和装置
CN110337269B (zh) 2016-07-25 2021-09-21 脸谱科技有限责任公司 基于神经肌肉信号推断用户意图的方法和装置
EP3487457B1 (en) 2016-07-25 2023-09-06 Facebook Technologies, LLC. Adaptive system for deriving control signals from measurements of neuromuscular activity
US20190223748A1 (en) 2018-01-25 2019-07-25 Ctrl-Labs Corporation Methods and apparatus for mitigating neuromuscular signal artifacts
US20180088675A1 (en) 2016-09-29 2018-03-29 Brian K. Vogel Coordinate system for gesture control
US10765363B2 (en) 2016-09-30 2020-09-08 Cognionics, Inc. Headgear for dry electroencephalogram sensors
US10300372B2 (en) 2016-09-30 2019-05-28 Disney Enterprises, Inc. Virtual blaster
US20180095542A1 (en) 2016-09-30 2018-04-05 Sony Interactive Entertainment Inc. Object Holder for Virtual Reality Interaction
US10162422B2 (en) 2016-10-10 2018-12-25 Deere & Company Control of machines through detection of gestures by optical and muscle sensors
WO2018094011A1 (en) 2016-11-16 2018-05-24 Lumo Bodytech, Inc. System and method for personalized exercise training and coaching
US11229787B2 (en) 2016-11-25 2022-01-25 Kinaptic, LLC Haptic human machine interface and wearable electronics methods and apparatus
US10070799B2 (en) 2016-12-02 2018-09-11 Pison Technology, Inc. Detecting and using body tissue electrical signals
US10646139B2 (en) 2016-12-05 2020-05-12 Intel Corporation Body movement tracking
US10736564B2 (en) 2016-12-16 2020-08-11 Elwha Llc System and method for enhancing learning of a motor task
US20190025919A1 (en) 2017-01-19 2019-01-24 Mindmaze Holding Sa System, method and apparatus for detecting facial expression in an augmented reality system
US10488510B2 (en) 2017-02-02 2019-11-26 Leah La Salla Predictive probable cause system and unmanned vehicles using the same
US10854194B2 (en) 2017-02-10 2020-12-01 Johnson Controls Technology Company Building system with digital twin based data ingestion and processing
GB2561537B (en) 2017-02-27 2022-10-12 Emteq Ltd Optical expression detection
US20180247443A1 (en) * 2017-02-28 2018-08-30 International Business Machines Corporation Emotional analysis and depiction in virtual reality
EP3609402A4 (en) 2017-04-14 2020-12-16 Rehabilitation Institute Of Chicago D/B/A Shirley PROSTHETIC VIRTUAL REALITY LEARNING INTERFACE AND RELATED PROCESSES
US10939833B2 (en) 2017-05-01 2021-03-09 Samsung Electronics Company, Ltd. Determining artery location using camera-based sensing
GB201709227D0 (en) 2017-06-09 2017-07-26 Microsoft Technology Licensing Llc A wearable device
US11259746B2 (en) 2017-07-10 2022-03-01 General Electric Company Method and system for neuromuscular transmission measurement
US20190027141A1 (en) 2017-07-21 2019-01-24 Pearson Education, Inc. Systems and methods for virtual reality-based interaction evaluation
US10481699B2 (en) 2017-07-27 2019-11-19 Facebook Technologies, Llc Armband for tracking hand motion using electrical impedance measurement
US11231781B2 (en) 2017-08-03 2022-01-25 Intel Corporation Haptic gloves for virtual reality systems and methods of controlling the same
US11561806B2 (en) 2017-08-04 2023-01-24 Hannes Bendfeldt Adaptive interface for screen-based interactions
KR102408359B1 (ko) 2017-08-23 2022-06-14 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
RU2678494C1 (ru) 2017-08-24 2019-01-29 Самсунг Электроникс Ко., Лтд. Устройство и способ для биометрической идентификации пользователя с использованием рч (радиочастотного) радара
WO2019051082A1 (en) 2017-09-06 2019-03-14 Georgia Tech Research Corporation SYSTEMS, METHODS AND DEVICES FOR GESTURE RECOGNITION
WO2019050651A1 (en) 2017-09-08 2019-03-14 Intel Corporation LOW NOISE FRONTAL APPLICATION FOR CARDIAC FREQUENCY MONITOR USING PHOTOPLETHYSMOGRAPHY
US20190076716A1 (en) 2017-09-12 2019-03-14 Intel Corporation Activity training system
KR102434402B1 (ko) 2017-09-19 2022-08-22 한국전자통신연구원 혼합현실 콘텐츠를 제공하는 장치 및 방법
EP3697297A4 (en) 2017-10-19 2020-12-16 Facebook Technologies, Inc. SYSTEMS AND METHODS FOR IDENTIFYING BIOLOGICAL STRUCTURES ASSOCIATED WITH NEUROMUSCULAR SOURCE SIGNALS
US10606620B2 (en) 2017-11-16 2020-03-31 International Business Machines Corporation Notification interaction in a touchscreen user interface
US20190150777A1 (en) 2017-11-17 2019-05-23 Ctrl-Labs Corporation Dual-supply analog circuitry for sensing surface emg signals
WO2019123463A1 (en) 2017-12-20 2019-06-27 The Elegant Monkeys Ltd. Method and system of modelling a mental/ emotional state of a user
US10535191B2 (en) 2017-12-21 2020-01-14 Luminar Technologies, Inc. Object identification and labeling tool for training autonomous vehicle controllers
US20190196586A1 (en) 2017-12-27 2019-06-27 X Development Llc Electroencephalogram system with machine learning filtering of redundant signals
US10671164B2 (en) 2017-12-27 2020-06-02 X Development Llc Interface for electroencephalogram for computer control
US10827942B2 (en) 2018-01-03 2020-11-10 Intel Corporation Detecting fatigue based on electroencephalogram (EEG) data
EP3692548B1 (en) 2018-01-09 2023-06-14 St. Jude Medical, Cardiology Division, Inc. System and method for sorting electrophysiological signals on virtual catheters
US10729564B2 (en) 2018-01-12 2020-08-04 Ripple Llc Sensor system
US20200097081A1 (en) 2018-09-20 2020-03-26 Jasmine Stone Neuromuscular control of an augmented reality system
WO2019147958A1 (en) 2018-01-25 2019-08-01 Ctrl-Labs Corporation User-controlled tuning of handstate representation model parameters
CN112074870A (zh) 2018-01-25 2020-12-11 脸谱科技有限责任公司 重构的手部状态信息的可视化
WO2019147949A1 (en) 2018-01-25 2019-08-01 Ctrl-Labs Corporation Real-time processing of handstate representation model estimates
EP3743790A4 (en) 2018-01-25 2021-03-17 Facebook Technologies, Inc. RECONSTRUCTION OF HAND STATE ON THE BASIS OF MULTIPLE ENTRIES
US10937414B2 (en) 2018-05-08 2021-03-02 Facebook Technologies, Llc Systems and methods for text input using neuromuscular information
US10504286B2 (en) 2018-01-25 2019-12-10 Ctrl-Labs Corporation Techniques for anonymizing neuromuscular signal data
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
CN111902077B (zh) 2018-01-25 2023-08-04 元平台技术有限公司 利用神经肌肉信号进行手部状态表示建模的校准技术
US20190247650A1 (en) 2018-02-14 2019-08-15 Bao Tran Systems and methods for augmenting human muscle controls
US11145096B2 (en) 2018-03-07 2021-10-12 Samsung Electronics Co., Ltd. System and method for augmented reality interaction
US10901508B2 (en) 2018-03-20 2021-01-26 X Development Llc Fused electroencephalogram and machine learning for precognitive brain-computer interface for computer control
WO2019199924A1 (en) 2018-04-10 2019-10-17 Rhythmlink International, Llc Virtual electrode template system for neurological monitoring
US20190324549A1 (en) 2018-04-20 2019-10-24 Immersion Corporation Systems, devices, and methods for providing immersive reality interface modes
US10592001B2 (en) 2018-05-08 2020-03-17 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
EP3791387B1 (en) 2018-05-08 2023-08-30 Facebook Technologies, LLC. Systems and methods for improved speech recognition using neuromuscular information
CN112424727A (zh) 2018-05-22 2021-02-26 奇跃公司 用于可穿戴系统的跨模态输入融合
WO2019226259A1 (en) 2018-05-25 2019-11-28 Ctrl-Labs Corporation Methods and apparatus for providing sub-muscular control
CN112261907A (zh) 2018-05-29 2021-01-22 脸谱科技有限责任公司 表面肌电信号测量中降噪的屏蔽技术及相关系统和方法
US11099647B2 (en) 2018-08-05 2021-08-24 Pison Technology, Inc. User interface control of responsive devices
WO2020047429A1 (en) 2018-08-31 2020-03-05 Ctrl-Labs Corporation Camera-guided interpretation of neuromuscular signals
US11484267B2 (en) 2018-09-11 2022-11-01 Apple Inc. Contact detection for physiological sensor
CN112789577B (zh) 2018-09-20 2024-04-05 元平台技术有限公司 增强现实系统中的神经肌肉文本输入、书写和绘图
WO2020072915A1 (en) 2018-10-05 2020-04-09 Ctrl-Labs Corporation Use of neuromuscular signals to provide enhanced interactions with physical objects in an augmented reality environment
US11457995B2 (en) 2018-12-27 2022-10-04 Biosense Webster (Israel) Ltd. Accurate balloon computation and visualization
US10905383B2 (en) 2019-02-28 2021-02-02 Facebook Technologies, Llc Methods and apparatus for unsupervised one-shot machine learning for classification of human gestures and estimation of applied forces
TWI689859B (zh) 2019-03-19 2020-04-01 國立臺灣科技大學 由手腕偵測肌動訊號識別使用者手勢之系統及方法
KR102278069B1 (ko) 2019-10-22 2021-07-14 조선대학교산학협력단 근전도 신호 기반 사용자 인증 장치 및 인증 방법
CN113301710B (zh) 2020-02-24 2022-09-09 京东方科技集团股份有限公司 显示装置及其制备方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105511615A (zh) * 2015-12-04 2016-04-20 深圳大学 基于emg的可穿戴式文本输入系统及方法
CN107203272A (zh) * 2017-06-23 2017-09-26 山东万腾电子科技有限公司 基于肌电感知技术的可穿戴增强现实作业指导系统及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Electromyogram (EMG) Driven System Based Virtual Reality for Prosthetic and Rehabilitation Devices";AL-JUMAILY ADEL ET AL;PROCEEDINGS OF THE 11TH INTERNATIONAL CONFERENCE ON INFORMATION INTEGRATION AND WEB-BASED APPLICATIONS & SERVICES;pages 582-586 *

Also Published As

Publication number Publication date
CN112789577A (zh) 2021-05-11
WO2020061451A1 (en) 2020-03-26
US11567573B2 (en) 2023-01-31
EP3853698A4 (en) 2021-11-17
US20200097082A1 (en) 2020-03-26
EP3853698A1 (en) 2021-07-28

Similar Documents

Publication Publication Date Title
CN112789577B (zh) 增强现实系统中的神经肌肉文本输入、书写和绘图
EP3843617B1 (en) Camera-guided interpretation of neuromuscular signals
US10970936B2 (en) Use of neuromuscular signals to provide enhanced interactions with physical objects in an augmented reality environment
CN114341779B (zh) 用于基于神经肌肉控制执行输入的系统、方法和界面
US20200097081A1 (en) Neuromuscular control of an augmented reality system
Guo et al. Human-machine interaction sensing technology based on hand gesture recognition: A review
US11163361B2 (en) Calibration techniques for handstate representation modeling using neuromuscular signals
CN112074870A (zh) 重构的手部状态信息的可视化
KR20140146346A (ko) 파지된 물체를 이용한 모션을 인식하는 장치 및 방법, 시스템
CN107589782A (zh) 用于可穿戴设备的姿势控制接口的方法和装置
EP3951564A1 (en) Methods and apparatus for simultaneous detection of discrete and continuous gestures
CN112822992B (zh) 在增强现实环境中使用神经肌肉信号来提供与物理对象的增强交互

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: California, USA

Applicant after: Yuan Platform Technology Co.,Ltd.

Address before: California, USA

Applicant before: Facebook Technologies, LLC

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant