CN112789577B - 增强现实系统中的神经肌肉文本输入、书写和绘图 - Google Patents
增强现实系统中的神经肌肉文本输入、书写和绘图 Download PDFInfo
- Publication number
- CN112789577B CN112789577B CN201980062920.7A CN201980062920A CN112789577B CN 112789577 B CN112789577 B CN 112789577B CN 201980062920 A CN201980062920 A CN 201980062920A CN 112789577 B CN112789577 B CN 112789577B
- Authority
- CN
- China
- Prior art keywords
- input
- user
- mode
- neuromuscular
- identifying
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000002232 neuromuscular Effects 0.000 title claims abstract description 268
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 100
- 238000000034 method Methods 0.000 claims abstract description 54
- 230000009471 action Effects 0.000 claims description 175
- 238000012545 processing Methods 0.000 claims description 26
- 230000000007 visual effect Effects 0.000 claims description 23
- 238000005259 measurement Methods 0.000 claims description 8
- 230000033001 locomotion Effects 0.000 description 70
- 230000000694 effects Effects 0.000 description 41
- 238000013528 artificial neural network Methods 0.000 description 37
- 230000004913 activation Effects 0.000 description 31
- 238000001994 activation Methods 0.000 description 31
- 210000003205 muscle Anatomy 0.000 description 30
- 238000002567 electromyography Methods 0.000 description 27
- 238000005516 engineering process Methods 0.000 description 26
- 230000008569 process Effects 0.000 description 18
- 230000006870 function Effects 0.000 description 16
- 230000000306 recurrent effect Effects 0.000 description 14
- 210000000707 wrist Anatomy 0.000 description 11
- 238000010079 rubber tapping Methods 0.000 description 10
- 230000006854 communication Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 8
- 238000013507 mapping Methods 0.000 description 8
- 230000004044 response Effects 0.000 description 8
- 230000000875 corresponding effect Effects 0.000 description 7
- 230000007115 recruitment Effects 0.000 description 7
- 230000003213 activating effect Effects 0.000 description 6
- 238000012217 deletion Methods 0.000 description 6
- 230000037430 deletion Effects 0.000 description 6
- 238000001914 filtration Methods 0.000 description 6
- 210000001503 joint Anatomy 0.000 description 6
- 210000002346 musculoskeletal system Anatomy 0.000 description 6
- 230000005855 radiation Effects 0.000 description 6
- 210000000245 forearm Anatomy 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 230000003321 amplification Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000010304 firing Methods 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 210000002569 neuron Anatomy 0.000 description 4
- 238000003199 nucleic acid amplification method Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000004883 computer application Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 210000004247 hand Anatomy 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 210000005036 nerve Anatomy 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000036982 action potential Effects 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 210000002414 leg Anatomy 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000004118 muscle contraction Effects 0.000 description 2
- 230000008560 physiological behavior Effects 0.000 description 2
- 230000035790 physiological processes and functions Effects 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 210000000689 upper leg Anatomy 0.000 description 2
- 241001422033 Thestylus Species 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 244000309466 calf Species 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 210000002310 elbow joint Anatomy 0.000 description 1
- 238000002593 electrical impedance tomography Methods 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 210000004394 hip joint Anatomy 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 210000000629 knee joint Anatomy 0.000 description 1
- 210000003041 ligament Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000002161 motor neuron Anatomy 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 239000011664 nicotinic acid Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 210000000323 shoulder joint Anatomy 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 210000002027 skeletal muscle Anatomy 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012421 spiking Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 210000002435 tendon Anatomy 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 210000000623 ulna Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Neurosurgery (AREA)
- Neurology (AREA)
- Health & Medical Sciences (AREA)
- Dermatology (AREA)
- Biomedical Technology (AREA)
- Optics & Photonics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
用于至少部分地基于神经肌肉信号向增强现实系统或扩展现实系统提供输入的方法、系统和套件。该系统、方法、套件包括使用布置在一个或更多个可穿戴设备上的一个或更多个神经肌肉传感器来检测来自用户的神经肌肉信号;确定计算机化系统处于被配置为向增强现实系统提供输入的模式;至少部分地根据神经肌肉信号和/或根据基于神经肌肉信号的信息来识别输入,其中至少部分地基于模式来进一步识别输入;以及向增强现实系统提供所识别的输入。
Description
相关申请的交叉引用
本申请根据35U.S.C.§119(e)要求2018年9月20日提交的标题为“NEUROMUSCULARTEXT ENTRY,WRITING AND DRAWING IN AUGMENTED REALITY SYSTEMS”的美国临时专利申请序列号62/734,138的权益,该申请的全部内容通过引用并入本文。
背景
增强现实(AR)系统通过将计算机生成的感知或虚拟信息覆盖(overlay)在真实世界环境的各个方面,为用户提供了以虚拟信息为补充的真实世界环境的交互式体验。存在各种技术来控制AR系统的操作。典型地,一个或更多个输入设备,例如控制器、键盘、鼠标、相机、麦克风等,可以用于控制AR系统的操作。例如,用户可以操纵输入设备(例如控制器或键盘)上的多个按钮,以实现对AR系统的控制。在另一个示例中,用户可以使用语音命令来控制AR系统的操作。当前用于控制AR系统的操作的技术存在许多缺陷,因此需要改进的技术。
概述
一些实施例涉及将经由神经肌肉传感器感测神经肌肉信号的系统与执行扩展现实(XR)功能的系统相耦合。应当理解,XR功能可以包括增强现实(AR)、虚拟现实(VR)功能、混合现实(MR)功能等。特别地,感测神经肌肉信号的系统可以与XR系统结合使用,以为用户提供改善的XR体验。神经肌肉信号可以直接用作XR系统的输入(例如,通过使用运动单元动作电位作为输入信号),和/或可以处理神经肌肉信号(包括通过使用本文描述的推理模型),以便确定用户身体的一部分(例如,手指、手和手腕)的移动、力和/或位置。例如,在两个系统中获得的信息可以用来改善整个XR体验。在基于传感器数据生成与身体部位相关联的肌肉骨骼表示的实施例中,XR系统中的相机可以捕获用于提高肌肉骨骼表示的模型的准确性和/或用于校准该模型的数据。此外,在另一实现中,肌肉激活数据可以在XR环境中可视化并显示给用户。在又一个示例中,XR环境中的显示信息可以用作对用户的反馈,以允许用户更准确地控制他们对系统的肌肉骨骼输入。此外,可以提供允许神经肌肉信号控制XR系统元件(包括XR系统本身的操作)的控制特征。此外,基于神经肌肉信号识别的各种形式的输入(例如,文本、书写和/或绘图)可被提供作为对XR系统的输入,以及基于特定姿势对XR系统的输入。
根据本文描述的技术的方面,提供了一种用于向扩展现实系统提供输入的计算机化系统。该系统可以包括被配置成检测来自用户的神经肌肉信号的一个或更多个神经肌肉传感器,其中该一个或更多个神经肌肉传感器被布置在一个或更多个可穿戴设备上;和至少一个计算机处理器。至少一个计算机处理器可以被编程为:确定计算机化系统处于被配置为向扩展现实系统提供输入的模式;至少部分地根据多个神经肌肉信号和/或根据基于多个神经肌肉信号的信息来识别输入;以及将所识别的输入提供给扩展现实系统。
在一个方面,根据多个神经肌肉信号和/或根据基于多个神经肌肉信号的信息来确定模式。
在一个方面,基于从用户检测到的姿势来确定模式,其中根据多个神经肌肉信号和/或根据基于多个神经肌肉信号的信息来识别姿势。
在一个方面,通过从由扩展现实系统提供的扩展现实环境中显示的用户界面接收对模式的选择来确定模式,其中用户界面被配置为标识多个模式,用户可以从该多个模式中进行选择。
在一个方面,基于从用户检测到的一个或更多个打字、书写、绘图动作或单手动作来确定模式。
在另一方面,响应于从扩展现实系统接收信号来确定模式。在一个方面,该信号是由扩展现实系统响应于对事件的检测而生成的,对于该事件,期望在由扩展现实系统提供的扩展现实环境内进行输入。
在一个方面,模式包括打字模式,并且识别输入包括至少部分地基于多个神经肌肉信号和/或根据基于多个神经肌肉信号的信息来识别一个或更多个敲击或打字动作。
在一个方面,计算机化系统还包括物理键盘或虚拟键盘。
在一个方面,识别一个或更多个敲击或打字动作包括检测用户在物理键盘或虚拟键盘上的敲击或打字。
在一个方面,该模式包括书写模式,并且识别输入包括至少部分地根据多个神经肌肉信号和/或根据基于多个神经肌肉信号的信息来识别从用户检测到的一个或更多个书写动作。
在一个方面,计算机化系统还包括物理触笔、物理书写工具、虚拟触笔和/或虚拟书写工具。
在一个方面,识别一个或更多个书写动作包括检测用户使用物理触笔、物理书写工具、虚拟触笔和/或虚拟书写工具。
在一个方面,一个或更多个书写动作被识别为在空中(mid-air)被检测到。
在一个方面,该模式包括绘图模式,并且识别输入包括至少部分地根据多个神经肌肉信号和/或根据基于多个神经肌肉信号的信息来识别从用户检测到的一个或更多个绘图动作。
在一个方面,从用户检测到的一个或更多个绘图动作包括多个线段和/或曲线。
在一个方面,针对绘图模式,识别输入包括将输入识别为绘图和/或文本。
在一个方面,至少一个计算机处理器还被编程为组合绘图输入和文本输入,使得文本覆盖或注释绘图。
在一个方面,该模式包括单手模式,并且识别输入包括至少部分地根据多个神经肌肉信号和/或根据基于多个神经肌肉信号的信息来识别从用户检测到的一个或更多个单手动作。
在一个方面,扩展现实系统被配置为向用户显示所识别的输入的指示。在一个方面,所识别的输入的指示包括基于从用户检测到的一个或更多个打字、书写、绘图动作或单手动作而识别的文本输入。
在一个方面,计算机化系统还包括视觉显示器或界面,该视觉显示器或界面被配置为呈现用于文本输入的一个或更多个建议的或预测的单词或短语。
在一个方面,计算机化系统还包括视觉显示器或界面,该视觉显示器或界面被配置为呈现与从用户检测到的一个或更多个笔画相关联的一个或更多个虚拟墨迹。
在一个方面,计算机化系统还包括视觉显示器或界面,该视觉显示器或界面被配置为呈现基于从用户检测到的一个或更多个绘图动作而识别的绘图。
在一个方面,计算机化系统还包括至少一个惯性测量单元(IMU)传感器,其中识别输入包括至少部分地基于与至少一个IMU传感器相关联的至少一个输出信号来识别输入。
在一个方面,计算机化系统还包括至少一个相机,其中识别输入包括至少部分地基于与至少一个相机相关联的至少一个输出信号来识别输入。
在一个方面,该模式包括第一模式,并且所述至少一个计算机处理器还被编程为:至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的信息来识别第二输入,其中至少部分地基于第二模式来进一步识别所述第二输入;以及将识别的第二输入提供给扩展现实系统。
在一个方面,一个或更多个可穿戴设备包括被配置为检测来自用户第一手臂的神经肌肉信号的第一可穿戴设备和被配置为检测来自用户第二手臂的神经肌肉信号的第二可穿戴设备。
在一个方面,扩展现实系统是增强现实系统。
根据本文描述的技术的方面,提供了一种由计算机化系统执行的用于向扩展现实系统提供输入的方法。该方法包括使用布置在一个或更多个可穿戴设备上的一个或更多个神经肌肉传感器来检测来自用户的多个神经肌肉信号;确定计算机化系统处于被配置为向扩展现实系统提供输入的模式;至少部分地根据多个神经肌肉信号和/或根据基于多个神经肌肉信号的信息来识别输入;以及将识别的输入提供给扩展现实系统。
根据本文描述的技术的方面,一种用于向扩展现实(XR)系统提供一个或更多个输入的系统。该系统包括:被配置成检测来自用户的神经肌肉信号的一个或更多个神经肌肉传感器,其中该一个或更多个神经肌肉传感器被布置在一个或更多个可穿戴设备上;一个或更多个辅助传感器,其被配置为检测来自用户的关于生理状态和/或行为的信息;和至少一个计算机处理器。所述至少一个计算机处理器被编程为:确定系统处于被配置为向XR系统提供一个或更多个输入的模式,将神经肌肉信号与由一个或更多个辅助传感器检测到的信息相关联,使用一个或更多个推理模型处理神经肌肉信号和/或由一个或更多个辅助传感器检测到的信息;基于经处理的神经肌肉信号和/或经处理的由一个或更多个辅助传感器检测到的信息来识别一个或更多个输入;以及将所识别的一个或更多个输入提供给XR系统。
根据本文描述的技术的方面,提供了一种与扩展现实(XR)系统一起使用的套件。该套件包括:一个或更多个神经肌肉传感器,其被配置为检测来自用户的神经肌肉信号,其中该一个或更多个神经肌肉传感器被布置在一个或更多个可穿戴设备上;一个或更多个辅助传感器,其被配置为检测来自用户的关于生理状态和/或行为的信息;和至少一个存储介质,其存储指令。当由至少一个计算机处理器执行时,这些指令使得该至少一个计算机处理器:处理来自神经肌肉传感器的神经肌肉信号,处理由一个或更多个辅助传感器检测到的信息,基于经处理的神经肌肉信号和/或经处理的由一个或更多个辅助传感器检测到的信息来识别一个或更多个用户输入,以及将所识别的一个或更多个用户输入传送到XR系统。
根据本文描述的技术的方面,提供了一种用于至少部分地基于神经肌肉信号向增强现实系统提供输入的计算机化系统。该系统包括被配置为记录来自用户的多个神经肌肉信号的多个神经肌肉传感器,其中该多个神经肌肉传感器被布置在一个或更多个可穿戴设备上;和至少一个计算机处理器。至少一个计算机处理器被编程为:确定计算机化系统处于被配置为向增强现实系统提供包括文本的输入的模式;至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的信息来识别所述输入,其中至少部分地基于所述模式来进一步识别所述输入;以及将识别的输入提供给增强现实系统。
在一个方面,该模式包括打字模式,并且识别输入包括至少部分地根据多个神经肌肉信号和/或根据基于多个神经肌肉信号的信息来识别一个或更多个敲击或打字动作;以及基于一个或更多个敲击或打字动作识别针对打字模式的文本输入。
在一个方面,识别一个或更多个敲击或打字动作包括识别在物理键盘的表面上的一个或更多个敲击或打字动作。
在一个方面,识别一个或更多个敲击或打字动作包括识别在表面上的一个或更多个敲击或打字动作,该表面具有由增强现实系统投射在其上的虚拟键盘。
在一个方面,该模式包括书写模式,并且识别输入包括至少部分地根据多个神经肌肉信号和/或根据基于多个神经肌肉信号的信息来识别由用户执行的一个或更多个书写动作;以及基于一个或更多个书写动作识别针对书写模式的文本输入。
在一个方面,识别由用户执行的一个或更多个书写动作包括识别用物理触笔、物理书写工具或用户的一个指尖或更多个指尖在表面上执行的一个或更多个书写动作。
在一个方面,识别由用户执行的一个或更多个书写动作包括识别用虚拟触笔或虚拟书写工具在表面上执行的一个或更多个书写动作。
在一个方面,识别由用户执行的一个或更多个书写动作包括识别在空中执行的一个或更多个书写动作。
在一个方面,该模式包括绘图模式,并且识别输入包括至少部分地根据多个神经肌肉信号和/或根据基于多个神经肌肉信号的信息来识别由用户执行的一个或更多个绘图动作;以及基于一个或更多个绘图动作识别针对绘图模式的输入。
在一个方面,针对绘图模式的输入包括多个线段和/或曲线。
在一个方面,针对绘图模式的输入包括基于由用户执行的一个或更多个绘图动作控制的像素位置序列而确定的输入。
在一个方面,识别针对绘图模式的输入包括基于用户执行的一个或更多个绘图动作来识别绘图;以及基于用户执行的一个或更多个绘图动作来识别文本。
在一个方面,至少一个计算机处理器还被编程为组合绘图和文本,使得文本覆盖或注释绘图。
在一个方面,识别针对绘图模式的输入包括基于用户执行的一个或更多个绘图动作来识别绘图;以及从绘图中识别文本。
在一个方面,该模式包括单手模式,并且识别输入包括至少部分地根据多个神经肌肉信号和/或根据基于多个神经肌肉信号的信息来识别用户执行的一个或更多个单手动作;以及基于一个或更多个单手动作识别针对单手模式的输入。
在一个方面,确定计算机化系统处于被配置为提供输入的模式包括接收用户对模式的选择。
在一个方面,接收用户对模式的选择包括从由增强现实系统提供的增强现实环境中显示的用户界面接收用户的选择,其中用户界面被配置为标识多个模式,用户可以从该多个模式中进行选择。
在一个方面,确定计算机化系统处于被配置为提供输入的模式包括根据多个神经肌肉信号和/或根据基于多个神经肌肉信号的信息来确定模式。
在一个方面,确定模式包括根据多个神经肌肉信号和/或根据基于多个神经肌肉信号的信息来识别用户执行的至少一个姿势;以及确定对应于该至少一个姿势的模式。
在一个方面,确定模式包括基于用户执行的一个或更多个打字、书写、绘图动作或单手动作来确定模式。
在一个方面,确定计算机化系统处于被配置为提供输入的模式包括响应于从增强现实系统接收信号来确定模式。在一个方面,响应于对事件的检测,在增强现实系统处生成信号,对于该事件,期望在由增强现实系统提供的增强现实环境内进行输入。
在一个方面,增强现实系统被配置为向用户显示所识别的输入的指示。
在一个方面,所识别的输入的指示包括基于用户执行的一个或更多个打字、书写、绘图动作或单手动作而识别的文本输入。
在一个方面,所识别的输入的指示包括用于文本输入的一个或更多个建议的或预测的单词或短语的列表。
在一个方面,所识别的输入的指示包括与书写工具做出的一个或更多个笔画相关联的一个或更多个虚拟墨迹。
在一个方面,所识别的输入的指示包括基于用户执行的一个或更多个绘图动作而识别的绘图。
在一个方面,该指示经由在增强现实系统提供的增强现实环境内呈现的用户界面来显示。
在一个方面,该指示被渲染在用户正通过增强现实系统与之交互的表面上。
在一个方面,计算机化系统还包括至少一个惯性测量单元(IMU)传感器,其中识别文本输入包括至少部分地基于与至少一个IMU传感器相关联的至少一个输出信号来识别文本输入。
在一个方面,计算机化系统还包括至少一个相机,其中识别文本输入包括至少部分地基于与至少一个相机相关联的至少一个输出信号来识别文本输入。
在一个方面,所述模式包括第一模式,并且其中所述至少一个计算机处理器还被编程为:至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的信息来识别第二输入,其中至少部分地基于第二模式来进一步识别所述第二输入;以及将所识别的第二输入提供给增强现实系统。
在一个方面,提供给增强现实系统的所识别的输入包括从多个源识别的输入,其中多个源包括多个神经肌肉信号和不同于多个神经肌肉信号的至少一个源。
根据本文描述的技术的方面,提供了一种由计算机化系统执行的用于至少部分地基于神经肌肉信号向增强现实系统提供输入的方法。该方法包括使用布置在一个或更多个可穿戴设备上的多个神经肌肉传感器记录来自用户的多个神经肌肉信号;确定计算机化系统处于被配置为向增强现实系统提供包括文本的输入的模式;至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的信息来识别所述输入,其中至少部分地基于所述模式来进一步识别所述输入;以及向增强现实系统提供所识别的输入。
根据本文描述的技术的方面,提供了一种用于向增强现实系统提供输入的计算机化系统。该计算机化系统包括一个或更多个神经肌肉传感器,其被配置成检测来自用户的神经肌肉信号,其中该一个或更多个神经肌肉传感器被布置在一个或更多个可穿戴设备上;和至少一个计算机处理器。所述至少一个计算机处理器被编程为:确定所述计算机化系统处于被配置为向所述增强现实系统提供包括文本的输入的模式,其中所述模式根据所述神经肌肉信号和/或根据基于所述神经肌肉信号的信息来确定,并且所述模式选自由打字模式、书写模式、绘图模式和单手模式组成的组;至少部分地根据神经肌肉信号和/或根据基于神经肌肉信号的信息来识别输入,其中至少部分地基于模式来进一步识别输入;以及将识别的输入提供给增强现实系统。
在一个方面,基于姿势来确定模式,该姿势根据神经肌肉信号和/或根据基于神经肌肉信号的信息被从用户检测到。
在一个方面,该模式包括打字模式,并且识别输入包括至少部分地根据神经肌肉信号和/或根据基于神经肌肉信号的信息来识别一个或更多个敲击或打字动作;以及基于一个或更多个敲击或打字动作识别针对打字模式的文本输入。
在一个方面,识别一个或更多个敲击或打字动作包括识别在物理键盘的表面上或在其上投射有键盘表示的表面上的一个或更多个敲击或打字动作。
在一个方面,该模式包括书写模式,并且识别输入包括至少部分地根据神经肌肉信号和/或根据基于神经肌肉信号的信息来识别从用户检测到的一个或更多个书写动作;以及基于一个或更多个书写动作识别针对书写模式的文本输入。
在一个方面,识别从用户检测到的一个或更多个书写动作包括识别用物理触笔、物理书写工具、虚拟触笔或虚拟书写工具在表面上执行的一个或更多个书写动作。
在一个方面,识别从用户检测到的一个或更多个书写动作包括识别在空中检测到的一个或更多个书写动作。
在一个方面,该模式包括绘图模式,并且识别输入包括至少部分地根据神经肌肉信号和/或根据基于神经肌肉信号的信息来识别从用户检测到的一个或更多个绘图动作;以及基于一个或更多个绘图动作识别针对绘图模式的输入。
在一个方面,一个或更多个绘图动作包括多个线段和/或曲线。
在一个方面,识别针对绘图模式的输入包括基于从用户检测到的一个或更多个绘图动作来识别绘图;以及基于从用户检测到的一个或更多个绘图动作来识别文本。
在一个方面,所述至少一个计算机处理器还被编程为组合所述绘图和文本,使得所述文本覆盖或注释所述绘图。
在一个方面,识别针对绘图模式的输入包括基于从用户检测到的一个或更多个绘图动作来识别绘图;以及从绘图中识别文本。
在一个方面,该模式包括单手模式,并且识别输入包括至少部分地根据神经肌肉信号和/或根据基于神经肌肉信号的信息来识别从用户检测到的一个或更多个单手动作;以及基于一个或更多个单手动作识别针对单手模式的输入。
在一个方面,增强现实系统被配置为向用户显示所识别的输入的指示。
在一个方面,所识别的输入的指示包括基于从用户检测到的一个或更多个打字、书写、绘图动作或单手动作而识别的文本输入。
在一个方面,所识别的输入的指示包括用于文本输入的一个或更多个建议的或预测的单词或短语。
在一个方面,所识别的输入的指示包括与从用户检测到的一个或更多个笔画相关联的一个或更多个虚拟墨迹。
在一个方面,所识别的输入的指示包括基于从用户检测到的一个或更多个绘图动作而识别的绘图。
在一个方面,该指示经由在增强现实系统提供的增强现实环境内呈现的用户界面来显示。
在一个方面,该指示被渲染在用户正通过增强现实系统与之交互的表面上。
在一个方面,计算机化系统还包括至少一个惯性测量单元(IMU)传感器,其中识别文本输入包括至少部分地基于与至少一个IMU传感器相关联的至少一个输出信号来识别文本输入。
在一个方面,计算机化系统还包括至少一个相机,其中识别文本输入包括至少部分地基于与至少一个相机相关联的至少一个输出信号来识别文本输入。
在一个方面,所述模式包括第一模式,并且其中所述至少一个计算机处理器还被编程为:至少部分地根据所述神经肌肉信号和/或根据基于所述神经肌肉信号的信息来识别第二输入,其中至少部分地基于第二模式来进一步识别所述第二输入;确定计算机化系统将从第一模式切换到第二模式;响应于确定计算机化系统将从第一模式切换到第二模式,将计算机化系统从第一模式切换到第二模式;以及将所识别的第二输入提供给增强现实系统。
在一个方面,提供给增强现实系统的所识别的输入包括从多个源识别的输入,其中多个源包括神经肌肉信号和至少一个不同于神经肌肉信号的源。
在一个方面,至少一个不同于神经肌肉信号的源包括至少一个物理输入设备,并且提供给增强现实系统的所识别的输入包括从多个源识别的输入的组合。
在一个方面,一个或更多个可穿戴设备包括被配置为检测来自用户第一手臂的神经肌肉信号的第一可穿戴设备和被配置为检测来自用户第二手臂的神经肌肉信号的第二可穿戴设备。
根据本文描述的技术的方面,提供了一种由计算机化系统执行的用于向增强现实系统提供输入的方法。该方法包括使用布置在一个或更多个可穿戴设备上的一个或更多个神经肌肉传感器来检测来自用户的神经肌肉信号;确定所述计算机化系统处于被配置为向所述增强现实系统提供包括文本的输入的模式,其中所述模式根据所述神经肌肉信号和/或根据基于所述神经肌肉信号的信息来确定,并且所述模式选自由打字模式、书写模式、绘图模式和单手模式组成的组;至少部分地根据神经肌肉信号和/或根据基于神经肌肉信号的信息来识别输入,其中至少部分地基于模式来进一步识别输入;以及向增强现实系统提供所识别的输入。
在一个方面,基于从用户检测到的姿势来确定模式,其中根据神经肌肉信号和/或根据基于神经肌肉信号的信息来检测姿势。
根据本文描述的技术的方面,一种非暂时性计算机可读介质,其编码有指令,该指令当由至少一个计算机处理器执行时,执行以下方法:使用布置在一个或更多个可穿戴设备上的多个神经肌肉传感器来检测来自用户的神经肌肉信号;确定计算机化系统处于被配置为向增强现实系统提供包括文本的输入的模式,其中该模式根据神经肌肉信号和/或根据基于神经肌肉信号的信息来确定,并且该模式选自由打字模式、书写模式、绘图模式和单手模式组成的组;至少部分地根据神经肌肉信号和/或根据基于神经肌肉信号的信息来识别输入,其中至少部分地基于模式来进一步识别输入;以及向增强现实系统提供所识别的输入。
应当认识到,前面的概念和下面更详细讨论的另外的概念的所有组合(假设这样的概念不是相互不一致的)被设想为本文公开的创造性主题的一部分。特别是,出现在本公开的结尾处的所主张的主题的所有组合被设想为本文公开的创造性主题的一部分。
附图简述
将参考下面的附图来描述技术的各种非限制性实施例。应当认识到,附图不一定按比例绘制。
图1是根据本文描述的技术的一些实施例的用于处理神经肌肉传感器数据的基于计算机的系统的示意图;
图2是根据本文描述的技术的一些实施例的将增强现实(AR)系统与神经肌肉活动系统集成的基于分布式计算机的系统的示意图;
图3是根据本文描述的技术的一些实施例的用于向AR系统提供输入的过程的流程图;
图4是根据本文描述的技术的一些实施例的基于一个或更多个神经肌肉信号向AR系统提供输入的过程的流程图;
图5示出了根据本文描述的技术的一些实施例的腕带,在该腕带上周向地布置有EMG传感器;以及
图6示出了根据本文描述的技术的一些实施例的用户在键盘上打字时戴着图5的腕带。
图7A示出了根据本文描述的技术的一些实施例的可穿戴系统,该可穿戴系统具有围绕弹性带周向地布置的16个EMG传感器,该弹性带被配置为围绕用户的下臂或手腕穿戴。
图7B是图7A中所示的16个EMG传感器之一的横截面视图。
图8A和图8B示意性地示出了在其上实现一些实施例的基于计算机的系统的部件。图8A示出了基于计算机的系统的可穿戴部分,并且图8B示出了连接到计算机的加密狗(dongle)部分,其中加密狗部分被配置成与可穿戴部分通信。
图9A-9C描绘了根据本文描述的技术的一些实施例,可以向XR系统提供用户输入的示例性场景。
详细描述
发明人开发了用于向扩展现实(XR)系统提供输入的新技术,该系统尤其包括增强现实(AR)系统、虚拟现实(VR)系统和混合现实(MR)系统。本文描述的各种实施例提供了某些优点,包括但不限于避免使用不期望的或繁重的物理键盘、操纵杆或其他控制器;克服与由相机捕获的用户的低质量图像的耗时和高延迟处理相关的问题;允许捕捉和检测细微的、小的或快速的移动和/或用户施加的力的变化(例如,通过触笔、书写工具或手指按压表面施加的力的变化量),这对于解析文本输入和其他控制信号可能是重要的;收集和分析从用户处检测到的各种生理和/或行为信息,这些信息增强了识别过程并且不容易通过传统的输入设备获得;允许用户的手被遮挡或者在相机的视野之外的情况,例如用户的手在用户的口袋中,或者当用户戴着手套时;以及在XR环境内允许更好的用户可操作性和导航性。
其他实施例考虑了个人不能访问输入设备或者可能想要在不使用输入设备的情况下以其他方式向XR系统提供输入的情况。例如,个人可能想以隐蔽的方式向XR系统提供输入,而不被其他人注意到。
根据一些实施例,从可穿戴传感器记录或检测到的信号用于识别输入并向XR系统提供该输入。各种形式的输入,例如离散控制信号、连续(例如2D)控制信号、经由键盘的文本输入或其他模式的文本输入、书写和/或绘图,可以从记录或检测到的信号和/或从基于记录或检测到的信号的信息中被识别,以实现用于向XR系统提供输入(例如文本)的改进的技术。在一些实施例中,可以基于经由可穿戴传感器感测信号并向XR系统提供输入的系统模式来识别各种形式的输入。至少部分地基于从用户检测到的神经肌肉数据,用户可以手动地或者系统可以自动地在输入模式之间切换。在一个实施例中,系统可以进入打字模式,并且可以基于由用户执行的一个或更多个敲击或打字动作(例如,在物理键盘的表面上敲击、在具有由XR系统投射在其上的虚拟键盘的表面上敲击、在没有键盘投射在其上的表面上敲击、或者在空中执行与打字风格的移动相对应的姿势)来识别将被提供给XR系统的来自用户的文本。本文描述的系统和方法可以根据记录或检测到的信号和/或根据基于记录或检测到的信号的信息来识别来自用户的文本输入。在另一个实施例中,系统可以进入书写模式,并且可以通过根据记录或检测到的信号和/或根据基于记录或检测到的信号的信息来识别由用户执行的一个或更多个书写动作(例如,用物理或虚拟的书写工具在表面上书写),来向XR系统提供文本输入。在又一个实施例中,系统可以进入绘图模式,并且可以通过根据记录或检测到的信号和/或根据基于记录或检测到的信号的信息来识别由用户执行的一个或更多个绘图动作(例如,在表面上绘制一个或更多个线段和/或曲线),来向XR系统提供输入。在另一个实施例中,系统可以进入单手模式(即,用户仅使用一只手来提供输入的模式),并且可以通过根据记录或检测到的信号和/或根据基于记录或检测到的信号的信息来识别由用户执行的一个或更多个单手动作(例如,诸如各种手指和手指组合的挤压(squeeze)、捏合(pinch)和/或敲击的姿势),来向XR系统提供输入。
在一些实施例中,XR系统可以通过向用户显示所识别的输入的指示来提供视觉反馈,这可以促进文本输入或作为输入被提供给XR系统的其他信息。该指示可以经由在XR系统提供的XR环境内呈现的用户界面来显示。例如,与XR系统相关联的显示器可以在用户界面中覆盖所识别的输入的视觉表示,或者向用户提供关于所识别的输入的音频反馈。在一些实施例中,指示可以由AR系统渲染在用户与之交互的表面上。
在一些实施例中,本文描述的系统经由可穿戴传感器感测信号,并且向XR系统提供输入,使得系统从第一输入模式平滑地转换到第二输入模式,而不需要来自用户的明确的模式切换指令。这为向XR系统提供输入提供了一种灵活的方法。例如,本文描述的系统可以在打字模式下操作,其中用户通过在物理键盘上打字来向系统提供文本输入。用户可以停止在物理键盘上打字,并通过用触笔书写来恢复提供文本输入。作为响应,系统可以自动检测输入模式的改变,并从打字模式无缝地切换到书写模式。在一些实施例中,当系统处于相同模式时,用户可以切换到不同形式的文本输入。例如,用户可以由在物理键盘上打字开始,并通过在虚拟键盘上打字或在没有键盘的任何虚拟表示的情况下使用打字动作来恢复文本输入。在这种场景中,尽管系统保持在打字模式,但是用户提供文本输入的方式已经改变。在一些实施例中,由XR系统提供的视觉反馈可以不间断地继续,而不管文本输入的模式或形式如何。
根据一些实施例,要提供给XR系统的输入可以至少部分地从由一个或更多个可穿戴传感器收集的原始(例如,未处理的)传感器信号中被识别。在一些实施例中,要提供给XR系统的输入可以至少部分地从基于原始传感器信号的信息(例如,经处理的传感器信号)中被识别,其中由一个或更多个可穿戴传感器收集的原始传感器信号被处理以执行放大、滤波、整流和/或其他形式的信号处理,其示例在下面被更详细地描述。在一些实施例中,要提供给XR系统的输入可以至少部分地从接收传感器信号(或传感器信号的经处理的版本)作为输入的一个或更多个训练的推理模型的输出中被识别。
如本文所述,在一些实施例中,可以直接从记录或检测到的传感器数据中识别各种肌肉激活状态。在其他实施例中,可以至少部分地基于训练的推理模型的输出来识别手部状态、姿势、姿态等(统称或单独称为肌肉激活状态)。在一些实施例中,各种形式的输入可以被提供给AR系统,并且可以直接从记录的传感器数据中来识别。在其他实施例中,输入可以被提供给AR系统,并且可以至少部分地基于一个或更多个训练的推理模型的输出来识别。在一些实施例中,训练的推理模型可以输出计算机生成的肌肉骨骼模型的节段的运动单元或肌肉激活和/或位置、定向和/或力估计。在一个示例中,人类肌肉骨骼系统的全部或部分可以被建模为多节段铰接刚体系统,其中关节形成不同节段之间的接合部(interface),并且关节角度定义了模型中连接的节段之间的空间关系。关节处移动的限制由连接节段的关节类型和限制关节处移动范围的生物结构(例如,肌肉、肌腱、韧带)决定。例如,连接上臂和躯干的肩关节以及连接大腿和躯干的髋关节是球窝关节,这些球窝关节允许伸展和弯曲移动以及旋转移动。相比之下,连接上臂和前臂的肘关节以及连接大腿和小腿的膝关节允许更有限的运动范围。在这个示例中,多节段铰接刚体系统用于对人类肌肉骨骼系统的部分进行建模。然而,应当理解,人类肌肉骨骼系统的一些节段(例如,前臂)虽然在铰接刚体系统中近似为刚体,但是可以包括多个刚性结构(例如,前臂的尺骨和桡骨),这些刚性结构在刚体模型没有明确考虑的节段内提供了更复杂的移动。因此,与本文描述的技术的一些实施例一起使用的铰接刚体系统的模型可以包括表示不是严格刚体的身体部位的组合的节段。将会理解,在不脱离本公开的范围的情况下,可以使用除多节段铰接刚体系统之外的物理模型来对人类肌肉骨骼系统的部分进行建模。
继续上面的示例,在运动学中,刚体是表现出各种运动属性(例如,位置、定向、角速度、加速度)的物体。知道刚体的一个节段的运动属性使得刚体的其他节段的运动属性能够基于节段如何连接的约束来被确定。例如,手可以被建模为多节段铰接体,其中手腕和每个手指中的关节形成模型中多个节段之间的接合部。在一些实施例中,如下面更详细描述的,刚体模型中节段的移动可以被模拟为铰接刚体系统,其中节段相对于模型中其他节段的位置(例如,实际位置、相对位置或定向)信息使用训练的推理模型来被预测。
在一个非限制性示例中,由肌肉骨骼表示近似的人体部分是手或手与一个或更多个手臂节段的组合。在肌肉骨骼表示中,用于描述节段之间的位置关系、单独的节段或节段的组合的力关系、以及节段之间的肌肉和运动单元激活关系的当前状态的信息在本文中被称为肌肉骨骼表示的“手部状态”。然而,应当理解,本文描述的技术也适用于除了手之外的身体部分的肌肉骨骼表示,这些身体部分包括但不限于手臂、腿、脚、躯干、颈部或前述的任何组合。
除了空间(例如,位置和/或定向)信息之外,一些实施例被配置成预测与肌肉骨骼表示的一个或更多个节段相关联的力信息。例如,可以估计由一个或更多个节段施加的线性力或旋转(扭矩)力。线性力的示例包括但不限于手指或手按压在诸如桌子的实体对象上的力,以及当两个节段(例如,两个手指)被捏合在一起时施加的力。旋转力的示例包括但不限于,当手腕或手指中的节段扭转或弯曲时产生的旋转力。在一些实施例中,被确定为当前手部状态估计的一部分的力信息包括捏合力信息、抓握力信息或关于由肌肉骨骼表示所表示的肌肉之间的共收缩力的信息中的一个或更多个。
图1示出了根据一些实施例的示例性系统100,其包括神经肌肉活动系统。该系统包括一个或更多个传感器102(例如,神经肌肉传感器),其被配置为记录由人体骨骼肌中的神经肌肉活动产生的信号。本文使用的术语“神经肌肉活动”是指对支配肌肉的脊髓运动神经元的神经激活、肌肉激活、肌肉收缩、或者神经激活、肌肉激活和/或肌肉收缩的任意组合。神经肌肉传感器可以包括一个或更多个肌电图(EMG)传感器、一个或更多个肌动图(MMG)传感器、一个或更多个声肌图(SMG)传感器、EMG传感器,MMG传感器和SMG传感器中两种或更多种类型的组合、和/或被配置成检测神经肌肉信号的任何合适类型的一个或更多个传感器。在一些实施例中,神经肌肉传感器可以用于感测与由肌肉控制的身体部位的移动相关的肌肉活动,神经肌肉传感器被布置成从这些肌肉感测肌肉活动。描述移动的空间信息(例如,位置和/或定向信息)和力信息可以在用户随着时间移动时基于所感测的神经肌肉信号来被预测。在一些实施例中,神经肌肉传感器可用于感测与由外部物体引起的移动(例如,被外部物体推动的手的移动)相关的肌肉活动。
在执行运动任务期间,随着肌肉张力的增加,活跃神经元的放电率(firing rate)增加,并且额外的神经元可能变得活跃,这是被称为运动单元募集(recruitment)的过程。神经元变得活跃并增加其放电率的模式是定型的,使得预期的运动单元募集模式定义了与标准或正常移动相关联的活动流形(manifold)。一些实施例记录单个运动单元或一组运动单元的激活,所述运动单元或一组运动单元是“流形外的”,因为运动单元激活的模式不同于预期的或典型的运动单元募集模式。这种脱离流形的激活在本文中被称为“肌肉下激活”或“肌肉下结构的激活”,其中肌肉下结构是指与脱离流形的激活相关联的单个运动单元或一组运动单元。脱离流形的运动单元募集模式的示例包括但不限于,选择性地激活高阈值运动单元而不激活通常在募集顺序中被较早地激活的较低阈值运动单元,以及在相当大的范围内调节运动单元的放电率而不调节通常在典型的运动募集模式中被共同调节的其他神经元的活动。在一些实施例中,神经肌肉传感器可用于感测不具有可观察到的移动的肌肉下激活。根据本文描述的技术的一些实施例,可以至少部分地使用肌肉下激活来识别输入并向增强现实系统提供该输入。
在一些实施例中,传感器或感测部件102包括一个或更多个神经肌肉传感器(例如,EMG传感器)。在其他实施例中,传感器102包括一个或更多个辅助传感器(例如惯性测量单元(IMU)),其使用例如加速度计、陀螺仪、磁力计、或一个或更多个加速度计、陀螺仪和磁力计的任意组合、或者能够检测时空定位、运动、力或用户生理状态和/或行为的其他方面的任何其他部件或设备,来测量运动的物理方面的组合。在一些实施例中,IMU可以用于感测关于附接有IMU的身体部位的移动的信息,并且当用户随时间的推移而移动时,从感测到的数据导出的信息(例如,位置和/或定向信息)可以被跟踪。例如,当用户随时间的推移而移动时,一个或更多个IMU可以用于跟踪用户躯干近端的用户身体部分(例如,手臂、腿)相对于传感器的移动。在其他实施例中,传感器102包括多个神经肌肉传感器和被配置成连续记录多个辅助信号的至少一个辅助传感器。其他辅助传感器的示例包括但不限于麦克风、成像设备(例如相机)、与辐射产生设备(例如激光扫描设备)一起使用的基于辐射的传感器、或其他类型的传感器,例如热传感器、红外传感器、心率或血压监视器和/或视频眼睛跟踪器。
在包括至少一个IMU和一个或更多个神经肌肉传感器的实施例中,IMU和神经肌肉传感器可以被布置成检测人体的相同或不同部位的移动。例如,IMU可以被布置成检测躯干近端的一个或更多个体段(body segment)(例如,上臂)的移动,而神经肌肉传感器可以被布置成检测躯干远端的一个或更多个体段(例如,前臂或手腕)的移动。然而,应当理解,传感器可以以任何合适的方式被布置,并且本文描述的技术的实施例不限于基于特定的传感器布置。例如,在一些实施例中,至少一个IMU和多个神经肌肉传感器可以共同位于一个体段上,以使用不同类型的测量来跟踪体段的移动。在下面更详细描述的一个实现中,IMU传感器和多个EMG传感器被布置在可穿戴设备上,该可穿戴设备被配置成围绕用户的下臂或手腕穿戴。在这样的布置中,IMU传感器可以被配置成跟踪与一个或更多个手臂节段相关联的移动信息(例如,随时间的定位和/或定向),以确定例如用户是否已经举起或放下了他们的手臂,而EMG传感器可以被配置成确定与手腕或手节段相关联的移动信息,以确定例如用户是否具有张开或闭合的手配置或与手腕或手的肌肉中的肌肉下结构的激活相关联的肌肉下信息。
每个传感器102包括被配置成感测关于用户的信息的一个或更多个感测部件。在IMU的情况下,感测部件可以包括一个或更多个加速度计、陀螺仪、磁力计或其任意组合,以测量身体运动的特征和/或与身体运动相关的特征,这些特征的示例包括但不限于加速度、角速度和身体周围的感测磁场。在神经肌肉传感器的情况下,感测部件可以包括但不限于被配置成检测身体表面上的电位的电极(例如,对于EMG传感器)、被配置成测量皮肤表面振动的振动传感器(例如,对于MMG传感器)、以及被配置成测量由肌肉活动产生的超声信号的声学感测部件(例如,对于SMG传感器)。
在一些实施例中,多个传感器102中的至少一些被布置为可穿戴设备的一部分,该可穿戴设备被配置成穿戴在用户身体部位上或围绕用户身体部位穿戴。例如,在一个非限制性示例中,IMU传感器和多个神经肌肉传感器围绕可调节的和/或弹性的带(例如被配置成围绕用户的手腕或手臂穿戴的腕带或臂带)周向地布置。可替换地,至少一些传感器可以被布置在可穿戴贴片(patch)上,该可穿戴贴片被配置成附着到用户身体的一部分。在一些实施例中,多个可穿戴设备(每个可穿戴设备上包括一个或更多个IMU和/或神经肌肉传感器)可用于检测神经肌肉数据,并基于肌肉和肌肉下结构的激活和/或涉及身体多个部位的移动来生成控制信息。
在一个实施例中,16个EMG传感器围绕弹性带周向地布置,该弹性带被配置成围绕用户的下臂穿戴。例如,图5示出了围绕弹性带502周向地布置的EMG传感器504。应当理解,可以使用任何合适数量的神经肌肉传感器,并且所使用的神经肌肉传感器的数量和布置可以取决于可穿戴设备所用于的特定应用。例如,可穿戴臂带或腕带可用于检测神经肌肉数据并生成控制信息,用于控制增强现实系统、机器人,控制车辆,滚动浏览文本,控制虚拟化身,或任何其他合适的控制任务。例如,如图6所示,用户506可以在手508上穿戴弹性带502。以这种方式,EMG传感器504可以被配置成在用户使用手指510控制键盘512时记录EMG信号。在一些实施例中,弹性带502也可以包括如上面讨论的被配置成记录移动信息的一个或更多个IMU(未示出)。虽然图5描绘了用户在手上穿戴一个可穿戴设备,但是将会理解,一些实施例包括多个可穿戴设备(具有与其集成的一个或更多个神经肌肉传感器),该多个可穿戴设备被配置为穿戴在用户的一只或两只手/手臂上。
在一些实施例中,可以可选地使用硬件信号处理电路来处理一个或更多个感测部件的输出(例如,以执行放大、滤波和/或整流)。在其他实施例中,可以在软件中执行对感测部件的输出的至少部分的信号处理。因此,对由传感器记录的信号的信号处理可以在硬件、软件中执行,或由硬件和软件的任何合适组合执行,因为本文描述的技术的方面在这一点上不受限制。
在一些实施例中,由传感器102记录的传感器数据可以可选地被处理以计算附加的导出测量值,这些测量值然后被提供给一个或更多个推理模型作为输入,如下面更详细描述的。例如,来自IMU传感器的记录的信号可以被处理,以导出指定刚体节段随时间的定向的定向信号。传感器102可以使用集成部件来实现信号处理,或者信号处理的至少一部分可以由与传感器通信但不直接与传感器集成的一个或更多个部件来执行。
系统100还可以包括一个或更多个计算机处理器104,其被编程为通过单向或双向通信路径与传感器102通信。例如,由一个或更多个传感器记录的信号可以被提供给处理器,该处理器可以被编程为执行一个或更多个机器学习算法,该算法处理由传感器102输出的信号以训练(或再训练)一个或更多个推理模型106,并且所得到的训练(或再训练)的推理模型106可以被存储以供以后用于识别输入和向XR系统提供该输入,如下面更详细描述的。将会理解,推理模型可以是利用基于概率分布的统计推理来推断结果的模型;在这方面,推理模型可以包括统计模型。
在一些实施例中,由布置在穿戴在一只手/手臂上的第一可穿戴设备上的传感器记录的信号和由布置在穿戴在另一只手/手臂上的第二可穿戴设备上的传感器记录的信号可以使用相同的推理模型或单独的推理模型来处理。
可选地,系统100还包括一个或更多个控制器108。例如,控制器108可以是被配置为显示视觉表示(例如,手的表示)的显示控制器。如本文更详细讨论的,一个或更多个计算机处理器可以实现一个或更多个训练的推理模型,该训练的推理模型接收由传感器102记录的信号作为输入,并提供可用于识别输入并向XR系统提供该输入的信息(例如,预测的手部状态信息)作为输出。在一些实施例中,当用户执行不同的移动时,训练的推理模型将由可穿戴神经肌肉传感器记录的神经肌肉信号解释为用于更新肌肉骨骼表示的位置和力估计(例如,手部状态信息)。因为神经肌肉信号被连续感测和记录,所以肌肉骨骼表示被实时更新,并且手的视觉表示(例如,在XR环境内的)可以基于当前手部状态估计来渲染。将会理解,用户手部状态的估计可以用于确定用户正在执行的姿势和/或预测用户将执行的姿势。
根据一些实施例,肌肉骨骼表示(例如,手-渲染)可以包括仿生(现实)手、合成(机器人)手的实际视觉表示,以及用作姿势控制(例如,到其他应用、系统等)的输入的抽象“内部表示”。也就是说,手的位置和/或力可以被提供给下游算法(例如,XR系统中的控制算法),但是可能不被直接渲染。
在一些实施例中,如图1所示,系统100可选地包括计算机应用110,计算机应用110被配置为模拟虚拟现实(VR)、增强现实(AR)和/或混合现实(MR)环境(统称为扩展现实、“X现实”或“XR”系统或环境),并且计算机应用110可以在XR环境中(例如,经由控制器108)显示视觉角色,例如化身。基于训练的推理模型的输出,由虚拟现实环境内的视觉角色的各部分施加的定位、移动和/或力可以在XR环境中显示。XR环境中的视觉表示可以随着连续信号被传感器102记录、被计算机处理器处理并被发送到推理模型106以获得训练或推断的输出而动态更新,使得系统可以提供在XR环境中实时更新的视觉角色移动的计算机生成的表示。
在任一系统中生成的信息(例如,来自XR系统的XR相机输入、来自基于传感器数据生成肌肉骨骼表示的基于计算机的系统的神经肌肉传感器输入)可以用于改善用户体验、准确性、反馈、推理模型、校准功能以及整个系统中的其他方面。为此,例如,在XR环境中,系统100可以包括XR系统,该XR系统包括以下中的一个或更多个:处理器、相机(例如,被包含在头戴式显示器中的一个或更多个相机)、显示器(例如,经由XR眼镜或其他观察设备)、或在用户的视野内提供XR信息或向用户提供XR信息的任何其他辅助传感器。在一些实施例中,来自XR系统中的头戴式显示器中包含的相机的信息可以与来自神经肌肉传感器的信息结合使用,以解释用户执行的移动、姿势和/或动作。系统100还可以包括将XR系统与基于计算机的系统耦合的系统元件,该基于计算机的系统基于传感器数据生成肌肉骨骼表示。例如,这些系统可以经由专用或其他类型的计算机系统被耦合,所述专用或其他类型的计算机系统从XR系统和生成基于计算机的肌肉骨骼表示的系统接收输入。这种系统可以包括游戏系统、机器人控制系统、个人计算机或能够解释XR和肌肉骨骼信息的其他系统。XR系统和生成基于计算机的肌肉骨骼表示的系统也可以被编程为直接通信。这种信息可以使用任意数量的接口、协议或介质来传送。
在一些实施例中,推理模型106可以是神经网络,并且例如可以是循环神经网络。在一些实施例中,循环神经网络可以是长短期记忆(LSTM)神经网络。然而,应当理解,循环神经网络不限于LSTM神经网络,并且可以具有任何其他合适的架构。例如,在一些实施例中,循环神经网络可以是完全循环神经网络(fully recurrent neural network)、门控循环神经网络(gated recurrent neural network)、递归神经网络(recursive neuralnetwork)、Hopfield神经网络、联想记忆神经网络(associative memory neuralnetwork)、Elman神经网络、Jordan神经网络、回声状态神经网络(echo state neuralnetwork)、二阶循环神经网络(second order recurrent neural network)和/或任何其他合适类型的循环神经网络。在其他实施例中,可以使用不是循环神经网络的神经网络。例如,可以使用深度神经网络、卷积神经网络和/或前馈神经网络。
在一些实施例中,一个或更多个推理模型的输出包括一个或更多个离散输出。例如,当用户执行特定姿势或导致特定模式的激活(包括单独的神经尖峰事件)发生时,可以使用离散输出(例如,分类标签)。例如,可以训练模型来估计或推断用户是否正在激活特定的运动单元、以特定的定时激活特定的运动单元、以特定的放电模式激活特定的运动单元或者激活运动单元的特定组合。在较短的时间尺度上,在一些实施例中使用离散分类来估计特定的运动单元是否在给定的时间量内放电了动作电位。在这样的实施例中,这些估计然后可被累加,以获得该运动单元的估计的放电率。
在推理模型被实现为被配置成输出离散信号的神经网络的实施例中,该神经网络可以包括柔性最大值传输函数(softmax)层,使得输出加起来为1并且可以被解释为概率。柔性最大值传输函数层的输出可以是与相应的控制信号集对应的值的集合,其中每个值指示用户想要执行特定控制动作的概率。作为一个非限制性示例,柔性最大值传输函数层的输出可以是三个概率(例如,0.92、0.05和0.03)的集合,这三个概率指示检测到的活动模式是三个已知模式之一的相应概率。
应当理解,当推理模型是被配置成输出离散输出(例如,离散信号)的神经网络时,不要求神经网络产生加起来为1的输出。例如,代替柔性最大值传输函数层,神经网络的输出层可以是sigmoid层(其不将输出限制为加起来等于1的概率)。在这样的实施例中,可以用sigmoid交叉熵代价来训练神经网络。当多个不同的控制动作可能在阈值时间量内发生并且区分这些控制动作发生的顺序并不重要(例如,用户可能在阈值时间量内激活两种神经活动模式)时,在这种情况下,这种实现可以是有利的。在一些实施例中,可以使用任何其他合适的非概率多类(multi-class)分类器,因为本文描述的技术的方面在这一点上不受限制。
在一些实施例中,推理模型的输出可以是连续信号,而不是离散信号。例如,该模型可以输出每个运动单元的放电率的估计,或者该模型可以输出对应于每个运动单元或肌肉下结构的时间序列电信号。
应当理解,本文描述的技术的方面不限于使用神经网络,因为在一些实施例中可以采用其他类型的推理模型。例如,在一些实施例中,推理模型可以包括隐马尔可夫模型(HMM)、切换HMM(switching HMM)(其中切换允许在不同的动态系统之间跳变)、动态贝叶斯网络(dynamic Bayesian network)和/或具有时间分量的任何其他合适的图形模型。可以使用记录的传感器信号来训练任何这样的推理模型。
作为另一个示例,在一些实施例中,推理模型是采用从记录的传感器信号中导出的特征作为输入的分类器。在这样的实施例中,可以使用从传感器数据中提取的特征来训练分类器。分类器可以是支持向量机(support vector machine)、高斯混合模型、基于回归的分类器、决策树分类器、贝叶斯分类器和/或任何其他合适的分类器,因为本文描述的技术的方面在这一点上不受限制。要提供给分类器的输入特征可以以任何合适的方式从传感器数据中导出。例如,可以使用小波(wavelet)分析技术(例如,连续小波变换、离散时间小波变换等)、傅立叶分析技术(例如,短时傅立叶变换、傅立叶变换等)和/或任何其他合适类型的时间频率分析技术将传感器数据分析为时间序列数据。作为一个非限制性示例,可以使用小波变换来对传感器数据进行变换,并且可以将得到的小波系数作为输入提供给分类器。
在一些实施例中,可以根据训练数据来估计推理模型的参数的值。例如,当推理模型是神经网络时,可以根据训练数据来估计神经网络的参数(例如,权重)。在一些实施例中,可以使用梯度下降、随机梯度下降和/或任何其他合适的迭代优化技术来估计推理模型的参数。在推理模型是循环神经网络(例如,LSTM)的实施例中,可以使用随机梯度下降和随时间反向传播(backpropagation through time)来训练推理模型。训练可以采用交叉熵损失函数(cross-entropy loss function)和/或任何其他合适的损失函数,因为本文描述的技术的方面在这一点上不受限制。
如上面所讨论的,一些实施例涉及使用推理模型来基于从可穿戴传感器记录的信号预测肌肉骨骼信息。如上面在人类肌肉骨骼系统的部分可被建模为多节段铰接刚体系统的示例中简要讨论的,多节段铰接刚体模型中的节段之间的关节类型约束刚体的移动。此外,不同的人类个体在执行任务时倾向于以特有的方式移动,这可以在个体用户行为的推理模式中捕捉到。根据一些实施例,这些对人体移动的约束中的至少一些约束可以被明确地结合到用于预测的推理模型中。附加地或替代地,约束可以由推理模型通过基于记录的传感器数据的训练来学习,如上面简要讨论的。
如上面所讨论的,一些实施例涉及使用推理模型来预测手部状态信息,以能够生成和/或实时更新基于计算机的肌肉骨骼表示。推理模型可以用于基于当用户执行一个或更多个移动时检测到的IMU信号、神经肌肉信号(例如,EMG、MMG和/或SMG信号)、外部设备信号(例如,相机或激光扫描信号)、或者IMU信号、神经肌肉信号和外部设备信号的组合来预测手部状态信息。例如,如上面所讨论的,与XR系统相关联的相机可用于捕捉与基于计算机的肌肉骨骼表示的人类对象相关的实际位置数据,并且这种实际位置信息可用于提高表示的准确性。此外,推理模型的输出可用于生成基于计算机的肌肉骨骼表示在XR环境中的视觉表示。例如,可以在XR系统的视觉显示器中渲染肌肉群放电、施加力、经由移动输入文本或由基于计算机的肌肉骨骼表示产生的其他信息的视觉表示。在一些实施例中,其他输入/输出设备(例如,听觉输入/输出、触觉设备等)可用于进一步提高整个系统的准确性和/或改善用户体验。
本文描述的技术的一些实施例涉及使用推理模型,至少部分地用于将从神经肌肉信号识别的一个或更多个动作映射(例如,将从神经肌肉传感器识别的肌肉激活状态信息映射)到包括文本的输入信号。推理模型可以接收当用户执行一个或更多个肌肉下激活、一个或更多个移动和/或一个或更多个姿势时检测到的IMU信号、神经肌肉信号(例如,EMG、MMG和/或SMG信号)、外部设备信号(例如,相机或激光扫描信号)、或者IMU信号、神经肌肉信号和外部设备信号的组合作为输入。推理模型可用于预测要提供给AR系统的输入,而无需用户进行可感知的移动。
图2示出了根据一些实施例的将增强现实(AR)系统201与神经肌肉活动系统202集成在一起的基于分布式计算机的系统200的示意图。神经肌肉活动系统202类似于上面参照图1描述的系统100。
通常,增强现实(AR)系统201可以采取一副护目镜、眼镜或其他类型的设备的形式,该设备向用户显示可以叠加在“现实”上的显示元素,在某些情况下,该“现实”可以是用户对环境的视图(例如,通过用户的眼睛观看到的),或者是用户对环境的视图的捕捉(例如,通过相机)的版本。在一些实施例中,AR系统201可以包括安装在用户穿戴的设备内的一个或更多个相机(例如,相机204),该相机捕捉用户在其环境中经历的一个或更多个视图。系统201可以具有在用户设备和/或外围设备或计算机系统内操作的一个或更多个处理器205,并且这样的处理器可以能够发送和接收视频信息和其他类型的传感器数据。
AR系统201还可以包括一个或更多个传感器207,例如麦克风、GPS元件、加速度计、红外探测器、触觉反馈元件或任何其他类型的传感器、或其任意组合。在一些实施例中,AR系统201可以是基于音频的AR系统,并且一个或更多个传感器207还可以包括一个或更多个头戴式耳机(headphone)或扬声器。此外,AR系统201还可以具有一个或更多个显示器208,除了AR系统所呈现的用户环境的视图之外,显示器208还允许AR系统向用户覆盖和/或显示信息。AR系统201还可以包括一个或更多个通信接口(例如接口206),用于向一个或更多个计算机系统(例如游戏系统或能够渲染或接收AR数据的其他系统)传送信息的目的。AR系统可以采取许多形式,由许多不同的制造商提供。例如,各种实施例可以结合一种或更多种类型的AR系统来实现。例如,各种实施例可以用可从Microsoft公司获得的HoloLens全息现实眼镜、可从Magic Leap获得的Lightwear AR头戴式装置(headset)、可从Alphabet获得的Google Glass AR眼镜、可从ODG获得的R-7Smartglasses System或任何其他类型的AR和/或VR设备来实现。尽管通过示例的方式进行了讨论,但是应当理解,一个或更多个实施例可以在VR或XR系统内实现。
AR系统201可以通过一种或更多种通信方法可操作地耦合到神经肌肉活动系统202,所述通信方法包括但不限于蓝牙协议、Wi-Fi、类以太网(Ethernet-like)协议或任何数量的无线和/或有线连接类型。应当理解,例如,系统201和202可以通过一个或更多个中间计算机系统或网络元件直接连接或耦合。图2中的双向箭头表示系统201和202之间的通信耦合。
神经肌肉活动系统202可以在结构和功能上类似于上面参照图1描述的系统100。具体地,系统202可以包括结合图1描述的一个或更多个神经肌肉传感器209和/或辅助传感器、一个或更多个推理模型210,并且可以创建、维护和存储肌肉骨骼表示211。在上面讨论的示例实施例中,系统202可以包括诸如带的设备,用户可以穿戴该设备以便收集和分析神经肌肉信号。此外,系统202可以包括一个或更多个通信接口212,其允许系统202(例如通过蓝牙、Wi-Fi或其他通信方法)与AR系统201通信。值得注意的是,AR系统201和神经肌肉活动系统202可以传递信息,该信息可以用于增强用户体验和/或允许AR系统更准确和有效地运行。
虽然图2描述了将AR系统201与神经肌肉活动系统202集成在一起的基于分布式计算机的系统,但是将会理解,该集成本质上可以是非分布式的。在一些实施例中,神经肌肉活动系统202可以集成到AR系统201中,使得神经肌肉活动系统202的各种部件可以被认为是AR系统的一部分。例如,由神经肌肉传感器209记录的神经肌肉信号可以被视为AR系统201的任何其他输入(例如,相机204、传感器207)。此外,对从神经肌肉传感器209获得的传感器信号的处理可以集成到AR系统201中。
图3示出了用于识别输入并向XR系统提供该输入的过程300。具体而言,过程300是根据一些实施例关于识别输入并向AR系统(例如AR系统201)提供该输入来描述的。过程300可以由神经肌肉活动系统202执行。在动作302中,传感器信号可以由神经肌肉活动系统202的一个或更多个传感器102记录(在本文中也被称为“原始传感器信号”)。在一些实施例中,传感器包括布置在用户穿戴的可穿戴设备上的多个神经肌肉传感器(例如,EMG传感器)。例如,EMG传感器可以被布置在弹性带上,该弹性带被配置成围绕用户的手腕或前臂而穿戴,以在用户执行各种移动或姿势时记录来自用户的神经肌肉信号。在一些实施例中,EMG传感器可以是布置在带502上的传感器504,如图5所示;在一些实施例中,EMG传感器可以是布置在弹性带720上的传感器710,如图7A所示。
如本文所用,术语“姿势”指一个或更多个身体部位的静态或动态配置,包括一个或更多个身体部位的位置和与该配置相关联的力。例如,用户执行的姿势包括指示一个或更多个身体部位的静态配置的静态/离散姿势(也称为“姿态”)。例如,姿态可以包括拳头、张开的手、静态地将手掌朝下放置在或按压在实体表面上或抓住球。姿态可以通过提供姿态的位置信息(例如,节段坐标、关节角度或类似信息),或者通过提供对应于姿态的标识符(例如,参数、函数自变量或变量值)来指示静态配置。用户执行的姿势可以包括指示一个或更多个身体部位的动态配置的动态/连续姿势。动态配置可以描述一个或更多个身体部位的位置、一个或更多个身体部位的移动以及与该动态配置相关联的力。例如,动态姿势可以包括来回挥动手指、扔球或抓住并扔球。姿势可以包括其他人察觉不到的隐蔽姿势,例如通过共同收缩相对的肌肉来稍微拉紧关节,或者使用肌肉下激活。姿势可以由被配置为提示用户执行姿势的应用来定义,或者可选择地,姿势可以由用户任意定义。用户执行的姿势可以包括符号姿势(例如,基于指定映射的姿势词汇表,映射到其他姿势、交互或命令的姿势)。在某些情况下,手和手臂姿势可能是象征性的,并根据文化标准用于交流。
在一些实施例中,用户执行的移动或姿势可以包括敲击或打字动作,例如,在物理键盘的表面上的敲击或打字动作、在具有由AR系统201投射在其上的虚拟键盘的表面上的敲击或打字动作、在没有键盘的任何虚拟表示的情况下的敲击或打字动作和/或在空中(例如,不在表面上)执行的打字动作或其他姿势。
在一些实施例中,用户执行的移动或姿势可以包括书写动作,例如,用物理触笔、物理书写工具或用户的一个指尖或更多个指尖在表面上执行的书写动作(例如,用户可能通过将他的指尖一起保持在书写位置来想象他正在握着笔或触笔),用虚拟触笔或虚拟书写工具在表面上执行的书写动作,和/或用物理书写工具、虚拟书写工具或用户的指尖在空中而不是在特定表面上执行的书写动作。
在一些实施例中,用户执行的移动或姿势可以包括绘图动作,例如在表面上执行的绘图动作,包括绘制一条或更多条线段和/或曲线、和/或通过AR系统201投射的虚拟键盘(例如,虚拟滑动(swipe)键盘)滑动。
在一些实施例中,用户执行的移动或姿势可以包括单手动作,例如单手和弦(chord)姿势,包括用一只手的各种手指或手指组合挤压、敲击或捏合。
除了多个神经肌肉传感器之外,一些实施例还包括被配置成记录辅助信号的一个或更多个辅助传感器,该辅助信号也可以作为输入被提供给一个或更多个训练的推理模型。辅助传感器的示例包括IMU传感器、成像设备、辐射检测设备(例如,激光扫描设备)、心率监视器或被配置为在执行上述一个或更多个移动或姿势期间记录来自用户的生物物理信息的任何其他类型的生物传感器。在一些实施例中,神经肌肉信号可以与从辅助传感器检测到的信息(例如,提供指示用户生理状态和/或行为的信息的辅助信号)相关联或相关连。例如,辅助信号可以与神经肌肉信号一起使用,以解释用户的移动、姿势、动作或以其他方式增强和加强神经肌肉信号或下面详细描述的输入识别过程。
过程300然后进行到动作304,在动作304中,可选地处理由传感器102记录的原始传感器信号。在一些实施例中,可以使用硬件信号处理电路来处理原始传感器信号(例如,以执行放大、滤波和/或整流)。在其他实施例中,对原始传感器信号的至少一些信号处理可以在软件中执行。因此,对由传感器记录的原始传感器信号的信号处理可以在硬件、软件中执行,或由硬件和软件的任何适当组合来执行。在一些实现中,原始传感器信号可以被处理以导出其他信号数据。例如,由一个或更多个IMU传感器记录的加速度计数据可以被积分和/或滤波,以确定在肌肉激活或姿势执行期间与一个或更多个肌肉相关联的导出的信号数据。
过程300然后进行到动作306,在动作306中,原始传感器信号或经处理的传感器信号可选地被提供给训练的推理模型作为输入,该训练的推理模型被配置为输出表示用户活动的信息,例如手部状态信息和/或肌肉激活状态信息(例如,姿势或姿态),如上所述。
过程300然后进行到动作308,在动作308中,基于原始传感器信号、经处理的传感器信号和/或训练的推理模型的输出(例如,手部状态信息)来识别要提供给AR系统201的输入。在一些实施例中,可以基于从原始传感器信号、经处理的传感器信号和/或训练的推理模型的输出中识别的移动、姿势或动作来识别要提供给AR系统201的输入。例如,要提供给AR系统201的文本输入可以基于敲击或打字动作、书写动作、绘图动作和/或单手动作来识别。可以识别不同于文本输入的输入或除了文本输入之外的输入,例如,可以基于绘图动作来识别绘图。
根据一些实施例,系统100的一个或更多个计算机处理器104可以被编程为从传感器102记录的信号(例如,原始传感器信号)和/或从基于这些信号的信息中识别要提供给AR系统201的输入。基于由传感器102记录的信号的信息可以包括与经处理的传感器信号(例如,经处理的EMG信号)相关联的信息和/或与训练的推理模型的输出相关联的信息(例如,手部状态信息)。
根据一些实施例,除了由神经肌肉传感器记录的信号之外,还可以基于从辅助传感器(例如,与神经肌肉活动系统202或增强现实系统201相关联的一个或更多个IMU传感器、一个或更多个相机或成像设备)输出的信号来识别要提供给AR系统201的输入。当用户执行各种移动、姿势和/或动作时,这种辅助传感器可以提供关于笔、触笔、指尖的移动的附加信息。附加信息可用于提高识别过程的准确性。
在一些实施例中,所识别的输入可以被提供给AR系统201。AR系统201可以通过向用户显示所识别的输入的指示来提供视觉反馈(和/或可以提供其他形式的反馈,例如音频或触觉反馈)。视觉反馈可以例如通过提示用户调整各种移动、姿势和/或动作的执行方式来促进文本输入。视觉反馈在用户使用物体或用户的手/指尖提供输入的情况下可能是有用的,例如,当在表面上书写或绘图时,这不会留下物理标记。在一些实施例中,所识别的输入的指示包括基于用户执行的敲击或打字动作、书写动作、绘图动作和/或单手动作识别的文本输入。在一些实施例中,所识别的输入的指示包括针对文本输入的一个或更多个建议的或预测的单词或短语的列表。例如,可以向用户呈现多个选项、猜测或替代单词。用户可以通过例如执行某些移动或姿势(基于神经肌肉信号被识别)或使用替代控制方案(例如光标/指针)从所呈现的项目中进行选择。在一些实施例中,所识别的输入的指示包括与书写工具做出的一个或更多个笔画相关联的一个或更多个虚拟墨迹。在一些实施例中,所识别的输入的指示包括基于用户执行的绘图动作而识别的绘图。在一些实施例中,该指示可以经由在AR系统201提供的增强现实环境内呈现的用户界面来显示。例如,该指示可以在用户界面中的虚拟文档上被提供,或者作为在AR环境中被示出为在空间中浮动的表示被提供。在一些实施例中,该指示可以通过AR系统201渲染在用户正与之交互的表面上。该指示可以渲染在用户正在打字的表面上,例如,作为滚动纸带(scrolling tickertape)或面向行的打字机(line-oriented typewriter)。该指示可以渲染在用户正在书写的表面上,例如作为表面上的虚拟墨水。
图4示出了用于识别输入并向XR系统提供该输入的过程400。具体而言,过程400是根据一些实施例关于识别输入并向AR系统(例如AR系统201)提供该输入来描述的。过程400可以由神经肌肉活动系统202执行。在动作402中,传感器信号由神经肌肉活动系统202的一个或更多个传感器例如神经肌肉传感器(例如,EMG传感器)和/或辅助传感器(例如,IMU传感器、成像设备、辐射检测设备、心率监视器或任何其他类型的生物传感器)记录。
在动作404中,可以确定神经肌肉活动系统202处于被配置为向AR系统201提供包括文本的输入的模式。该模式可以包括打字模式,其中用户可以在物理或虚拟键盘上执行敲击或打字动作以提供文本输入;书写模式,其中用户可以用物理或虚拟的书写工具(例如,笔、触笔等)和/或指尖执行书写动作来提供文本输入;绘图模式,其中用户可以用物理或虚拟的书写工具(例如,笔、触笔等)和/或指尖执行绘图动作来提供文本和/或绘图输入;单手模式,其中用户可以执行单手动作来提供文本输入;和/或可以向AR系统201提供离散和/或连续控制信号作为输入的模式。
在一些实施例中,可以基于用户对模式的选择来进行模式确定。换句话说,可以响应于接收到用户对模式的选择来确定神经肌肉活动系统202所处的模式。用户选择可以从在AR系统201提供的AR环境中显示的用户界面被接收。用户界面可以识别和显示多种模式,用户可以从该多种模式中选择特定模式。例如,可以提供可用模式的列表,例如打字模式、书写模式、绘图模式和/或单手模式,并且用户可以从列表中选择模式。
在一些实施例中,可以根据传感器信号和/或根据基于传感器信号的信息来进行模式确定。换句话说,神经肌肉活动系统202所处的模式可以根据传感器信号和/或根据基于传感器信号的信息来确定。在一个实施例中,可以根据传感器信号和/或根据基于传感器信号的信息来识别用户执行的特定姿势,并且可以通过识别对应于该特定姿势的模式来确定模式。例如,不同的姿势可以被映射到不同的模式,并且特定模式可以基于用户执行的对应姿势来确定。基于特定姿势或肌肉激活状态进入的模式可以取决于系统的状态(例如,系统的当前模式)和/或可以根据用户的偏好设置来个性化。在一些实施例中,当用户执行与相应模式相关联的一个或更多个动作时,可以确定该模式。例如,当用户开始执行打字动作时,神经肌肉活动系统202可以被配置为识别输入模式是打字模式,并且当用户开始执行书写动作时,神经肌肉活动系统202可以被配置为识别输入模式是书写模式。基于对用户执行的不同动作的检测,神经肌肉活动系统202可以从一种模式切换到另一种模式。例如,用户可以在执行打字动作和书写动作之间切换,并且系统可以确定输入模式应该相应地在打字模式和书写模式之间切换,而不中断文本输入。
在一些实施例中,可以基于从AR系统201接收到的信号来进行模式确定。换句话说,神经肌肉活动系统202可以被配置成以响应于从AR系统接收到信号而确定的模式来操作。AR系统201可以响应于对事件的检测来生成信号,对于该事件,期望在AR系统提供的AR环境内进行输入。例如,可能需要文本输入来完成在AR环境中显示的用户界面中呈现的表单的一部分。表单的呈现可以触发AR系统生成信号,该信号指示文本输入被期望。该信号可以标识可用于提供输入的各种模式。AR系统201可以将该信号传送给神经肌肉活动系统202,并且神经肌肉活动系统202可以切换到特定的可用模式来提供文本输入。
在动作406中,可以根据原始或经处理的信号和/或根据基于记录的信号的信息(例如,手部状态和/或肌肉激活状态信息)来识别要提供给AR系统201的输入。在一些实施例中,系统100的一个或更多个计算机处理器可以被编程为基于传感器信号、手部状态信息、对姿势或肌肉激活状态的检测、和/或前述任意的组合来识别输入。
在一些实施例中,可以基于神经肌肉活动系统202的当前模式来进一步识别要提供给AR系统201的输入。当神经肌肉活动系统202处于打字模式时,可以通过根据传感器信号和/或根据基于传感器信号的信息识别由用户执行的一个或更多个敲击或打字动作来识别针对打字模式要提供给AR系统201的输入。例如,可以基于传感器信号来识别在物理键盘的表面上或在其上有AR系统投射的虚拟键盘的表面上执行的敲击或打字动作,并且可以基于敲击/打字动作来识别针对打字模式的文本输入。图9A描绘了用户在放置在桌子上的物理键盘902上执行打字动作。可以基于与这些打字动作相关联的神经肌肉信号和/或肌肉激活状态(如可穿戴部分810所检测到的)来识别要提供给AR系统的输入,并且可以经由虚拟头戴式装置904向用户显示所识别的输入的指示。
当神经肌肉活动系统202处于书写模式时,可以通过根据传感器信号和/或根据基于传感器信号的信息识别由用户执行的一个或更多个书写动作来识别针对书写模式要提供给AR系统201的输入。例如,可以基于传感器信号来识别用物理书写工具、虚拟书写工具和/或用户的指尖在表面上执行的书写动作,并且可以基于书写动作识别针对书写模式的文本输入。图9B描绘了用户使用可选的触笔910在可选的平板设备912上执行书写动作。可以基于与这些书写动作相关联的神经肌肉信号和/或肌肉激活状态(如可穿戴部分810所检测到的)来识别要提供给AR系统的输入,并且可以经由虚拟头戴式装置904向用户显示所识别的输入的指示。
当神经肌肉活动系统202处于绘图模式时,可以通过根据传感器信号和/或根据基于传感器信号的信息识别由用户执行的一个或更多个绘图动作(例如,在表面上绘制多个线段和/或曲线)来识别针对绘图模式要提供给AR系统的输入。可以基于绘图动作来识别针对绘图模式的输入(例如,文本输入和/或绘图输入)。在一些实施例中,针对绘图模式的输入可以包括一个或更多个线段和/或曲线。在一些实施例中,针对绘图模式的输入可以包括基于由用户执行的绘图动作控制的像素位置序列确定的输入。图9C描绘了用户在空中(即,在不使用任何书写工具的情况下)执行绘图动作。可以基于与这些绘图动作相关联的神经肌肉信号和/或肌肉激活状态(如可穿戴部分810所检测到的)来识别要提供给AR系统的输入,并且可以经由虚拟头戴式装置904向用户显示所识别的输入的指示。在本文描述的该场景和其他场景中,辅助传感器(例如,相机)(未示出)可以作为虚拟头戴式装置的一部分或者作为单独的部件被提供,并且可以提供附加信息(例如,手的位置),该附加信息可以用于进一步解释用户动作和相关联的神经肌肉信号和/或肌肉激活状态。
在一些实施例中,可以基于用户执行的绘图动作来识别文本输入和绘图。在一些实现中,传感器信号的处理可以由多个处理器执行。神经肌肉传感器可以被配置成将至少一些传感器信号传送到第一计算机处理器和第二计算机处理器,其中绘图可以由第一计算机处理器识别,文本输入(例如,手写(handwriting))可以由第二计算机处理器识别。来自第一和第二计算机处理器的文本输入和绘图可以被组合,使得文本覆盖或注释绘图,或者被存储为元数据用于以后的处理(例如,搜索和过滤)。在其他实现中,可以基于用户执行的绘图动作来识别绘图,并且可以从绘图中识别文本输入。例如,可以从传感器信号中识别绘图,并且可以通过在绘图上运行手写识别过程来从绘图中识别文本。
当神经肌肉活动系统202处于单手模式(即,用户仅使用一只手来提供输入的模式)时,可以通过根据传感器信号和/或根据基于传感器信号的信息识别用户执行的一个或更多个单手动作(例如,各种手指和手指组合的挤压、捏合和/或敲击)来识别针对单手模式要提供给AR系统的输入。针对单手模式的文本输入可以基于单手动作来识别。
在一些实施例中,除了打字/敲击、书写、绘图和/或单手动作之外,还可以识别一个或更多个姿势,以允许编辑和/或更正所识别的文本。例如,除了书写动作(基于哪种文本输入被识别)之外,还可以识别允许删除文本输入中识别的字母或单词的一个或更多个删除姿势。一个或更多个删除姿势可以包括删除单个字母的姿势、删除先前单词的姿势和/或删除所选单词的姿势。在一些实施例中,对要删除的单词的选择可以使用神经肌肉控制(例如光标导航)来完成。一个或更多个删除姿势可以涉及操纵用户正在持有的物体(例如,触笔或铅笔)。例如,一个或更多个删除姿势可以包括将诸如铅笔的物体弹到橡皮擦位置,然后用特定的手指在对象上滑动或按下虚构按钮,以启动一个或更多个字母或单词的删除。
在一些实施例中,一个或更多个姿势(例如指示文本行的结束和新文本行的开始的换行符姿势、指示文本中的空格符的空格姿势和/或其他姿势)可以被标识并与识别文本输入相结合,以允许用户在不必物理地移动他的手(例如,将手移动到虚拟文档中的虚拟页面右侧或下侧)的情况下编写更长的文本序列。例如,在特定方向上的滑动或轻击(flick)可以用作换行符姿势,而“抬起笔(pen up)”动作可以用于空格或断字。
在动作408中,动作406中识别的输入可以被提供给AR系统201。根据传感器信号和/或根据基于传感器信号的信息识别的文本输入和/或绘图输入可以被提供给AR系统201。系统100的一个或更多个计算机处理器可以识别输入并向AR系统提供该输入。
在一些实施例中,神经肌肉活动系统202可以在例如打字、书写、绘图和/或单手模式的不同模式之间切换,以提供输入。例如,用户可以通过在物理键盘的表面上敲击、用触笔在表面上书写、通过在AR环境中投射的虚拟滑动键盘滑动、或者使用从神经肌肉信号到文本的自定义无移动映射来提供基于文本的输入。这些不同的方法都可以通过公共应用编程接口(API)与AR系统201集成。换句话说,不同形式的文本输入可以由神经肌肉活动系统202识别并被提供给AR系统201,其中AR系统经由公共文本API接收不同形式的文本输入。
在一些实施例中,可以从多个源中识别要提供给AR系统201的输入,其中源可以包括神经肌肉信号和至少一个不同于神经肌肉信号的源。例如,该至少一个源可以包括物理输入设备,例如物理键盘或触笔。从多个源接收的输入可以被组合,并且组合的输入可以被提供给AR系统201。在一些实现中,公共API可以从多个源接收输入。在一些实施例中,由AR系统提供的视觉反馈可以继续,而不管文本输入的源、模式或形式。
在一些实施例中,当与物理输入设备结合使用时,神经肌肉活动系统202可以学习使用神经肌肉信号来仿真物理输入设备,从而允许在物理输入设备和它们的虚拟仿真之间的无缝切换。
图7A示出了具有16个神经肌肉传感器710(例如,EMG传感器)的可穿戴系统,这些传感器围绕弹性带720周向地布置,弹性带720被配置成围绕用户的下臂或手腕穿戴。如所示的,EMG传感器710围绕弹性带720周向地布置。应当理解,可以使用任何合适数量的神经肌肉传感器。神经肌肉传感器的数量和布置可以取决于可穿戴设备所用于的特定应用。例如,可穿戴臂带或腕带可以用于生成控制信息,以控制增强现实系统、机器人,控制车辆,滚动浏览文本,控制虚拟化身,或用于任何其他合适的控制任务。
在一些实施例中,传感器710包括神经肌肉传感器(例如,EMG传感器)的集合。在其他实施例中,传感器710可以包括神经肌肉传感器的集合和被配置成连续记录辅助信号的至少一个“辅助”传感器。辅助传感器的示例包括但不限于其他传感器,例如IMU传感器、麦克风、成像传感器(例如,相机)、与辐射产生设备(例如,激光扫描设备)一起使用的基于辐射的传感器、或者其他类型的传感器(例如心率监视器)。如所示的,传感器710可以使用结合到可穿戴设备中的柔性电子器件730来耦合在一起。图7B示出了图7A所示的可穿戴设备的传感器710之一的横截面视图。
在一些实施例中,可选地,可以使用硬件信号处理电路来处理(例如,以执行放大、滤波和/或整流)一个或更多个感测部件的输出。在其他实施例中,对感测部件的输出的至少一些信号处理可以在软件中执行。因此,对由传感器采样的信号的信号处理可以在硬件、软件中执行,或由硬件和软件的任何适当组合执行,因为本文描述的技术的方面在这一点上不受限制。下面结合图8A和图8B更详细地讨论用于处理来自传感器710的所记录的数据的信号处理链的非限制性示例。
图8A和图8B示出了根据本文描述的技术的一些实施例的具有16个EMG传感器的可穿戴系统的内部部件的示意图。如所示的,可穿戴系统包括可穿戴部分810(图8A)和(例如,经由蓝牙或另一种合适的短程无线通信技术)与可穿戴部分810通信的加密狗部分820(图8B)。如图8A所示,可穿戴部分810包括传感器710,其示例结合图7A和图7B进行了描述。传感器710的输出被提供给模拟前端830,模拟前端830被配置成对所记录的信号执行模拟处理(例如,降噪、滤波等)。经处理的模拟信号然后被提供给模数转换器832,模数转换器832将模拟信号转换成可以由一个或更多个计算机处理器处理的数字信号。根据一些实施例可以使用的计算机处理器的一个示例是图8A所示的微控制器(MCU)834。如所示的,MCU 834也可以包括来自其他传感器(例如,IMU传感器840)以及电源和电池模块842的输入。由MCU执行的处理的输出可以被提供给天线850,用于传输到图8B所示的加密狗部分820。
加密狗部分820包括天线852,天线852被配置成与作为可穿戴部分810的一部分被包括的天线850通信。可以使用任何合适的无线技术和协议(其非限制性示例包括射频信令和蓝牙)进行天线850和852之间的通信。如所示的,由加密狗部分820的天线852接收的信号可以被提供给主计算机,用于进一步处理、显示和/或用于实现对特定物理或虚拟对象的控制。
虽然参考图7A、7B和图8A、8B提供的示例是在与EMG传感器的接口的上下文中讨论的,但是应当理解,本文描述的用于减少电磁干扰的技术也可以在与其他类型的传感器的可穿戴接口中实现,包括但不限于肌电图(MMG)传感器、声肌图(SMG)传感器和电阻抗断层摄影(EIT)传感器。此外,将会理解,本文描述的用于向AR系统提供输入的技术也可以在VR、MR或XR系统内实现。
将会理解,本公开不限于使用打字、书写、绘图和/或单手模式或者基于敲击/打字动作、书写动作、绘图动作和/或单手动作的识别的输入,并且可以使用其他模式或动作。例如,在不脱离本公开的范围的情况下,除了在表面上的打字、敲击、书写或绘图之外,还可以使用双手动作,例如双手的指尖挤压、手部手势或手指移动的组合。
可以以多种方式中的任一种来实现上述实施例。例如,可以使用硬件、软件或其组合来实现实施例。当以软件实现时,软件代码可以在任何合适的处理器或处理器集群(无论是在单个计算机中提供的,还是分布在多个计算机之间的)上执行。应当认识到,执行上述功能的任何部件或部件集群可以一般地被考虑为控制上面讨论的功能的一个或更多个控制器。可以以多种方式例如利用专用硬件或者利用使用微码或软件被编程为执行上面列举的功能的一个或更多个处理器来实现一个或更多个控制器。
在这方面,应当理解,本发明的实施例的一个实现包括编码有计算机程序(即,多个指令)的至少一个非暂时性计算机可读存储介质(例如,计算机存储器、便携式存储器、光盘等),该计算机程序当在处理器上执行时,执行本发明的实施例的以上所讨论的功能。计算机可读存储介质可以是可传输的,使得存储在其上的程序可以被加载到任何计算机资源上,以实现本文所讨论的本发明的各方面。此外,应当认识到,对当被执行时执行上面讨论的功能的计算机程序的提及不限于在主计算机上运行的应用程序。相反,术语“计算机程序”在本文中以一般意义使用,以指代任何类型的计算机代码(例如,软件或微码),其可以用于对处理器进行编程以实现本发明的以上所讨论的各方面。
本发明的各个方面可以单独使用、组合使用或者以在前面描述的实施例中没有具体讨论的各种布置使用,因此它们的应用不限于在前面描述中阐述的或者在附图中示出的部件的细节和布置。例如,在一个实施例中描述的方面可以以任何方式与在其他实施例中描述的方面组合。
此外,本发明的实施例可以被实现为一种或更多种方法,已经提供了其示例。作为方法的一部分被执行的动作可以以任何合适的方式被排序。相应地,可以构造这样的实施例,其中动作以与所示出的不同的顺序被执行,这可以包括同时执行一些动作,即使这些动作在说明性实施例中被示为顺序动作。
在本文讨论的任何实施例中,前述特征可以单独地或者以任何组合的方式一起被使用。
此外,尽管可以指出本发明的优点,但是应当理解,不是本发明的每个实施例都包括每个描述的优点。一些实施例可能不实现本文中被描述为有利的任何特征。因此,前面的描述和附图仅作为示例。
公开的实施例的变化是可能的。例如,本技术的各个方面可以单独使用、组合使用,或者在前面描述的实施例中没有具体讨论的各种布置中使用,因此它们的应用不限于在前面描述中阐述的或在附图中示出的部件的细节和布置。一个实施例中描述的方面可以以任何方式与其他实施例中描述的方面相结合。
在权利要求中使用序数术语例如“第一”、“第二”、“第三”等来修改权利要求元素并不单独地暗示一个权利要求元素相对于另一个权利要求元素的任何优先级、优先权、或顺序或者方法的动作被执行的时间顺序。这样的术语仅用作标签以将具有特定名称的一个权利要求元素与具有相同名称的另一个元素区分开(但对于序数术语的使用)。
如在本文在说明书和权利要求中使用的不定冠词“一个(a)”和“一个(an)”,除非有相反的明确指示,否则应理解为表示“至少一个”。
关于一个或更多个元素的列表,短语“至少一个”的任何使用应理解为表示从元素列表中的任何一个或更多个元素中选择的至少一个元素,但不一定包括元素列表内具体列出的每个元素中的至少一个,并且不排除元素列表中元素的任何组合。该定义还允许除了在短语“至少一个”所指的元素的列表内特别标识的元素以外的元素可以可选地存在,而不管与被特别标识的那些元素相关或不相关。
短语“相等”或“相同”在涉及两个值(例如,距离、宽度等)时的任何使用意味着两个值在制造公差范围内是相同的。因此,两个值相等或相同,可能意味着两个值彼此相差±5%。
如在本文在说明书中和在权利要求中使用的短语“和/或”应当被理解为意指这样连接的元素中的“任一者或两者”,即,在一些情况下连接着地存在并且在其他的情况下分离地存在的元素。用“和/或”列出的多个元素应该以相同的方式被解释,即这样连接的元素中的“一个或更多个”。除了被“和/或”子句特别标识的元素之外,其他元素可以可选地存在,而不管是否与特别标识的那些元素相关或不相关。因此,作为非限制性示例,对“A和/或B”的提及当与开放的语言例如“包括”结合来使用时可以在一个实施例中指仅仅A(可选地包括除了B以外的元素);在另一个实施例中指仅仅B(可选地包括除了A以外的元素);在又一个实施例中指A和B两者(可选地包括其他元素);等等。
如在本文在说明书和权利要求中使用的,“或”应该理解为具有与上面定义的“和/或”相同的含义。例如,当分离列表中的项目时,“或”或“和/或”应被解释为包含性的,即包括多个元素或元素列表中的至少一个,但也包括该多个元素或元素列表中的一个以上的元素,以及可选地包括附加的未列出的项目。只有明确表示相反的术语,例如“仅其中之一”或“恰好其中之一”,或者当在权利要求中使用时的“由……组成”,将指的是包含多个元素或元素列表中的恰好一个元素。一般而言,当前面有排他性的术语时,例如“任一”、“其中之一”、“仅其中之一”或“恰好其中之一”,本文使用的术语“或”应当仅被解释为表示排他性的替代物(即,“一个或另一个,但不是两者”)。当在权利要求中使用时,“基本上由……组成”应具有其在专利法领域中使用的普通含义。
本文所使用的措辞和术语是为了描述的目的,且不应被视为限制性的。“包括(including)”、“包括(comprising)”、“具有(having)”、“包含(containing)”、“涉及(involving)”、及它们的变形的使用意指包括在其后列出的项和另外的项。
已经详细描述了本发明的几个实施例,本领域技术人员将容易想到各种修改和改进。这些修改和改进旨在落入本发明的精神和范围内。因此,前面的描述仅仅是作为示例,且并不旨在为限制性的。本发明仅由所附权利要求及其等同物限定。
Claims (34)
1.一种用于向扩展现实系统提供输入的计算机化系统,所述计算机化系统包括:
一个或更多个神经肌肉传感器,其被配置为检测来自用户的神经肌肉信号,其中所述一个或更多个神经肌肉传感器被布置在第一可穿戴设备和第二可穿戴设备上,所述第一可穿戴设备被配置为检测来自所述用户的第一手臂的神经肌肉信号,并且所述第二可穿戴设备被配置为检测来自所述用户的第二手臂的神经肌肉信号;和
至少一个计算机处理器,所述至少一个计算机处理器被编程为:
确定所述计算机化系统处于被配置为向所述扩展现实系统提供第一输入的第一模式;
至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的信息来识别所述第一输入;和
向所述扩展现实系统提供所识别的第一输入;
其中所述至少一个计算机处理器还被编程为:
至少部分地根据所述神经肌肉信号和/或根据基于所述神经肌肉信号的信息来识别第二输入,其中至少部分地基于第二模式来进一步识别所述第二输入;
确定所述计算机化系统将从所述第一模式切换到所述第二模式;
响应于确定所述计算机化系统将从所述第一模式切换到所述第二模式,将所述计算机化系统从所述第一模式切换到所述第二模式;以及
将所识别的第二输入提供给所述扩展现实系统;
其中所述第一模式和所述第二模式是基于从所述用户检测到的手势来确定的,其中所述手势是根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的所述信息来识别的;
其中所述第一模式和所述第二模式包括以下项中的一个或多个:
打字模式,其中识别输入包括至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的所述信息来识别一个或更多个敲击或打字动作,其中所述计算机化系统还包括物理键盘或虚拟键盘;
书写模式,其中识别输入包括至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的所述信息来识别从所述用户检测到的一个或更多个书写动作,其中所述计算机化系统还包括物理触笔或虚拟触笔或物理书写工具或虚拟书写工具,和/或其中所述一个或更多个书写动作被识别为在空中被检测到;
绘图模式,其中识别输入包括至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的所述信息来识别从所述用户检测到的一个或更多个绘图动作,其中针对所述绘图模式,识别所述输入包括将输入识别为绘图和/或文本;以及
单手模式,其中识别输入包括至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的所述信息来识别从所述用户检测到的一个或更多个单手动作。
2.根据权利要求1所述的计算机化系统,其中从所述用户检测到的一个或更多个绘图动作包括多个线段和/或曲线。
3.根据权利要求1所述的计算机化系统,其中所述至少一个计算机处理器还被编程为组合绘图输入和文本输入,使得文本对绘图进行覆盖或注释。
4.根据权利要求1所述的计算机化系统,其中所述扩展现实系统被配置为向所述用户显示所识别的输入的指示。
5.根据权利要求4所述的计算机化系统,其中所识别的输入的指示包括基于从所述用户检测到的一个或更多个打字、书写、绘图动作或单手动作而识别的文本输入。
6.根据权利要求1所述的计算机化系统,还包括视觉显示器或界面,所述视觉显示器或界面被配置为呈现用于文本输入的一个或更多个建议的或预测的单词或短语。
7.根据权利要求1所述的计算机化系统,还包括视觉显示器或界面,所述视觉显示器或界面被配置为呈现与从所述用户检测到的一个或更多个笔画相关联的一个或更多个虚拟墨迹。
8.根据权利要求1所述的计算机化系统,还包括视觉显示器或界面,所述视觉显示器或界面被配置为呈现基于从所述用户检测到的一个或更多个绘图动作而识别的绘图。
9.根据权利要求1所述的计算机化系统,还包括:
至少一个惯性测量单元(IMU)传感器,
其中识别所述输入包括至少部分地基于与所述至少一个IMU传感器相关联的至少一个输出信号来识别所述输入。
10.根据权利要求1所述的计算机化系统,还包括:
至少一个相机,
其中识别所述输入包括至少部分地基于与所述至少一个相机相关联的至少一个输出信号来识别所述输入。
11.根据权利要求1所述的计算机化系统,其中所述扩展现实系统是增强现实系统。
12.一种由计算机化系统执行的用于向扩展现实系统提供输入的方法,所述方法包括:
使用布置在第一可穿戴设备和第二可穿戴设备上的一个或更多个神经肌肉传感器来检测来自用户的多个神经肌肉信号,所述第一可穿戴设备被配置为检测来自所述用户的第一手臂的神经肌肉信号,并且所述第二可穿戴设备被配置为检测来自所述用户的第二手臂的神经肌肉信号;
确定所述计算机化系统处于被配置为向所述扩展现实系统提供第一输入的第一模式;
至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的信息来识别所述第一输入;和
向所述扩展现实系统提供所识别的第一输入;
其中所述方法还包括:
至少部分地根据所述神经肌肉信号和/或根据基于所述神经肌肉信号的信息来识别第二输入,其中至少部分地基于第二模式来进一步识别所述第二输入;
确定所述计算机化系统将从所述第一模式切换到所述第二模式;
响应于确定所述计算机化系统将从所述第一模式切换到所述第二模式,将所述计算机化系统从所述第一模式切换到所述第二模式;以及
将所识别的第二输入提供给所述扩展现实系统;
其中所述第一模式和所述第二模式是基于从所述用户检测到的手势来确定的,其中所述手势是根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的所述信息来识别的;
其中所述第一模式和所述第二模式包括以下项中的一个或多个:
打字模式,其中识别输入包括至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的所述信息来识别一个或更多个敲击或打字动作,其中所述计算机化系统还包括物理键盘或虚拟键盘;
书写模式,其中识别输入包括至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的所述信息来识别从所述用户检测到的一个或更多个书写动作,其中所述计算机化系统还包括物理触笔或虚拟触笔或物理书写工具或虚拟书写工具,和/或其中所述一个或更多个书写动作被识别为在空中被检测到;
绘图模式,其中识别输入包括至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的所述信息来识别从所述用户检测到的一个或更多个绘图动作,其中针对所述绘图模式,识别所述输入包括将输入识别为绘图和/或文本;以及
单手模式,其中识别输入包括至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的所述信息来识别从所述用户检测到的一个或更多个单手动作。
13.一种用于向扩展现实XR系统提供一个或更多个输入的根据权利要求1所述的计算机化系统,所述计算机化系统还包括:
一个或更多个辅助传感器,其被配置为检测来自所述用户的关于生理状态和/或行为的信息;和
至少一个计算机处理器,所述至少一个计算机处理器被编程为:
确定所述系统处于被配置为向所述XR系统提供第一输入或第二输入的第一模式或第二模式,
将所述神经肌肉信号与由所述一个或更多个辅助传感器检测到的所述信息相关联,
使用一个或更多个推理模型处理所述神经肌肉信号和/或由所述一个或更多个辅助传感器检测到的所述信息;
基于经处理的神经肌肉信号和/或经处理的由所述一个或更多个辅助传感器检测到的信息来识别所述第一输入或所述第二输入;和
向所述XR系统提供识别的第一输入或第二输入。
14.一种用于至少部分地基于神经肌肉信号向增强现实系统提供输入的根据权利要求1所述的计算机化系统,所述计算机化系统还包括:
多个神经肌肉传感器,所述多个神经肌肉传感器被配置为记录来自用户的多个神经肌肉信号,其中,所述多个神经肌肉传感器被布置在所述第一可穿戴设备和所述第二可穿戴设备上;以及
其中所述至少一个计算机处理器还被编程为:
确定所述计算机化系统处于被配置为向所述增强现实系统提供第一输入的第一模式,所述输入包括文本;
至少部分地根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的信息来识别所述第一输入,其中至少部分地基于所述第一模式来进一步识别所述第一输入;和
向所述增强现实系统提供所识别的第一输入;
其中所述至少一个计算机处理器还被编程为:
至少部分地根据所述神经肌肉信号和/或根据基于所述神经肌肉信号的信息来识别第二输入,其中至少部分地基于第二模式来进一步识别所述第二输入;
确定所述计算机化系统将从所述第一模式切换到所述第二模式;
响应于确定所述计算机化系统将从所述第一模式切换到所述第二模式,将所述计算机化系统从所述第一模式切换到所述第二模式;以及
将所识别的第二输入提供给所述增强现实系统;
其中所述第一模式和所述第二模式是基于从所述用户检测到的手势来确定的,其中所述手势是根据所述多个神经肌肉信号和/或根据基于所述多个神经肌肉信号的所述信息来识别的;
其中所述第一模式和所述第二模式包括以下项中的一个或多个:
打字模式,其中用户能够在物理键盘或虚拟键盘上执行一个或多个敲击或打字动作以向所述增强现实系统提供文本输入;
书写模式,其中用户能够用物理书写工具或虚拟书写工具和/或指尖执行一个或多个书写动作来向所述增强现实系统提供文本输入;
绘图模式,其中用户能够执行一个或多个绘图动作来向所述增强现实系统提供文本和/或绘图输入;以及
单手模式,其中用户能够执行一个或多个单手动作来向所述增强现实系统提供文本输入;以及
其中动作包括分别与所述打字模式、所述书写模式、所述绘图模式和所述单手模式相关联的打字动作、书写动作、绘图动作以及单手动作。
15.根据权利要求14所述的计算机化系统,其中识别所述一个或更多个敲击或打字动作包括:
识别在物理键盘的表面上的一个或更多个敲击或打字动作。
16.根据权利要求14所述的计算机化系统,其中识别所述一个或更多个敲击或打字动作包括:
识别在具有虚拟键盘的表面上的一个或更多个敲击或打字动作,所述虚拟键盘由所述增强现实系统投射在所述表面上。
17.根据权利要求14所述的计算机化系统,其中识别所述用户执行的一个或更多个书写动作包括:
识别用物理触笔、物理书写工具或所述用户的一个或更多个指尖在表面上执行的一个或更多个书写动作。
18.根据权利要求14所述的计算机化系统,其中识别所述用户执行的一个或更多个书写动作包括:
识别用虚拟触笔或虚拟书写工具在表面上执行的一个或更多个书写动作。
19.根据权利要求14所述的计算机化系统,其中识别所述用户执行的一个或更多个书写动作包括:
识别在空中执行的一个或更多个书写动作。
20.根据权利要求14所述的计算机化系统,其中针对所述绘图模式的输入包括多个线段和/或曲线。
21.根据权利要求14所述的计算机化系统,其中针对所述绘图模式的输入包括基于由所述用户执行的一个或更多个绘图动作控制的像素位置序列而确定的输入。
22.根据权利要求14所述的计算机化系统,其中识别针对所述绘图模式的输入包括:
基于所述用户执行的一个或更多个绘图动作来识别绘图;和
基于所述用户执行的一个或更多个绘图动作来识别文本。
23.根据权利要求22所述的计算机化系统,其中,所述至少一个计算机处理器还被编程为:
组合所述绘图和所述文本,使得所述文本覆盖或注释所述绘图。
24.根据权利要求14所述的计算机化系统,其中识别针对所述绘图模式的输入包括:
基于所述用户执行的一个或更多个绘图动作来识别绘图;和
从所述绘图中识别文本。
25.根据权利要求14所述的计算机化系统,其中所述增强现实系统被配置为向所述用户显示所识别的输入的指示。
26.根据权利要求25所述的计算机化系统,其中所识别的输入的指示包括基于所述用户执行的一个或更多个打字、书写、绘图动作或单手动作而识别的文本输入。
27.根据权利要求26所述的计算机化系统,其中,所识别的输入的指示包括针对所述文本输入的一个或更多个建议的或预测的单词或短语的列表。
28.根据权利要求25所述的计算机化系统,其中,所识别的输入的指示包括与书写工具做出的一个或更多个笔画相关联的一个或更多个虚拟墨迹。
29.根据权利要求25所述的计算机化系统,其中所识别的输入的指示包括基于所述用户执行的一个或更多个绘图动作而识别的绘图。
30.根据权利要求25所述的计算机化系统,其中,所述指示经由在所述增强现实系统提供的增强现实环境内呈现的用户界面来显示。
31.根据权利要求25所述的计算机化系统,其中所述指示被渲染在表面上,所述用户正通过所述增强现实系统与所述表面交互。
32.根据权利要求14所述的计算机化系统,还包括:
至少一个惯性测量单元(IMU)传感器,
其中识别所述文本输入包括至少部分地基于与所述至少一个IMU传感器相关联的至少一个输出信号来识别所述文本输入。
33.根据权利要求14所述的计算机化系统,还包括:
至少一个相机,
其中识别所述文本输入包括至少部分地基于与所述至少一个相机相关联的至少一个输出信号来识别所述文本输入。
34.根据权利要求14所述的计算机化系统,其中提供给所述增强现实系统的所识别的输入包括从多个源识别的输入,其中所述多个源包括所述多个神经肌肉信号和不同于所述多个神经肌肉信号的至少一个源。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862734138P | 2018-09-20 | 2018-09-20 | |
US62/734,138 | 2018-09-20 | ||
PCT/US2019/052151 WO2020061451A1 (en) | 2018-09-20 | 2019-09-20 | Neuromuscular text entry, writing and drawing in augmented reality systems |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112789577A CN112789577A (zh) | 2021-05-11 |
CN112789577B true CN112789577B (zh) | 2024-04-05 |
Family
ID=69884192
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980062920.7A Active CN112789577B (zh) | 2018-09-20 | 2019-09-20 | 增强现实系统中的神经肌肉文本输入、书写和绘图 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11567573B2 (zh) |
EP (1) | EP3853698A4 (zh) |
CN (1) | CN112789577B (zh) |
WO (1) | WO2020061451A1 (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150124566A1 (en) | 2013-10-04 | 2015-05-07 | Thalmic Labs Inc. | Systems, articles and methods for wearable electronic devices employing contact sensors |
US11921471B2 (en) | 2013-08-16 | 2024-03-05 | Meta Platforms Technologies, Llc | Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source |
WO2015081113A1 (en) | 2013-11-27 | 2015-06-04 | Cezar Morun | Systems, articles, and methods for electromyography sensors |
EP3697297A4 (en) | 2017-10-19 | 2020-12-16 | Facebook Technologies, Inc. | SYSTEMS AND METHODS FOR IDENTIFYING BIOLOGICAL STRUCTURES ASSOCIATED WITH NEUROMUSCULAR SOURCE SIGNALS |
US11961494B1 (en) | 2019-03-29 | 2024-04-16 | Meta Platforms Technologies, Llc | Electromagnetic interference reduction in extended reality environments |
US11493993B2 (en) | 2019-09-04 | 2022-11-08 | Meta Platforms Technologies, Llc | Systems, methods, and interfaces for performing inputs based on neuromuscular control |
US11150730B1 (en) | 2019-04-30 | 2021-10-19 | Facebook Technologies, Llc | Devices, systems, and methods for controlling computing devices via neuromuscular signals of users |
US11907423B2 (en) | 2019-11-25 | 2024-02-20 | Meta Platforms Technologies, Llc | Systems and methods for contextualized interactions with an environment |
US11481030B2 (en) | 2019-03-29 | 2022-10-25 | Meta Platforms Technologies, Llc | Methods and apparatus for gesture detection and classification |
CN112789577B (zh) | 2018-09-20 | 2024-04-05 | 元平台技术有限公司 | 增强现实系统中的神经肌肉文本输入、书写和绘图 |
EP3886693A4 (en) | 2018-11-27 | 2022-06-08 | Facebook Technologies, LLC. | METHOD AND DEVICE FOR AUTOCALIBRATION OF A PORTABLE ELECTRODE SENSING SYSTEM |
US11868531B1 (en) | 2021-04-08 | 2024-01-09 | Meta Platforms Technologies, Llc | Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof |
US20220374085A1 (en) * | 2021-05-19 | 2022-11-24 | Apple Inc. | Navigating user interfaces using hand gestures |
US12081059B1 (en) * | 2021-08-03 | 2024-09-03 | Meta Platforms Technologies, Llc | Systems and methods for providing a distributed battery architecture |
US20240192765A1 (en) * | 2022-12-08 | 2024-06-13 | Meta Platforms Technologies, Llc | Activation force detected via neuromuscular-signal sensors of a wearable device, and systems and methods of use thereof |
CN115857706B (zh) * | 2023-03-03 | 2023-06-06 | 浙江强脑科技有限公司 | 基于面部肌肉状态的文字输入方法、装置及终端设备 |
CN117389441B (zh) * | 2023-11-23 | 2024-03-15 | 首都医科大学附属北京天坛医院 | 基于视觉追随辅助的书写想象汉字轨迹确定方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105511615A (zh) * | 2015-12-04 | 2016-04-20 | 深圳大学 | 基于emg的可穿戴式文本输入系统及方法 |
CN107203272A (zh) * | 2017-06-23 | 2017-09-26 | 山东万腾电子科技有限公司 | 基于肌电感知技术的可穿戴增强现实作业指导系统及方法 |
Family Cites Families (632)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US1411995A (en) | 1919-06-20 | 1922-04-04 | Raymond W Dull | Link belt |
US3580243A (en) | 1968-10-21 | 1971-05-25 | Marquette Electronics Inc | Means and method for subtracting dc noise from electrocardiographic signals |
US3620208A (en) | 1969-11-03 | 1971-11-16 | Atomic Energy Commission | Ekg amplifying electrode pickup |
US3735425A (en) | 1971-02-10 | 1973-05-29 | Us Of America The Secretary Of | Myoelectrically controlled prothesis |
US3880146A (en) | 1973-06-04 | 1975-04-29 | Donald B Everett | Noise compensation techniques for bioelectric potential sensing |
US4055168A (en) | 1976-09-21 | 1977-10-25 | The Rockefeller University | Posture training device |
LU84250A1 (de) | 1982-07-01 | 1984-03-22 | Mardice Holding | Verfahren und vorrichtung fuer das kontaktlose messen von spannungsunterschieden bei lebenden organismen |
US4817064A (en) | 1985-02-05 | 1989-03-28 | Milles Victor A | Structure for fabricating jewelry parts or wrist watches |
US5003978A (en) | 1985-08-21 | 1991-04-02 | Technology 21, Inc. | Non-polarizable dry biomedical electrode |
IL78244A0 (en) | 1986-03-24 | 1986-07-31 | Zvi Kamil | Instrumentation amplifier arrangement |
ATE38569T1 (de) | 1986-04-01 | 1988-11-15 | Altop Sa | An einer klammer montierte uhr. |
JPH01126692A (ja) | 1987-07-24 | 1989-05-18 | Univ Leland Stanford Jr | 音楽およびビデオ用のバイオポテンシャルディジタルコントローラ |
USD322227S (en) | 1989-03-23 | 1991-12-10 | North American Watch Company | Watch |
US5625577A (en) | 1990-12-25 | 1997-04-29 | Shukyohojin, Kongo Zen Sohonzan Shorinji | Computer-implemented motion analysis method using dynamics |
US5081852A (en) | 1991-02-14 | 1992-01-21 | Cox Michael F | Display bracelet |
JP3103427B2 (ja) | 1992-04-01 | 2000-10-30 | ダイヤメディカルシステム株式会社 | 生体電気現象検出装置 |
AU670311B2 (en) | 1992-07-06 | 1996-07-11 | Immersion Corporation | Determination of kinematically constrained multi-articulated structures |
US5251189A (en) | 1992-10-16 | 1993-10-05 | Timex Corporation | Wristwatch radiotelephone |
JPH06216475A (ja) | 1993-01-21 | 1994-08-05 | Matsushita Electric Ind Co Ltd | フレキシブル基板 |
USD348660S (en) | 1993-04-29 | 1994-07-12 | Micro-Integration Corp. | Hand-held computer input device |
US5482051A (en) | 1994-03-10 | 1996-01-09 | The University Of Akron | Electromyographic virtual reality system |
WO1995027341A1 (en) | 1994-04-04 | 1995-10-12 | Motorola Inc. | Shielded circuit assembly and method for forming same |
DE4412278A1 (de) | 1994-04-09 | 1995-10-12 | Bosch Gmbh Robert | Starre und flexible Bereiche aufweisende Leiterplatte |
US6032530A (en) | 1994-04-29 | 2000-03-07 | Advantedge Systems Inc. | Biofeedback system for sensing body motion and flexure |
US5462065A (en) | 1994-08-17 | 1995-10-31 | Cusimano; Maryrose | Integrated movement analyziing system |
US5605059A (en) | 1995-03-09 | 1997-02-25 | Woodward; Robin | Sleeved bangle bracelet |
US6238338B1 (en) | 1999-07-19 | 2001-05-29 | Altec, Inc. | Biosignal monitoring system and method |
JP3141737B2 (ja) | 1995-08-10 | 2001-03-05 | 株式会社セガ | 仮想画像生成装置及びその方法 |
US6066794A (en) | 1997-01-21 | 2000-05-23 | Longo; Nicholas C. | Gesture synthesizer for electronic sound device |
US5683404A (en) | 1996-06-05 | 1997-11-04 | Metagen, Llc | Clamp and method for its use |
CN1168057C (zh) | 1996-08-14 | 2004-09-22 | 挪拉赫梅特·挪利斯拉莫维奇·拉都包夫 | 追踪并显示使用者在空间的位置与取向的方法,向使用者展示虚拟环境的方法以及实现这些方法的系统 |
US6009210A (en) | 1997-03-05 | 1999-12-28 | Digital Equipment Corporation | Hands-free interface to a virtual reality environment using head tracking |
US6880364B1 (en) | 1998-04-23 | 2005-04-19 | Michael F. Vidolin | Friendship band with exchangeable closed loop members |
EP1107693A4 (en) | 1998-08-24 | 2003-03-19 | Univ Emory | METHOD AND APPARATUS FOR PREDICTING THE APPEARANCE OF CRISES BASED ON CHARACTERISTICS DERIVED FROM SIGNALS INDICATING BRAIN ACTIVITY |
EP1116211A4 (en) | 1998-09-22 | 2001-11-21 | Vega Vista Inc | INTUITIVE CONTROL OF A PORTABLE DATA PRESENTATION SCREEN |
US6745062B1 (en) | 1998-10-05 | 2004-06-01 | Advanced Imaging Systems, Inc. | Emg electrode apparatus and positioning system |
US6244873B1 (en) | 1998-10-16 | 2001-06-12 | At&T Corp. | Wireless myoelectric control apparatus and methods |
US6774885B1 (en) | 1999-01-20 | 2004-08-10 | Motek B.V. | System for dynamic registration, evaluation, and correction of functional human behavior |
US7640007B2 (en) | 1999-02-12 | 2009-12-29 | Fisher-Rosemount Systems, Inc. | Wireless handheld communicator in a process control environment |
US6411843B1 (en) | 1999-05-28 | 2002-06-25 | Respironics, Inc. | Method and apparatus for producing a model EMG signal from a measured EMG signal |
US6972734B1 (en) | 1999-06-11 | 2005-12-06 | Canon Kabushiki Kaisha | Mixed reality apparatus and mixed reality presentation method |
CA2276962A1 (en) | 1999-07-07 | 2001-01-07 | Universite De Montreal | Electromyogram signal analysis method and system for use with electrode array |
US6807438B1 (en) | 1999-08-26 | 2004-10-19 | Riccardo Brun Del Re | Electric field sensor |
JP4168221B2 (ja) | 1999-09-06 | 2008-10-22 | 株式会社島津製作所 | 身体装着型表示システム |
US6527711B1 (en) | 1999-10-18 | 2003-03-04 | Bodymedia, Inc. | Wearable human physiological data sensors and reporting system therefor |
US6619836B1 (en) | 1999-11-11 | 2003-09-16 | The Swatch Group Management Services Ag | Electronic wristwatch including a printed circuit incorporated in a flexible wristband |
US6771294B1 (en) | 1999-12-29 | 2004-08-03 | Petri Pulli | User interface |
GB0004688D0 (en) | 2000-02-28 | 2000-04-19 | Radley Smith Philip J | Bracelet |
WO2001078577A2 (en) | 2000-04-17 | 2001-10-25 | Vivometrics, Inc. | Systems and methods for ambulatory monitoring of physiological signs |
US6683600B1 (en) * | 2000-04-19 | 2004-01-27 | Microsoft Corporation | Adaptive input pen mode selection |
US6510333B1 (en) | 2000-05-16 | 2003-01-21 | Mark J. Licata | Sensor for biopotential measurements |
US6720984B1 (en) | 2000-06-13 | 2004-04-13 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Characterization of bioelectric potentials |
WO2002009037A2 (en) | 2000-07-24 | 2002-01-31 | Reflex Systems Inc. | Modeling human beings by symbol manipulation |
US20030036691A1 (en) | 2000-08-10 | 2003-02-20 | Stanaland Thomas G. | Capacitively coupled electrode system with variable capacitance for sensing potentials at the surface of tissue |
US6487906B1 (en) | 2000-09-18 | 2002-12-03 | Advantedge Systems Inc | Flexible film sensor system for monitoring body motion |
AU2002230578A1 (en) | 2000-10-30 | 2002-05-15 | Naval Postgraduate School | Method and apparatus for motion tracking of an articulated rigid body |
US6743982B2 (en) | 2000-11-29 | 2004-06-01 | Xerox Corporation | Stretchable interconnects using stress gradient films |
WO2002050652A2 (en) | 2000-12-18 | 2002-06-27 | Human Bionics Llc, | Method and system for initiating activity based on sensed electrophysiological data |
WO2002065904A1 (en) | 2001-02-23 | 2002-08-29 | Cordless Antistatic Research Inc. | Enhanced pickup bio-electrode |
JP2002287869A (ja) | 2001-03-26 | 2002-10-04 | System Lsi Kk | 筋電位信号の識別方式および筋電位信号を用いた入力装置 |
JP2002358149A (ja) | 2001-06-01 | 2002-12-13 | Sony Corp | ユーザ入力装置 |
USD459352S1 (en) | 2001-08-10 | 2002-06-25 | Michael C. Giovanniello | Wireless mouse wristband |
US20030051505A1 (en) | 2001-09-14 | 2003-03-20 | Robertson Catrina M. | Selectively self-adjustable jewelry item and method of making same |
US6755795B2 (en) | 2001-10-26 | 2004-06-29 | Koninklijke Philips Electronics N.V. | Selectively applied wearable medical sensors |
US6865409B2 (en) | 2001-11-07 | 2005-03-08 | Kinesense, Inc. | Surface electromyographic electrode assembly |
JP4391717B2 (ja) | 2002-01-09 | 2009-12-24 | 富士通マイクロエレクトロニクス株式会社 | コンタクタ及びその製造方法並びにコンタクト方法 |
AU2003217253A1 (en) | 2002-01-25 | 2003-09-02 | Intellipatch, Inc. | Evaluation of a patient and prediction of chronic symptoms |
JP2003220040A (ja) | 2002-01-31 | 2003-08-05 | Seiko Instruments Inc | 生体情報観測装置 |
JP2003255993A (ja) | 2002-03-04 | 2003-09-10 | Ntt Docomo Inc | 音声認識システム、音声認識方法、音声認識プログラム、音声合成システム、音声合成方法、音声合成プログラム |
CA2379268A1 (en) | 2002-03-26 | 2003-09-26 | Hans Kolpin | Skin impedance matched biopotential electrode |
US20050119701A1 (en) | 2002-03-29 | 2005-06-02 | Koninklijka Philips Electronics N.V. | Wearable monitoring system and method of manufacturing of a wearable monitoring system |
US6942621B2 (en) | 2002-07-11 | 2005-09-13 | Ge Medical Systems Information Technologies, Inc. | Method and apparatus for detecting weak physiological signals |
US6984208B2 (en) | 2002-08-01 | 2006-01-10 | The Hong Kong Polytechnic University | Method and apparatus for sensing body gesture, posture and movement |
US7409242B2 (en) | 2002-09-11 | 2008-08-05 | National Institute Of Information And Communications Technology | Active muscle display device |
DE60215504T2 (de) | 2002-10-07 | 2007-09-06 | Sony France S.A. | Verfahren und Gerät zur Analyse von Gesten eines Menschen, z.B. zur Steuerung einer Maschine durch Gestik |
KR100506084B1 (ko) | 2002-10-24 | 2005-08-05 | 삼성전자주식회사 | 경혈점 탐색 장치 및 방법 |
CA2415173A1 (en) | 2002-12-09 | 2004-06-09 | Thomas Hemmerling | Neuromuscular monitoring using phonomyography |
US7491892B2 (en) | 2003-03-28 | 2009-02-17 | Princeton University | Stretchable and elastic interconnects |
US7028507B2 (en) | 2003-04-03 | 2006-04-18 | Broadway Entertainment, Inc. | Article of jewelry |
US20040194500A1 (en) | 2003-04-03 | 2004-10-07 | Broadway Entertainment, Inc. | Article of jewelry |
US7265298B2 (en) | 2003-05-30 | 2007-09-04 | The Regents Of The University Of California | Serpentine and corduroy circuits to enhance the stretchability of a stretchable electronic device |
KR20060023149A (ko) | 2003-06-12 | 2006-03-13 | 컨트롤 바이오닉스 | 상호작용 통신 및 분석을 위한 방법, 시스템 및 소프트웨어 |
US7022919B2 (en) | 2003-06-30 | 2006-04-04 | Intel Corporation | Printed circuit board trace routing method |
US8323190B2 (en) | 2003-07-09 | 2012-12-04 | Med-Tek Llc | Comprehensive neuromuscular profiler |
EP2008581B1 (en) | 2003-08-18 | 2011-08-17 | Cardiac Pacemakers, Inc. | Patient monitoring, diagnosis, and/or therapy systems and methods |
TWI240819B (en) | 2003-08-21 | 2005-10-01 | Toppoly Optoelectronics Corp | Flexible printed circuit board (FPC) for liquid crystal display (LCD) module |
CN1838933B (zh) | 2003-08-21 | 2010-12-08 | 国立大学法人筑波大学 | 穿着式动作辅助装置、穿着式动作辅助装置的控制方法和控制用程序 |
JP4178186B2 (ja) | 2003-08-21 | 2008-11-12 | 国立大学法人 筑波大学 | 装着式動作補助装置、装着式動作補助装置の制御方法および制御用プログラム |
WO2005032447A2 (en) | 2003-08-22 | 2005-04-14 | Foster-Miller, Inc. | Physiological monitoring garment |
US7565295B1 (en) | 2003-08-28 | 2009-07-21 | The George Washington University | Method and apparatus for translating hand gestures |
US7574253B2 (en) | 2003-09-26 | 2009-08-11 | Northwestern University | Signal processing using non-linear regression with a sinusoidal model |
US20050070227A1 (en) | 2003-09-30 | 2005-03-31 | Chih-Hsiang Shen | Detecting and actuating method of bluetooth devices and a control system thereof |
US7961909B2 (en) | 2006-03-08 | 2011-06-14 | Electronic Scripting Products, Inc. | Computer interface employing a manipulated object with absolute pose detection component and a display |
USD502662S1 (en) | 2004-02-23 | 2005-03-08 | Broadway Entertainment, Inc. | Bracelet |
USD503646S1 (en) | 2004-02-23 | 2005-04-05 | Broadway Entertainment, Inc. | Bracelet |
USD502661S1 (en) | 2004-02-23 | 2005-03-08 | Broadway Entertainment, Inc. | Bracelet |
WO2005083546A1 (en) | 2004-02-27 | 2005-09-09 | Simon Richard Daniel | Wearable modular interface strap |
KR100541958B1 (ko) | 2004-04-21 | 2006-01-10 | 삼성전자주식회사 | 연성인쇄회로기판 |
US7173437B2 (en) | 2004-06-10 | 2007-02-06 | Quantum Applied Science And Research, Inc. | Garment incorporating embedded physiological sensors |
EP1782733B1 (en) | 2004-06-16 | 2019-03-13 | The University of Tokyo | Muscular strength acquiring method and device based on musculoskeletal model |
US8061160B2 (en) | 2004-08-17 | 2011-11-22 | Carissa Stinespring | Adjustable fashion mechanism |
KR100594117B1 (ko) | 2004-09-20 | 2006-06-28 | 삼성전자주식회사 | Hmd 정보 단말기에서 생체 신호를 이용하여 키를입력하는 장치 및 방법 |
KR100680023B1 (ko) | 2004-12-06 | 2007-02-07 | 한국전자통신연구원 | 생체신호를 이용한 착용형 휴대폰 입력 장치 및 그 제어방법 |
US7254516B2 (en) | 2004-12-17 | 2007-08-07 | Nike, Inc. | Multi-sensor monitoring of athletic performance |
US7901368B2 (en) | 2005-01-06 | 2011-03-08 | Braingate Co., Llc | Neurally controlled patient ambulation system |
EP1850907A4 (en) | 2005-02-09 | 2009-09-02 | Univ Southern California | METHOD AND SYSTEM FOR PRACTICING THE ADAPTIVE CONTROL OF STATE MOVEMENTS |
US8702629B2 (en) | 2005-03-17 | 2014-04-22 | Great Lakes Neuro Technologies Inc. | Movement disorder recovery system and method for continuous monitoring |
US7351975B2 (en) | 2005-03-29 | 2008-04-01 | Duke University | Sensor system for identifying and tracking movements of multiple sources |
US20070132785A1 (en) | 2005-03-29 | 2007-06-14 | Ebersole John F Jr | Platform for immersive gaming |
USD535401S1 (en) | 2005-06-21 | 2007-01-16 | Biocare Systems, Inc. | Heat and light therapy device |
US7428516B2 (en) | 2005-06-23 | 2008-09-23 | Microsoft Corporation | Handwriting recognition using neural networks |
US8190249B1 (en) | 2005-08-01 | 2012-05-29 | Infinite Biomedical Technologies, Llc | Multi-parametric quantitative analysis of bioelectrical signals |
US7086218B1 (en) | 2005-08-18 | 2006-08-08 | M & J - R & R Grosbard, Inc. | Linked ring structures |
US7725147B2 (en) | 2005-09-29 | 2010-05-25 | Nellcor Puritan Bennett Llc | System and method for removing artifacts from waveforms |
US7733224B2 (en) | 2006-06-30 | 2010-06-08 | Bao Tran | Mesh network personal emergency response appliance |
US7271774B2 (en) | 2005-10-21 | 2007-09-18 | Suunto Oy | Electronic wearable device |
US7517725B2 (en) | 2005-11-28 | 2009-04-14 | Xci, Inc. | System and method for separating and packaging integrated circuits |
US8280503B2 (en) | 2008-10-27 | 2012-10-02 | Michael Linderman | EMG measured during controlled hand movement for biometric analysis, medical diagnosis and related analysis |
US8280169B2 (en) * | 2005-12-21 | 2012-10-02 | Michael Linderman | Recordation of handwriting and hand movement using electromyography |
US7365647B2 (en) | 2005-12-23 | 2008-04-29 | Avinoam Nativ | Kinesthetic training system with composite feedback |
USD543212S1 (en) | 2006-01-04 | 2007-05-22 | Sony Computer Entertainment Inc. | Object for interfacing with a computer program |
US7809435B1 (en) | 2006-01-11 | 2010-10-05 | Iq Biolabs, Inc. | Adjustable wireless electromyography sensor and system |
JP4826459B2 (ja) | 2006-01-12 | 2011-11-30 | 株式会社豊田中央研究所 | 筋骨格モデル作成方法、人体応力/ひずみ推定方法、プログラムおよび記録媒体 |
US8762733B2 (en) | 2006-01-30 | 2014-06-24 | Adidas Ag | System and method for identity confirmation using physiologic biometrics to determine a physiologic fingerprint |
US7580742B2 (en) | 2006-02-07 | 2009-08-25 | Microsoft Corporation | Using electroencephalograph signals for task classification and activity recognition |
US7827000B2 (en) | 2006-03-03 | 2010-11-02 | Garmin Switzerland Gmbh | Method and apparatus for estimating a motion parameter |
JP4937341B2 (ja) | 2006-04-04 | 2012-05-23 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 表現ペン |
US8311623B2 (en) | 2006-04-15 | 2012-11-13 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and methods for estimating surface electromyography |
JP2009534108A (ja) | 2006-04-21 | 2009-09-24 | クァンタム・アプライド・サイエンス・アンド・リサーチ・インコーポレーテッド | 電気信号測定システム |
US7636549B2 (en) | 2006-04-21 | 2009-12-22 | Abbott Medical Optics Inc. | Automated bonding for wireless devices |
US7558622B2 (en) | 2006-05-24 | 2009-07-07 | Bao Tran | Mesh network stroke monitoring appliance |
GB2453263A (en) | 2006-05-16 | 2009-04-01 | Douglas S Greer | System and method for modeling the neocortex and uses therefor |
US7539533B2 (en) | 2006-05-16 | 2009-05-26 | Bao Tran | Mesh network monitoring appliance |
US7661068B2 (en) | 2006-06-12 | 2010-02-09 | Microsoft Corporation | Extended eraser functions |
US9405372B2 (en) | 2006-07-14 | 2016-08-02 | Ailive, Inc. | Self-contained inertial navigation system for interactive control using movable controllers |
GB0614261D0 (en) | 2006-07-18 | 2006-08-30 | Univ Sussex The | Electric Potential Sensor |
US7844310B2 (en) | 2006-07-20 | 2010-11-30 | L3 Communications Corporation | Wearable communication device with contoured back |
US7848797B2 (en) | 2006-08-17 | 2010-12-07 | Neurometrix, Inc. | Motor unit number estimation (MUNE) for the assessment of neuromuscular function |
US8437844B2 (en) | 2006-08-21 | 2013-05-07 | Holland Bloorview Kids Rehabilitation Hospital | Method, system and apparatus for real-time classification of muscle signals from self-selected intentional movements |
JP4267648B2 (ja) | 2006-08-25 | 2009-05-27 | 株式会社東芝 | インターフェース装置及びその方法 |
US8212859B2 (en) | 2006-10-13 | 2012-07-03 | Apple Inc. | Peripheral treatment for head-mounted displays |
US7885732B2 (en) | 2006-10-25 | 2011-02-08 | The Boeing Company | Systems and methods for haptics-enabled teleoperation of vehicles and other devices |
US8082149B2 (en) | 2006-10-26 | 2011-12-20 | Biosensic, Llc | Methods and apparatuses for myoelectric-based speech processing |
US20080136775A1 (en) | 2006-12-08 | 2008-06-12 | Conant Carson V | Virtual input device for computing |
US9311528B2 (en) * | 2007-01-03 | 2016-04-12 | Apple Inc. | Gesture learning |
US20090265671A1 (en) | 2008-04-21 | 2009-10-22 | Invensense | Mobile devices with motion gesture recognition |
US20080221487A1 (en) | 2007-03-07 | 2008-09-11 | Motek Bv | Method for real time interactive visualization of muscle forces and joint torques in the human body |
EP1970005B1 (en) | 2007-03-15 | 2012-10-03 | Xsens Holding B.V. | A system and a method for motion tracking using a calibration unit |
WO2008129446A1 (en) | 2007-04-24 | 2008-10-30 | Philips Intellectual Property & Standards Gmbh | Sensor arrangement and method for monitoring physiological parameters |
FR2916069B1 (fr) | 2007-05-11 | 2009-07-31 | Commissariat Energie Atomique | Procede de traitement pour la capture de mouvement d'une structure articulee |
WO2008148067A2 (en) | 2007-05-24 | 2008-12-04 | Hmicro, Inc. | An integrated wireless sensor for physiological monitoring |
US8504146B2 (en) | 2007-06-29 | 2013-08-06 | The Regents Of The University Of California | Multi-channel myoelectrical control using single muscle |
US20090007597A1 (en) | 2007-07-02 | 2009-01-08 | Hanevold Gail F | Body attached band with removal visual image pockets |
US20110172503A1 (en) | 2007-07-16 | 2011-07-14 | Sunrise Medical Hhg, Inc. | Physiological Data Collection System |
DE102007044555A1 (de) | 2007-07-18 | 2009-01-22 | Siemens Ag | Optische Koppelvorrichtung und Verfahren zu deren Herstellung |
US8726194B2 (en) * | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
JP5057070B2 (ja) | 2007-07-31 | 2012-10-24 | 株式会社エクォス・リサーチ | 心電センサー |
US7925100B2 (en) | 2007-07-31 | 2011-04-12 | Microsoft Corporation | Tiled packaging of vector image data |
US20090031757A1 (en) | 2007-08-01 | 2009-02-05 | Funki Llc | Modular toy bracelet |
JP4434247B2 (ja) | 2007-08-10 | 2010-03-17 | ソニー株式会社 | リモートコントローラ、リモートコントロールシステムおよびリモートコントロール方法 |
AU2008290211A1 (en) | 2007-08-19 | 2009-02-26 | Ringbow Ltd. | Finger-worn devices and related methods of use |
WO2009026289A2 (en) | 2007-08-20 | 2009-02-26 | Hmicro, Inc. | Wearable user interface device, system, and method of use |
JP5559691B2 (ja) * | 2007-09-24 | 2014-07-23 | クアルコム,インコーポレイテッド | 音声及びビデオ通信のための機能向上したインタフェース |
US20090082692A1 (en) | 2007-09-25 | 2009-03-26 | Hale Kelly S | System And Method For The Real-Time Evaluation Of Time-Locked Physiological Measures |
US7714757B2 (en) | 2007-09-26 | 2010-05-11 | Medtronic, Inc. | Chopper-stabilized analog-to-digital converter |
US8343079B2 (en) | 2007-10-18 | 2013-01-01 | Innovative Surgical Solutions, Llc | Neural monitoring sensor |
US8159313B2 (en) | 2007-10-22 | 2012-04-17 | D-Wave Systems Inc. | Systems, methods, and apparatus for electrical filters and input/output systems |
FI20075798A0 (fi) | 2007-11-12 | 2007-11-12 | Polar Electro Oy | Elektrodirakenne |
GB0800144D0 (en) | 2008-01-04 | 2008-02-13 | Fitzpatrick Adam P | Electrocardiographic device and method |
US8355671B2 (en) | 2008-01-04 | 2013-01-15 | Kopin Corporation | Method and apparatus for transporting video signal over Bluetooth wireless interface |
US8456425B2 (en) | 2008-01-30 | 2013-06-04 | International Business Machines Corporation | Self-adapting keypad |
US10969917B2 (en) | 2008-01-30 | 2021-04-06 | Apple Inc. | Auto scanning for multiple frequency stimulation multi-touch sensor panels |
US8344998B2 (en) | 2008-02-01 | 2013-01-01 | Wimm Labs, Inc. | Gesture-based power management of a wearable portable electronic device with display |
US9597015B2 (en) | 2008-02-12 | 2017-03-21 | Portland State University | Joint angle tracking with inertial sensors |
EP2259603B1 (en) | 2008-03-28 | 2015-04-08 | Sharp Kabushiki Kaisha | Remote operation device, device to be operated, control method for remote operation device, control method for device to be operated, and remote operation system |
US20090251407A1 (en) | 2008-04-03 | 2009-10-08 | Microsoft Corporation | Device interaction with combination of rings |
CN102067385B (zh) | 2008-05-01 | 2014-03-26 | 3M创新有限公司 | 可拉伸传导连接器 |
US20100030532A1 (en) | 2008-06-12 | 2010-02-04 | Jasbir Arora | System and methods for digital human model prediction and simulation |
JP2010000283A (ja) | 2008-06-23 | 2010-01-07 | Shimadzu Corp | リアルタイム同時計測システム、リアルタイム同時計測装置、リアルタイム同時計測方法、およびプログラム |
US8207473B2 (en) | 2008-06-24 | 2012-06-26 | Imec | Method for manufacturing a stretchable electronic device |
US8447704B2 (en) * | 2008-06-26 | 2013-05-21 | Microsoft Corporation | Recognizing gestures from forearm EMG signals |
US9037530B2 (en) | 2008-06-26 | 2015-05-19 | Microsoft Technology Licensing, Llc | Wearable electromyography-based human-computer interface |
US8170656B2 (en) | 2008-06-26 | 2012-05-01 | Microsoft Corporation | Wearable electromyography-based controllers for human-computer interface |
BRPI0915729A2 (pt) | 2008-07-07 | 2015-10-27 | Heard Sytems Pty Ltd | eletrodo para um sistema para sensorear sinais eletrofisiológicos, conjunto de eletrodo, e, sistema para sensorear sinais eletrofisiológicos. |
CN102112182A (zh) | 2008-07-29 | 2011-06-29 | 詹姆斯·B·克莱森 | 平衡训练系统 |
US8389862B2 (en) | 2008-10-07 | 2013-03-05 | Mc10, Inc. | Extremely stretchable electronics |
US9393418B2 (en) | 2011-06-03 | 2016-07-19 | Great Lakes Neuro Technologies Inc. | Movement disorder therapy system, devices and methods of tuning |
US8647287B2 (en) | 2008-12-07 | 2014-02-11 | Andrew Greenberg | Wireless synchronized movement monitoring apparatus and system |
US9439566B2 (en) | 2008-12-15 | 2016-09-13 | Proteus Digital Health, Inc. | Re-wearable wireless device |
US7870211B2 (en) | 2008-12-23 | 2011-01-11 | At&T Mobility Ii Llc | Conversation message routing supporting dynamic class transitions |
WO2010086034A1 (en) | 2009-01-30 | 2010-08-05 | Interuniversitair Microelektronica Centrum Vzw | Stretchable electronic device |
WO2010086033A1 (en) | 2009-01-30 | 2010-08-05 | Interuniversitair Microelektronica Centrum Vzw | Stretchable electronic device |
US8444564B2 (en) | 2009-02-02 | 2013-05-21 | Jointvue, Llc | Noninvasive diagnostic system |
USD661613S1 (en) | 2009-02-19 | 2012-06-12 | 1922 Manifatture Preziose Torino SpA | Jewelry |
US20100228487A1 (en) | 2009-03-05 | 2010-09-09 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Postural information system and method |
US20100249635A1 (en) | 2009-03-26 | 2010-09-30 | Cordial Medical Europe B.V. | Hearing screening system for a subject or a patient, and a method for hearing screening |
EP2236078A1 (en) | 2009-04-02 | 2010-10-06 | Koninklijke Philips Electronics N.V. | Processing a bio-physiological signal |
US8764676B2 (en) | 2009-05-07 | 2014-07-01 | Massachusetts Eye & Ear Infirmary | Signal processing in physiological noise |
US8376968B2 (en) | 2009-05-15 | 2013-02-19 | The Hong Kong Polytechnic University | Method and system for quantifying an intention of movement of a user |
US9192316B2 (en) | 2009-05-15 | 2015-11-24 | Nox Medical | Systems and methods using flexible capacitive electrodes for measuring biosignals |
US8856691B2 (en) | 2009-05-29 | 2014-10-07 | Microsoft Corporation | Gesture tool |
US20100315266A1 (en) | 2009-06-15 | 2010-12-16 | Microsoft Corporation | Predictive interfaces with usability constraints |
US8427977B2 (en) | 2009-06-23 | 2013-04-23 | CSC Holdings, LLC | Wireless network polling and data warehousing |
JP5470452B2 (ja) | 2009-06-26 | 2014-04-16 | ヴェーデクス・アクティーセルスカプ | Eegモニタリング装置およびそこにメッセージを提示する方法 |
WO2011008459A2 (en) | 2009-06-29 | 2011-01-20 | Infinite Corridor Technology, Llc | Structured material substrates for flexible, stretchable electronics |
JP5545574B2 (ja) | 2009-07-15 | 2014-07-09 | 国立大学法人 筑波大学 | 分類推定システムおよび分類推定プログラム |
CN102573620B (zh) | 2009-07-30 | 2014-10-22 | 开普敦大学 | 非介入式深层肌肉肌电描记 |
US8718980B2 (en) | 2009-09-11 | 2014-05-06 | Qualcomm Incorporated | Method and apparatus for artifacts mitigation with multiple wireless sensors |
FR2950713A1 (fr) | 2009-09-29 | 2011-04-01 | Movea Sa | Systeme et procede de reconnaissance de gestes |
US20110077484A1 (en) | 2009-09-30 | 2011-03-31 | Nellcor Puritan Bennett Ireland | Systems And Methods For Identifying Non-Corrupted Signal Segments For Use In Determining Physiological Parameters |
US9779267B2 (en) | 2009-10-07 | 2017-10-03 | F-Secure Oyj | Computer security method and apparatus |
TWI496558B (zh) | 2009-10-20 | 2015-08-21 | Tatung Co | 使用二極電極貼片量測心電圖與呼吸訊號之系統及方法 |
JP5643829B2 (ja) | 2009-10-26 | 2014-12-17 | インぺディメッド リミテッドImpedimed Limited | インピーダンス測定の分析において用いるための方法及び装置 |
US20110119216A1 (en) | 2009-11-16 | 2011-05-19 | Microsoft Corporation | Natural input trainer for gestural instruction |
US20110270135A1 (en) | 2009-11-30 | 2011-11-03 | Christopher John Dooley | Augmented reality for testing and training of human performance |
US8421634B2 (en) | 2009-12-04 | 2013-04-16 | Microsoft Corporation | Sensing mechanical energy to appropriate the body for data input |
KR101708682B1 (ko) | 2010-03-03 | 2017-02-21 | 엘지전자 주식회사 | 영상표시장치 및 그 동작 방법. |
US8620361B2 (en) | 2009-12-08 | 2013-12-31 | At&T Mobility Ii Llc | Intelligent routing of SMS and MMS messages to short codes |
US20130135223A1 (en) | 2009-12-13 | 2013-05-30 | Ringbow Ltd. | Finger-worn input devices and methods of use |
WO2011072684A1 (en) | 2009-12-16 | 2011-06-23 | Ictalcare A/S | A system for the prediction of epileptic seizures |
US20110151974A1 (en) | 2009-12-18 | 2011-06-23 | Microsoft Corporation | Gesture style recognition and reward |
US9268404B2 (en) | 2010-01-08 | 2016-02-23 | Microsoft Technology Licensing, Llc | Application gesture interpretation |
US8631355B2 (en) | 2010-01-08 | 2014-01-14 | Microsoft Corporation | Assigning gesture dictionaries |
JP5471490B2 (ja) | 2010-01-20 | 2014-04-16 | オムロンヘルスケア株式会社 | 体動検出装置 |
WO2011091856A1 (en) | 2010-02-01 | 2011-08-04 | Widex A/S | Portable eeg monitor system with wireless communication |
US8947455B2 (en) | 2010-02-22 | 2015-02-03 | Nike, Inc. | Augmented reality design system |
EP2541763B1 (en) | 2010-02-25 | 2018-12-05 | Sharp Kabushiki Kaisha | Bias circuit, lna, lnb, receiver for communication, transmitter for communication, and sensor system |
US20110213278A1 (en) | 2010-02-26 | 2011-09-01 | Apdm, Inc. | Movement monitoring system and apparatus for objective assessment of movement disorders |
CN102906623A (zh) | 2010-02-28 | 2013-01-30 | 奥斯特豪特集团有限公司 | 交互式头戴目镜上的本地广告内容 |
US20110224564A1 (en) | 2010-03-10 | 2011-09-15 | Sotera Wireless, Inc. | Body-worn vital sign monitor |
WO2011113478A1 (de) | 2010-03-16 | 2011-09-22 | Carlo Trugenberger | Authentifizierungssystem, verfahren zur authentifizierung eines objekts, vorrichtung zur erzeugung einer identifikationseinrichtung, verfahren zur erzeugung einer identifikationseinrichtung |
KR101114870B1 (ko) | 2010-03-22 | 2012-03-06 | (주)헤리트 | 지능형 led 조명 제어 시스템 및 제어 방법 |
US9341659B2 (en) | 2010-04-08 | 2016-05-17 | Disney Enterprises, Inc. | User interactive living organisms |
US20110248914A1 (en) | 2010-04-11 | 2011-10-13 | Sherr Alan B | System and Method for Virtual Touch Typing |
US9110505B2 (en) | 2010-04-16 | 2015-08-18 | Innovative Devices Inc. | Wearable motion sensing computing interface |
JP5702947B2 (ja) | 2010-04-22 | 2015-04-15 | 矢崎総業株式会社 | 配線材 |
US8384683B2 (en) | 2010-04-23 | 2013-02-26 | Tong Luo | Method for user input from the back panel of a handheld computerized device |
US8351651B2 (en) | 2010-04-26 | 2013-01-08 | Microsoft Corporation | Hand-location post-process refinement in a tracking system |
KR101130697B1 (ko) | 2010-05-07 | 2012-04-02 | 삼성전자주식회사 | 복수 층의 신축성 배선 |
WO2011150407A2 (en) | 2010-05-28 | 2011-12-01 | The Regents Of The University Of California | Cell-phone based wireless and mobile brain-machine interface |
US8588884B2 (en) | 2010-05-28 | 2013-11-19 | Emkinetics, Inc. | Microneedle electrode |
US20110313762A1 (en) | 2010-06-20 | 2011-12-22 | International Business Machines Corporation | Speech output with confidence indication |
USD643428S1 (en) | 2010-07-07 | 2011-08-16 | Iota, Inc. | Wearable mobile accessory |
US8754862B2 (en) | 2010-07-11 | 2014-06-17 | Lester F. Ludwig | Sequential classification recognition of gesture primitives and window-based parameter smoothing for high dimensional touchpad (HDTP) user interfaces |
FR2962821B1 (fr) | 2010-07-13 | 2013-02-22 | Commissariat Energie Atomique | Procede et systeme de classification de signaux neuronaux, et procede de selection d'electrodes pour commande neuronale directe. |
US20140052150A1 (en) | 2010-08-02 | 2014-02-20 | The Johns Hopkins University | Method for presenting force sensor information using cooperative robot control and audio feedback |
US20120066163A1 (en) | 2010-09-13 | 2012-03-15 | Nottingham Trent University | Time to event data analysis method and system |
WO2012040402A2 (en) | 2010-09-21 | 2012-03-29 | Somaxis Incorporated | Methods for promoting fitness in connection with electrophysiology data |
US10216893B2 (en) | 2010-09-30 | 2019-02-26 | Fitbit, Inc. | Multimode sensor devices |
US20120117514A1 (en) | 2010-11-04 | 2012-05-10 | Microsoft Corporation | Three-Dimensional User Interaction |
US20130123656A1 (en) | 2010-11-15 | 2013-05-16 | Sandy L. Heck | Control System and Apparatus Utilizing Signals Originating in the Periauricular Neuromuscular System |
US10244988B2 (en) | 2010-12-16 | 2019-04-02 | Nokia Technologies Oy | Method, apparatus and computer program of using a bio-signal profile |
US20120203076A1 (en) | 2011-02-08 | 2012-08-09 | Jean Pierre Fatta | Portable Physiological Data Monitoring Device |
KR101448106B1 (ko) | 2011-02-17 | 2014-10-08 | 주식회사 라이프사이언스테크놀로지 | 무구속 근전도 신호를 이용한 재활상태 분석방법 |
KR101206280B1 (ko) | 2011-02-28 | 2012-11-29 | (주)락싸 | 전기적 비접촉 전위 센서 회로 |
USD646192S1 (en) | 2011-03-11 | 2011-10-04 | Jamie Renae Woode | Bracelet |
US20120265090A1 (en) | 2011-04-13 | 2012-10-18 | Fink Rainer J | System and method of acquiring uterine emg signals and wirelessly transmitting the same |
WO2012155157A1 (en) | 2011-05-06 | 2012-11-15 | Azoteq (Pty) Ltd | Multiple media capacitive sensor |
MY167168A (en) | 2011-05-20 | 2018-08-13 | Univ Nanyang Tech | Systems, apparatuses, devices, and processes for synergistic neuro-physiological rehabilitation and/or functional development |
US9330499B2 (en) | 2011-05-20 | 2016-05-03 | Microsoft Technology Licensing, Llc | Event augmentation with real-time information |
US8203502B1 (en) | 2011-05-25 | 2012-06-19 | Google Inc. | Wearable heads-up display with integrated finger-tracking input sensor |
US9018532B2 (en) | 2011-06-09 | 2015-04-28 | Multi-Fineline Electronix, Inc. | Stretchable circuit assemblies |
US9921641B1 (en) | 2011-06-10 | 2018-03-20 | Amazon Technologies, Inc. | User/object interactions in an augmented reality environment |
US20130198694A1 (en) | 2011-06-10 | 2013-08-01 | Aliphcom | Determinative processes for wearable devices |
US8879276B2 (en) | 2011-06-15 | 2014-11-04 | Power Gold LLC | Flexible circuit assembly and method thereof |
EP2721582A4 (en) | 2011-06-20 | 2015-03-25 | Nokia Corp | METHODS, DEVICES AND COMPUTER PROGRAM PRODUCTS FOR IMPLEMENTING DETAILED POSITION PROVISIONS OF OBJECTS |
US9089270B2 (en) | 2011-06-29 | 2015-07-28 | Lg Electronics Inc. | Terminal and control method thereof |
US8179604B1 (en) | 2011-07-13 | 2012-05-15 | Google Inc. | Wearable marker for passive interaction |
US9128521B2 (en) | 2011-07-13 | 2015-09-08 | Lumo Bodytech, Inc. | System and method of biomechanical posture detection and feedback including sensor normalization |
US9015245B1 (en) | 2011-07-20 | 2015-04-21 | Google Inc. | Experience sharing with commenting |
US9123155B2 (en) | 2011-08-09 | 2015-09-01 | Covidien Lp | Apparatus and method for using augmented reality vision system in surgical procedures |
US9707393B2 (en) | 2011-08-26 | 2017-07-18 | National Yunlin University Of Science And Technology | Feedback-control wearable upper-limb electrical stimulation device |
USD654622S1 (en) | 2011-09-15 | 2012-02-21 | Shih-Ling Hsu | Hair band |
WO2013093906A1 (en) * | 2011-09-19 | 2013-06-27 | Eyesight Mobile Technologies Ltd. | Touch free interface for augmented reality systems |
US20130080794A1 (en) | 2011-09-24 | 2013-03-28 | Jawbone Industrial Co., Ltd. | Wireless controller with universal serial bus and system having the same |
US20130077820A1 (en) | 2011-09-26 | 2013-03-28 | Microsoft Corporation | Machine learning gesture detection |
US20130271292A1 (en) | 2011-10-09 | 2013-10-17 | James Andrew McDermott | Driver Alert and Monitoring System |
FR2981561B1 (fr) | 2011-10-21 | 2015-03-20 | Commissariat Energie Atomique | Procede de detection d'activite a capteur de mouvements, dispositif et programme d'ordinateur correspondants |
US8467270B2 (en) | 2011-10-26 | 2013-06-18 | Google Inc. | Smart-watch with user interface features |
US20130106686A1 (en) | 2011-10-31 | 2013-05-02 | Broadcom Corporation | Gesture processing framework |
ITTO20111024A1 (it) | 2011-11-08 | 2013-05-09 | Bitron Spa | Dispositivo di misura per segnali elettromiografici ad alta risoluzione e elevato numero di canali. |
US10176299B2 (en) | 2011-11-11 | 2019-01-08 | Rutgers, The State University Of New Jersey | Methods for the diagnosis and treatment of neurological disorders |
US8704882B2 (en) | 2011-11-18 | 2014-04-22 | L-3 Communications Corporation | Simulated head mounted display system and method |
US9152376B2 (en) | 2011-12-01 | 2015-10-06 | At&T Intellectual Property I, L.P. | System and method for continuous multimodal speech and gesture interaction |
US10430066B2 (en) | 2011-12-06 | 2019-10-01 | Nri R&D Patent Licensing, Llc | Gesteme (gesture primitive) recognition for advanced touch user interfaces |
TWI446896B (zh) | 2011-12-23 | 2014-08-01 | Ind Tech Res Inst | 肌能參數感測器 |
EP2613223A1 (en) * | 2012-01-09 | 2013-07-10 | Softkinetic Software | System and method for enhanced gesture-based interaction |
US8971023B2 (en) | 2012-03-21 | 2015-03-03 | Google Inc. | Wearable computing device frame |
US20130191741A1 (en) | 2012-01-24 | 2013-07-25 | Motorola Mobility, Inc. | Methods and Apparatus for Providing Feedback from an Electronic Device |
US10188307B2 (en) | 2012-02-23 | 2019-01-29 | Bio-Signal Group Corp. | Shielded multi-channel EEG headset systems and methods |
US8970571B1 (en) | 2012-03-13 | 2015-03-03 | Google Inc. | Apparatus and method for display lighting adjustment |
US8922481B1 (en) | 2012-03-16 | 2014-12-30 | Google Inc. | Content annotation |
USD682728S1 (en) | 2012-03-27 | 2013-05-21 | Bulgari S.P.A. | Ring |
ITMI20120494A1 (it) | 2012-03-27 | 2013-09-28 | B10Nix S R L | Apparato e metodo per l'acquisizione ed analisi di una attivita' muscolare |
JP2013206273A (ja) | 2012-03-29 | 2013-10-07 | Sony Corp | 情報処理装置、情報処理方法、および情報処理システム |
US10448161B2 (en) | 2012-04-02 | 2019-10-15 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for gestural manipulation of a sound field |
WO2013151770A1 (en) | 2012-04-03 | 2013-10-10 | Carnegie Mellon University | Musculoskeletal activity recognition system and method |
US9170674B2 (en) | 2012-04-09 | 2015-10-27 | Qualcomm Incorporated | Gesture-based device control using pressure-sensitive sensors |
US8994672B2 (en) | 2012-04-09 | 2015-03-31 | Sony Corporation | Content transfer via skin input |
US9221177B2 (en) | 2012-04-18 | 2015-12-29 | Massachusetts Institute Of Technology | Neuromuscular model-based sensing and control paradigm for a robotic leg |
US20130285916A1 (en) | 2012-04-30 | 2013-10-31 | Research In Motion Limited | Touchscreen keyboard providing word predictions at locations in association with candidate letters |
US20130297460A1 (en) | 2012-05-01 | 2013-11-07 | Zambala Lllp | System and method for facilitating transactions of a physical product or real life service via an augmented reality environment |
US9538940B2 (en) | 2012-05-03 | 2017-01-10 | University of Pittsburgh—of the Commonwealth System of Higher Education | Intelligent algorithms for tracking three-dimensional skeletal movement from radiographic image sequences |
USD716457S1 (en) | 2012-05-23 | 2014-10-28 | Neurometrix, Inc. | Transcutaneous electrical nerve stimulation device |
US9278453B2 (en) | 2012-05-25 | 2016-03-08 | California Institute Of Technology | Biosleeve human-machine interface |
US9867548B2 (en) | 2012-05-25 | 2018-01-16 | Emotiv, Inc. | System and method for providing and aggregating biosignals and action data |
US20130332196A1 (en) | 2012-06-07 | 2013-12-12 | The Government Of The United States As Represented By The Secretary Of The Army | Diabetes Monitoring Using Smart Device |
US9891718B2 (en) | 2015-04-22 | 2018-02-13 | Medibotics Llc | Devices for measuring finger motion and recognizing hand gestures |
US9814426B2 (en) | 2012-06-14 | 2017-11-14 | Medibotics Llc | Mobile wearable electromagnetic brain activity monitor |
US9582072B2 (en) | 2013-09-17 | 2017-02-28 | Medibotics Llc | Motion recognition clothing [TM] with flexible electromagnetic, light, or sonic energy pathways |
US10921886B2 (en) * | 2012-06-14 | 2021-02-16 | Medibotics Llc | Circumferential array of electromyographic (EMG) sensors |
US9536449B2 (en) | 2013-05-23 | 2017-01-03 | Medibotics Llc | Smart watch and food utensil for monitoring food consumption |
US20150366504A1 (en) | 2014-06-20 | 2015-12-24 | Medibotics Llc | Electromyographic Clothing |
US8954135B2 (en) | 2012-06-22 | 2015-02-10 | Fitbit, Inc. | Portable biometric monitoring devices and methods of operating same |
US9615447B2 (en) | 2012-07-23 | 2017-04-04 | Zhuhai Advanced Chip Carriers & Electronic Substrate Solutions Technologies Co. Ltd. | Multilayer electronic support structure with integral constructional elements |
US8484022B1 (en) | 2012-07-27 | 2013-07-09 | Google Inc. | Adaptive auto-encoders |
EP2698686B1 (en) | 2012-07-27 | 2018-10-10 | LG Electronics Inc. | Wrist-wearable terminal and control method thereof |
US20150182165A1 (en) | 2012-08-03 | 2015-07-02 | Neurotopia, Inc. | Neurophysiological training headset |
US20140045463A1 (en) | 2012-08-10 | 2014-02-13 | Silverplus, Inc. | Wearable Communication Device |
TWD152714S (zh) | 2012-08-15 | 2013-04-01 | 昆盈企業股份有限公司 | 套戴式滑鼠 |
US20140049417A1 (en) | 2012-08-20 | 2014-02-20 | Playtabase, LLC | Wireless motion activated command transfer device, system, and method |
WO2014033306A1 (en) | 2012-09-03 | 2014-03-06 | SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH | Head mounted system and method to compute and render a stream of digital images using a head mounted system |
US8895865B2 (en) | 2012-09-07 | 2014-11-25 | Conor P. Lenahan | Conductive connections allowing XYZ translation |
US9211417B2 (en) | 2012-09-10 | 2015-12-15 | Great Lakes Neurotechnologies Inc | Movement disorder therapy system, devices and methods, and intelligent methods of tuning |
US10606353B2 (en) | 2012-09-14 | 2020-03-31 | Interaxon Inc. | Systems and methods for collecting, analyzing, and sharing bio-signal and non-bio-signal data |
US20170277282A1 (en) | 2012-09-14 | 2017-09-28 | Widevantage Inc. | Input device for transmitting user input |
US10824310B2 (en) | 2012-12-20 | 2020-11-03 | Sri International | Augmented reality virtual personal assistant for external representation |
CN203252647U (zh) | 2012-09-29 | 2013-10-30 | 艾利佛公司 | 用于判定生理特征的可佩带的设备 |
US10234941B2 (en) | 2012-10-04 | 2019-03-19 | Microsoft Technology Licensing, Llc | Wearable sensor for tracking articulated body-parts |
US10413251B2 (en) | 2012-10-07 | 2019-09-17 | Rhythm Diagnostic Systems, Inc. | Wearable cardiac monitor |
US9563740B2 (en) | 2012-10-16 | 2017-02-07 | The Florida International University Board Of Trustees | Neural interface activity simulator |
USD695454S1 (en) | 2012-10-24 | 2013-12-10 | Patricia Lynn Moore | Hair holding device |
EP2911576B1 (en) | 2012-10-26 | 2021-12-22 | NIKE Innovate C.V. | Athletic performance monitoring system utilizing heart rate information |
KR102043703B1 (ko) | 2012-11-12 | 2019-11-12 | 한국전자통신연구원 | 신축성 박막트랜지스터의 제조방법 |
US9477313B2 (en) | 2012-11-20 | 2016-10-25 | Samsung Electronics Co., Ltd. | User gesture input to wearable electronic device involving outward-facing sensor of device |
US9182826B2 (en) | 2012-11-21 | 2015-11-10 | Intel Corporation | Gesture-augmented speech recognition |
US8743052B1 (en) | 2012-11-24 | 2014-06-03 | Eric Jeffrey Keller | Computing interface system |
US9892655B2 (en) | 2012-11-28 | 2018-02-13 | Judy Sibille SNOW | Method to provide feedback to a physical therapy patient or athlete |
US9351653B1 (en) | 2012-11-29 | 2016-05-31 | Intan Technologies, LLC | Multi-channel reconfigurable systems and methods for sensing biopotential signals |
US10009644B2 (en) | 2012-12-04 | 2018-06-26 | Interaxon Inc | System and method for enhancing content using brain-state data |
US9042829B2 (en) | 2013-01-04 | 2015-05-26 | Nokia Corporation | Method, apparatus, and computer program product for wireless short-range communication |
US20140196131A1 (en) | 2013-01-07 | 2014-07-10 | Salutron, Inc. | User authentication based on a wrist vein pattern |
US10528135B2 (en) | 2013-01-14 | 2020-01-07 | Ctrl-Labs Corporation | Wearable muscle interface systems, devices and methods that interact with content displayed on an electronic display |
US9092664B2 (en) | 2013-01-14 | 2015-07-28 | Qualcomm Incorporated | Use of EMG for subtle gesture recognition on surfaces |
US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
US10610737B1 (en) | 2013-01-22 | 2020-04-07 | Bruce Scott Crawford | System and method for using video-synchronized electromyography to improve neuromuscular performance of a target muscle |
US9791921B2 (en) | 2013-02-19 | 2017-10-17 | Microsoft Technology Licensing, Llc | Context-aware augmented reality object commands |
US9211073B2 (en) | 2013-02-20 | 2015-12-15 | Tosense, Inc. | Necklace-shaped physiological monitor |
US9299248B2 (en) * | 2013-02-22 | 2016-03-29 | Thalmic Labs Inc. | Method and apparatus for analyzing capacitive EMG and IMU sensor signals for gesture control |
US20140245200A1 (en) | 2013-02-25 | 2014-08-28 | Leap Motion, Inc. | Display control with gesture-selectable control paradigms |
US20140249397A1 (en) | 2013-03-01 | 2014-09-04 | Thalmic Labs Inc. | Differential non-contact biopotential sensor |
US20140257141A1 (en) | 2013-03-05 | 2014-09-11 | Great Lakes Neurotechnologies Inc. | Movement disorder monitoring and symptom quantification system and method |
US20150182113A1 (en) | 2013-12-31 | 2015-07-02 | Aliphcom | Real-time fatigue, personal effectiveness, injury risk device(s) |
US20140285326A1 (en) | 2013-03-15 | 2014-09-25 | Aliphcom | Combination speaker and light source responsive to state(s) of an organism based on sensor data |
US20140334653A1 (en) | 2013-03-14 | 2014-11-13 | Aliphcom | Combination speaker and light source responsive to state(s) of an organism based on sensor data |
US9766709B2 (en) | 2013-03-15 | 2017-09-19 | Leap Motion, Inc. | Dynamic user interactions for display control |
US9361411B2 (en) | 2013-03-15 | 2016-06-07 | Honeywell International, Inc. | System and method for selecting a respirator |
US9495389B2 (en) | 2013-03-15 | 2016-11-15 | Qualcomm Incorporated | Client-server based dynamic search |
US20140277622A1 (en) * | 2013-03-15 | 2014-09-18 | First Principles, Inc. | System and method for bio-signal control of an electronic device |
US9436287B2 (en) | 2013-03-15 | 2016-09-06 | Qualcomm Incorporated | Systems and methods for switching processing modes using gestures |
US9146730B2 (en) | 2013-03-15 | 2015-09-29 | Netgear, Inc. | System and method for remotely updating cable modem software |
JP5900393B2 (ja) | 2013-03-21 | 2016-04-06 | ソニー株式会社 | 情報処理装置、操作制御方法及びプログラム |
IN2013MU01148A (zh) | 2013-03-26 | 2015-04-24 | Tata Consultancy Services Ltd | |
US20140299362A1 (en) | 2013-04-04 | 2014-10-09 | Electronics And Telecommunications Research Institute | Stretchable electric device and manufacturing method thereof |
US10620709B2 (en) | 2013-04-05 | 2020-04-14 | Ultrahaptics IP Two Limited | Customized gesture interpretation |
US9717440B2 (en) | 2013-05-03 | 2017-08-01 | The Florida International University Board Of Trustees | Systems and methods for decoding intended motor commands from recorded neural signals for the control of external devices or to interact in virtual environments |
KR102043200B1 (ko) | 2013-05-07 | 2019-11-11 | 엘지전자 주식회사 | 스마트 워치 및 제어 방법 |
US9582317B2 (en) | 2013-05-10 | 2017-02-28 | Samsung Electronics Co., Ltd. | Method of using use log of portable terminal and apparatus using the same |
WO2014186370A1 (en) | 2013-05-13 | 2014-11-20 | Thalmic Labs Inc. | Systems, articles and methods for wearable electronic devices that accommodate different user forms |
US9706647B2 (en) | 2013-05-14 | 2017-07-11 | Mc10, Inc. | Conformal electronics including nested serpentine interconnects |
US10314506B2 (en) | 2013-05-15 | 2019-06-11 | Polar Electro Oy | Heart activity sensor structure |
USD750623S1 (en) | 2013-05-16 | 2016-03-01 | Samsung Electronics Co., Ltd. | Smart watch |
USD741855S1 (en) | 2013-05-16 | 2015-10-27 | Samsung Electronics Co., Ltd. | Smart watch |
US10620775B2 (en) | 2013-05-17 | 2020-04-14 | Ultrahaptics IP Two Limited | Dynamic interactive objects |
US9645652B2 (en) | 2013-05-28 | 2017-05-09 | The Boeing Company | Ubiquitous natural user system for human-machine interaction |
US9904356B2 (en) | 2013-05-28 | 2018-02-27 | The Boeing Company | Tracking a user to support tasks performed on complex-system components |
US9395810B2 (en) | 2013-05-28 | 2016-07-19 | The Boeing Company | Ubiquitous natural user system |
US9218574B2 (en) | 2013-05-29 | 2015-12-22 | Purepredictive, Inc. | User interface for machine learning |
JP6466420B2 (ja) | 2013-05-31 | 2019-02-06 | プレジデント アンド フェローズ オブ ハーバード カレッジ | 人間動作を補助するための軟性外骨格スーツ |
KR101933921B1 (ko) | 2013-06-03 | 2018-12-31 | 삼성전자주식회사 | 포즈 추정 방법 및 장치 |
WO2015047462A2 (en) | 2013-06-03 | 2015-04-02 | The Regents Of The University Of California | Artifact removal techniques with signal reconstruction |
EP3003149A4 (en) | 2013-06-03 | 2017-06-14 | Kacyvenski, Isaiah | Motion sensor and analysis |
US9383819B2 (en) | 2013-06-03 | 2016-07-05 | Daqri, Llc | Manipulation of virtual object in augmented reality via intent |
US11083402B2 (en) | 2013-06-04 | 2021-08-10 | Medtronic, Inc. | Patient state determination based on one or more spectral characteristics of a bioelectrical brain signal |
SG11201509901VA (en) * | 2013-06-06 | 2016-01-28 | Tricord Holdings L L C | Modular physiologic monitoring systems, kits, and methods |
KR101501661B1 (ko) | 2013-06-10 | 2015-03-12 | 한국과학기술연구원 | 착용형 근전도 센서 시스템 |
WO2014204330A1 (en) | 2013-06-17 | 2014-12-24 | 3Divi Company | Methods and systems for determining 6dof location and orientation of head-mounted display and associated user movements |
KR102131358B1 (ko) | 2013-06-17 | 2020-07-07 | 삼성전자주식회사 | 유저 인터페이스 장치 및 유저 인터페이스 장치의 동작 방법 |
KR102170321B1 (ko) * | 2013-06-17 | 2020-10-26 | 삼성전자주식회사 | 파지된 물체를 이용한 모션을 인식하는 장치 및 방법, 시스템 |
US20140376773A1 (en) | 2013-06-21 | 2014-12-25 | Leap Motion, Inc. | Tunable operational parameters in motion-capture and touchless interface operation |
KR20160022375A (ko) | 2013-06-21 | 2016-02-29 | 엠씨10, 인크 | 정합성 전자기기를 구비한 밴드 |
US10402517B2 (en) | 2013-06-26 | 2019-09-03 | Dassault Systémes Simulia Corp. | Musculo-skeletal modeling using finite element analysis, process integration, and design optimization |
US9146618B2 (en) | 2013-06-28 | 2015-09-29 | Google Inc. | Unlocking a head mounted device |
US10408613B2 (en) | 2013-07-12 | 2019-09-10 | Magic Leap, Inc. | Method and system for rendering virtual content |
US9408316B2 (en) | 2013-07-22 | 2016-08-02 | Thalmic Labs Inc. | Systems, articles and methods for strain mitigation in wearable electronic devices |
US20150029092A1 (en) | 2013-07-23 | 2015-01-29 | Leap Motion, Inc. | Systems and methods of interpreting complex gestures |
US20150057770A1 (en) | 2013-08-23 | 2015-02-26 | Thaimic Labs Inc. | Systems, articles, and methods for human-electronics interfaces |
US10042422B2 (en) | 2013-11-12 | 2018-08-07 | Thalmic Labs Inc. | Systems, articles, and methods for capacitive electromyography sensors |
US11426123B2 (en) | 2013-08-16 | 2022-08-30 | Meta Platforms Technologies, Llc | Systems, articles and methods for signal routing in wearable electronic devices that detect muscle activity of a user using a set of discrete and separately enclosed pod structures |
US20150124566A1 (en) | 2013-10-04 | 2015-05-07 | Thalmic Labs Inc. | Systems, articles and methods for wearable electronic devices employing contact sensors |
US9788789B2 (en) | 2013-08-30 | 2017-10-17 | Thalmic Labs Inc. | Systems, articles, and methods for stretchable printed circuit boards |
US9976867B2 (en) | 2013-09-04 | 2018-05-22 | Essilor International | Navigation method based on a see-through head-mounted device |
CN105309056B (zh) | 2013-09-06 | 2018-04-03 | 株式会社村田制作所 | 多层基板 |
US9372535B2 (en) | 2013-09-06 | 2016-06-21 | Thalmic Labs Inc. | Systems, articles, and methods for electromyography-based human-electronics interfaces |
US9483123B2 (en) | 2013-09-23 | 2016-11-01 | Thalmic Labs Inc. | Systems, articles, and methods for gesture identification in wearable electromyography devices |
US20160235323A1 (en) | 2013-09-25 | 2016-08-18 | Mindmaze Sa | Physiological parameter measurement and feedback system |
US10048761B2 (en) | 2013-09-30 | 2018-08-14 | Qualcomm Incorporated | Classification of gesture detection systems through use of known and yet to be worn sensors |
US10405786B2 (en) | 2013-10-09 | 2019-09-10 | Nedim T. SAHIN | Systems, environment and methods for evaluation and management of autism spectrum disorder using a wearable data collection device |
KR101839257B1 (ko) | 2013-10-14 | 2018-03-15 | 나이키 이노베이트 씨.브이. | 운동 움직임 속성으로부터의 페이스 및 에너지 지출의 계산 |
US9389694B2 (en) | 2013-10-22 | 2016-07-12 | Thalmic Labs Inc. | Systems, articles, and methods for gesture identification in wearable electromyography devices |
CN103777752A (zh) | 2013-11-02 | 2014-05-07 | 上海威璞电子科技有限公司 | 基于手臂肌肉电流检测和运动传感器的手势识别设备 |
GB2519987B (en) | 2013-11-04 | 2021-03-03 | Imperial College Innovations Ltd | Biomechanical activity monitoring |
US9594433B2 (en) | 2013-11-05 | 2017-03-14 | At&T Intellectual Property I, L.P. | Gesture-based controls via bone conduction |
US10676083B1 (en) | 2013-11-13 | 2020-06-09 | Hrl Laboratories, Llc | System and method for prediction of occupant motor response in accidents |
WO2015073713A1 (en) | 2013-11-13 | 2015-05-21 | Hrl Laboratories, Llc | System for controlling brain machine interfaces and neural prosthetic systems |
WO2015081113A1 (en) | 2013-11-27 | 2015-06-04 | Cezar Morun | Systems, articles, and methods for electromyography sensors |
US20150157944A1 (en) | 2013-12-06 | 2015-06-11 | Glenn I. Gottlieb | Software Application for Generating a Virtual Simulation for a Sport-Related Activity |
US9367086B2 (en) | 2013-12-10 | 2016-06-14 | Atmel Corporation | Smart watch with adaptive touch screen |
US9367139B2 (en) | 2013-12-12 | 2016-06-14 | Thalmic Labs Inc. | Systems, articles, and methods for gesture identification in wearable electromyography devices |
US9971412B2 (en) | 2013-12-20 | 2018-05-15 | Lenovo (Singapore) Pte. Ltd. | Enabling device features according to gesture input |
US9640181B2 (en) | 2013-12-27 | 2017-05-02 | Kopin Corporation | Text editing with gesture control and natural speech |
USD751065S1 (en) | 2013-12-28 | 2016-03-08 | Intel Corporation | Wearable computing device |
KR20150077684A (ko) | 2013-12-30 | 2015-07-08 | 삼성전자주식회사 | 생체 신호 기반 기능 운용 방법 및 이를 지원하는 전자 장치 |
US20150182130A1 (en) | 2013-12-31 | 2015-07-02 | Aliphcom | True resting heart rate |
US9659403B1 (en) | 2014-01-06 | 2017-05-23 | Leap Motion, Inc. | Initializing orientation in space for predictive information for free space gesture control and communication |
US9600925B2 (en) | 2014-01-06 | 2017-03-21 | Oculus Vr, Llc | Calibration of multiple rigid bodies in a virtual reality system |
US9613262B2 (en) | 2014-01-15 | 2017-04-04 | Leap Motion, Inc. | Object detection and tracking for providing a virtual device experience |
EP3104737A4 (en) | 2014-02-14 | 2017-10-11 | Thalmic Labs Inc. | Systems, articles, and methods for elastic electrical cables and wearable electronic devices employing same |
TWI596994B (zh) | 2014-02-20 | 2017-08-21 | Tear-resistant structure of the flexible circuit board | |
US20150242009A1 (en) | 2014-02-26 | 2015-08-27 | Qeexo, Co. | Using Capacitive Images for Touch Type Classification |
WO2015131157A1 (en) | 2014-02-28 | 2015-09-03 | Vikas Gupta | Gesture operated wrist mounted camera system |
USD751068S1 (en) | 2014-03-07 | 2016-03-08 | Sony Mobile Communications Ab | Display portion of watch shaped communications equipment |
US10613642B2 (en) | 2014-03-12 | 2020-04-07 | Microsoft Technology Licensing, Llc | Gesture parameter tuning |
US9649558B2 (en) | 2014-03-14 | 2017-05-16 | Sony Interactive Entertainment Inc. | Gaming device with rotatably placed cameras |
US20150261306A1 (en) | 2014-03-17 | 2015-09-17 | Thalmic Labs Inc. | Systems, devices, and methods for selecting between multiple wireless connections |
USD736664S1 (en) | 2014-03-18 | 2015-08-18 | Google Technology Holdings LLC | Wrist band for an electronic device |
US10520378B1 (en) | 2014-03-20 | 2019-12-31 | Invent.Ly, Llc | Wearable user input device and sensors system to detect injury |
US10327670B2 (en) | 2014-03-26 | 2019-06-25 | GestureLogic Inc. | Systems, methods and devices for exercise and activity metric computation |
US10199008B2 (en) | 2014-03-27 | 2019-02-05 | North Inc. | Systems, devices, and methods for wearable electronic devices as state machines |
US10409382B2 (en) | 2014-04-03 | 2019-09-10 | Honda Motor Co., Ltd. | Smart tutorial for gesture control system |
TWD165563S (zh) | 2014-04-08 | 2015-01-21 | 緯創資通股份有限公司 | 穿戴式電子裝置之部分 |
US9149938B1 (en) | 2014-04-11 | 2015-10-06 | Harris Corporation | Robotic exoskeleton with adaptive viscous user coupling |
US20150296553A1 (en) | 2014-04-11 | 2015-10-15 | Thalmic Labs Inc. | Systems, devices, and methods that establish proximity-based wireless connections |
US9858391B2 (en) | 2014-04-17 | 2018-01-02 | The Boeing Company | Method and system for tuning a musculoskeletal model |
US9402582B1 (en) | 2014-04-21 | 2016-08-02 | Verily Life Sciences Llc | Smart surgical glove |
US10845982B2 (en) | 2014-04-28 | 2020-11-24 | Facebook, Inc. | Providing intelligent transcriptions of sound messages in a messaging application |
WO2015164951A1 (en) | 2014-05-01 | 2015-11-05 | Abbas Mohamad | Methods and systems relating to personalized evolving avatars |
US20150323998A1 (en) * | 2014-05-06 | 2015-11-12 | Qualcomm Incorporated | Enhanced user interface for a wearable electronic device |
US20150325202A1 (en) | 2014-05-07 | 2015-11-12 | Thalmic Labs Inc. | Systems, devices, and methods for wearable computers with heads-up displays |
WO2015175364A1 (en) | 2014-05-12 | 2015-11-19 | Commscope Technologies Llc | Remote radio heads having wireless jumper connections and related equipment, systems and methods |
US9785247B1 (en) | 2014-05-14 | 2017-10-10 | Leap Motion, Inc. | Systems and methods of tracking moving hands and recognizing gestural interactions |
KR101666399B1 (ko) | 2014-05-15 | 2016-10-14 | 한국과학기술연구원 | 다중 채널 표면 근전도에서의 신체 관절 운동학 정보 추출 방법, 이를 수행하기 위한 기록 매체 및 장치 |
USD717685S1 (en) | 2014-05-15 | 2014-11-18 | Thalmic Labs Inc. | Expandable armband |
USD756359S1 (en) | 2014-05-15 | 2016-05-17 | Thalmic Labs Inc. | Expandable armband device |
US9741169B1 (en) | 2014-05-20 | 2017-08-22 | Leap Motion, Inc. | Wearable augmented reality devices with object detection and tracking |
US10782657B2 (en) | 2014-05-27 | 2020-09-22 | Ultrahaptics IP Two Limited | Systems and methods of gestural interaction in a pervasive computing environment |
CN105320248B (zh) | 2014-06-03 | 2018-12-07 | 深圳Tcl新技术有限公司 | 空中手势输入方法及装置 |
US9329694B2 (en) | 2014-06-06 | 2016-05-03 | Google Technology Holdings LLC | Preemptive machine learning-based gesture recognition |
US9977505B2 (en) | 2014-06-06 | 2018-05-22 | International Business Machines Corporation | Controlling inadvertent inputs to a mobile device |
AU2015274283B2 (en) | 2014-06-14 | 2020-09-10 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
JP6362444B2 (ja) | 2014-06-16 | 2018-07-25 | 日本メクトロン株式会社 | フレキシブルプリント基板およびフレキシブルプリント基板の製造方法 |
US9880632B2 (en) | 2014-06-19 | 2018-01-30 | Thalmic Labs Inc. | Systems, devices, and methods for gesture identification |
US10216274B2 (en) | 2014-06-23 | 2019-02-26 | North Inc. | Systems, articles, and methods for wearable human-electronics interface devices |
WO2015199747A1 (en) | 2014-06-23 | 2015-12-30 | Thalmic Labs Inc. | Systems, articles, and methods for wearable human-electronics interface devices |
US20150379770A1 (en) | 2014-06-27 | 2015-12-31 | David C. Haley, JR. | Digital action in response to object interaction |
US9552069B2 (en) | 2014-07-11 | 2017-01-24 | Microsoft Technology Licensing, Llc | 3D gesture recognition |
WO2016012865A2 (en) | 2014-07-23 | 2016-01-28 | Yonatan Wexler | Wearable apparatus and methods for processing image data |
US20160050037A1 (en) | 2014-08-12 | 2016-02-18 | Valcom, Inc. | Emergency alert notification device, system, and method |
US9734704B2 (en) | 2014-08-12 | 2017-08-15 | Dominick S. LEE | Wireless gauntlet for electronic control |
US20160071319A1 (en) | 2014-09-09 | 2016-03-10 | Schneider Electric It Corporation | Method to use augumented reality to function as hmi display |
WO2016041088A1 (en) | 2014-09-19 | 2016-03-24 | Sulon Technologies Inc. | System and method for tracking wearable peripherals in augmented reality and virtual reality applications |
US9811555B2 (en) | 2014-09-27 | 2017-11-07 | Intel Corporation | Recognition of free-form gestures from orientation tracking of a handheld or wearable device |
US10783900B2 (en) | 2014-10-03 | 2020-09-22 | Google Llc | Convolutional, long short-term memory, fully connected deep neural networks |
CN105573536B (zh) * | 2014-10-16 | 2018-09-07 | 华为技术有限公司 | 触控交互的处理方法、装置和系统 |
WO2016065020A2 (en) | 2014-10-21 | 2016-04-28 | Robert Bosch Gmbh | Method and system for automation of response selection and composition in dialog systems |
JP6415592B2 (ja) | 2014-11-12 | 2018-10-31 | 京セラ株式会社 | ウェアラブル装置 |
US9807221B2 (en) | 2014-11-28 | 2017-10-31 | Thalmic Labs Inc. | Systems, devices, and methods effected in response to establishing and/or terminating a physical communications link |
KR20160071732A (ko) | 2014-12-12 | 2016-06-22 | 삼성전자주식회사 | 음성 입력을 처리하는 방법 및 장치 |
EP3234731B1 (en) | 2014-12-16 | 2020-07-01 | Somatix Inc. | Methods and systems for monitoring and influencing gesture-based behaviors |
USD743963S1 (en) | 2014-12-22 | 2015-11-24 | Osterhout Group, Inc. | Air mouse |
US9612661B2 (en) | 2015-01-02 | 2017-04-04 | Wearable Devices Ltd. | Closed loop feedback interface for wearable devices |
US9720515B2 (en) | 2015-01-02 | 2017-08-01 | Wearable Devices Ltd. | Method and apparatus for a gesture controlled interface for wearable devices |
US10362944B2 (en) | 2015-01-19 | 2019-07-30 | Samsung Electronics Company, Ltd. | Optical detection and analysis of internal body tissues |
US9852546B2 (en) | 2015-01-28 | 2017-12-26 | CCP hf. | Method and system for receiving gesture input via virtual control objects |
US9696795B2 (en) | 2015-02-13 | 2017-07-04 | Leap Motion, Inc. | Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments |
WO2016132371A1 (en) | 2015-02-22 | 2016-08-25 | Technion Research & Development Foundation Limited | Gesture recognition using multi-sensory data |
EP3064130A1 (en) | 2015-03-02 | 2016-09-07 | MindMaze SA | Brain activity measurement and feedback system |
US10599216B2 (en) | 2015-03-02 | 2020-03-24 | Tap Systems Inc. | Arbitrary surface and finger position keyboard |
US10124210B2 (en) | 2015-03-13 | 2018-11-13 | KO Luxembourg SARL | Systems and methods for qualitative assessment of sports performance |
GB201504362D0 (en) * | 2015-03-16 | 2015-04-29 | Elliptic Laboratories As | Touchless user interfaces for electronic devices |
US20160274758A1 (en) | 2015-03-20 | 2016-09-22 | Thalmic Labs Inc. | Systems, devices, and methods for mitigating false positives in human-electronics interfaces |
US20160282947A1 (en) | 2015-03-26 | 2016-09-29 | Lenovo (Singapore) Pte. Ltd. | Controlling a wearable device using gestures |
KR101927323B1 (ko) | 2015-04-03 | 2018-12-10 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
US10432842B2 (en) | 2015-04-06 | 2019-10-01 | The Texas A&M University System | Fusion of inertial and depth sensors for movement measurements and recognition |
US20170095178A1 (en) | 2015-04-09 | 2017-04-06 | Marco Schoen | EMG Home Trainer |
US20180107275A1 (en) * | 2015-04-13 | 2018-04-19 | Empire Technology Development Llc | Detecting facial expressions |
WO2016168117A2 (en) | 2015-04-14 | 2016-10-20 | John James Daniels | Wearable electric, multi-sensory, human/machine, human/human interfaces |
US20160309249A1 (en) | 2015-04-16 | 2016-10-20 | Hong Fu Jin Precision Industry (Wuhan) Co., Ltd. | Wearable electronic device |
KR102063895B1 (ko) | 2015-04-20 | 2020-01-08 | 삼성전자주식회사 | 서버, 사용자 단말 장치 및 그 제어 방법 |
US9804733B2 (en) * | 2015-04-21 | 2017-10-31 | Dell Products L.P. | Dynamic cursor focus in a multi-display information handling system environment |
US9972133B2 (en) | 2015-04-24 | 2018-05-15 | Jpw Industries Inc. | Wearable display for use with tool |
US10078435B2 (en) | 2015-04-24 | 2018-09-18 | Thalmic Labs Inc. | Systems, methods, and computer program products for interacting with electronically displayed presentation materials |
US10175492B2 (en) | 2015-04-24 | 2019-01-08 | Eon Reality, Inc. | Systems and methods for transition between augmented reality and virtual reality |
GB2537899B (en) | 2015-04-30 | 2018-02-21 | Hy5Pro As | Control of digits for artificial hand |
US9654477B1 (en) | 2015-05-05 | 2017-05-16 | Wells Fargo Bank, N. A. | Adaptive authentication |
US9740310B2 (en) | 2015-05-22 | 2017-08-22 | Adobe Systems Incorporated | Intuitive control of pressure-sensitive stroke attributes |
US9898864B2 (en) | 2015-05-28 | 2018-02-20 | Microsoft Technology Licensing, Llc | Shared tactile interaction and user safety in shared space multi-person immersive virtual reality |
MX2017015590A (es) | 2015-06-02 | 2018-07-06 | Battelle Memorial Institute | Manga neuronal para estimulacion, deteccion y registro neuromuscular. |
WO2016196784A1 (en) | 2015-06-02 | 2016-12-08 | Battelle Memorial Institute | Non-invasive motor impairment rehabilitation system |
EP3302688B1 (en) | 2015-06-02 | 2020-11-04 | Battelle Memorial Institute | Systems for neural bridging of the nervous system |
US10813559B2 (en) | 2015-06-14 | 2020-10-27 | Facense Ltd. | Detecting respiratory tract infection based on changes in coughing sounds |
US11589814B2 (en) | 2015-06-26 | 2023-02-28 | Carnegie Mellon University | System for wearable, low-cost electrical impedance tomography for non-invasive gesture recognition |
US9240069B1 (en) | 2015-06-30 | 2016-01-19 | Ariadne's Thread (Usa), Inc. | Low-latency virtual reality display system |
WO2017007518A1 (en) | 2015-07-07 | 2017-01-12 | Obma Padraic R | Noninvasive medical monitoring device, system and method |
WO2017019991A1 (en) | 2015-07-29 | 2017-02-02 | Sensel Inc. | Systems and methods for manipulating a virtual environment |
KR101626748B1 (ko) | 2015-08-03 | 2016-06-14 | 숭실대학교산학협력단 | 뇌파와 근전도를 이용한 움직임 패턴 측정 장치 및 그 방법 |
US10854104B2 (en) | 2015-08-28 | 2020-12-01 | Icuemotion Llc | System for movement skill analysis and skill augmentation and cueing |
US10387034B2 (en) * | 2015-09-03 | 2019-08-20 | Microsoft Technology Licensing, Llc | Modifying captured stroke information into an actionable form |
US10348355B2 (en) | 2015-09-16 | 2019-07-09 | Intel Corporation | Techniques for gesture recognition using photoplethysmographic (PPMG) sensor and low-power wearable gesture recognition device using the same |
US20170079828A1 (en) | 2015-09-22 | 2017-03-23 | Lim Innovations, Inc. | Scoliosis treatment system and method |
US9824287B2 (en) | 2015-09-29 | 2017-11-21 | Huami Inc. | Method, apparatus and system for biometric identification |
US10459537B2 (en) | 2015-09-30 | 2019-10-29 | Stmicroelectronics, Inc. | Encapsulated pressure sensor |
US11026628B1 (en) | 2015-09-30 | 2021-06-08 | Apple Inc. | Systems and methods of spatial filtering for measuring electrical signals |
WO2017062544A1 (en) | 2015-10-06 | 2017-04-13 | University Of Pittsburgh-Of The Commonwealth System Of Higher Education | Method, device and system for sensing neuromuscular, physiological, biomechanical, and musculoskeletal activity |
US9881273B2 (en) | 2015-10-28 | 2018-01-30 | Disney Interprises, Inc. | Automatic object detection and state estimation via electronic emissions sensing |
US11106273B2 (en) | 2015-10-30 | 2021-08-31 | Ostendo Technologies, Inc. | System and methods for on-body gestural interfaces and projection displays |
US10595941B2 (en) | 2015-10-30 | 2020-03-24 | Orthosensor Inc. | Spine measurement system and method therefor |
US10552752B2 (en) | 2015-11-02 | 2020-02-04 | Microsoft Technology Licensing, Llc | Predictive controller for applications |
GB201520367D0 (en) | 2015-11-19 | 2016-01-06 | Bespoke Vr Ltd | Editing interactive motion capture data for creating the interaction characteristics of non player characters |
KR102570068B1 (ko) | 2015-11-20 | 2023-08-23 | 삼성전자주식회사 | 동작 인식 방법, 동작 인식 장치 및 웨어러블 장치 |
KR101739656B1 (ko) | 2015-11-23 | 2017-05-24 | 이경호 | 핸디형 유방암 검진기 |
US10776712B2 (en) | 2015-12-02 | 2020-09-15 | Preferred Networks, Inc. | Generative machine learning systems for drug design |
US20170188980A1 (en) | 2016-01-06 | 2017-07-06 | Empire Technology Development Llc | Wearable sensor based body modeling |
US11402402B2 (en) | 2016-01-12 | 2022-08-02 | Bigmotion Technologies Inc. | Systems and methods for human body motion capture |
US10973422B2 (en) | 2016-01-22 | 2021-04-13 | Fitbit, Inc. | Photoplethysmography-based pulse wave analysis using a wearable device |
KR102619981B1 (ko) | 2016-02-02 | 2024-01-02 | 삼성전자주식회사 | 근전도 신호를 이용한 동작 분류 방법 및 장치 |
KR102576908B1 (ko) | 2016-02-16 | 2023-09-12 | 삼성전자주식회사 | 동적 파노라마 기능을 제공하는 방법 및 장치 |
WO2017143303A1 (en) | 2016-02-17 | 2017-08-24 | Meta Company | Apparatuses, methods and systems for sharing virtual elements |
US20170259167A1 (en) | 2016-03-14 | 2017-09-14 | Nathan Sterling Cook | Brainwave virtual reality apparatus and method |
KR102158743B1 (ko) | 2016-03-15 | 2020-09-22 | 한국전자통신연구원 | 자연어 음성인식의 성능향상을 위한 데이터 증강장치 및 방법 |
US9864434B2 (en) | 2016-03-30 | 2018-01-09 | Huami Inc. | Gesture control of interactive events using multiple wearable devices |
US10503253B2 (en) | 2016-03-31 | 2019-12-10 | Intel Corporation | Sensor signal processing to determine finger and/or hand position |
JP6728386B2 (ja) | 2016-03-31 | 2020-07-22 | センセル インコーポレイテッドSensel,Inc. | 人間コンピュータインタフェースシステム |
US10338686B2 (en) | 2016-03-31 | 2019-07-02 | Disney Enterprises, Inc. | Control system using aesthetically guided gesture recognition |
US10852835B2 (en) | 2016-04-15 | 2020-12-01 | Board Of Regents, The University Of Texas System | Systems, apparatuses and methods for controlling prosthetic devices by gestures and other modalities |
US10283859B2 (en) | 2016-04-19 | 2019-05-07 | Skyworks Solutions, Inc. | Selective shielding of radio frequency modules |
US10046229B2 (en) | 2016-05-02 | 2018-08-14 | Bao Tran | Smart device |
US10203751B2 (en) | 2016-05-11 | 2019-02-12 | Microsoft Technology Licensing, Llc | Continuous motion controls operable using neurological data |
US9864431B2 (en) | 2016-05-11 | 2018-01-09 | Microsoft Technology Licensing, Llc | Changing an application state using neurological data |
US10555865B2 (en) | 2016-05-25 | 2020-02-11 | Carnegie Mellon University | Torque control methods for an exoskeleton device |
EP3463550B1 (en) | 2016-05-31 | 2024-03-27 | Lab Schöpfergeist AG | Nerve stimulation apparatus and method |
US10426371B2 (en) | 2016-06-07 | 2019-10-01 | Smk Corporation | Muscle condition measurement sheet |
KR101790147B1 (ko) | 2016-06-22 | 2017-10-25 | 재단법인 실감교류인체감응솔루션연구단 | 가상 객체 조작 시스템 및 방법 |
US10154791B2 (en) | 2016-07-01 | 2018-12-18 | L.I.F.E. Corporation S.A. | Biometric identification by garments having a plurality of sensors |
US10943398B2 (en) | 2016-07-15 | 2021-03-09 | Samsung Electronics Co., Ltd. | Augmented reality device and operation thereof |
US10433052B2 (en) | 2016-07-16 | 2019-10-01 | Ron Zass | System and method for identifying speech prosody |
US10372228B2 (en) | 2016-07-20 | 2019-08-06 | Usens, Inc. | Method and system for 3D hand skeleton tracking |
KR102655669B1 (ko) | 2016-07-20 | 2024-04-05 | 삼성전자주식회사 | 생체신호의 특징 추출 장치 및 방법과, 생체정보 검출 장치 |
US11337652B2 (en) | 2016-07-25 | 2022-05-24 | Facebook Technologies, Llc | System and method for measuring the movements of articulated rigid bodies |
US11216069B2 (en) | 2018-05-08 | 2022-01-04 | Facebook Technologies, Llc | Systems and methods for improved speech recognition using neuromuscular information |
CN110300542A (zh) | 2016-07-25 | 2019-10-01 | 开创拉布斯公司 | 使用可穿戴的自动传感器预测肌肉骨骼位置信息的方法和装置 |
CN110337269B (zh) | 2016-07-25 | 2021-09-21 | 脸谱科技有限责任公司 | 基于神经肌肉信号推断用户意图的方法和装置 |
EP3487457B1 (en) | 2016-07-25 | 2023-09-06 | Facebook Technologies, LLC. | Adaptive system for deriving control signals from measurements of neuromuscular activity |
US20190223748A1 (en) | 2018-01-25 | 2019-07-25 | Ctrl-Labs Corporation | Methods and apparatus for mitigating neuromuscular signal artifacts |
US20180088675A1 (en) | 2016-09-29 | 2018-03-29 | Brian K. Vogel | Coordinate system for gesture control |
US10765363B2 (en) | 2016-09-30 | 2020-09-08 | Cognionics, Inc. | Headgear for dry electroencephalogram sensors |
US10300372B2 (en) | 2016-09-30 | 2019-05-28 | Disney Enterprises, Inc. | Virtual blaster |
US20180095542A1 (en) | 2016-09-30 | 2018-04-05 | Sony Interactive Entertainment Inc. | Object Holder for Virtual Reality Interaction |
US10162422B2 (en) | 2016-10-10 | 2018-12-25 | Deere & Company | Control of machines through detection of gestures by optical and muscle sensors |
WO2018094011A1 (en) | 2016-11-16 | 2018-05-24 | Lumo Bodytech, Inc. | System and method for personalized exercise training and coaching |
US11229787B2 (en) | 2016-11-25 | 2022-01-25 | Kinaptic, LLC | Haptic human machine interface and wearable electronics methods and apparatus |
US10070799B2 (en) | 2016-12-02 | 2018-09-11 | Pison Technology, Inc. | Detecting and using body tissue electrical signals |
US10646139B2 (en) | 2016-12-05 | 2020-05-12 | Intel Corporation | Body movement tracking |
US10736564B2 (en) | 2016-12-16 | 2020-08-11 | Elwha Llc | System and method for enhancing learning of a motor task |
US20190025919A1 (en) | 2017-01-19 | 2019-01-24 | Mindmaze Holding Sa | System, method and apparatus for detecting facial expression in an augmented reality system |
US10488510B2 (en) | 2017-02-02 | 2019-11-26 | Leah La Salla | Predictive probable cause system and unmanned vehicles using the same |
US10854194B2 (en) | 2017-02-10 | 2020-12-01 | Johnson Controls Technology Company | Building system with digital twin based data ingestion and processing |
GB2561537B (en) | 2017-02-27 | 2022-10-12 | Emteq Ltd | Optical expression detection |
US20180247443A1 (en) * | 2017-02-28 | 2018-08-30 | International Business Machines Corporation | Emotional analysis and depiction in virtual reality |
EP3609402A4 (en) | 2017-04-14 | 2020-12-16 | Rehabilitation Institute Of Chicago D/B/A Shirley | PROSTHETIC VIRTUAL REALITY LEARNING INTERFACE AND RELATED PROCESSES |
US10939833B2 (en) | 2017-05-01 | 2021-03-09 | Samsung Electronics Company, Ltd. | Determining artery location using camera-based sensing |
GB201709227D0 (en) | 2017-06-09 | 2017-07-26 | Microsoft Technology Licensing Llc | A wearable device |
US11259746B2 (en) | 2017-07-10 | 2022-03-01 | General Electric Company | Method and system for neuromuscular transmission measurement |
US20190027141A1 (en) | 2017-07-21 | 2019-01-24 | Pearson Education, Inc. | Systems and methods for virtual reality-based interaction evaluation |
US10481699B2 (en) | 2017-07-27 | 2019-11-19 | Facebook Technologies, Llc | Armband for tracking hand motion using electrical impedance measurement |
US11231781B2 (en) | 2017-08-03 | 2022-01-25 | Intel Corporation | Haptic gloves for virtual reality systems and methods of controlling the same |
US11561806B2 (en) | 2017-08-04 | 2023-01-24 | Hannes Bendfeldt | Adaptive interface for screen-based interactions |
KR102408359B1 (ko) | 2017-08-23 | 2022-06-14 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 제어 방법 |
RU2678494C1 (ru) | 2017-08-24 | 2019-01-29 | Самсунг Электроникс Ко., Лтд. | Устройство и способ для биометрической идентификации пользователя с использованием рч (радиочастотного) радара |
WO2019051082A1 (en) | 2017-09-06 | 2019-03-14 | Georgia Tech Research Corporation | SYSTEMS, METHODS AND DEVICES FOR GESTURE RECOGNITION |
WO2019050651A1 (en) | 2017-09-08 | 2019-03-14 | Intel Corporation | LOW NOISE FRONTAL APPLICATION FOR CARDIAC FREQUENCY MONITOR USING PHOTOPLETHYSMOGRAPHY |
US20190076716A1 (en) | 2017-09-12 | 2019-03-14 | Intel Corporation | Activity training system |
KR102434402B1 (ko) | 2017-09-19 | 2022-08-22 | 한국전자통신연구원 | 혼합현실 콘텐츠를 제공하는 장치 및 방법 |
EP3697297A4 (en) | 2017-10-19 | 2020-12-16 | Facebook Technologies, Inc. | SYSTEMS AND METHODS FOR IDENTIFYING BIOLOGICAL STRUCTURES ASSOCIATED WITH NEUROMUSCULAR SOURCE SIGNALS |
US10606620B2 (en) | 2017-11-16 | 2020-03-31 | International Business Machines Corporation | Notification interaction in a touchscreen user interface |
US20190150777A1 (en) | 2017-11-17 | 2019-05-23 | Ctrl-Labs Corporation | Dual-supply analog circuitry for sensing surface emg signals |
WO2019123463A1 (en) | 2017-12-20 | 2019-06-27 | The Elegant Monkeys Ltd. | Method and system of modelling a mental/ emotional state of a user |
US10535191B2 (en) | 2017-12-21 | 2020-01-14 | Luminar Technologies, Inc. | Object identification and labeling tool for training autonomous vehicle controllers |
US20190196586A1 (en) | 2017-12-27 | 2019-06-27 | X Development Llc | Electroencephalogram system with machine learning filtering of redundant signals |
US10671164B2 (en) | 2017-12-27 | 2020-06-02 | X Development Llc | Interface for electroencephalogram for computer control |
US10827942B2 (en) | 2018-01-03 | 2020-11-10 | Intel Corporation | Detecting fatigue based on electroencephalogram (EEG) data |
EP3692548B1 (en) | 2018-01-09 | 2023-06-14 | St. Jude Medical, Cardiology Division, Inc. | System and method for sorting electrophysiological signals on virtual catheters |
US10729564B2 (en) | 2018-01-12 | 2020-08-04 | Ripple Llc | Sensor system |
US20200097081A1 (en) | 2018-09-20 | 2020-03-26 | Jasmine Stone | Neuromuscular control of an augmented reality system |
WO2019147958A1 (en) | 2018-01-25 | 2019-08-01 | Ctrl-Labs Corporation | User-controlled tuning of handstate representation model parameters |
CN112074870A (zh) | 2018-01-25 | 2020-12-11 | 脸谱科技有限责任公司 | 重构的手部状态信息的可视化 |
WO2019147949A1 (en) | 2018-01-25 | 2019-08-01 | Ctrl-Labs Corporation | Real-time processing of handstate representation model estimates |
EP3743790A4 (en) | 2018-01-25 | 2021-03-17 | Facebook Technologies, Inc. | RECONSTRUCTION OF HAND STATE ON THE BASIS OF MULTIPLE ENTRIES |
US10937414B2 (en) | 2018-05-08 | 2021-03-02 | Facebook Technologies, Llc | Systems and methods for text input using neuromuscular information |
US10504286B2 (en) | 2018-01-25 | 2019-12-10 | Ctrl-Labs Corporation | Techniques for anonymizing neuromuscular signal data |
US11150730B1 (en) | 2019-04-30 | 2021-10-19 | Facebook Technologies, Llc | Devices, systems, and methods for controlling computing devices via neuromuscular signals of users |
CN111902077B (zh) | 2018-01-25 | 2023-08-04 | 元平台技术有限公司 | 利用神经肌肉信号进行手部状态表示建模的校准技术 |
US20190247650A1 (en) | 2018-02-14 | 2019-08-15 | Bao Tran | Systems and methods for augmenting human muscle controls |
US11145096B2 (en) | 2018-03-07 | 2021-10-12 | Samsung Electronics Co., Ltd. | System and method for augmented reality interaction |
US10901508B2 (en) | 2018-03-20 | 2021-01-26 | X Development Llc | Fused electroencephalogram and machine learning for precognitive brain-computer interface for computer control |
WO2019199924A1 (en) | 2018-04-10 | 2019-10-17 | Rhythmlink International, Llc | Virtual electrode template system for neurological monitoring |
US20190324549A1 (en) | 2018-04-20 | 2019-10-24 | Immersion Corporation | Systems, devices, and methods for providing immersive reality interface modes |
US10592001B2 (en) | 2018-05-08 | 2020-03-17 | Facebook Technologies, Llc | Systems and methods for improved speech recognition using neuromuscular information |
EP3791387B1 (en) | 2018-05-08 | 2023-08-30 | Facebook Technologies, LLC. | Systems and methods for improved speech recognition using neuromuscular information |
CN112424727A (zh) | 2018-05-22 | 2021-02-26 | 奇跃公司 | 用于可穿戴系统的跨模态输入融合 |
WO2019226259A1 (en) | 2018-05-25 | 2019-11-28 | Ctrl-Labs Corporation | Methods and apparatus for providing sub-muscular control |
CN112261907A (zh) | 2018-05-29 | 2021-01-22 | 脸谱科技有限责任公司 | 表面肌电信号测量中降噪的屏蔽技术及相关系统和方法 |
US11099647B2 (en) | 2018-08-05 | 2021-08-24 | Pison Technology, Inc. | User interface control of responsive devices |
WO2020047429A1 (en) | 2018-08-31 | 2020-03-05 | Ctrl-Labs Corporation | Camera-guided interpretation of neuromuscular signals |
US11484267B2 (en) | 2018-09-11 | 2022-11-01 | Apple Inc. | Contact detection for physiological sensor |
CN112789577B (zh) | 2018-09-20 | 2024-04-05 | 元平台技术有限公司 | 增强现实系统中的神经肌肉文本输入、书写和绘图 |
WO2020072915A1 (en) | 2018-10-05 | 2020-04-09 | Ctrl-Labs Corporation | Use of neuromuscular signals to provide enhanced interactions with physical objects in an augmented reality environment |
US11457995B2 (en) | 2018-12-27 | 2022-10-04 | Biosense Webster (Israel) Ltd. | Accurate balloon computation and visualization |
US10905383B2 (en) | 2019-02-28 | 2021-02-02 | Facebook Technologies, Llc | Methods and apparatus for unsupervised one-shot machine learning for classification of human gestures and estimation of applied forces |
TWI689859B (zh) | 2019-03-19 | 2020-04-01 | 國立臺灣科技大學 | 由手腕偵測肌動訊號識別使用者手勢之系統及方法 |
KR102278069B1 (ko) | 2019-10-22 | 2021-07-14 | 조선대학교산학협력단 | 근전도 신호 기반 사용자 인증 장치 및 인증 방법 |
CN113301710B (zh) | 2020-02-24 | 2022-09-09 | 京东方科技集团股份有限公司 | 显示装置及其制备方法 |
-
2019
- 2019-09-20 CN CN201980062920.7A patent/CN112789577B/zh active Active
- 2019-09-20 WO PCT/US2019/052151 patent/WO2020061451A1/en unknown
- 2019-09-20 EP EP19861903.3A patent/EP3853698A4/en active Pending
- 2019-09-20 US US16/577,352 patent/US11567573B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105511615A (zh) * | 2015-12-04 | 2016-04-20 | 深圳大学 | 基于emg的可穿戴式文本输入系统及方法 |
CN107203272A (zh) * | 2017-06-23 | 2017-09-26 | 山东万腾电子科技有限公司 | 基于肌电感知技术的可穿戴增强现实作业指导系统及方法 |
Non-Patent Citations (1)
Title |
---|
"Electromyogram (EMG) Driven System Based Virtual Reality for Prosthetic and Rehabilitation Devices";AL-JUMAILY ADEL ET AL;PROCEEDINGS OF THE 11TH INTERNATIONAL CONFERENCE ON INFORMATION INTEGRATION AND WEB-BASED APPLICATIONS & SERVICES;pages 582-586 * |
Also Published As
Publication number | Publication date |
---|---|
CN112789577A (zh) | 2021-05-11 |
WO2020061451A1 (en) | 2020-03-26 |
US11567573B2 (en) | 2023-01-31 |
EP3853698A4 (en) | 2021-11-17 |
US20200097082A1 (en) | 2020-03-26 |
EP3853698A1 (en) | 2021-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112789577B (zh) | 增强现实系统中的神经肌肉文本输入、书写和绘图 | |
EP3843617B1 (en) | Camera-guided interpretation of neuromuscular signals | |
US10970936B2 (en) | Use of neuromuscular signals to provide enhanced interactions with physical objects in an augmented reality environment | |
CN114341779B (zh) | 用于基于神经肌肉控制执行输入的系统、方法和界面 | |
US20200097081A1 (en) | Neuromuscular control of an augmented reality system | |
Guo et al. | Human-machine interaction sensing technology based on hand gesture recognition: A review | |
US11163361B2 (en) | Calibration techniques for handstate representation modeling using neuromuscular signals | |
CN112074870A (zh) | 重构的手部状态信息的可视化 | |
KR20140146346A (ko) | 파지된 물체를 이용한 모션을 인식하는 장치 및 방법, 시스템 | |
CN107589782A (zh) | 用于可穿戴设备的姿势控制接口的方法和装置 | |
EP3951564A1 (en) | Methods and apparatus for simultaneous detection of discrete and continuous gestures | |
CN112822992B (zh) | 在增强现实环境中使用神经肌肉信号来提供与物理对象的增强交互 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: California, USA Applicant after: Yuan Platform Technology Co.,Ltd. Address before: California, USA Applicant before: Facebook Technologies, LLC |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |