[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN105488524A - 一种基于可穿戴设备的唇语识别方法及系统 - Google Patents

一种基于可穿戴设备的唇语识别方法及系统 Download PDF

Info

Publication number
CN105488524A
CN105488524A CN201510837127.3A CN201510837127A CN105488524A CN 105488524 A CN105488524 A CN 105488524A CN 201510837127 A CN201510837127 A CN 201510837127A CN 105488524 A CN105488524 A CN 105488524A
Authority
CN
China
Prior art keywords
information
structured light
dimensional model
mouth
optical information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510837127.3A
Other languages
English (en)
Other versions
CN105488524B (zh
Inventor
林谋广
吴育滨
郑万山
黄钊鹏
刘锦龙
刘洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201510837127.3A priority Critical patent/CN105488524B/zh
Publication of CN105488524A publication Critical patent/CN105488524A/zh
Application granted granted Critical
Publication of CN105488524B publication Critical patent/CN105488524B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种基于可穿戴设备的唇语识别方法及系统,其中,该方法包括:向用户面部投射结构光,通过结构光接收器获取面部反射的结构光信息;对所述面部反射的结构信息进行过滤处理,获取所述用户嘴部运动时的嘴部反射的结构光信息;对所述嘴部反射的结构光信息进行分段,获取分段结构光信息,并根据分段结构光信息,提取所述分段结构光信息的三维模型特征;比较所述分段结构光信息的三维模型特征与样本三维模型特征的相似度,获取相似度最高的三维模型特征所对应的文字信息或语音信息。采用本发明实施例,可快捷、准确的获取到用户唇语的文字信息或语音信息。

Description

一种基于可穿戴设备的唇语识别方法及系统
技术领域
本发明涉及移动通信技术领域,尤其涉及一种基于可穿戴设备的唇语识别方法及系统。
背景技术
人类的语言认知过程是一个多通道的感知过程。除声音信息通道外,唇动视觉信息可以作为一种语音理解源。作为人机交互的一部分,视觉语言具有许多现在的应用,因此通过机器的自动唇语识别技术成为备受关注的研究领域。
近年来,国内外对于唇语识别都有相应的研究,并且在一些关键技术上取得了一些突破,但是尚不能与语音识别进行融合且有效地改善识别率。在现有的技术中,主要是基于二维图像处理以提取嘴唇的二维轮廓信息,但是嘴唇的二维轮廓信息所能够表达的特征信息有限,多数词语发音的二位轮廓信息重叠,导致识别能力有限。
此外,由于无线探测识别技术,包括运动检测、手势识别、定位、材料分类等的提高,通过检测和分析信号的反射,无线探测识别技术可发现穿墙运动和识别人的手势。但是对与用户说话的识别,只是通过声学传感器或者摄像头装置来实现,这种方法的系统布置代价高、局限大,而且会出现延迟。
发明内容
本发明的目的在于克服现有技术的不足,本发明提供了一种基于可穿戴设备的唇语识别方法及系统,通过可穿戴设备可以随时随地快速准确的识别应的唇语。
为了解决上述技术问题,本发明提供了一种基于可穿戴设备的唇语识别方法,所述方法包括:
向用户面部投射结构光,通过结构光接收器获取面部反射的结构光信息;
对所述面部反射的结构信息进行过滤处理,获取所述用户嘴部运动时的嘴部反射的结构光信息;
对所述嘴部反射的结构光信息进行分段,获取分段结构光信息,并根据分段结构光信息,提取所述分段结构光信息的三维模型特征;
比较所述分段结构光信息的三维模型特征与样本三维模型特征的相似度,获取相似度最高的三维模型特征所对应的文字信息或语音信息。
优选地,所述向用户面部投射结构光,通过结构光接收器获取面部反射的结构光信息,包括:
旋转结构光投射器向所述用户的面部投射结构光,获取最优投射角度;
根据所述最优投射角度投射结构光,所述结构光接收器接收完整的面部反射的结构光信息。
优选地,所述对所述面部反射的结构信息进行过滤处理,获取所述用户嘴部运动时的嘴部反射的结构光信息,包括:
对所述面板反射的结构信息进行高通滤波和低通滤波过滤处理,除去所述面部反射的结构信息噪声,获取降噪后的面部反射结构光信息;
通过对所述用户脸部进行区域定位,获取所述用户的嘴部位置的降噪后的嘴部反射结构光信息。
优选地,所述对所述嘴部反射的结构光信息进行分段,获取分段结构光信息,包括:
采用小波变换算法,获取,所述对所述嘴部反射的结构光信息的波形变换情况;
根据所述波形变换情况,以波形的变换周期对所述嘴部反射的结构光信息进行分段,获取分段结构光信息。
优选地,所述比较所述分段结构光信息的三维模型特征与样本三维模型特征的相似度,包括:
采用最小二乘法计算所述分段结构光信息的三维模型特征与所述样本三维模型特征的相似度。
本发明还提供了一种基于可穿戴设备的唇语识别系统,所述系统包括:
投射接收模块:用于向用户面部投射结构光,通过结构光接收器获取面部反射的结构光信息;
处理模块:用于对所述面部反射的结构信息进行过滤处理,获取所述用户嘴部运动时的嘴部反射的结构光信息;
特征提取模块:用于对所述嘴部反射的结构光信息进行分段,获取分段结构光信息,并根据分段结构光信息,提取所述分段结构光信息的三维模型特征;
相似度对比模块:用于比较所述分段结构光信息的三维模型特征与样本三维模型特征的相似度,获取相似度最高的三维模型特征所对应的文字信息或语音信息。
优选地,所述投射接收模块包括:
角度旋转单元:用于旋转结构光投射器向所述用户的面部投射结构光,获取最优投射角度;
投射接收单元:用于根据所述最优投射角度投射结构光,所述结构光接收器接收完整的面部反射的结构光信息。
优选地,所述处理模块包括:
降噪单元:用于对所述面板反射的结构信息进行高通滤波和低通滤波过滤处理,除去所述面部反射的结构信息噪声,获取降噪后的面部反射结构光信息;
定位单元:用于通过对所述用户脸部进行区域定位,获取所述用户的嘴部位置的降噪后的嘴部反射结构光信息。
优选地,所述对所述嘴部反射的结构光信息进行分段,获取分段结构光信息,包括:
采用小波变换算法,获取,所述对所述嘴部反射的结构光信息的波形变换情况;
根据所述波形变换情况,以波形的变换周期对所述对所述嘴部反射的结构光信息进行分段,获取分段结构光信息。
优选地,所述比较所述分段结构光信息的三维模型特征与样本三维模型特征的相似度,包括:
采用最小二乘法计算所述分段结构光信息的三维模型特征与所述样本三维模型特征的相似度。
本发明实施例是基于可穿戴设备上实现的,可快捷、准确的获取到用户唇语的文字信息或语音信息。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明实施例中的基于可穿戴设备的唇语识别方法的方法流程示意图;
图2是本发明实施例中的基于可穿戴设备的唇语识别系统的结构组成示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供了一种基于可穿戴设备的唇语识别方法,向用户面部投射结构光,通过结构光接收器获取面部反射的结构光信息;对面部反射的结构信息进行过滤处理,获取用户嘴部运动时的嘴部反射的结构光信息;对嘴部反射的结构光信息进行分段,获取分段结构光信息,并根据分段结构光信息,提取分段结构光信息的三维模型特征;比较分段结构光信息的三维模型特征与样本三维模型特征的相似度,获取相似度最高的三维模型特征所对应的文字信息或语音信息;可快捷、准确的获取到用户唇语的文字信息或语音信息。
图1是本发明实施例中的基于可穿戴设备的唇语识别方法的方法流程示意图,如图1所示,该方法包括:
S11:向用户面部投射结构光,通过结构光接收器获取面部反射的结构光信息;
S12:对面部反射的结构信息进行过滤处理,获取用户嘴部运动时的嘴部反射的结构光信息;
S13:对嘴部反射的结构光信息进行分段,获取分段结构光信息,并根据分段结构光信息,提取分段结构光信息的三维模型特征;
S14:比较分段结构光信息的三维模型特征与样本三维模型特征的相似度,获取相似度最高的三维模型特征所对应的文字信息或语音信息。
对S11作进一步说明:
通过结构光投射器向用户的面部投射结构光,并且不断的旋转结构光投射器来改变投射结构光的角度,从而获取到最优的投射结构光的投射角度;根据最优的投射角度投射结构光,使得结构光接收器能够完整的接收到面部反射回来的结构光信息。
对S12作进一步说明:
将结构光接收器接收回来的结构光信息分别进行高通滤波和低通滤波过滤处理,这样可以除去接收到的面部反射的结构光信息中的大部分噪声,使得面部反射的结构光信息中的剩下的噪声不会对后续的处理产生影响;
通过用户的面部进行区域分割,根据分割出来的区域来确定用户的嘴部位置,然后提取用户嘴部位置的反射结构光信息。
对S13作进一步说明:
对提取的嘴部位置的反射结构光信息进行小波变换算法处理,获取结构光信息的波形变化情况,并根据变化情况以波形的变化周期作为分割点对结构光信息进行分段,获取分段结构光信息;
根据获取到的分段结构光信息,逆向构建出用户嘴部三维模型,根据这个三维模型提取用户的三维模型特征。
对S14作进一步说明:
采用最小二乘法计算分段结构光信息的三维模型特征与样本中的三维模型特征的相似度,并且将计算得到的相似度做一个排序,提取相似度最高的样本三维模型特征作为该段结构光相匹配的信息,获取相似度最高的样本三维模型特征所对应的文字信息或语音信息。
图2是本发明实施例中的基于可穿戴设备的唇语识别系统的结构组成示意图,如图2所示,本发明实施例还提供了一种基于可穿戴设备的唇语识别系统,该系统包括:
投射接收模块:用于向用户面部投射结构光,通过结构光接收器获取面部反射的结构光信息;
处理模块:用于对面部反射的结构信息进行过滤处理,获取用户嘴部运动时的嘴部反射的结构光信息;
特征提取模块:用于对嘴部反射的结构光信息进行分段,获取分段结构光信息,并根据分段结构光信息,提取分段结构光信息的三维模型特征;
相似度对比模块:用于比较分段结构光信息的三维模型特征与样本三维模型特征的相似度,获取相似度最高的三维模型特征所对应的文字信息或语音信息。
优选地,投射接收模块包括:
角度旋转单元:用于旋转结构光投射器向用户的面部投射结构光,获取最优投射角度;
投射接收单元:用于根据最优投射角度投射结构光,结构光接收器接收完整的面部反射的结构光信息。
优选地,处理模块包括:
降噪单元:用于对面板反射的结构信息进行高通滤波和低通滤波过滤处理,除去面部反射的结构信息噪声,获取降噪后的面部反射结构光信息;
定位单元:用于通过对用户脸部进行区域定位,获取用户的嘴部位置的降噪后的嘴部反射结构光信息。
优选地,对嘴部反射的结构光信息进行分段,获取分段结构光信息,包括:
采用小波变换算法,获取,对嘴部反射的结构光信息的波形变换情况;
根据波形变换情况,以波形的变换周期对嘴部反射的结构光信息进行分段,获取分段结构光信息。
优选地,比较分段结构光信息的三维模型特征与样本三维模型特征的相似度,包括:
采用最小二乘法计算分段结构光信息的三维模型特征与样本三维模型特征的相似度。
具体地,本发明实施例的系统相关功能模块的工作原理可参见方法实施例的相关描述,这里不再赘述。
本发明实施例是基于可穿戴设备上实现的,可快捷、准确的获取到用户唇语的文字信息或语音信息。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,ReadOnlyMemory)、随机存取存储器(RAM,RandomAccessMemory)、磁盘或光盘等。
另外,以上对本发明实施例所提供的一种基于可穿戴设备的唇语识别方法及系统进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.一种基于可穿戴设备的唇语识别方法,其特征在于,所述方法包括:
向用户面部投射结构光,通过结构光接收器获取面部反射的结构光信息;
对所述面部反射的结构信息进行过滤处理,获取所述用户嘴部运动时的嘴部反射的结构光信息;
对所述嘴部反射的结构光信息进行分段,获取分段结构光信息,并根据分段结构光信息,提取所述分段结构光信息的三维模型特征;
比较所述分段结构光信息的三维模型特征与样本三维模型特征的相似度,获取相似度最高的三维模型特征所对应的文字信息或语音信息。
2.根据权利要求1所述的唇语识别方法,其特征在于,所述向用户面部投射结构光,通过结构光接收器获取面部反射的结构光信息,包括:
旋转结构光投射器向所述用户的面部投射结构光,获取最优投射角度;
根据所述最优投射角度投射结构光,所述结构光接收器接收完整的面部反射的结构光信息。
3.根据权利要求1所述的唇语识别方法,其特征在于,所述对所述面部反射的结构信息进行过滤处理,获取所述用户嘴部运动时的嘴部反射的结构光信息,包括:
对所述面板反射的结构信息进行高通滤波和低通滤波过滤处理,除去所述面部反射的结构信息噪声,获取降噪后的面部反射结构光信息;
通过对所述用户脸部进行区域定位,获取所述用户的嘴部位置的降噪后的嘴部反射结构光信息。
4.根据权利要求1所述的唇语识别方法,其特征在于,所述对所述嘴部反射的结构光信息进行分段,获取分段结构光信息,包括:
采用小波变换算法,获取所述对所述嘴部反射的结构光信息的波形变换情况;
根据所述波形变换情况,以波形的变换周期对所述嘴部反射的结构光信息进行分段,获取分段结构光信息。
5.根据权利要求1所述的唇语识别方法,其特征在于,所述比较所述分段结构光信息的三维模型特征与样本三维模型特征的相似度,包括:
采用最小二乘法计算所述分段结构光信息的三维模型特征与所述样本三维模型特征的相似度。
6.一种基于可穿戴设备的唇语识别系统,其特征在于,所述系统包括:
投射接收模块:用于向用户面部投射结构光,通过结构光接收器获取面部反射的结构光信息;
处理模块:用于对所述面部反射的结构信息进行过滤处理,获取所述用户嘴部运动时的嘴部反射的结构光信息;
特征提取模块:用于对所述嘴部反射的结构光信息进行分段,获取分段结构光信息,并根据分段结构光信息,提取所述分段结构光信息的三维模型特征;
相似度对比模块:用于比较所述分段结构光信息的三维模型特征与样本三维模型特征的相似度,获取相似度最高的三维模型特征所对应的文字信息或语音信息。
7.根据权利要求6所述的唇语识别系统,其特征在于,所述投射接收模块包括:
角度旋转单元:用于旋转结构光投射器向所述用户的面部投射结构光,获取最优投射角度;
投射接收单元:用于根据所述最优投射角度投射结构光,所述结构光接收器接收完整的面部反射的结构光信息。
8.根据权利要求6所述的唇语识别系统,其特征在于,所述处理模块包括:
降噪单元:用于对所述面板反射的结构信息进行高通滤波和低通滤波过滤处理,除去所述面部反射的结构信息噪声,获取降噪后的面部反射结构光信息;
定位单元:用于通过对所述用户脸部进行区域定位,获取所述用户的嘴部位置的降噪后的嘴部反射结构光信息。
9.根据权利要求6所述的唇语识别系统,其特征在于,所述对所述嘴部反射的结构光信息进行分段,获取分段结构光信息,包括:
采用小波变换算法,获取,所述对所述嘴部反射的结构光信息的波形变换情况;
根据所述波形变换情况,以波形的变换周期对所述嘴部反射的结构光信息进行分段,获取分段结构光信息。
10.根据权利要求6所述的唇语识别系统,其特征在于,所述比较所述分段结构光信息的三维模型特征与样本三维模型特征的相似度,包括:
采用最小二乘法计算所述分段结构光信息的三维模型特征与所述样本三维模型特征的相似度。
CN201510837127.3A 2015-11-26 2015-11-26 一种基于可穿戴设备的唇语识别方法及系统 Active CN105488524B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510837127.3A CN105488524B (zh) 2015-11-26 2015-11-26 一种基于可穿戴设备的唇语识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510837127.3A CN105488524B (zh) 2015-11-26 2015-11-26 一种基于可穿戴设备的唇语识别方法及系统

Publications (2)

Publication Number Publication Date
CN105488524A true CN105488524A (zh) 2016-04-13
CN105488524B CN105488524B (zh) 2018-12-21

Family

ID=55675495

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510837127.3A Active CN105488524B (zh) 2015-11-26 2015-11-26 一种基于可穿戴设备的唇语识别方法及系统

Country Status (1)

Country Link
CN (1) CN105488524B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106210568A (zh) * 2016-07-15 2016-12-07 深圳奥比中光科技有限公司 图像处理方法以及装置
CN107423716A (zh) * 2017-07-31 2017-12-01 广东欧珀移动通信有限公司 人脸状态监控方法及装置
CN107437019A (zh) * 2017-07-31 2017-12-05 广东欧珀移动通信有限公司 唇语识别的身份验证方法和装置
CN107644680A (zh) * 2017-08-09 2018-01-30 广东欧珀移动通信有限公司 健康状态检测方法、装置和终端设备
CN107968888A (zh) * 2017-11-30 2018-04-27 努比亚技术有限公司 一种移动终端控制方法、移动终端及计算机可读存储介质
CN108319912A (zh) * 2018-01-30 2018-07-24 歌尔科技有限公司 一种唇语识别方法、装置、系统和智能眼镜
CN108509903A (zh) * 2018-03-30 2018-09-07 盎锐(上海)信息科技有限公司 基于3d成像技术的唇语翻译装置及唇语翻译方法
US11908478B2 (en) 2021-08-04 2024-02-20 Q (Cue) Ltd. Determining speech from facial skin movements using a housing supported by ear or associated with an earphone
US12105785B2 (en) 2021-08-04 2024-10-01 Q (Cue) Ltd. Interpreting words prior to vocalization
US12131739B2 (en) 2022-07-20 2024-10-29 Q (Cue) Ltd. Using pattern analysis to provide continuous authentication
US12141262B2 (en) 2023-11-16 2024-11-12 Q (Cue( Ltd. Using projected spots to determine facial micromovements

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102117115A (zh) * 2009-12-31 2011-07-06 上海量科电子科技有限公司 一种利用唇语进行文字输入选择的系统及实现方法
EP2428913A2 (en) * 2010-09-10 2012-03-14 Dimensional Photonics International, Inc. Object classification for measured three-dimensional object scenes
CN103092329A (zh) * 2011-10-31 2013-05-08 南开大学 一种基于唇读技术的唇语输入方法
CN104064187A (zh) * 2014-07-09 2014-09-24 张江杰 一种哑语转换语音系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102117115A (zh) * 2009-12-31 2011-07-06 上海量科电子科技有限公司 一种利用唇语进行文字输入选择的系统及实现方法
EP2428913A2 (en) * 2010-09-10 2012-03-14 Dimensional Photonics International, Inc. Object classification for measured three-dimensional object scenes
CN103092329A (zh) * 2011-10-31 2013-05-08 南开大学 一种基于唇读技术的唇语输入方法
CN104064187A (zh) * 2014-07-09 2014-09-24 张江杰 一种哑语转换语音系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
曲芳: "基于数字彩色结构光投影的唇动三维测量", 《光学技术》 *
黄红强等: "彩色结构光三维成像技术", 《浙江大学学报》 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106210568A (zh) * 2016-07-15 2016-12-07 深圳奥比中光科技有限公司 图像处理方法以及装置
CN107423716A (zh) * 2017-07-31 2017-12-01 广东欧珀移动通信有限公司 人脸状态监控方法及装置
CN107437019A (zh) * 2017-07-31 2017-12-05 广东欧珀移动通信有限公司 唇语识别的身份验证方法和装置
CN107644680A (zh) * 2017-08-09 2018-01-30 广东欧珀移动通信有限公司 健康状态检测方法、装置和终端设备
CN107968888A (zh) * 2017-11-30 2018-04-27 努比亚技术有限公司 一种移动终端控制方法、移动终端及计算机可读存储介质
CN108319912A (zh) * 2018-01-30 2018-07-24 歌尔科技有限公司 一种唇语识别方法、装置、系统和智能眼镜
CN108509903A (zh) * 2018-03-30 2018-09-07 盎锐(上海)信息科技有限公司 基于3d成像技术的唇语翻译装置及唇语翻译方法
CN108509903B (zh) * 2018-03-30 2021-04-02 盎锐(上海)信息科技有限公司 基于3d成像技术的唇语翻译装置及唇语翻译方法
US11908478B2 (en) 2021-08-04 2024-02-20 Q (Cue) Ltd. Determining speech from facial skin movements using a housing supported by ear or associated with an earphone
US11915705B2 (en) * 2021-08-04 2024-02-27 Q (Cue) Ltd. Facial movements wake up wearable
US11922946B2 (en) 2021-08-04 2024-03-05 Q (Cue) Ltd. Speech transcription from facial skin movements
US12105785B2 (en) 2021-08-04 2024-10-01 Q (Cue) Ltd. Interpreting words prior to vocalization
US12130901B2 (en) 2021-08-04 2024-10-29 Q (Cue) Ltd. Personal presentation of prevocalization to improve articulation
US12131739B2 (en) 2022-07-20 2024-10-29 Q (Cue) Ltd. Using pattern analysis to provide continuous authentication
US12142280B2 (en) 2023-11-08 2024-11-12 Q (Cue) Ltd. Facilitating silent conversation
US12142281B2 (en) 2023-11-08 2024-11-12 Q (Cue) Ltd. Providing context-driven output based on facial micromovements
US12142282B2 (en) 2023-11-09 2024-11-12 Q (Cue) Ltd. Interpreting words prior to vocalization
US12147521B2 (en) 2023-11-15 2024-11-19 Q (Cue) Ltd. Threshold facial micromovement intensity triggers interpretation
US12141262B2 (en) 2023-11-16 2024-11-12 Q (Cue( Ltd. Using projected spots to determine facial micromovements

Also Published As

Publication number Publication date
CN105488524B (zh) 2018-12-21

Similar Documents

Publication Publication Date Title
CN105488524A (zh) 一种基于可穿戴设备的唇语识别方法及系统
US11398235B2 (en) Methods, apparatuses, systems, devices, and computer-readable storage media for processing speech signals based on horizontal and pitch angles and distance of a sound source relative to a microphone array
Vennelakanti et al. Traffic sign detection and recognition using a CNN ensemble
CN103353935B (zh) 一种用于智能家居系统的3d动态手势识别方法
EP2891990B1 (en) Method and device for monitoring video digest
CN105069408B (zh) 一种复杂场景下基于人脸识别的视频人像跟踪方法
Feng et al. Features extraction from hand images based on new detection operators
CN103745723A (zh) 一种音频信号识别方法及装置
CN102799873A (zh) 一种人体异常行为识别方法
US9355333B2 (en) Pattern recognition based on information integration
WO2015089115A1 (en) Feature density object classification, systems and methods
CN101916362A (zh) 一种虹膜定位方法及虹膜识别系统
WO2015184899A1 (zh) 一种车辆车牌识别方法及装置
CN104103274A (zh) 语音处理装置和语音处理方法
TW201619752A (zh) 手勢辨識方法及其裝置
CN104318218A (zh) 图像识别方法和装置
Nandakumar et al. A multi-modal gesture recognition system using audio, video, and skeletal joint data
WO2017219450A1 (zh) 一种信息处理方法、装置及移动终端
WO2019218116A1 (en) Method and apparatus for image recognition
CN106504225A (zh) 一种规则多边形的识别方法和装置
CN107871507A (zh) 一种语音控制ppt翻页方法及系统
Geetha et al. Dynamic gesture recognition of Indian sign language considering local motion of hand using spatial location of Key Maximum Curvature Points
Ozturk et al. Beyond Microphone: mmWave-based interference-resilient voice activity detection
Cabañas-Molero et al. Multimodal speaker diarization for meetings using volume-evaluated SRP-PHAT and video analysis
KR20130015978A (ko) 차선 인식 장치 및 그 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant