CN105930773A - 动作识别方法及装置 - Google Patents
动作识别方法及装置 Download PDFInfo
- Publication number
- CN105930773A CN105930773A CN201610228320.1A CN201610228320A CN105930773A CN 105930773 A CN105930773 A CN 105930773A CN 201610228320 A CN201610228320 A CN 201610228320A CN 105930773 A CN105930773 A CN 105930773A
- Authority
- CN
- China
- Prior art keywords
- subelement
- data
- action
- pixel
- human action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种动作识别方法及装置,本发明中首先采集人体动作,并对人体动作进行初步编辑,确定动作的起始和结束帧;之后提取编辑后的人体动作数据的关节点、圆形度以及泽尼克矩作为所述人体动作的描述特征;之后移除描述特征中的存在的噪声、动作速率变化带来的误差以及动作时间匹配上的误差;最后以上述处理后得到的描述特征作为输入,输入到支持向量机模型进行训练,最后得到可对动作进行识别的分类模型。对于具体的动作,分类模型将给出对应的动作标签,所得到的分类模型即实现了对新的人体动作的定义。利用本发明的方法工具用户只需录制自己或他人的动作便可完成动作的定义和识别,识别效果达到95%以上。
Description
技术领域
本发明涉及体人机交互技术领域,更具体涉及一种动作识别方法及装置。
背景技术
在人机交互领域,动作识别是体感交互的前提,动作识别和行为理解逐渐成为人机交互领域的研究热点。为达到有效的交互目的,必须对不同的交互动作,包含肢体运动、手势以及静态姿势,进行定义和识别。
目前,基于Kinect的动作识别方法较多,如事件触发方法、模板匹配方法、机器学习方法等。现有技术中提出的灵活动作和铰接式骨架工具包(flexible action and articulated skeleton toolkit,FAAST)是介于Kinect开发包和应用程序之间的体感操作中间件,主要采用事件触发方式进行识别,如角度、距离、速度等事件,该方法计算量小,实时性和准确率高,但事件触发方法本身具有局限性,对连续动作的识别较困难,同时不能实现新动作的定义和使用。
近年来,基于Kinect体感技术的动作识别应用开发十分丰富,但在这些应用中,虽然能够有效跟踪人体运动轨迹,但识别动作比较单一且识别方法不利于扩展,亟待研究和开发一种具有扩展性和通用性的动作识别模型。
发明内容
(一)要解决的技术问题
本发明要解决的技术问题是如何快速方便地识别用户的姿势动作,以供后续使用。
(二)技术方案
为了解决上述技术问题,本发明提供了一种动作识别方法,所述方法包括以下步骤:
S1、采集人体动作或导入包含人体动作的文件,并对人体动作进行初步编辑;
S2、提取所述步骤S1编辑之后的人体动作的数据的关节点、圆形度以及泽尼克矩作为所述人体动作的描述特征;
S3、移除所述描述特征中存在的噪声、动作速率变化带来的误差以及动作时间匹配上的误差;
S4、将所述步骤S3处理后得到的描述特征输入到支持向量机分类模型进行训练,训练得到的分类模型即实现对新的人体动作的定义;对于具体的动作,分类器将给出一个具体的标签以标识识别的动作。其中,所述标签用于标识对应的人体动作;
S5、接受特定动作的标签,触发与该动作关联的键盘或鼠标事件,并将该事件递交给目标应用。
优选地,所述步骤S1中采集人体动作之前所述方法还包括以下步骤:
设置所述人体动作的名称以及动作持续时间;
采集倒计时开始计时,经过预定倒计时时长后开始采集人体动作;
所述步骤S1中采集人体动作之后所述方法还包括以下步骤:
采集所述动作持续时间长度内的人体动作后将采集的人体动作进行保存;
所述步骤S1中初步编辑具体为:选定起始帧和结束帧,移除所述起始帧之前以及所述结束帧之后的人体动作帧的数据。
优选地,所述步骤S2中提取所述关节点具体包括以下步骤:
S21、利用Kinect SDK API获取关节点位置,该位置基于Kinect设备空间坐标系;
S22、以用户右手方向为x轴正方向,头部正上方为y轴正方向,面向交互设备正前方为z轴正方向,臀部为坐标原点构建用户空间坐标系;
S23、Kinect设备空间坐标系oxyz下的坐标点P(x,y,z)与用户空间坐标系o’x’y’z’下的坐标点P’(x’,y’,z’)的变换关系可描述下式,
式中,O’(x0,y0,z0)表示用户空间坐标系o’x’y’z’的坐标原点。
优选地,所述步骤S2中提取所述圆形度以及泽尼克矩具体包括以下步骤:
S24、对所述步骤S1编辑之后的人体动作进行运动检测,检测方法参考如下公式
式中color(x,t)和color(x,t-1)分别是位置x=(x,y)处t时刻和t-1时刻的色彩帧像素,depth(x,t)和depth(x,t-1)是相应像素的深度值,th为第一预定阈值,所述第一预定阀值用于区分实际的人体运动与噪声;
S25、在运动检测后,首先估计一个初始前景模板,以上一个步骤中的像素点作为种子像素,实现一个区域增长算法不断扩大种子区域,其中所述区域增长算法具体为:比较所述种子像素与其近邻像素,若近邻像素与种子像素满足下面公式,则近邻像素与种子像素相似,则对应的近邻像素被添加到种子区域,如此,种子区域被扩大,当不再有近邻像素被包含时,迭代结束;
式中,表示当前帧中增长区域中的像素集合,P(t)={p1=(x1,y1),p2=(x2,y2),…}为的子集,(xi,yi)为待判定的像素点pk是P(t)中的任意一个点,th为特定阈值;
S26、对所述步骤S25处理后得到的数据进行基于边缘的改进:
通过膨胀稍微扩大色彩帧以确保包含所有重要的边缘;在扩大的模板上应用canny算子,使用膨胀算子连接边缘;将得到的结果掩码与初始的掩码进行与操作以排除冗余的背景数据;
S27、对所述步骤S26处理后的数据进行基于色彩信息的改进,以减少深度数据上的边界错误;
S28、利用下面的公式计算一维径向多项式Rn,m为:
式中,n是一个非负整数,表示一维径向多项式的阶数,m是一个非零整数,满足n-|m|=even和|m|≤n,表示相位角的重复度,ρ是点(x,y)到原点的向量的长度,其中点(x,y)是经过所述步骤S27处理后得到的数据点;
S29、利用下面的公式计算泽尼克基函数:定义在单位圆内的复值二维泽尼克基函数表示为如下:
Vn,m(ρ,θ)=Rn,meim,|ρ|≤1 (5)
复值二维泽尼克多项式满足正交性:
式中,*表示复共轭,Vp,q与Vn,m的含义相同,区别在于基数不同;
S210、将步骤S27处理后得到的数据对应的图像投影到泽尼克基函数,并利用下面的公式计算泽尼克矩:
上式表示阶为n,相位角重复为m的复泽尼克矩式中,f(x,y)为图像的函数;
其中,为达到尺度和平移不变性,图像函数f(x,y)需被归一化,转换方程为:
S211、利用所述步骤S27处理后的数据以及下面的公式计算所述圆形度:
式中,A是所述步骤S27处理后的数据对应的图像的面积,而P是所述步骤S27处理后的数据对应的图像的周长;
优选地,所述步骤S3中利用动态时间规整法移除所述描述特征的噪声;
所述步骤S3中利用Fourier Temporal Pyramid清除所述描述特征由于动作速率变化带来的误差以及动作时间匹配上的误差。
一种动作识别用的装置,所述装置包括动作采集单元、特征提取单元、数据清洗单元、动作分类单元以及输入模拟器单元;
所述动作采集单元用于采集人体动作或导入包含人体动作的文件,并对人体动作进行初步编辑;
所述特征提取单元用于提取所述动作采集单元编辑之后的人体动作的数据的关节点、圆形度以及泽尼克矩作为所述人体动作的描述特征;
所述数据清洗单元用于移除所述描述特征的噪声、动作速率变化带来的误差以及动作时间匹配上的误差;
所述动作分类单元用于接收为所述数据清洗单元处理后得到的描述特征然后进行模型训练,训练得到的分类模型就具体的动作输出一个标签,,以此实现对新的人体动作的定义和识别;其中,所述标签用于标识对应的人体动作;
所述输入模拟器单元用于接受特定动作的标签,触发与该动作关联的键盘或鼠标事件,并将该事件递交给目标应用。
优选地,所述动作采集单元包括设置子单元、倒计时计时子单元、采集子单元、存储子单元、导入子单元以及编辑子单元;
所述设置子单元用于设置预定倒计时、所述人体动作的名称以及动作持续时间;
所述倒计时计时子单元用于在采集倒计时开始计时,经过预定倒计时时长后控制所述采集子单元开始工作,采集人体动作;
所述导入子单元用于导入包含人体动作的文件;
所述存储子单元用于在所述采集子单元采集所述动作持续时间的时间长度的人体动作后将采集的人体动作进行保存;
所述编辑子单元用于选定起始帧和结束帧,删除所述起始帧之前以及所述结束帧之后的人体动作对应的数据。
优选地,所述特征提取单元包括关节点提取子单元,
所述关节点提取子单元用于利用Kinect SDK API获取关节点位置基于Kinect设备空间坐标系;以用户右手方向为x轴正方向,头部正上方为y轴正方向,面向交互设备正前方为z轴正方向,臀部为坐标原点构建用户空间坐标系;Kinect设备空间坐标系oxyz下的坐标点P(x,y,z)与用户空间坐标系o’x’y’z’下的坐标点P’(x’,y’,z’)的变换关系可描述下式,
式中,O’(x0,y0,z0)表示用户空间坐标系o’x’y’z’的坐标原点。
优选地,所述特征提取单元包括数据处理子单元、圆形度提取子单元以及泽尼克矩提取子单元;
所述数据处理子单元用于对所述步述动作采集单元编辑之后的人体动作进行运动检测,去除不符合下面公式的人体动作对应的数据:
式中color(x,t)和color(x,t-1)分别是位置x=(x,y)处t时刻和t-1时刻的色彩帧像素,depth(x,t)和depth(x,t-1)是相应像素的深度值,th为第一预定阈值,所述第一预定阀值用于区分实际的人体运动与噪声;
所述数据处理子单元还用于在运动检测后,设置一个初始前景掩码,并且选取种子像素,并利用区域增长算法完成整个种子区域,其中所述区域增长算法具体为:比较所述种子像素与近邻像素,若近邻像素与种子像素满足下面公式,则近邻像素与种子像素相似,则对应的近邻像素被添加到种子区域,如此,种子区域被扩大,当不再有近邻像素被包含时,迭代结束;
式中,表示当前帧中增长区域中的像素集合,P(t)={p1=(x1,y1),p2=(x2,y2),…}为的子集,由跟所述种子像素(xi,yi)邻接的点组成,pk是P(t)中的任意一个点,th为预第二定阈值;
所述数据处理子单元还用于对整个种子区域的数据进行基于边缘的改进:
通过膨胀稍微扩大色彩帧以确保包含所有重要的边缘;在扩大的掩码上应用canny算子,使用膨胀算子连接边缘;将得到的结果掩码与初始的掩码进行与操作以排除冗余的背景数据;
所述数据处理子单元还用于对基于边缘改进处理后的数据进行基于色彩信息的改进,以减少深度数据上的边界错误;
所述泽尼克矩提取子单元用于利用下面的公式计算一维径向多项式Rn,m为:
式中,n是一个非负整数,表示一维径向多项式的阶数,m是一个非零整数,满足n-|m|=even和|m|≤n,表示相位角的重复度,ρ是点(x,y)到原点的向量的长度,其中点(x,y)是经过所述步骤S27处理后得到的数据点;
所述泽尼克矩提取子单元还用于利用下面的公式计算泽尼克基函数:定义在单位圆内的复值二维泽尼克基函数表示为如下:
Vn,m(ρ,θ)=Rn,meim,|ρ|≤1 (5)
复值二维泽尼克多项式满足正交性:
式中,*表示复共轭,Vp,q与Vn,m的含义相同,区别在于基数不同;
所述泽尼克矩提取子单元还用于将数据处理子单元进行色彩信息的改进后得到的数据对应的图像投影到泽尼克基函数,并利用下面的公式计算泽尼克矩:
上式表示阶为n,相位角重复为m的复泽尼克矩式中,f(x,y)为图像的函数;
其中,为达到尺度和平移不变性,图像函数f(x,y)需被归一化,转换方程为:
所述圆形度提取子单元用于将数据处理子单元进行色彩信息的改进后得到的数据以及下面的公式计算所述圆形度:
式中,A是所述数据处理子单元进行色彩信息的改进后得到的数据对应的图像的面积,而P是所述数据处理子单元进行色彩信息的改进后得到的数据对应的图像的周长。
优选地,所述数据清洗单元包括第一清洗子单元以及第二清洗子单元;
所述第一清洗子单元用于利用动态时间规整法清除所述描述特征的噪声;
所述第二清洗子单元用于利用Fourier Temporal Pyramid清除所述描述特征由于动作速率变化带来的误差以及动作时间匹配上的误差。
(三)有益效果
本发明提供了一种动作识别方法及装置,本发明中首先采集人体动作或导入包含人体动作的文件,并对人体动作进行初步编辑;之后提取编辑之后的人体动作的数据的关节点、圆形度以及泽尼克矩作为所述人体动作的描述特征;之后清除所述描述特征的噪声、动作速率变化带来的误差以及动作时间匹配上的误差;最后为上述处理后得到的描述特征对应的人体动作分配一个标签,并将所述人体动作对应的描述特征以及对应的标签进行存储,实现对新的人体动作的定义;其中,所述标签用于标识对应的人体动作。利用本发明的方法或装置用户只需录制自己或他人的动作便可完成动作的定义,录制的动作数据后期可用于构建动作分类模型,可针对具体的桌面应用进行定制,识别效果达到95%以上。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明的一个较佳实施例的动作识别方法流程图;
图2A、2B是本发明的另一个较佳实施例的动作识别方法流程图
图3是本发明的另一个较佳实施例的动作识别方法中步骤S1的流程图;
图4是本发明的另一个较佳实施例的动作识别方法中步骤S25-S27的流程图;
图5是本发明的另一个较佳实施例的动作识别方法中步骤S26的流程图;
图6A、6B、6C是本发明的另一个较佳实施例的动作识别方法中步骤S26的处理效果示意图;
图7A、7B、7C是本发明的另一个较佳实施例的动作识别方法中步骤S27的效果示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步详细描述。以下实施例用于说明本发明,但不能用来限制本发明的范围。
一种动作识别方法,如图1所示,所述方法包括以下步骤:
S1、采集人体动作或导入包含人体动作的文件,并对人体动作进行初步编辑;
S2、提取所述步骤S1编辑之后的人体动作的数据的关节点、圆形度以及泽尼克矩作为所述人体动作的描述特征;
S3、清除所述描述特征的噪声、动作速率变化带来的误差以及动作时间匹配上的误差;
S4、将所述步骤S3处理后得到的描述特征输入到支持向量机模型进行训练,得到训练后的模型,使用训练后的模型对人体动作分配一个标签,,以此实现对新的人体动作的定义;其中,所述标签用于标识对应的人体动作;
S5、接受特定动作的标签,触发与该动作关联的键盘或鼠标事件,并将该事件递交给目标应用。
利用本发明的方法或装置用户只需录制自己或他人的动作便可完成动作的定义识别制的动作数据后期可用于构建动作分类模型,可针对具体的桌面应用进行定制,识别效果达到95%以上。上述方法度已经定义的动作作进行识别,并将识别的结果与具体的目标应用关联起来,以实现使用姿势动作操控传统的桌面应用。
进一步地,所述步骤S1中采集人体动作之前所述方法还包括以下步骤:
设置所述人体动作的名称以及动作持续时间;
采集倒计时开始计时,经过预定倒计时时长后开始采集人体动作;
所述步骤S1中采集人体动作之后所述方法还包括以下步骤:
采集所述动作持续时间长度内的人体动作后将采集的人体动作进行保存;
所述步骤S1中初步编辑具体为:选定起始帧和结束帧,删除所述起始帧之前以及所述结束帧之后的人体动作帧的数据。
进一步地,如图2A、2B所示,所述步骤S2中提取所述关节点具体包括以下步骤:
S21、利用Kinect SDK API获取关节点位置,该位置基于Kinect设备空间坐标系;
S22、以用户右手方向为x轴正方向,头部正上方为y轴正方向,面向交互设备正前方为z轴正方向,臀部为坐标原点构建用户空间坐标系;
S23、Kinect设备空间坐标系oxyz下的坐标点P(x,y,z)与用户空间坐标系o’x’y’z’下的坐标点P’(x’,y’,z’)的变换关系可描述下式,
式中,O’(x0,y0,z0)表示用户空间坐标系o’x’y’z’的坐标原点。
所述步骤S2中提取所述圆形度以及泽尼克矩:首先从运动的图像帧中去除背景,将运动的人分割出来,然后计算分割后图像的圆形度和泽尼克矩作为描述当前图像帧的特征。提出的分割方法为融合深度信息和颜色信息的分割,其流程图如图4所示,具体包括以下步骤:
S24、对所述步骤S1编辑之后的人体动作进行运动检测,
利用下面公式进行检测,得到符合下面公式的像素点:
式中color(x,t)和color(x,t-1)分别是位置x=(x,y)处t时刻和t-1时刻的色彩帧像素,depth(x,t)和depth(x,t-1)是相应像素的深度值,th为第一预定阈值,所述第一预定阀值用于区分实际的人体运动与噪声;
S25、在运动检测后,设置一个初始的前景区域,然后实现一个区域增长算法构建成整个前景区域,其中所述区域增长算法具体为:利用前一个步骤中得到的像素点作为种子像素,比较所述种子像素与其近邻像素,若近邻像素与种子像素满足下面公式,则近邻像素与种子像素相似,对应的近邻像素被添加到种子区域,如此,种子区域被扩大,当不再有近邻像素被包含时,迭代结束;
式中,表示当前帧中增长区域,即前景区域中的像素集合,P(t)={p1=(x1,y1),p2=(x2,y2),…}为的子集,像素(xi,yi)为待判定的像素点,pk是P(t)中的任意一个点,th为预第二定阈值;
S26、上一个步骤中区域增长算法当应用于带噪声的深度图时,估计的前景掩码将包含错误的区域,这些区域本该属于背景。为解决这类问题,我们利用色彩数据中边缘信息进行改进,最终形成提高的前景掩码。具体操作为:
通过膨胀稍微扩大色彩帧以确保包含所有重要的边缘;在扩大的模板上应用canny算子,接着使用膨胀算子连接边缘;最后将得到的结果模板与初始的掩码进行与操作以排除冗余的背景数据;算法流程如图5,算法应用后的结果如图6A、6B、6C所示;
S27、对所述步骤S26处理后的数据进行基于色彩信息的改进,以减少深度数据上的边界错误;其效果如图7A、7B、7C所示;
S28、利用下面的公式计算一维径向多项式Rn,m为:
式中,n是一个非负整数,表示一维径向多项式的阶数,m是一个非零整数,满足n-|m|=even和|m|≤n,表示相位角的重复度,ρ是点(x,y)到原点的向量的长度,其中点(x,y)是经过所述步骤S27处理后得到的数据点;
S29、利用下面的公式计算泽尼克基函数:定义在单位圆内的复值二维泽尼克基函数表示为如下:
Vn,m(ρ,θ)=Rn,meim,|ρ|≤1 (5)
复值二维泽尼克多项式满足正交性:
式中,*表示复共轭,Vp,q与Vn,m的含义相同,区别在于基数不同;
S210、将步骤S27处理后得到的数据对应的图像投影到泽尼克基函数,并利用下面的公式计算泽尼克矩:
上式表示阶为n,相位角重复为m的复泽尼克矩式中,f(x,y)为图像的函数;
其中,为达到尺度和平移不变性,图像函数f(x,y)需被归一化,转换方程为:
S211、利用所述步骤S27处理后的数据以及下面的公式计算所述圆形度:
式中,A是所述步骤S27处理后的数据对应的图像的面积,而P是所述步骤S27处理后的数据对应的图像的周长。
其中,泽尼克矩可视作一副图像到一个泽尼克多项式集合的映射。由于泽尼克多项式彼此正交,所以使用泽尼克矩表示图像的属性时,各阶矩间不存在信息冗余。同时,泽尼克矩具备旋转不变性和对噪声鲁棒,归一化后的泽尼克矩是尺度和平移不变的。圆形度用于度量目标区域的紧凑度,被定义为面积和周长平方的比,对于圆形目标其达到最小,对于薄的复杂的目标其接近无限大。
进一步地,如图2A、2B所示,所述步骤S3中利用动态时间规整法清除所述描述特征的噪声;
所述步骤S3中利用Fourier Temporal Pyramid清除所述描述特征由于动作速率变化带来的误差以及动作时间匹配上的误差。
对应于上述方法本发明还公开了一种动作识别装置,所述装置包括动作采集单元、特征提取单元、数据清洗单元、动作分类单元以及输入模拟器单元;
所述动作采集单元用于采集人体动作或导入包含人体动作的文件,并对人体动作进行初步编辑;
所述特征提取单元用于提取所述动作采集单元编辑之后的人体动作的数据的关节点、圆形度以及泽尼克矩作为所述人体动作的描述特征;
所述数据清洗单元用于清除所述描述特征的噪声、动作速率变化带来的误差以及动作时间匹配上的误差;
所述动作分类单元用于接收所述数据清洗单元处理后得到的描述特征,然后进行模型训练,训练得到的分类模型就具体的人体动作输出一个标签,,以此实现对新的人体动作的定义和识别;其中,所述标签标识了对应的人体动作;
所述输入模拟器单元用于接受特定动作的标签,触发与该动作关联的键盘或鼠标事件,并将该事件递交给目标应用。
进一步地,所述动作采集单元包括设置子单元、倒计时计时子单元、采集子单元、存储子单元、导入子单元以及编辑子单元;
所述设置子单元用于设置预定倒计时、所述人体动作的名称以及动作持续时间;
所述倒计时计时子单元用于在采集倒计时开始计时,经过预定倒计时时长后控制所述采集子单元开始工作,采集人体动作;
所述导入子单元用于导入包含人体动作的文件;
所述存储子单元用于在所述采集子单元采集所述动作持续时间的时间长度的人体动作后将采集的人体动作进行保存;
所述编辑子单元用于选定起始帧和结束帧,删除所述起始帧之前以及所述结束帧之后的人体动作对应的数据。
进一步地,所述特征提取单元包括关节点提取子单元,
所述关节点提取子单元用于利用Kinect SDK API获取关节点位置基于Kinect设备空间坐标系;以用户右手方向为x轴正方向,头部正上方为y轴正方向,面向交互设备正前方为z轴正方向,臀部为坐标原点构建用户空间坐标系;Kinect设备空间坐标系oxyz下的坐标点P(x,y,z)与用户空间坐标系o’x’y’z’下的坐标点P’(x’,y’,z’)的变换关系可描述下式,
式中,O’(x0,y0,z0)表示用户空间坐标系o’x’y’z’的坐标原点。
所述特征提取单元包括数据处理子单元、圆形度提取子单元以及泽尼克矩提取子单元;
所述数据处理子单元用于对所述步述动作采集单元编辑之后的人体动作进行运动检测,去除不符合下面公式的人体动作对应的数据:
式中color(x,t)和color(x,t-1)分别是位置x=(x,y)处t时刻和t-1时刻的色彩帧像素,depth(x,t)和depth(x,t-1)是相应像素的深度值,th为第一预定阈值,所述第一预定阀值用于区分实际的人体运动与噪声;
所述数据处理子单元还用于在运动检测后,设置一个初始前景掩码,并且选取种子像素,并利用区域增长算法完成整个种子区域,其中所述区域增长算法具体为:比较所述种子像素与近邻像素,若近邻像素与种子像素满足下面公式,则近邻像素与种子像素相似,则对应的近邻像素被添加到种子区域,如此,种子区域被扩大,当不再有近邻像素被包含时,迭代结束;
式中,表示当前帧中增长区域中的像素集合,P(t)={p1=(x1,y1),p2=(x2,y2),…}为的子集,由跟所述种子像素(xi,yi)邻接的点组成,pk是P(t)中的任意一个点,th为预第二定阈值;
所述数据处理子单元还用于对整个种子区域的数据进行基于边缘的改进:
通过膨胀稍微扩大色彩帧以确保包含所有重要的边缘;在扩大的掩码上应用canny算子,使用膨胀算子连接边缘;将得到的结果掩码与初始的掩码进行与操作以排除冗余的背景数据;
所述数据处理子单元还用于对基于边缘改进处理后的数据进行基于色彩信息的改进,以减少深度数据上的边界错误;
所述泽尼克矩提取子单元用于利用下面的公式计算一维径向多项式Rn,m为:
式中,n是一个非负整数,表示一维径向多项式的阶数,m是一个非零整数,满足n-|m|=even和|m|≤n,表示相位角的重复度,ρ是点(x,y)到原点的向量的长度,其中点(x,y)是经过所述步骤S27处理后得到的数据点;
所述泽尼克矩提取子单元还用于利用下面的公式计算泽尼克基函数:定义在单位圆内的复值二维泽尼克基函数表示为如下:
Vn,m(ρ,θ)=Rn,meim,|ρ|≤1 (5)
复值二维泽尼克多项式满足正交性:
式中,*表示复共轭,Vp,q与Vn,m的含义相同,区别在于基数不同;
所述泽尼克矩提取子单元还用于将数据处理子单元进行色彩信息的改进后得到的数据对应的图像投影到泽尼克基函数,并利用下面的公式计算泽尼克矩:
上式表示阶为n,相位角重复为m的复泽尼克矩式中,f(x,y)为图像的函数;
其中,为达到尺度和平移不变性,图像函数f(x,y)需被归一化,转换方程为:
所述圆形度提取子单元用于将数据处理子单元进行色彩信息的改进后得到的数据以及下面的公式计算所述圆形度:
式中,A是所述数据处理子单元进行色彩信息的改进后得到的数据对应的图像的面积,而P是所述数据处理子单元进行色彩信息的改进后得到的数据对应的图像的周长。
进一步地,所述数据清洗单元包括第一清洗子单元以及第二清洗子单元;
所述第一清洗子单元用于利用动态时间规整法DTW清除所述描述特征的噪声;
所述第二清洗子单元用于利用Fourier Temporal Pyramid(FTP)清除所述描述特征由于动作速率变化带来的误差以及动作时间匹配上的误差。
进一步地,图3为动作采集装置的工作流程图。动作采集单元用于对预设的每个动作进行数据采集,该单元实现为动作定义工具包Actionkit。Actionkit由四部分组成,分别是Actionkit主界面、新动作界面、录制新动作界面和动作编辑界面。Actionkit主界面上主要有两个按钮,点击加载按钮弹出文件打开窗口,要求用户选择一已录制好的动作xml文件,然后弹出动作编辑界面;点击录制按钮弹出新动作界面。在新动作界面,用户需设定动作的名称,执行该动作预估的时间,当点击开始录制按钮,弹出录制新动作界面,点击取消按钮回到Actionkit主界面。在录制新动作界面,首先显示一个10秒的倒计时以使用户做好准备,然后显示一个用户在新动作界面设定的时间倒计时,在改时间内,用户执行意向的动作,待倒计时完毕,执行的动作被记录在xml文件中,同时同步的深度图像和颜色图像亦被记录下来。在动作编辑界面,左侧展示人的骨架表示,右侧设置有三个按钮,左侧底部为Back按钮,左侧顶端显示当前帧号及总帧数。当滑动鼠标滚轮时,从当前帧回退到上一帧或前进到下一帧,点击动画按钮可对整个动作进行预览,当选定动作的起始帧后,点击剪掉开始按钮可修建掉起始帧之前的所有帧,当选定动作的结束帧后,点击剪掉结束按钮可修建掉结束帧之后的所有帧。
Actionkit旨在提供动作录制接口,借助Actionkit用户能够录制意向的动作,录制完毕后,Actionkit将其并存为一个xml文件,同时记录同步的深度图像和颜色图像。稍后,用户可在Actionkit加载动作xml文件以实现对已录制的动作进行预览,滑动鼠标光标浏览动作的每一帧,按需选择动作的起始帧和结束帧,并将起始帧和结束帧之前的帧全部修剪掉。
上述装置可以看做是一个基于骨架关节点和形状描述子的动作工具包。
FAAST是目前与本发明较类似的唯一工具,本发明与其的不同之处在于提供了一种十分便利的动作定义工具,使得用户不用如在FAAST中那般去构思描述动作的复杂规则,同时本发明中对动作的识别采用了机器学习的方法,可针对具体的应用定制识别方法,设别效果较好。
以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围,其均应涵盖在本发明的权利要求和说明书的范围当中。
Claims (10)
1.一种动作识别方法,其特征在于,所述方法包括以下步骤:
S1、采集人体动作或导入包含人体动作的文件,并对人体动作进行初步编辑;
S2、提取所述步骤S1编辑之后的人体动作数据的关节点、圆形度以及泽尼克矩作为所述人体动作的描述特征;
S3、移除所述描述特征中存在的噪声、动作速率变化带来的误差以及动作时间匹配上的误差;
S4、将所述步骤S3处理后得到的描述特征输入到支持向量机分类模型进行训练,训练得到的分类模型即实现对新的人体动作的定义;对于具体的动作,分类器将给出一个具体的标签以标识识别的动作;
S5、接受特定动作的标签,触发与该动作关联的键盘或鼠标事件,并将该事件递交给目标应用。
2.根据权利要求1所述的方法,其特征在于,所述步骤S1中采集人体动作之前所述方法还包括以下步骤:
设置所述人体动作的名称以及动作持续时间;
采集倒计时开始计时,经过预定倒计时时长后开始采集人体动作;
所述步骤S1中采集人体动作之后所述方法还包括以下步骤:
采集所述动作持续时间长度内的人体动作后将采集的人体动作进行保存;
所述步骤S1中初步编辑具体为:选定起始帧和结束帧,移除所述起始帧之前以及所述结束帧之后的人体动作帧数据。
3.根据权利要求1所述的方法,其特征在于,所述步骤S2中提取所述关节点具体包括以下步骤:
S21、利用Kinect SDK API获取关节点位置,该位置基于Kinect设备空间坐标系;
S22、以用户右手方向为x轴正方向,头部正上方为y轴正方向,面向交互设备正前方为z轴正方向,臀部为坐标原点构建用户空间坐标系;
S23、Kinect设备空间坐标系oxyz下的坐标点P(x,y,z)与用户空间坐标系o’x’y’z’下的坐标点P’(x’,y’,z’)的变换关系可描述下式,
式中,O’(x0,y0,z0)表示用户空间坐标系o’x’y’z’的坐标原点。
4.根据权利要求1所述的方法,其特征在于,所述步骤S2中提取所述圆形度以及泽尼克矩具体包括以下步骤:
S24、对所述步骤S1编辑之后的人体动作进行运动检测,利用下面公式进行检测,得到符合下面公式的像素点:
式中color(x,t)和color(x,t-1)分别是位置x=(x,y)处t时刻和t-1时刻的色彩帧像素,depth(x,t)和depth(x,t-1)是相应像素的深度值,th为第一预定阈值,所述第一预定阀值用于区分实际的人体运动与噪声;
S25、在运动检测后,设置一个初始的前景区域,然后实现一个区域增长算法构建成整个前景区域,其中所述区域增长算法具体为:利用前一个步骤中得到的像素点作为种子像素,比较所述种子像素与其近邻像素,若近邻像素与种子像素满足下面公式,则近邻像素与种子 像素相似,对应的近邻像素被添加到种子区域,如此,种子区域被扩大,当不再有近邻像素被包含时,迭代结束;
式中,R表示当前帧中前景区域中的像素集合,P(t)={p1=(x1,y1),p2=(x2,y2),…}为R的子集,像素(xi,yi)为待判定的像素点,pk是P(t)中的任意一个点,th为预第二定阈值;
S26、对所述步骤S25处理后得到的数据进行基于边缘的改进:
通过膨胀稍微扩大色彩帧以确保包含所有重要的边缘;在扩大的模板上应用canny算子,接着使用膨胀算子连接边缘;最后将得到的结果模板与初始的掩码进行与操作以排除冗余的背景数据;
S27、对所述步骤S26处理后的数据进行基于色彩信息的改进,以减少深度数据上的边界错误;
S28、利用下面的公式计算一维径向多项式Rn,m为:
式中,n是一个非负整数,表示一维径向多项式的阶数,m是一个非零整数,满足n-|m|=even和|m|≤n,表示相位角的重复度,ρ是点(x,y)到原点的向量的长度,其中点(x,y)是经过所述步骤S27处理后得到的数据点;
S29、利用下面的公式计算泽尼克基函数:定义在单位圆内的复值二维泽尼克基函数表示为如下:
Vn,m(ρ,θ)=Rn,meim,|ρ|≤1 (5)
复值二维泽尼克多项式满足正交性:
式中,*表示复共轭,Vp,q与Vn,m的含义相同,区别在于基数不同;
S210、将步骤S27处理后得到的数据对应的图像投影到泽尼克基函数,并利用下面的公式计算泽尼克矩:
上式表示阶为n,相位角重复为m的复泽尼克矩式中,f(x,y)为图像的函数;
其中,为达到尺度和平移不变性,图像函数f(x,y)需被归一化,转换方程为:
S211、利用所述步骤S27处理后的数据以及下面的公式计算所述圆形度:
式中,A是所述步骤S27处理后的数据对应的图像的面积,而P是所述步骤S27处理后的数据对应的图像的周长。
5.根据权利要求1所述的方法,其特征在于,所述步骤S3中利用动态时间规整法移除所述描述特征中的噪声;
所述步骤S3中利用Fourier Temporal Pyramid移除所述描述特征由于动作速率变化带来的误差以及动作时间匹配上的误差。
6.一种动作识别用的装置,其特征在于,所述装置包括动作采集单元、特征提取单元、数据清洗单元、动作分类单元以及输入模拟器单元;
所述动作采集单元用于采集人体动作或导入包含人体动作的文件,并对人体动作进行初步编辑;
所述特征提取单元用于提取所述动作采集单元编辑之后的人体动作的数据的关节点、圆形度以及泽尼克矩作为所述人体动作的描述特征;
所述数据清洗单元用于移除所述描述特征的噪声、动作速率变化带来的误差以及动作时间匹配上的误差;
所述动作分类单元用于接收所述数据清洗单元处理后得到的描述特征,然后进行模型训练,训练得到的分类模型就具体的人体动作输出一个标签,,以此实现对新的人体动作的定义和识别;其中,所述标签标识了对应的人体动作;
所述输入模拟器单元用于接受特定动作的标签,触发与该动作关联的键盘或鼠标事件,并将该事件递交给目标应用。
7.根据权利要求6所述的装置,其特征在于,所述动作采集单元包括设置子单元、倒计时计时子单元、采集子单元、存储子单元、导入子单元以及编辑子单元;
所述设置子单元用于设置预定倒计时、所述人体动作的名称以及动作持续时间;
所述倒计时计时子单元用于在采集倒计时开始计时,经过预定倒计时时长后控制所述采集子单元开始工作,采集人体动作;
所述导入子单元用于导入包含人体动作的文件;
所述存储子单元用于在所述采集子单元采集所述动作持续时间的时间长度的人体动作后将采集的人体动作进行保存;
所述编辑子单元用于选定起始帧和结束帧,删除所述起始帧之前以及所述结束帧之后的人体动作帧数据。
8.根据权利要求6所述的装置,其特征在于,所述特征提取单元包括关节点提取子单元,
所述关节点提取子单元用于利用Kinect SDK API获取关节点位置基于Kinect设备空间坐标系;以用户右手方向为x轴正方向,头部正上方为y轴正方向,面向交互设备正前方为z轴正方向,臀部为坐标原点构建用户空间坐标系;Kinect设备空间坐标系oxyz下的坐标点P(x,y,z)与用户空间坐标系o’x’y’z’下的坐标点P’(x’,y’,z’)的变换关系可描述下式,
式中,O’(x0,y0,z0)表示用户空间坐标系o’x’y’z’的坐标原点。
9.根据权利要求6所述的装置,其特征在于,所述特征提取单元包括数据处理子单元、圆形度提取子单元以及泽尼克矩提取子单元;
所述数据处理子单元用于对所述动作采集单元编辑之后的人体动作进行运动检测,检测方法利用如下公式:
式中color(x,t)和color(x,t-1)分别是位置x=(x,y)处t时刻和t-1时刻的色彩帧像素,depth(x,t)和depth(x,t-1)是相应像素的深度值,th为第一预定阈值,所述第一预定阀值用于区分实际的人体运动与噪声;
所述数据处理子单元还用于在运动检测后,首先设置一个初始前景模板,以上一步中得到的像素作为种子像素,实现区域增长算法扩大种子区域,最后形成完整的前景模板。其中所述区域增长算法具体 为:比较所述种子像素与其近邻像素,若近邻像素与种子像素满足下面公式,则近邻像素与种子像素相似,则对应的近邻像素被添加到种子区域,如此,种子区域被扩大,当不再有近邻像素被包含时,迭代结束;
式中,R表示当前帧中增长区域中的像素集合,P(t)={p1=(x1,y1),p2=(x2,y2),…}为R的子集,(xi,yi)为待判定的像素点,pk是P(t)中的任意一个点,th为预第二定阈值;
所述数据处理子单元还用于对整个种子区域的数据进行基于边缘的改进:
通过膨胀稍微扩大色彩帧以确保包含所有重要的边缘;在扩大的模板上应用canny算子,然后使用膨胀算子连接边缘;最后将得到的结果掩码与初始的掩码进行与操作以排除冗余的背景数据;
所述数据处理子单元还用于对基于边缘改进处理后的数据进行基于色彩信息的改进,以减少深度数据上的边界错误;
所述泽尼克矩提取子单元用于利用下面的公式计算一维径向多项式Rn,m为:
式中,n是一个非负整数,表示一维径向多项式的阶数,m是一个非零整数,满足n-|m|=even和|m|≤n,表示相位角的重复度,ρ是点(x,y)到原点的向量的长度,其中点(x,y)是经过所述步骤S27处理后得到的数据点;
所述泽尼克矩提取子单元还用于利用下面的公式计算泽尼克基函数:定义在单位圆内的复值二维泽尼克基函数表示为如下:
Vn,m(ρ,θ)=Rn,meim,|ρ|≤1 (5)
复值二维泽尼克多项式满足正交性:
式中,*表示复共轭,Vp,q与Vn,m的含义相同,区别在于基数不同;
所述泽尼克矩提取子单元还用于将数据处理子单元进行色彩信息的改进后得到的数据对应的图像投影到泽尼克基函数,并利用下面的公式计算泽尼克矩:
上式表示阶为n,相位角重复为m的复泽尼克矩式中,f(x,y)为图像的函数;
其中,为达到尺度和平移不变性,图像函数f(x,y)需被归一化,转换方程为:
所述圆形度提取子单元用于将数据处理子单元进行色彩信息的改进后得到的数据以及下面的公式计算所述圆形度:
式中,A是所述数据处理子单元进行色彩信息的改进后得到的数据对应的图像的面积,而P是所述数据处理子单元进行色彩信息的改进后得到的数据对应的图像的周长。
10.根据权利要求6所述的装置,其特征在于,所述数据清洗单元包括第一清洗子单元以及第二清洗子单元;
所述第一清洗子单元用于利用动态时间规整法清除所述描述特征的噪声;
所述第二清洗子单元用于利用Fourier Temporal Pyramid清除所述描述特征由于动作速率变化带来的误差以及动作时间匹配上的误差。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610228320.1A CN105930773A (zh) | 2016-04-13 | 2016-04-13 | 动作识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610228320.1A CN105930773A (zh) | 2016-04-13 | 2016-04-13 | 动作识别方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105930773A true CN105930773A (zh) | 2016-09-07 |
Family
ID=56839032
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610228320.1A Pending CN105930773A (zh) | 2016-04-13 | 2016-04-13 | 动作识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105930773A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106445138A (zh) * | 2016-09-21 | 2017-02-22 | 中国农业大学 | 基于3d关节点坐标的一种人体姿态特征提取方法 |
CN106570480A (zh) * | 2016-11-07 | 2017-04-19 | 南京邮电大学 | 一种基于姿势识别的人体动作分类方法 |
CN107080940A (zh) * | 2017-03-07 | 2017-08-22 | 中国农业大学 | 基于深度相机Kinect的体感交互转换方法及装置 |
CN107087219A (zh) * | 2017-02-22 | 2017-08-22 | 李海英 | 智能家居电视 |
CN107193385A (zh) * | 2017-06-29 | 2017-09-22 | 云南大学 | 一种基于Kinect对键盘行为模拟的方法 |
CN108664119A (zh) * | 2017-10-31 | 2018-10-16 | 中国农业大学 | 一种配置体感动作与虚拟操作间映射关系的方法及装置 |
CN109766782A (zh) * | 2018-12-20 | 2019-05-17 | 南京理工大学 | 基于svm的实时肢体动作识别方法 |
CN109947750A (zh) * | 2018-07-23 | 2019-06-28 | 河海大学 | 一种基于耦合建模的多领域数据清洗及学习方法 |
CN112101253A (zh) * | 2020-09-18 | 2020-12-18 | 广东机场白云信息科技有限公司 | 一种基于视频动作识别的民用机场地面保障状态识别方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104268138A (zh) * | 2014-05-15 | 2015-01-07 | 西安工业大学 | 融合深度图和三维模型的人体运动捕捉方法 |
-
2016
- 2016-04-13 CN CN201610228320.1A patent/CN105930773A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104268138A (zh) * | 2014-05-15 | 2015-01-07 | 西安工业大学 | 融合深度图和三维模型的人体运动捕捉方法 |
Non-Patent Citations (5)
Title |
---|
RAVITEJA VEMULAPALLI等: "Human Action Recognition by Representing 3D Skeletons as Points in a Lie Group", 《2014 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
张天序著: "《成像自动目标识别》", 30 April 2005, 湖北科学技术出版社 * |
沈世宏等: "基于Kinect的体感手势识别系统的研究", 《第21届全国多媒体技术、第8届全国普适计算、第8届全国人机交互联合学术会议论文集》 * |
袁登厅等: "基于Zernike矩及支持向量机的猪的姿态识别", 《信息技术》 * |
郝建平编著: "《虚拟维修仿真理论与技术》", 31 January 2008, 国防工业出版社 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106445138A (zh) * | 2016-09-21 | 2017-02-22 | 中国农业大学 | 基于3d关节点坐标的一种人体姿态特征提取方法 |
CN106570480B (zh) * | 2016-11-07 | 2019-04-19 | 南京邮电大学 | 一种基于姿势识别的人体动作分类方法 |
CN106570480A (zh) * | 2016-11-07 | 2017-04-19 | 南京邮电大学 | 一种基于姿势识别的人体动作分类方法 |
CN107087219A (zh) * | 2017-02-22 | 2017-08-22 | 李海英 | 智能家居电视 |
CN107087219B (zh) * | 2017-02-22 | 2018-04-10 | 罗普特(厦门)科技集团有限公司 | 人体姿势识别装置 |
CN107080940A (zh) * | 2017-03-07 | 2017-08-22 | 中国农业大学 | 基于深度相机Kinect的体感交互转换方法及装置 |
CN107193385A (zh) * | 2017-06-29 | 2017-09-22 | 云南大学 | 一种基于Kinect对键盘行为模拟的方法 |
CN108664119A (zh) * | 2017-10-31 | 2018-10-16 | 中国农业大学 | 一种配置体感动作与虚拟操作间映射关系的方法及装置 |
CN108664119B (zh) * | 2017-10-31 | 2020-11-03 | 中国农业大学 | 一种配置体感动作与虚拟操作间映射关系的方法及装置 |
CN109947750A (zh) * | 2018-07-23 | 2019-06-28 | 河海大学 | 一种基于耦合建模的多领域数据清洗及学习方法 |
CN109947750B (zh) * | 2018-07-23 | 2021-02-05 | 河海大学 | 一种基于耦合建模的多领域数据清洗及学习方法 |
CN109766782A (zh) * | 2018-12-20 | 2019-05-17 | 南京理工大学 | 基于svm的实时肢体动作识别方法 |
CN109766782B (zh) * | 2018-12-20 | 2022-09-27 | 南京理工大学 | 基于svm的实时肢体动作识别方法 |
CN112101253A (zh) * | 2020-09-18 | 2020-12-18 | 广东机场白云信息科技有限公司 | 一种基于视频动作识别的民用机场地面保障状态识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105930773A (zh) | 动作识别方法及装置 | |
CN105844258A (zh) | 动作识别方法及装置 | |
Muresan et al. | Fruit recognition from images using deep learning | |
Amor et al. | Action recognition using rate-invariant analysis of skeletal shape trajectories | |
US8824802B2 (en) | Method and system for gesture recognition | |
Raheja et al. | Robust gesture recognition using Kinect: A comparison between DTW and HMM | |
CN103970271B (zh) | 融合运动和生理传感数据的日常活动识别方法 | |
CN109308459B (zh) | 基于手指注意力模型和关键点拓扑模型的手势估计方法 | |
CN107798653B (zh) | 一种图像处理的方法和一种装置 | |
CN103164694B (zh) | 一种人体动作识别的方法 | |
CN107180226A (zh) | 一种基于组合神经网络的动态手势识别方法 | |
CN107908288A (zh) | 一种面向人机交互的快速人体动作识别方法 | |
CN102508867B (zh) | 一种人体运动的运动图检索方法 | |
CN102779270B (zh) | 一种针对购物图像搜索的目标衣物图像提取方法 | |
WO2017005014A1 (zh) | 搜索匹配商品的方法及装置 | |
CN104317827B (zh) | 一种商品的图片导航方法 | |
CN107146237A (zh) | 一种基于在线状态学习与估计的目标跟踪方法 | |
CN104111733B (zh) | 一种手势识别系统及方法 | |
CN103336967B (zh) | 一种手部运动轨迹检测方法及装置 | |
CN103777748A (zh) | 一种体感输入方法及装置 | |
Vieriu et al. | On HMM static hand gesture recognition | |
CN109359527A (zh) | 基于神经网络的头发区域提取方法及系统 | |
CN111857334A (zh) | 人体手势字母的识别方法、装置、计算机设备及存储介质 | |
Tsai et al. | Transfer learning for surgical task segmentation | |
CN110766645B (zh) | 基于人物识别与分割的目标人物复现图生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160907 |