CN106445138A - 基于3d关节点坐标的一种人体姿态特征提取方法 - Google Patents
基于3d关节点坐标的一种人体姿态特征提取方法 Download PDFInfo
- Publication number
- CN106445138A CN106445138A CN201610839167.6A CN201610839167A CN106445138A CN 106445138 A CN106445138 A CN 106445138A CN 201610839167 A CN201610839167 A CN 201610839167A CN 106445138 A CN106445138 A CN 106445138A
- Authority
- CN
- China
- Prior art keywords
- joint
- coordinate system
- local
- body part
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 10
- 239000011159 matrix material Substances 0.000 claims description 21
- 238000000605 extraction Methods 0.000 claims description 9
- 230000003993 interaction Effects 0.000 claims description 6
- 238000013519 translation Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 4
- 230000003238 somatosensory effect Effects 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 3
- 210000003127 knee Anatomy 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000013145 classification model Methods 0.000 abstract description 2
- 238000002474 experimental method Methods 0.000 abstract description 2
- 238000012706 support-vector machine Methods 0.000 abstract description 2
- 230000036544 posture Effects 0.000 abstract 3
- 230000009471 action Effects 0.000 description 5
- 230000004927 fusion Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了基于3D关节点坐标的一种人体姿态特征提取方法,在本发明中共提取了两种特征,一种是基于身体部分位置的全局特征(Body Part Location,BPL),另一种是基于局部关节结构的局部特征(Local Joint Structure,LJS),最后的特征为这两种特征融合后形成的特征。实验证明,本发明提取的特征能够有效地描述人体姿态,将其应用于支持向量机分类模型时能够对人体姿态进行很好的识别。
Description
技术领域
本发明涉及人机交互技术领域,特别是基于3D关节点坐标的一种人体姿态特征提取方法
背景技术
在人机交互领域,人体动作的准确识别是体感交互的前提,为此必须构建一种有效的动作表示方法,具体来讲就是提出一种有效的人体姿态特征提取方法。传统的人体动作识别基于RGB图像,提取底层图像特征构建高层语义特征描述,并且是针对一个动作提取一个特征描述。这种方式在应对不同视角的情况下,需要大量的训练数据,此外特征的计算代价通常较大,对实时的交互系统,很难达到应用的程度。
近年来,随着深度相机的发展,使用其提供的深度信息结合彩色信息研究各种视觉领域的问题已经成为一种趋势。对于人体动作识别问题,已有很多研究者基于深度图像及其恢复出的关节点数据上进行研究,并取得了一些进展。但一些基于关节点构建的全局特征,在一些情况下不能很好地对动作进行区分,为此必须寻求更有效的基于关节点坐标的人体姿态特征提取方法。
发明内容
(一)要解决的技术问题
本发明要解决的技术问题是提出一种有效的人体姿态表征方法,将人体动作识别应用于实时交互应用中。
(二)技术方案
为了解决上述技术问题,本发明提出了一种基于3D关节点坐标的一种人体姿态特征提取方法,所述方法包括以下步骤:
S1、获取具体姿态的关节点坐标;
S2、建立用户空间坐标系,将设备坐标系中的关节点坐标转换到用户空间系;
S3、提取基于身体部分位置的全局特征;
S4、提取基于局部关节结构的局部特征;
S5、融合全局特征跟局部特征形成最终的姿态描述特征。
优选地,所述步骤S1中获取具体姿态的关节点坐标是通过调用Kinect SDK API获取关节点位置,该位置基于Kinect设备空间坐标系。
优选地,所述步骤S2中建立用户空间坐标系,将设备坐标系中的关节点坐标转换到用户空间系包括以下步骤:
S21、以用户右手方向为x轴正方向,头部向上为y轴正方向,面向体感交互设备正前方为z轴正方向,臀部为坐标原点构建用户空间坐标系;
S22、Kinect设备空间坐标系oxyz下的坐标点P(x,y,z)与用户空间坐标系o’x’y’z’下的坐标点P’(x’,y’,z’)的变换关系可描述下式,
式中,O’(x0,y0,z0)表示用户空间坐标系o’x’y’z’的坐标原点。
优选地,所述步骤S3中提取基于身体部分位置的全局特征包含以下步骤:
S31、确定身体部分的位置,这可以使用其相对全局x轴的旋转和平移来表示,该平移和旋转可表示为一个4乘4的矩阵,它是SE(3)中的一个点,SE(3)表示典型欧几里得群。该矩阵具备如下形式:
其中,是一个三维的平移向量,是一个3乘3的旋转矩阵。
S32、确定步骤S31中矩阵的向量表示。将李群SE(3)映射到其李代数se(3),即在单位元I4处的切平面。se(3)中的元素具备如下形式:
其中,U是一个3乘3的反对称矩阵。如上矩阵可向量化表示如下:
vec(B)=[u1,u2,u3,ω1,ω2,ω3].
S33、李群SE(3)和李代数se(3)之间的映射可表示为如下式子:
exPSE(3)(B)=eB,
logSE(3)(P)=log(P),
S34、步骤S33中的log(P)不唯一,使用具有最小范式的值。
S35、一种人体姿态对应空间中一种骨架S,骨架可以表示为关节的集合,V={v1,…,vN},及有向的身体部分刚体的集合,E={e1,…,eM},即S=(V,E)。对于身体部分刚体em,其起始端点和结束端点分别为 其长度为lm,在时刻t,在全局坐标系中其位置可使用下式进行描述:
由于身体部分的长度随着时间并不改变,因此其位置可仅仅使用如下矩阵进行表示:
我们使用所有身体部分的位置来表示一个骨架,即在时刻t,S可表示为C(t)=(P1(t),P2(t),…,PM(t),M为身体部分的数目,C(t)∈SE(3)×…×SE(3)。C(t)可视作SE(3)×…×SE(3)中的曲线,接着该曲线被映射到对应的李代数se(3)×…×se(3),其向量化形式如下:
容易发现,在任意时刻t,是一个大小为6M的向量,如此,一个人体姿态或骨架就被描述为一个大小为6M向量。
优选地,所述步骤S4中提取基于局部关节结构的局部特征包含以下步骤:
S41、总共20个骨架关节点可用,但仅选取其中13个关节点用于计算局部关节结构,这13个关节包括头、肩部中心、臀部中心、左/右肩、左/右肘、左/右手、左/右膝及左/右脚。
S42、局部的关节结构使用每三个关节点构成的三角形的面积来描述。A(x1,y1,z1),B(x2,y2,z2),C(x3,y3,z3)为从这13个关节点钟选取的三个关节,首先确定其是否构成一个三角区域,若否,将其面积赋值为零,否则使用下面的海伦公式对其面积进行计算:
其中a,b,c是这三个关节中每两个间的距离,p=(a+b+c)/2是半周长。
S43、为应对不同身体大小带来的差异,按下式对此面积进行归一化:L=Snorm=S/dSH
其中dSH表示肩部中心和臀部中心的距离。
S44、由于有13个关节点用来计算面积,这样的面积共有个,因此局部关节结构的特征使用下式进行描述:FLJS=(l1,l2,…,l286)
优选地,所述步骤S5中融合特征的形成。结合基于身体部分位置的全局特征和基于关节结构的局部特征形成最终的特征,表示为如下:
这是一个维度为286+6M的向量,其中M表示身体部分的数目。
(三)有益效果
本发明提出了一种基于3D关节点坐标的一种人体姿态特征提取方法,在本发明中共提取了两种特征,一种是基于身体部分位置的全局特征(Body Part Location,BPL),另一种是基于局部关节结构的局部特征(Local Joint Structure,LJS),最后的特征为这两种特征融合后形成的特征。实验证明,本发明提取的特征能够有效地描述人体姿态,将其应用于支持向量机分类模型时能够对人体姿态进行很好的识别,并且实时性较好。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施方式提供的基于3D关节点坐标的一种人体姿态特征提取方法的流程图。
图2为人体骨架示意图及身体部分在全局坐标系中的表示示意图。
图3为局部关节结构示意图,图中红色区域为由右肩、右肘和肩部中心形成的三角区域。
具体实施方式
下面结合附图和实施例对本发明作进一步详细描述。以下实施例用于说明本发明,但不能用来限制本发明的范围。
基于3D关节点坐标的一种人体姿态特征提取方法,如图1所示,所述方法包括以下步骤:
S1、获取具体姿态的关节点坐标;
S2、建立用户空间坐标系,将设备坐标系中的关节点坐标转换到用户空间系;
S3、提取基于身体部分位置的全局特征;
S4、提取基于局部关节结构的局部特征;
S5、融合全局特征跟局部特征形成最终的姿态描述特征。
优选地,所述步骤S1中获取具体姿态的关节点坐标是通过调用Kinect SDK API获取关节点位置,该位置基于Kinect设备空间坐标系。
优选地,所述步骤S2中建立用户空间坐标系,将设备坐标系中的关节点坐标转换到用户空间系包括以下步骤:
S21、以用户右手方向为x轴正方向,头部向上为y轴正方向,面向体感交互设备正前方为z轴正方向,臀部为坐标原点构建用户空间坐标系;
S22、Kinect设备空间坐标系oxyz下的坐标点P(x,y,z)与用户空间坐标系o’x’y’z’下的坐标点P’(x’,y’,z’)的变换关系可描述下式,
式中,O’(x0,y0,z0)表示用户空间坐标系o’x’y’z’的坐标原点。
优选地,所述步骤S3中提取基于身体部分位置的全局特征包含以下步骤:
S31、确定身体部分的位置,这可以使用其相对全局x轴的旋转和平移来表示,该平移和旋转可表示为一个4乘4的矩阵,它是SE(3)中的一个点,SE(3)表示典型欧几里得群。该矩阵具备如下形式:
其中,是一个三维的平移向量,是一个3乘3的旋转矩阵。
S32、确定步骤S31中矩阵的向量表示。将李群SE(3)映射到其李代数 se(3),即在单位元I4处的切平面。se(3)中的元素具备如下形式:
其中,U是一个3乘3的反对称矩阵。如上矩阵可向量化表示如下:
vec(B)=[u1,u2,u3,ω1,ω2,ω3].
S33、李群SE(3)和李代数se(3)之间的映射可表示为如下式子:
exPSE(3)(B)=eB,
logSE(3)(P)=log(P),
S34、步骤S33中的log(P)不唯一,使用具有最小范式的值。
S35、一种人体姿态对应空间中一种骨架S,如图2所示,骨架可以表示为关节的集合,V={v1,…,vN},及有向的身体部分刚体的集合,E={e1,…,eM},即S=(V,E)。对于身体部分刚体em,其起始端点和结束端点分别为其长度为lm,在时刻t,在全局坐标系中其位置可使用下式进行描述:
由于身体部分的长度随着时间并不改变,因此其位置可仅仅使用如下矩阵进行表示:
我们使用所有身体部分的位置来表示一个骨架,即在时刻t,S可表示为C(t)=(P1(t),P2(t),…,PM(t),M为身体部分的数目,C(t)∈SE(3)×…×SE(3)。C(t)可视作SE(3)×…×SE(3)中的曲线,接着该曲线被映射到对应的李代数se(3)×…×se(3),其向量化形式如下:
容易发现,在任意时刻t,是一个大小为6M的向量,如此,一个人 体姿态或骨架就被描述为一个大小为6M向量。
优选地,所述步骤S4中提取基于局部关节结构的局部特征包含以下步骤:
S41、总共20个骨架关节点可用,但仅选取其中13个关节点用于计算局部关节结构,这13个关节包括头、肩部中心、臀部中心、左/右肩、左/右肘、左/右手、左/右膝及左/右脚,如图3所示。
S42、局部的关节结构使用每三个关节点构成的三角形的面积来描述。A(x1,y1,z1),B(x2,y2,z2),C(x3,y3,z3)为从这13个关节点钟选取的三个关节,首先确定其是否构成一个三角区域,若否,将其面积赋值为零,否则使用下面的海伦公式对其面积进行计算:
其中a,b,c是这三个关节中每两个间的距离,p=(a+b+c)/2是半周长。
S43、为应对不同身体大小带来的差异,按下式对此面积进行归一化:
L=Snorm=S/dSH
其中dSH表示肩部中心和臀部中心的距离。
S44、由于有13个关节点用来计算面积,这样的面积共有个,因此局部关节结构的特征使用下式进行描述:
FLJS=(l1,l2,…,l286)
优选地,所述步骤S5中融合特征的形成。结合基于身体部分位置的全局特征和基于关节结构的局部特征形成最终的特征,表示为如下:
这是一个维度为286+6M的向量,其中M表示身体部分的数目。
以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术 方案的本质脱离本发明各实施例技术方案的范围,其均应涵盖在本发明的权利要求和说明书的范围当中。
Claims (6)
1.基于3D关节点坐标的一种人体姿态特征提取方法,其特征在于,所述方法包括以下步骤:
S1、获取具体姿态的关节点坐标;
S2、建立用户空间坐标系,将设备坐标系中的关节点坐标转换到用户空间系;
S3、提取基于身体部分位置的全局特征;
S4、提取基于局部关节结构的局部特征;
S5、融合全局特征跟局部特征形成最终的姿态描述特征。
2.根据权利要求1所述的方法,其特征在于,所述步骤S1中获取具体姿态的关节点坐标是通过调用Kinect SDK API获取关节点位置,该位置基于Kinect设备空间坐标系。
3.根据权利要求1所述的方法,其特征在于,所述步骤S2中建立用户空间坐标系,将设备坐标系中的关节点坐标转换到用户空间系包括以下步骤:
S21、以用户右手方向为x轴正方向,头部向上为y轴正方向,面向体感交互设备正前方为z轴正方向,臀部为坐标原点构建用户空间坐标系;
S22、Kinect设备空间坐标系oxyz下的坐标点P(x,y,z)与用户空间坐标系o’x’y’z’下的坐标点P’(x’,y’,z’)的变换关系可描述下式,
式中,O’(x0,y0,z0)表示用户空间坐标系o’x’y’z’的坐标原点。
4.根据权利要求1所述的方法,其特征在于,所述步骤S3中提取基于身体部分位置的全局特征包含以下步骤:
S31、确定身体部分的位置,这可以使用其相对全局x轴的旋转和平移来表示,该平移和旋转可表示为一个4乘4的矩阵,它是SE(3)中的一个点,SE(3)表示典型欧几里得群。该矩阵具备如下形式:
其中,是一个三维的平移向量,是一个3乘3的旋转矩阵。
S32、确定步骤S31中矩阵的向量表示。将李群SE(3)映射到其李代数se(3),即在单位元I4处的切平面。se(3)中的元素具备如下形式:
其中,U是一个3乘3的反对称矩阵。如上矩阵可向量化表示如下:
vec(B)=[u1,u2,u3,ω1,ω2,ω3]
S33、李群SE(3)和李代数se(3)之间的映射可表示为如下式子:
expSE(3)(B)=eB
logSE(3)(P)=log(P)
S34、步骤S33中的log(P)不唯一,使用具有最小范式的值。
S35、一种人体姿态对应空间中一种骨架S,骨架可以表示为关节的集合,V={v1,…,vN},及有向的身体部分刚体的集合,E={e1,…,eM},即S=(V,E)。对于身体部分刚体em,其起始端点和结束端点分别为 其长度为lm,在时刻t,在全局坐标系中其位置可使用下式进行描述:
由于身体部分的长度随着时间并不改变,因此其位置可仅仅使用如下矩阵进行表示:
我们使用所有身体部分的位置来表示一个骨架,即在时刻t,S可表示为C(t)=(P1(t),P2(t),…,PM(t),M为身体部分的数目,C(t)∈SE(3)×…×SE(3)。C(t)可视作SE(3)×…×SE(3)中的曲线,接着该曲线被映射到对应的李代数其向量化形式如下:
容易发现,在任意时刻t,是一个大小为6M的向量,如此,一个人体姿态或骨架就被描述为一个大小为6M向量。
5.根据权利要求1所述的方法,其特征在于,所述步骤S4中提取基于局部关节结构的局部特征包含以下步骤:
S41、总共20个骨架关节点可用,但仅选取其中13个关节点用于计算局部关节结构,这13个关节包括头、肩部中心、臀部中心、左/右肩、左/右肘、左/右手、左/右膝及左/右脚。
S42、局部的关节结构使用每三个关节点构成的三角形的面积来描述。A(x1,y1,z1),B(x2,y2,z2),C(x3,y3,z3)为从这13个关节点钟选取的三个关节,首先确定其是否构成一个三角区域,若否,将其面积赋值为零,否则使用下面的海伦公式对其面积进行计算:
其中a,b,c是这三个关节中每两个间的距离,p=(a+b+c)/2是半周长。
S43、为应对不同身体大小带来的差异,按下式对此面积进行归一化:
L=Sn。rm=S/dSH
其中dSH表示肩部中心和臀部中心的距离。
S44、由于有13个关节点用来计算面积,这样的面积共有个,因此局部关节结构的特征使用下式进行描述:
FLJS=(l1,l2,…,l286) 。
6.根据权利要求1所述的方法,其特征在于,所述步骤S5中融合特征的形成。结合基于身体部分位置的全局特征和基于关节结构的局部特征形成最 终的特征,表示为如下:
这是一个维度为286+6M的向量,其中M表示身体部分的数目。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610839167.6A CN106445138A (zh) | 2016-09-21 | 2016-09-21 | 基于3d关节点坐标的一种人体姿态特征提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610839167.6A CN106445138A (zh) | 2016-09-21 | 2016-09-21 | 基于3d关节点坐标的一种人体姿态特征提取方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106445138A true CN106445138A (zh) | 2017-02-22 |
Family
ID=58166340
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610839167.6A Pending CN106445138A (zh) | 2016-09-21 | 2016-09-21 | 基于3d关节点坐标的一种人体姿态特征提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106445138A (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107080940A (zh) * | 2017-03-07 | 2017-08-22 | 中国农业大学 | 基于深度相机Kinect的体感交互转换方法及装置 |
CN108549876A (zh) * | 2018-04-20 | 2018-09-18 | 重庆邮电大学 | 基于目标检测和人体姿态估计的坐姿检测方法 |
CN109086659A (zh) * | 2018-06-13 | 2018-12-25 | 深圳市感动智能科技有限公司 | 一种基于多模道特征融合的人体行为识别方法和装置 |
CN109614899A (zh) * | 2018-11-29 | 2019-04-12 | 重庆邮电大学 | 一种基于李群特征和卷积神经网络的人体动作识别方法 |
CN110047101A (zh) * | 2018-01-15 | 2019-07-23 | 北京三星通信技术研究有限公司 | 物体姿态估计方法、获得稠密深度图像的方法、相应装置 |
CN110084140A (zh) * | 2019-04-05 | 2019-08-02 | 西北工业大学 | 基于关节向量的通用姿态识别方法 |
CN111228792A (zh) * | 2020-01-14 | 2020-06-05 | 深圳十米网络科技有限公司 | 体感游戏动作识别方法、装置、计算机设备及存储介质 |
CN112711332A (zh) * | 2020-12-29 | 2021-04-27 | 上海交通大学宁波人工智能研究院 | 一种基于姿态坐标的人体动作捕捉方法 |
CN113080610A (zh) * | 2021-04-21 | 2021-07-09 | 付翠仙 | 一种桌椅调节方法及桌椅 |
CN113298051A (zh) * | 2021-07-26 | 2021-08-24 | 湖南灵之心心理学应用技术有限公司 | 基于感知地毯标定的人体形体精确测量系统及方法 |
US11430150B2 (en) | 2020-01-03 | 2022-08-30 | Samsung Electronics Co., Ltd. | Method and apparatus for processing sparse points |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103440037A (zh) * | 2013-08-21 | 2013-12-11 | 中国人民解放军第二炮兵工程大学 | 一种基于有限输入信息的虚拟人体运动实时交互控制方法 |
CN104317386A (zh) * | 2014-06-25 | 2015-01-28 | 西南科技大学 | 一种姿势序列有限状态机动作识别方法 |
CN105844258A (zh) * | 2016-04-13 | 2016-08-10 | 中国农业大学 | 动作识别方法及装置 |
CN105930773A (zh) * | 2016-04-13 | 2016-09-07 | 中国农业大学 | 动作识别方法及装置 |
-
2016
- 2016-09-21 CN CN201610839167.6A patent/CN106445138A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103440037A (zh) * | 2013-08-21 | 2013-12-11 | 中国人民解放军第二炮兵工程大学 | 一种基于有限输入信息的虚拟人体运动实时交互控制方法 |
CN104317386A (zh) * | 2014-06-25 | 2015-01-28 | 西南科技大学 | 一种姿势序列有限状态机动作识别方法 |
CN105844258A (zh) * | 2016-04-13 | 2016-08-10 | 中国农业大学 | 动作识别方法及装置 |
CN105930773A (zh) * | 2016-04-13 | 2016-09-07 | 中国农业大学 | 动作识别方法及装置 |
Non-Patent Citations (4)
Title |
---|
《数学辞海》编辑委员会: "《数学辞海》", 31 August 2002 * |
LILIANA: "3D Skeleton-based Human Action Classification: a Survey", 《PATTERN RECOGNITION》 * |
陈洪: "带有关节权重的DTW动作识别算法研究", 《图学学报》 * |
魏莱: "基于关节点的人体动作识别及姿态分析研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107080940A (zh) * | 2017-03-07 | 2017-08-22 | 中国农业大学 | 基于深度相机Kinect的体感交互转换方法及装置 |
CN110047101A (zh) * | 2018-01-15 | 2019-07-23 | 北京三星通信技术研究有限公司 | 物体姿态估计方法、获得稠密深度图像的方法、相应装置 |
CN108549876A (zh) * | 2018-04-20 | 2018-09-18 | 重庆邮电大学 | 基于目标检测和人体姿态估计的坐姿检测方法 |
CN109086659A (zh) * | 2018-06-13 | 2018-12-25 | 深圳市感动智能科技有限公司 | 一种基于多模道特征融合的人体行为识别方法和装置 |
CN109614899B (zh) * | 2018-11-29 | 2022-07-01 | 重庆邮电大学 | 一种基于李群特征和卷积神经网络的人体动作识别方法 |
CN109614899A (zh) * | 2018-11-29 | 2019-04-12 | 重庆邮电大学 | 一种基于李群特征和卷积神经网络的人体动作识别方法 |
CN110084140A (zh) * | 2019-04-05 | 2019-08-02 | 西北工业大学 | 基于关节向量的通用姿态识别方法 |
US11430150B2 (en) | 2020-01-03 | 2022-08-30 | Samsung Electronics Co., Ltd. | Method and apparatus for processing sparse points |
CN111228792A (zh) * | 2020-01-14 | 2020-06-05 | 深圳十米网络科技有限公司 | 体感游戏动作识别方法、装置、计算机设备及存储介质 |
CN112711332B (zh) * | 2020-12-29 | 2022-07-15 | 上海交通大学宁波人工智能研究院 | 一种基于姿态坐标的人体动作捕捉方法 |
CN112711332A (zh) * | 2020-12-29 | 2021-04-27 | 上海交通大学宁波人工智能研究院 | 一种基于姿态坐标的人体动作捕捉方法 |
CN113080610A (zh) * | 2021-04-21 | 2021-07-09 | 付翠仙 | 一种桌椅调节方法及桌椅 |
CN113298051A (zh) * | 2021-07-26 | 2021-08-24 | 湖南灵之心心理学应用技术有限公司 | 基于感知地毯标定的人体形体精确测量系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106445138A (zh) | 基于3d关节点坐标的一种人体姿态特征提取方法 | |
Wang et al. | Region ensemble network: Towards good practices for deep 3D hand pose estimation | |
WO2021103648A1 (zh) | 手部关键点检测方法、手势识别方法及相关装置 | |
Ye et al. | Accurate 3d pose estimation from a single depth image | |
CN102708355B (zh) | 信息处理装置、信息处理方法 | |
CN102567703B (zh) | 一种基于分类特征的手部动作识别信息处理方法 | |
CN108492017B (zh) | 一种基于增强现实的产品质量信息传递方法 | |
CN112232106A (zh) | 一种二维到三维人体姿态估计方法 | |
Dibra et al. | Monocular RGB hand pose inference from unsupervised refinable nets | |
CN103824326A (zh) | 一种动态的人体三维建模方法 | |
Aly et al. | Street view goes indoors: Automatic pose estimation from uncalibrated unordered spherical panoramas | |
Yin et al. | Estimation of the fundamental matrix from uncalibrated stereo hand images for 3D hand gesture recognition | |
An et al. | ARShoe: Real-time augmented reality shoe try-on system on smartphones | |
Roy et al. | LGVTON: a landmark guided approach for model to person virtual try-on | |
Yang et al. | HiLo: Detailed and Robust 3D Clothed Human Reconstruction with High-and Low-Frequency Information of Parametric Models | |
US11004266B2 (en) | Articulated model registration apparatus and method | |
Qammaz et al. | A Unified Approach for Occlusion Tolerant 3D Facial Pose Capture and Gaze Estimation Using MocapNETs | |
Kim et al. | Zero-shot learning for the primitives of 3d affordance in general objects | |
Huang et al. | 360Loc: A Dataset and Benchmark for Omnidirectional Visual Localization with Cross-device Queries | |
Liu et al. | New anti-blur and illumination-robust combined invariant for stereo vision in human belly reconstruction | |
Chen et al. | 360ORB-SLAM: A Visual SLAM System for Panoramic Images with Depth Completion Network | |
JP2022092528A (ja) | 三次元人物姿勢推定装置、方法およびプログラム | |
Zhang et al. | Human model adaptation for multiview markerless motion capture | |
Payandeh et al. | Experimental Study of a Deep‐Learning RGB‐D Tracker for Virtual Remote Human Model Reconstruction | |
Dias et al. | Separating shape and pose variations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20170222 |
|
WD01 | Invention patent application deemed withdrawn after publication |