CN103440037A - 一种基于有限输入信息的虚拟人体运动实时交互控制方法 - Google Patents
一种基于有限输入信息的虚拟人体运动实时交互控制方法 Download PDFInfo
- Publication number
- CN103440037A CN103440037A CN2013103759029A CN201310375902A CN103440037A CN 103440037 A CN103440037 A CN 103440037A CN 2013103759029 A CN2013103759029 A CN 2013103759029A CN 201310375902 A CN201310375902 A CN 201310375902A CN 103440037 A CN103440037 A CN 103440037A
- Authority
- CN
- China
- Prior art keywords
- human body
- virtual human
- virtual
- motion
- maintenance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 204
- 238000000034 method Methods 0.000 title claims abstract description 78
- 230000003993 interaction Effects 0.000 title abstract 6
- 238000004088 simulation Methods 0.000 claims abstract description 23
- 230000002093 peripheral effect Effects 0.000 claims abstract description 4
- 238000012423 maintenance Methods 0.000 claims description 74
- 230000008569 process Effects 0.000 claims description 39
- 238000006073 displacement reaction Methods 0.000 claims description 23
- 230000002452 interceptive effect Effects 0.000 claims description 18
- 230000000875 corresponding effect Effects 0.000 claims description 17
- 230000009471 action Effects 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 6
- 210000000707 wrist Anatomy 0.000 claims description 6
- 230000005057 finger movement Effects 0.000 claims description 5
- 230000036541 health Effects 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000013461 design Methods 0.000 claims description 4
- 210000003127 knee Anatomy 0.000 claims description 4
- 230000002441 reversible effect Effects 0.000 claims description 4
- 238000013519 translation Methods 0.000 claims description 4
- 230000000670 limiting effect Effects 0.000 claims description 3
- 238000013459 approach Methods 0.000 claims description 2
- 230000002596 correlated effect Effects 0.000 claims description 2
- 210000004247 hand Anatomy 0.000 claims description 2
- 230000008520 organization Effects 0.000 claims description 2
- 230000001360 synchronised effect Effects 0.000 claims description 2
- 238000011161 development Methods 0.000 abstract description 5
- 210000002683 foot Anatomy 0.000 description 39
- 238000005516 engineering process Methods 0.000 description 17
- 230000000694 effects Effects 0.000 description 5
- 238000011160 research Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000001276 controlling effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 210000000323 shoulder joint Anatomy 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 210000000544 articulatio talocruralis Anatomy 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 210000003109 clavicle Anatomy 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 244000144992 flock Species 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000003387 muscular Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 230000001932 seasonal effect Effects 0.000 description 1
- 210000000115 thoracic cavity Anatomy 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Manipulator (AREA)
Abstract
本发明涉及一种虚拟维修仿真中虚拟人体运动的实时交互控制方法,利用单只数据手套和空间位置跟踪装置中单个传感器获取的有限输入信息,对虚拟人体运动进行实时交互控制;根据虚拟维修的主要操作动作和VR交互外设的功能,将其坐标系原点与虚拟人体某一关节点绑定下的初始坐标并跟随人体运动做相应平移和旋转;在各关节点建立局部的关节参考坐标系统。同现有技术相比,改变了以机器及设备性能与复杂的方法为代价的状况,实现了虚拟人运动控制流畅,运算量小,对软硬件环境要求不高,能够在使用单只数据手套以及仅配备单个传感器的空间位置跟踪装置的条件下,方便地实现实时交互控制,降低了开发成本及难度,提高开发效率。
Description
技术领域
本发明属于数据处理技术领域。涉及一种虚拟维修仿真中虚拟人体运动的实时交互控制方法,尤其涉及在虚拟现实交互设备有限的情况下,利用单只数据手套和空间位置跟踪装置中单个传感器获取的有限输入信息,对虚拟人体运动进行实时交互控制的方法。
背景技术
虚拟人体运动控制是虚拟维修操作中实现产品零部件模型、维修资源模型和虚拟维修人体之间动作交互的重要过程,该过程的逼真度、实时性、交互性和准确度直接影响并决定虚拟维修训练操作的效果。同时,它也是真实维修过程中维修人员操作动作在虚拟维修环境中的再现,对其进行控制不仅要具有实时性和交互性,而且要准确地反映维修过程中虚拟维修人体与产品零部件模型和维修资源模型之间动作交互的相互关系。
目前,国内外对虚拟人体运动控制的研究主要采用五种方式:
1、关键帧方法。关键帧技术是最早用于虚拟人运动控制的方法,使用较为简便。但在参数关键帧对虚拟人体运动过程中的控制参数进行插值时,没有考虑人体的物理属性以及参数之间的相互关系,因此插值参数的选择容易产生不恰当的运动。
2、基于运动学和逆运动学方法。人体运动学只讨论运动本身的细节,独立于产生人体运动的力,相关参数包括物体的位置、速度和加速度。在运动学的模型中,任何一个人体骨骼段的完整的运动学参数共需15个随时间变化的参量来形容,这些运动学参数主要包括人体骨骼段的体心位置、人体骨骼段的体心速度、人体骨骼段的体心加速度、人体骨骼段的角度、人体骨骼段角速度、人体骨骼段角加速度等。因此,人体运动参数是很复杂的,并且简化参数生成的人体运动是虚拟的,并不能完全反映物体的真实运动,除非用户给定的关键参数及所采取的插值模式恰好符合物体的动力学特性。
3、基于动力学和逆动力学方法。人体动力学是对产生人体运动的力的研究。对整个身体来说,主要受到重力、地面反作用力或外力、肌肉力以及关节反作用力及骨与骨之间的作用力。基于动力学的模型是指由所受的力控制物体的运动,运动参数由动力学方程决定。基于动力学的模型可以按照动画设计者的要求而运动。但是也存在很多局限性。例如动力学方程的求解问题,通常无法得到动力学方程的解,只能采用数值求解技术,但要找到适当的求解方法并不容易。
4、基于物理约束的方法。与关键帧技术不同,基于物理的仿真技术是利用生物力学、动力学等物理规律来控制虚拟人体运动。这就意味着虚拟人体的运动受到物理规律的支配,可以创作自然逼真的动画。同时,采用基于约束的方法对动画角色加以运动约束,用逆动力学技术和约束优化技术计算满足约束的运动,可以使人体的运动符合给定的约束。利用物理约束的仿真技术可以生成用关键帧技术无法实现的完全符合物理特性的理想运动,实现比关键帧或动作捕捉技术更精确的交互。但是,庞大的计算量制约了动态仿真技术的发展。
5、使用动作捕捉技术。动作捕捉技术是一种比较常用的技术,通常需要利用配备大量传感器的鸟群空间位置跟踪装置或人体动作捕捉系统,对现实中维修操作人员的空间位置、身体姿态、手部动作和操作指令等数据信息进行捕捉和处理,对虚拟维修人员的运动仿真和交互操作进行实时控制。该技术的优点是能够捕捉到操作人员真实运动的数据,效果形象逼真。但是该方法的缺点是容易受传感器性能及传感器与关节间相对位置的影响,导致运动数据出现误差。此外,由于该类设备极其昂贵,运行和维护成本较高,极大地限制了该方面相关课题研究的开展。
从上述现有技术中的研究成果可以发现,虚拟人运动控制的实现一般是以机器及设备性能与复杂的方法为代价的。虚拟人运动控制方法在微型机上运行很难得到流畅的效果,其运算量极大,并对软硬件环境要求较高。
发明内容
针对上述现有技术存在的问题。本发明的目的在于,降低虚拟维修仿真开发中对虚拟现实(Virtual Reality,VR)外围交互设备的硬件要求,提供一种基于有限数据的虚拟人体运动实时交互的控制方法。
现将本发明构思及技术解决方案叙述如下:
本发明的基本构思是,根据虚拟维修仿真开发中所涉及的操作动作主要集中于手部和手臂,对站立、行走、转身、蹲下、起立等人体运动精度要求不高,因此,将不必考虑的关节运动忽略,根据虚拟维修仿真需求和虚拟人体骨架模型的关节链结构对虚拟人体模型进行简化,如图1所示。在本发明中,手部五个手指的操作动作通过具有14个传感器的数据手套进行实时驱动,因此在虚拟人体运动控制时不需要再次考虑;手臂动作主要是由手部操作所引起的手腕、肘部和肩部的牵连运动,不需要考虑肩部与锁骨、颈部的关节运动;头部和胸腔、腰部和胯部分别作为整体躯干,仅考虑腹部简单的弯曲运动以及胯部的关节运动;脚部主要配合腿部完成相应的人体运动,可以不单独考虑踝部关节运动。因此,人体骨架所包含关节数可由图1中所示的24个,简化为图2中所示的13个。
根据上述发明构思设置,本发明一种基于有限输入信息的虚拟人体运动实时交互控制方法,其特征在于:根据虚拟维修的主要操作动作和VR交互外设的功能,基于逆向人体运动学方法和虚拟人体简化骨架结构模型进行标记点的选取;对于虚拟人体坐标系统(Virtual Body Coordinate System,VBCS),将其坐标系原点Vb与虚拟人体某一关节点绑定下的初始坐标为Vb=[xb,yb,zb]T,并跟随人体运动做相应平移和旋转;在各关节点建立局部的关节参考坐标系统(Joint Reference Coordinate System,JRCS)Ji(i=1,2,…|J|);根据维修操作将其分类设计为不同的动作序列,建立能够完整正确描述维修操作过程的人体运动模型为:(1)站立,保持身体自然直立;(2)行走,按照设定的步距进行周期移动;(3)转身,以根节点为轴心,沿顺时针或逆时针方向旋转一定角度(0°~180°);(4)蹲下,采用双膝下蹲,左、右膝同步运动;(5)起立,身体由下蹲变为直立;(6)手部操作,使用工具维修设备操作,由数据手套驱动;(7)手臂动作,由手部动作引起的牵连运动。
本发明进一步提供一种基于有限输入信息的虚拟人体运动实时交互控制方法,其特征在于:通过人体运动与维修操作的过程变换条件控制虚拟人体的运动,实现传感器数据对人体运动和手部动作的分阶段实时驱动;将空间位置跟踪装置中的信号源发射器调整好坐标方向,固定于物体的水平面上,进而形成原点位于虚拟环境中ACS下某特定点的参考坐标系(Reference Coordinate System,RCS),即空间位置跟踪装置的坐标系统(PositionTracking Coordinate System,PTCS);通过传感接收器跟踪真实空间中手部相对于信号源发射器的位移和方向,获取相关的数据信息,选择合适的增益系数k,对实际位移ΔS在虚拟环境中进行放大ΔSVR=k·ΔS,从而在较大空间范围内对虚拟人体进行交互控制。
本发明进一步提供一种基于有限输入信息的虚拟人体运动实时交互控制方法,其特征在于:虚拟维修操作中人体根节点mkr_1主要做空间平移运动,转身动作做为旋转运动通过简单的坐标系水平旋转实现;手臂和手部的维修操作动作通过PTCS的传感接收器和数据手套进行实时驱动;利用逆向人体运动学方法进行相应的姿态控制。
本发明进一步提供一种基于有限输入信息的虚拟人体运动实时交互控制方法,其特征在于:在虚拟人体运动阶段,单个传感器的输入数据用于驱动虚拟人体根节点mkr_1的空间位置Vb;数据手套的传感器输入信息用于确认人体运动控制指令;通过判断虚拟人体姿态和运动位置,根据空间位置传感器获取的位移或旋转信息并对其相关处理后,对虚拟人体运动过程进行控制;虚拟人体运动过程依据人体结构、运动规律进行实时仿真;当虚拟人体进入到维修对象一定范围内时,依据相关判断条件,虚拟人体的运动过程中止;此时,数据手套的传感器输入信息改变,数据手套实时获取人体手部运动信息,进而驱动手指动作,完成相关的虚拟维修任务。
本发明进一步提供一种基于有限输入信息的虚拟人体运动实时交互控制方法,其特征在于:具体包括以下步骤:
步骤1在虚拟维修环境坐标系统中,取装配体i三维模型框架形状的左侧面Sleft、顶面Stop和前面Sfront为辅助平面,其空间位置分别对应于相应轮廓表面的x轴、y轴和z轴坐标值,通过装配体i三维模型的框架形状(长、高、宽)及其几何形心的绝对空间坐标Ci=[xi,yi,zi]T求得;其中i=1,2,…,N,N为某装备中装配体总个数;若用Si=[sri,sti,sfi]T来表示装配体i框架平面Sleft、Stop和Sfront的空间位置信息,则有:
其中,SHi=[li,hi,-wi]T为装配体i三维模型框架的长、高、宽信息向量;
然后根据虚拟人体与维修对象间的距离,确定空间位置传感器以及数据手套输入信息的作用方式;即:
式(2)中,Dbm(t)为t时刻虚拟人体根节点mkr1与维修对象i形状轮廓的前侧面Sfront在ACS中水平方向上的空间距离,它随人体在虚拟环境中的运动而发生相应变化;
步骤2设定虚拟人体运动控制条件(a):d1≤Dbm(t)≤d2 (3)
式(3)中,d1和d2均为距离调定常数,用于限定虚拟人体与维修对象之间的水平距离,两者构成一个特定的取值区间[d1,d2];d1和d2通常取日常经验值,如d1=0.15m,d2=0.25m;若假设虚拟人体停止时与维修对象前侧面之间的水平距离为ds,则有ds∈[d1,d2];根据虚拟人体运动控制条件(a),判断t时刻被维修对象是否处于人体手臂所能触及的范围之外。若处于范围之外,则认为被维修对象处于人体手臂所能触及的范围之外,转至步骤3;若处于范围之内,则认为虚拟人体已运动至维修对象前方,转至步骤7;
步骤3当Dbm(t)不满足虚拟人体运动控制条件(a)时,操作人员右手臂带动传感器向前平稳推出;
步骤4设定虚拟人体运动控制条件(b):Dbm(t)≥Lfeet+d2 (5)
步骤5在虚拟人体运动控制条件(b)下,每次虚拟人体运动仿真推进时,系统将会自动计算并更新虚拟维修环境中Dbm(t)、Vbz(t)及Δz′VR(t)的数值,即有:
其中,Vbz(t)为t时刻VBCS的坐标原点Vb(即虚拟人体根节点)在ACS中z轴上的空间坐标。ΔzVR(t)为t时刻由虚拟维修环境帧刷新而赋值于虚拟人体沿ACS的z轴方向的相对运动位移量。Δz′VR(t)为t时刻ΔzVR(t)的剩余相对运动位移量;
步骤6当虚拟人体运动不再满足控制条件(b)时,根据仿真时间推进和虚拟人体的运动控制过程可知,该仿真推进时刻tp,虚拟人体与维修对象之间的距离Dbm(tp)将满足虚拟人体运动控制条件(d):d2<Dbm(tp)<Lfeet+d2 (9)
步骤7当Dbm(t)满足人体运动控制条件(a)时,即认为被维修对象处于人体手臂所能触及的范围之内,从而暂停Vb在z轴方向上的位置更新,虚拟人体也由行走状态转变为站立状态;
步骤8操作人员保持右手掌的握拳状态,通过逆时针或顺指针方向旋转手腕α或β角,控制虚拟人体向左转角度αvb或向右转角度βvb,实现虚拟人体向左旋转、向右旋转和向后转身,然后进行相应方向上的运动,如转身后回到起始位置;
步骤9在虚拟人体进行斜线运动接近维修对象的过程中受上述步骤中运动条件的控制和空间位置的约束;在判断和计算虚拟人体运动过程时,采用的步距是其左转或右转后Lfeet在坐标轴z上的投影长度Lfeet·cos(αvb(t))或Lfeet·cos(βvb(t)),且αvb(t)和βvb(t)均小于90°;为了避免虚拟人体按设定步距Lfeet进行斜线运动过程中,在仿真推进时刻tf的下一次仿真推进时出现距离预测值的情景,其中:
或
步骤10操作人员需要使右手掌保持(或变回)握拳状态实现对虚拟人体蹲下与起立的运动控制,然后通过上下垂直移动手臂上的传感器,进而控制虚拟人体的蹲下与起立;
步骤11当Hbm(t)满足虚拟人体运动控制条件(h)时,即认为t时刻被维修对象处于人体腰部下方,且是手臂所能触及的范围之外;
步骤12当Vby(t)满足虚拟人体运动控制条件(i)时,即认为虚拟人体的下蹲运动已经完成,从而暂停Vb在y轴方向上的位置更新,虚拟人体也由站立状态变为并保持蹲下状态。
本发明同现有技术相比,改变了虚拟人运动控制的实现以机器及设备性能与复杂的方法为代价的状况。实现了虚拟人运动控制方法在微型机上运行很难得到流畅的效果,运算量小,并对软硬件环境要求不高,能够在使用单只数据手套以及仅配备单个传感器的空间位置跟踪装置的条件下,方便地实现对虚拟人体运动的实时交互控制的,极大地降低了虚拟维修仿真系统的开发成本及难度,提高开发效率。
附图说明
图1:现有技术虚拟人体骨架结构模型
图2:本发明虚拟人体简化骨架模型
图3:本发明虚拟维修环境中坐标系统关系示意图
图4:本发明虚拟人体运动变步距控制示意图
图5:本发明虚拟维修环境中垂直空间距离示意图
具体实施方式
现结合附图对本发明技术解决方案作进一步详细说明:
如图3所示:初始状态时,虚拟人体面向装备模型自然站立于虚拟维修环境中,且使VBCS的坐标轴与PTCS的坐标轴平行、同向。同时,在虚拟环境中建立与维修对象i形状轮廓相适应的虚拟维修环境坐标系统,在方案实施过程中,将空间位置传感器与数据手套暂先设定于操作人员常用的右手部位,左手部位的操作方式与右手相同。在虚拟维修环境坐标系统中,取装配体i三维模型框架形状的左侧面Sleft、顶面Stop和前面Dfront为辅助平面,其空间位置分别对应于相应轮廓表面的x轴、y轴和z轴坐标值,通过装配体i三维模型的框架形状(长、高、宽)及其几何形心的绝对空间坐标Ci=[xi,yi,zi]T便可求得;其中i=1,2,…,N,N为某装备中装配体总个数。若用Si=[sri,sti,sfi]T来表示装配体i框架平面Sleft、Stop和Sfront的空间位置信息,则有:
其中,SHi=[li,hi,-wi]T为装配体i三维模型框架的长、高、宽信息向量。
步骤1根据虚拟人体与维修对象间的距离,确定空间位置传感器以及数据手套输入信息的作用方式。初始时刻,虚拟人体与维修对象之间距离较大,空间位置传感器的输入数据用于驱动虚拟人体根节点mkr_1的空间位置Vb,而数据手套的传感器输入信息用于确认人体运动控制指令,暂不用于驱动手指动作。即与右手绑定的传感器在真实空间中相对于信号源发射器的旋转和移动,将用于驱动人体在虚拟环境中的转身和行进、蹲下与起立,但是该过程中的手指动作暂不予考虑。
在具体实现过程中,当操作人员右手掌由自然张开状态变为握拳状态、拳眼垂直向上时(大臂自然下放),开启传感器输入数据对VBCS原点坐标Vb空间位置更新控制,当手掌伸展时则停止对Vb空间位置的更新。
在图3中,Dbm(t)为t时刻虚拟人体根节点mkr_1与维修对象i形状轮廓的前侧面Sfront在ACS中水平方向上的空间距离,它随人体在虚拟环境中的运动而发生相应变化。即:
步骤2设定虚拟人体运动控制条件(a):
d1≤Dbm(t)≤d2 (3)
式(3)中,d1和d2均为距离调定常数,用于限定虚拟人体与维修对象之间的水平距离,两者构成一个特定的取值区间[d1,d2]。d1和d2通常取日常经验值,如d1=0.15m,d2=0.25m。若假设虚拟人体停止时与维修对象前侧面之间的水平距离为ds,则有ds∈[d1,d2]。
根据虚拟人体运动控制条件(a),判断t时刻被维修对象是否处于人体手臂所能触及的范围之外。若处于范围之外,则认为被维修对象处于人体手臂所能触及的范围之外,转至步骤3;若处于范围之内,则认为虚拟人体已运动至维修对象前方,转至步骤7。
步骤3当Dbm(t)不满足虚拟人体运动控制条件(a)时,操作人员右手臂带动传感器向前平稳推出,此时传感器将会沿PTCS的z轴方向产生相对位移Δz,由图3可知Δz>0。在人员操作时,可能会因为手臂缩回而出现Δz<0情形,为防止仿真失真或死锁现象的发生,此时令Δz=0。
为了实现对虚拟人体的运动控制,将位移Δz作为虚拟人体的速度矢量Δvz控制信号进行采集和处理。若设定相应的增益系数为kz(kz>0),随着基于VR软件平台组建的虚拟维修环境的帧刷新,则在时间段t内赋值于虚拟人体沿ACS的z轴方向的相对运动位移量ΔzVR(t)不断累积增加,且有:
式(4)中,Fps表示虚拟维修环境的平均帧刷新率,单位为fps。[tFps]表示时间段t为的最大累积帧刷新数。Δvzi表示第i帧时相对运动位移赋值的速度矢量大小,即所采集的Δz值。
步骤4设定虚拟人体运动控制条件(b):Dbm(t)≥Lfeet+d2 (5)
当满足虚拟人体运动控制条件(b)时,根据相对运动位移量的赋值ΔzVR,每次仿真推进都会使虚拟人体沿ACS的z轴方向,按照一定仿真时间步长Ts和设定步距Lfeet(Lfeet可取为0.75)向前行进,直至完成相应的实际行进距离或者不再满足条件(b)为止。
在此条件下,将虚拟人体开始运动的初始时刻认定为该次虚拟人体运动起始时刻t0,在仿真推进过程中的某仿真时刻t,根据仿真时间步长推进次数M与设定步距Lfeet的乘积可获得已行进的实际距离ΔDbm(t),即:ΔDbm(t)=M·Lfeet (6)
其中,ΔDbm(t)表示(t-t0)时间段内虚拟人体的实际行进距离,即Dbm(t)的减少量。M=[(t-t0)/Ts],表示在(t-t0)时间段内按照仿真时间步长Ts的最大推进次数。Lfeet为虚拟人体行走时的设定步距。
步骤5在虚拟人体运动控制条件(b)下,每次虚拟人体运动仿真推进时,系统将会自动计算并更新虚拟维修环境中Dbm(t)、Vbz(t)及Δz′VR(t)的数值,即有:
其中,Vbz(t)为t时刻VBCS的坐标原点Vb(即虚拟人体根节点)在ACS中z轴上的空间坐标。ΔzVR(t)为t时刻由虚拟维修环境帧刷新而赋值于虚拟人体沿ACS的z轴方向的相对运动位移量。Δz′VR(t)为t时刻ΔzVR(t)的剩余相对运动位移量。为了避免仿真推进过程中某一时刻出现死锁或运动失真的现象,设定虚拟人体运动控制条件(c):Δz′VR(t)>Lfeet (8)
虚拟人体按照设定步距Lfeet运动过程中,只有在满足条件(c)的情况下,下一仿真推进时刻虚拟人体才能正常行进。
步骤6当虚拟人体运动不再满足控制条件(b)时,根据仿真时间推进和虚拟人体的运动控制过程可知,该仿真推进时刻tp,虚拟人体与维修对象之间的距离Dbm(tp)将满足虚拟人体运动控制条件(d):d2<Dbm(tp)<Lfeet+d2 (9)
如图4所示。在虚拟人体运动控制条件(d)下,采用预测分析法和变步距法对下一仿真推进时刻的虚拟人体运动进行控制,即在仿真时刻tp对下一仿真时刻按设定步距Lfeet行进后的预测值进行分析和判断,进而通过变步距控制使虚拟人体运动能够满足控制条件(a)。主要包括以下两种实施情形:
a)当且满足控制条件(c)时,虚拟人体在仿真时刻tp继续按设定步距Lfeet行进至仿真时刻(tp+Ts),便能够到达维修活动可实施范围内,即满足控制条件(a)。此时,虚拟人体相应的运动数据信息更新为:
b)当时,虚拟人体在仿真时刻tp继续按设定步距Lfeet推进至仿真时刻(tp+Ts),便会超出设定的距离范围[d1,d2]。为此,在仿真时刻tp采用变步距L′feet推进至仿真时刻(tp+Ts),使虚拟人体最终满足控制条件(a)。引入剩余距离调定常数dr,其中dr∈[d1,d2];为了方便计算和控制,可取值dr=(d1+d2)/2。其中变步距L′feet的计算方法为:
L′feet=Dbm(tp)-dr (11)
设定虚拟人体运动控制条件(e):
Δz′VR(tp)≥Dbm(tp)-d2 (12)
在满足控制条件(e)的情况下,虚拟人体按照变步距L′feet行进至仿真时刻(tp+Ts),便能够满足控制条件(a)。此时,虚拟人体运动的相应数据更新为:
步骤7当Dbm(t)满足人体运动控制条件(a)时,即认为被维修对象处于人体手臂所能触及的范围之内,从而暂停Vb在z轴方向上的位置更新,虚拟人体也由行走状态转变为站立状态。此时:
a)如果手掌继续保持握拳状态,则传感器输入数据将继续用于驱动虚拟人体运动,虚拟人体不再继续靠近维修对象,但是能够通过逆时针或顺指针方向旋转手腕,控制虚拟人体向左侧或右侧旋转相应的角度,实现虚拟人体向左转、向右转和向后转,从而实现其它方向上的运动控制。或是通过上下垂直移动右手臂,进而控制虚拟人体的蹲下与起立。
b)如果手掌由握拳状态变为自然张开,则认为已经完成了人体在虚拟环境中的运动操作。传感器输入数据将不再继续用于驱动虚拟人体运动,进而用于控制维修操作时手部的空间位置和姿态。
c)当某项维修操作任务完成后,手掌再次由自然张开状态变为握拳状态(拳眼保持垂直向上),则再次开启传感器输入数据对VBCS原点坐标Vb空间位置的更新控制,从而控制虚拟人体回到初始位置或移动到下一维修操作工位。
步骤8为了实现虚拟人体运动中的转身和斜线运动控制,操作人员保持右手掌的握拳状态,然后通过逆时针或顺指针方向旋转手腕α或β角,控制虚拟人体向左转角度αvb或向右转角度βvb,从而实现虚拟人体向左旋转、向右旋转和向后转身,然后进行相应方向上的运动,如转身后回到起始位置等。
α与β的取值范围为[0,90°]和[0,-90°],其相对应的αvb和βvb设定为:αvb=2α,βvb=2β,其取值范围分别为[0,180°]和[0,-180°]。当操作人员旋转手腕α或β角时,虚拟人体将会实时跟随旋转αvb和βvb角,即VBCS坐标系统的z轴方向旋转αvb和βVb角。此时,操作人员手臂带动传感器向前平稳推出的过程中,虚拟人体则将沿VBCS旋转后的z轴正方向行进。在仿真运行过程中,下一仿真推进时刻VBCS的坐标原点Vb在ACS中的运动控制方程,可由当前仿真推进时刻Vb的空间位置和VBCS的旋转角度信息进行描述:
或
式(14)和(15)中,Vbx(tc)、Vby(tc)和Vbz(tc)分别为仿真推进时刻tc时VBCS的坐标原点Vb在虚拟维修环境ACS中的位置坐标分量;Vbx(tc+Ts)、Vby(tc+Ts)和Vbz(tc+Ts)分别为所对应位置坐标分量在下一仿真推进时刻(tc+Ts)时的数值。αvb(tc)和βvb(tc)分别表示仿真推进时刻tc时VBCS所对应的旋转角度,从而能够实时地反映不同旋转角度对虚拟人体的运动控制。
步骤9在虚拟人体进行斜线运动接近维修对象的过程中,也同样受到上述步骤中运动条件的控制和空间位置的约束。但在判断和计算虚拟人体运动过程时,采用的步距是其左转或右转后Lfeet在坐标轴z上的投影长度Lfeet·cos(αvb(t))或Lfeet·cos(βvb(t)),且αvb(t)和βvb(t)均小于90°。为了避免虚拟人体按设定步距Lfeet进行斜线运动过程中,在仿真推进时刻tf的下一次仿真推进时出现距离预测值的情景,其中:
或
设定虚拟人体运动控制条件(f):
Dbm(tf)<Lfeet·cos(αvb(tf))+d1 (18)
或
Dbm(tf)<Lfeet·cos(βvb(tf))+d1 (19)
当虚拟人体运动过程满足运动控制条件(f)时,采用变步距法对虚拟人体最后一步的行进过程进行控制,使虚拟人体最终满足控制条件(a)。其中,变步距L′feet的计算方法如下:
L′feet=(Dbm(tf)-dr)/cos(αvb(tf)) (20)
或
L′feet=(Dbm(tf)-dr)/cos(βvb(tf)) (21)
由条件(f)可知L′feet<Lfeet。在此条件下,虚拟人体运动控制条件(e)相对应地改变为(g):
Δz′VR(tf)≥(Dbm(tf)-d2)/cos(αvb(tf)) (22)
或
Δz′VR(tf)≥(Dbm(tf)-d2)/cos(βvb(tf)) (23)
当满足虚拟人体控制条件(f)和(g)时,虚拟人体在仿真推进时刻(tf+Ts)以变步距L′feet完成最后一步行进,并满足控制条件(a)。此时,虚拟人体相应的运动数据信息更新为:
或
步骤10为了实现对虚拟人体蹲下与起立的运动控制,操作人员需要使右手掌保持(或变回)握拳状态,然后通过上下垂直移动手臂上的传感器,进而控制虚拟人体的蹲下与起立。在此过程中,单个传感器的输入数据被用于驱动虚拟人体根节点mkr_1上下垂直移动,而数据手套的传感器输入信息暂不用驱动手指动作,只有在完全蹲下状态时手部才进行相应的维修操作。
如图5所示,Hbm(t)为t时刻虚拟人体右肩关节J1与维修对象辅助平面Stop之间垂直方向上的空间距离,Hd为虚拟人体蹲下状态时根节点Vb与虚拟场景地面之间的垂直距离。当虚拟人体由站立状态变换为蹲下状态时或是由蹲下状态变换为站立状态时,Hbm(t)就会跟随虚拟人体的姿态变换发生相应改变。
设定虚拟人体运动控制条件(h):
Hbm(t)=y1(t)-yi>Larm (26)
式(26)中,y1(t)为t时刻虚拟人体右肩关节J1在ACS中的y轴坐标值,即J1与虚拟维修环境中地面之间的垂直距离。y1为装配体i形心在ACS中的y轴坐标值。
步骤11当Hbm(t)满足虚拟人体运动控制条件(h)时,即认为t时刻被维修对象处于人体腰部下方,且是手臂所能触及的范围之外。此时操作人员右手臂带动传感器向下垂直移动,传感器将会沿PTCS的y轴方向产生相对位移Δy,由于下蹲过程距离较短,且可以通过t时刻Vb在ACS中y轴上的空间坐标Vby(t)进行映射和控制,为此将Δy作为虚拟人体的位移矢量控制信号进行采集和处理。增益系数为ky,则虚拟人体在虚拟维修环境中将会沿ACS的y轴方向产生相对位移ΔyVR=ky·Δy。则t时刻Vb在ACS中y轴上的空间坐标Vby(t)为:
Vby(t)=yb-ky·|Δy| (27)
由式(27)可知,人体的下蹲程度只与Δy相关,与仿真时间推进无关,Vby(t)只是表示其不同仿真时刻的y轴坐标值,虚拟维修环境进行帧刷新时会对其进行更新。
设定虚拟人体运动控制条件(i):
Vby(t)≤Hd (28)
步骤12当Vby(t)满足虚拟人体运动控制条件(i)时,即认为虚拟人体的下蹲运动已经完成,从而暂停Vb在y轴方向上的位置更新,虚拟人体也由站立状态变为并保持蹲下状态。此时;
a)如果手掌由握拳状态变为自然张开,则认为已经完成了人体在虚拟环境中相应的运动操作(下蹲)。传感器输入数据将不再继续用于驱动虚拟人体运动,进而用于控制维修操作时手部的空间位置和姿态。
b)当某项维修操作任务完成后,手掌再次由自然张开状态变为握拳状态(拳眼保持垂直向上),则再次开启传感器输入数据对VBCS原点坐标Vb空间位置的更新控制,从而操作人员通过右手臂带动传感器向上垂直移动,控制虚拟人体由蹲下状态变为站立状态。
此情况下,当Vby(t)满足虚拟人体运动控制条件(j):
Vby(t)≥yb (29)
即认为虚拟人体已经由蹲下状态变为站立状态,从而暂停Vb在y轴方向上的位置更新,虚拟人体保持站立状态,进而使虚拟人体能够根据其他运动控制进行相应的仿真运动操作。
实施例:
为分析复杂装备典型故障虚拟维修方法,研究复杂装备故障维修过程建模与仿真技术,构建了某型装备虚拟维修训练仿真系统。在该系统中,操作人员通过借助鼠标、键盘、5DT Data Glove 14 Ultra数据手套、空间位置跟踪装置及三维立体投影系统等硬件设备,实现对虚拟维修环境中虚拟人运动的交互控制。以该仿真平台初始时刻虚拟人体的运动控制方法为实施例进行效果说明:
在仿真运行平台运行的初始时刻ts,虚拟人体按图3所示方向面对某维修对象b的三维模型,其中虚拟人体根节点mkr_1的空间位置Vb为[0.08,0.87,-6.0]T(坐标单位均为米,以下均同),右肩关节J1在ACS中的y轴坐标值为1.47m,臂长为0.78m,人体下蹲后与地面的垂直距离为Hd=0.4m;维修对象b的几何形心的绝对空间坐标为Cb=[0.73,0.5,6.0]T,其长lb、高hb、宽wb分别为0.5m、1m和0.4m,则维修对象b框架平面的空间位置信息为:
在某型装备虚拟维修训练仿真系统中,将虚拟人体的固定步距设为0.75m,仿真时间步长设为0.5s(即每秒虚拟人体行进2步);空间位置传感器z轴上增益系统设为kz=2,y轴上增益系统设为ky=4,平均帧刷新率为Fps=40fps。
步骤1根据虚拟人体与维修对象b的相对位置,确定空间位置传感器输入信息用于驱动虚拟人体根节点mkr_1的空间位置Vb更新,数据手套输入信息用于确定人体运动控制指令。即操作人员右手掌由自然张开状态变为握拳状态、拳眼垂直向上时(大臂自然下放)。此时,虚拟人体根节点mkr_1与维修对象i形状轮廓的前侧面Sfront在ACS中水平方向上的空间距离为:
Dbm(ts)=|zb(ts)-sfb|=11.8m (2)
步骤2根据虚拟人体运动控制条件(a)可知,此刻维修对象b处于人体手臂所能触及的范围之外。
步骤3由于维修对象b处于人体手臂之外,所以操作人员右手臂带动传感器向前平稳推出,传感器将会沿PTCS的z轴方向产生相对位移Δz≈0.1m,则在0.5s内累积的相对运动位移量约为:
ΔzVR(0.5)=2×0.5×40×0.1=4m (4)
步骤4为实现对虚拟人体行进方向的控制,操作人员时刻保持右手臂处于推出状态。在运动开始后,虚拟人体的剩余相对运动位移量在虚拟人体运动仿真推进时刻中始终满足控制条件(c)、(e)和(g)。虚拟人体的行进过程分为以下四个阶段:
1)在t1=ts+0.094s时刻,虚拟人体开始运动;
2)操作人员右拳拳眼向上,虚拟人体向前行进了15步,即在经过15个仿真时间步长的t2=t1+7.5s时刻,虚拟人体的位置变为:
3)操作人员右拳逆时针旋转30°,通过计算可知虚拟人体向左旋转60°后行进一个固定步距,可满足虚拟人体运动控制条件(a),即在t3=t2+0.5s时刻,虚拟人体的位置为:
4)操作人员右拳顺时针旋转30°转回初始位置,虚拟人体恢复正向面对维修对象b的站立状态。
步骤5根据虚拟人体运动控制条件(h)可知,t3时刻维修对象b处于人体腰部下方,且位于手臂所能触及的范围之外。当在右拳向下移动了0.12m的时刻t4,虚拟人体Vb在y轴的坐标值为:
Vby(t4)=yb-ky·|Δy|=0.39m (27)
满足虚拟人体运动控制条件(i),且有:
Vby(t4)<Hd (28)
此刻,即有虚拟人体下蹲运动完成,暂停Vb在y轴方向上的位置更新,虚拟人体也由站立状态变为并保持蹲下状态。
步骤6操作人员控制虚拟人体完成对维修对象b的维修操作。
步骤7右手掌再次由自然张开状态变为握拳状态(拳眼保持垂直向上),则再次开启传感器输入数据对VBCS原点坐标Vb空间位置的更新控制。当操作人员通过右手臂带动传感器向上垂直移动0.12m时,Vby(t)满足虚拟人体运动控制条件(j),此时停止对Vby(t)的更新,虚拟人体由蹲下状态变为站立状态。
步骤8操作人员右拳顺时针或逆时针旋转90°,虚拟人体则向后转身。
步骤9操作人员右拳向前平稳推出,根据ΔzVR(t)及其旋转角度值控制虚拟人体按照固定步距Lfeet向远离维修对象b的方向行进。
本实施例在实现过程中,采用三维立体投影系统营造了一个逼真、友好的虚拟维修训练环境,通过运用3D Max及Solidworks建模和构建虚拟维修训练软件数据库,最终通过采用MFC与OSG编程构建了仿真运行平台。仿真运行平台的正常运行证明了本发明的正确性与可行性。
Claims (5)
1.一种基于有限输入信息的虚拟人体运动实时交互控制方法,其特征在于:根据虚拟维修的主要操作动作和VR交互外设的功能,基于逆向人体运动学方法和虚拟人体简化骨架结构模型进行标记点的选取;对于虚拟人体坐标系统,将其坐标系原点Vb与虚拟人体某一关节点绑定下的初始坐标为Vb=[xb,yb,zb]T,并跟随人体运动做相应平移和旋转;在各关节点建立局部的关节参考坐标系统Ji(i=1,2,…|J|);根据维修操作将其分类设计为不同的动作序列,建立能够完整正确描述维修操作过程的人体运动模型为:(1)站立,保持身体自然直立;(2)行走,按照设定的步距进行周期移动;(3)转身,以根节点为轴心,沿顺时针或逆时针方向旋转一定角度(0°~180°);(4)蹲下,采用双膝下蹲,左、右膝同步运动;(5)起立,身体由下蹲变为直立;(6)手部操作,使用工具维修设备操作,由数据手套驱动;(7)手臂动作,由手部动作引起的牵连运动。
2.根据权利要求1所述的一种基于有限输入信息的虚拟人体运动实时交互控制方法,其特征在于:通过人体运动与维修操作的过程变换条件控制虚拟人体的运动,实现传感器数据对人体运动和手部动作的分阶段实时驱动;将空间位置跟踪装置中的信号源发射器调整好坐标方向,固定于物体的水平面上,进而形成原点位于虚拟环境中ACS下某特定点的参考坐标系,即空间位置跟踪装置的坐标系统;通过传感接收器跟踪真实空间中手部相对于信号源发射器的位移和方向,获取相关的数据信息,选择合适的增益系数k,对实际位移ΔS在虚拟环境中进行放大ΔSVR=k·ΔS,从而在较大空间范围内对虚拟人体进行交互控制。
3.根据权利要求2所述的一种基于有限输入信息的虚拟人体运动实时交互控制方法,其特征在于:虚拟维修操作中人体根节点mkr_1主要做空间平移运动,转身动作做为旋转运动通过简单的坐标系水平旋转实现;手臂和手部的维修操作动作通过PTCS的传感接收器和数据手套进行实时驱动;利用逆向人体运动学方法进行相应的姿态控制。
4.根据权利要求3所述的一种基于有限输入信息的虚拟人体运动实时交互控制方法,其特征在于:在虚拟人体运动阶段,单个传感器的输入数据用于驱动虚拟人体根节点mkr_1的空间位置Vb;数据手套的传感器输入信息用于确认人体运动控制指令;通过判断虚拟人体姿态和运动位置,根据空间位置传感器获取的位移或旋转信息并对其相关处理后,对虚拟人体运动过程进行控制;虚拟人体运动过程依据人体结构、运动规律进行实时仿真;当虚拟人体进入到维修对象一定范围内时,依据相关判断条件,虚拟人体的运动过程中止;此时,数据手套的传感器输入信息改变,数据手套实时获取人体手部运动信息,进而驱动手指动作,完成相关的虚拟维修任务。
5.根据权利要1~4所述的一种基于有限输入信息的虚拟人体运动实时交互控制方法,其特征在于:具体包括以下步骤:
步骤1:在虚拟维修环境坐标系统中,取装配体i三维模型框架形状的左侧面Sleft、顶面St。p和前面Sfroot为辅助平面,其空间位置分别对应于相应轮廓表面的x轴、y轴和z轴坐标值,通过装配体i三维模型的框架形状(长、高、宽)及其几何形心的绝对空间坐标Ci=[xi,yi,zi]T求得;其中i=1,2,…,N,N为某装备中装配体总个数。若用Si=[sri,sti,sfi]T来表示装配体i框架平面Sleft、St。p和Sfront的空间位置信息,则有:
其中,SHi=[li,hi,-wi]T为装配体i三维模型框架的长、高、宽信息向量;根据虚拟人体与维修对象间的距离,确定空间位置传感器以及数据手套输入信息的作用方式;然后根据虚拟人体与维修对象间的距离,确定空间位置传感器以及数据手套输入信息的作用方式;即:
式(2)中,Dbm(t)为t时刻虚拟人体根节点mkr1与维修对象i形状轮廓的前侧面Sfront在ACS中水平方向上的空间距离,它随人体在虚拟环境中的运动而发生相应变化;
步骤2:设定虚拟人体运动控制条件(a):d1≤Dbm(t)≤d2 (3)
式(3)中,d1和d2均为距离调定常数,用于限定虚拟人体与维修对象之间的水平距离,两者构成一个特定的取值区间[d1,d2]。d1和d2通常取日常经验值,如d1=0.15m,d2=0.25m。若假设虚拟人体停止时与维修对象前侧面之间的水平距离为ds,则有ds∈[d1,d2];
步骤3:当Dbm(t)不满足虚拟人体运动控制条件(a)时,操作人员右手臂带动传感器向前平稳推出;
步骤4:设定虚拟人体运动控制条件(b):
Dbm(t)≥Lfeet+d2 (5)
步骤5:在虚拟人体运动控制条件(b)下,每次虚拟人体运动仿真推进时,系统将会自动计算并更新虚拟维修环境中Dbm(t)、Vbz(t)及Δz′VR(t)的数值,即有:
其中,Vbz(t)为t时刻VBCS的坐标原点Vb(即虚拟人体根节点)在ACS中z轴上的空间坐标。ΔzVR(t)为t时刻由虚拟维修环境帧刷新而赋值于虚拟人体沿ACS的z轴方向的相对运动位移量。Δz′VR(t)为t时刻ΔzVR(t)的剩余相对运动位移量;
步骤6:当虚拟人体运动不再满足控制条件(b)时,根据仿真时间推进和虚拟人体的运动控制过程可知,该仿真推进时刻tp,虚拟人体与维修对象之间的距离Dbm(tp)将满足虚拟人体运动控制条件(d):
d2<Dbm(tp)<Lfeet+d2 (9)
步骤7:当Dbm(t)满足人体运动控制条件(a)时,即认为被维修对象处于人体手臂所能触及的范围之内,从而暂停Vb在z轴方向上的位置更新,虚拟人体也由行走状态转变为站立状态;
步骤8:为了实现虚拟人体运动中的转身和斜线运动控制,操作人员保持右手掌的握拳状态,然后通过逆时针或顺指针方向旋转手腕α或β角,控制虚拟人体向左转角度αvb或向右转角度βvb,从而实现虚拟人体向左旋转、向右旋转和向后转身,然后进行相应方向上的运动,如转身后回到起始位置;
步骤9:在虚拟人体进行斜线运动接近维修对象的过程中,也同样受到上述步骤中运动条件的控制和空间位置的约束。但在判断和计算虚拟人体运动过程时,采用的步距是其左转或右转后Lfeet在坐标轴z上的投影长度Lfeet·cos(αvb(t))或Lfeet·cos(βvb(t)),且αvb(t)和βvb(t)均小于90°。为了避免虚拟人体按设定步距Lfeet进行斜线运动过程中,在仿真推进时刻tf的下一次仿真推进时出现距离预测值的情景,其中:
或
步骤10:为了实现对虚拟人体蹲下与起立的运动控制,操作人员需要使右手掌保持(或变回)握拳状态,然后通过上下垂直移动手臂上的传感器,进而控制虚拟人体的蹲下与起立;
步骤11:当Hbm(t)满足虚拟人体运动控制条件(h)时,即认为t时刻被维修对象处于人体腰部下方,且是手臂所能触及的范围之外;
步骤12:当Vby(t)满足虚拟人体运动控制条件(i)时,即认为虚拟人体的下蹲运动已经完成,从而暂停Vb在y轴方向上的位置更新,虚拟人体也由站立状态变为并保持蹲下状态。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310375902.9A CN103440037B (zh) | 2013-08-21 | 2013-08-21 | 一种基于有限输入信息的虚拟人体运动实时交互控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310375902.9A CN103440037B (zh) | 2013-08-21 | 2013-08-21 | 一种基于有限输入信息的虚拟人体运动实时交互控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103440037A true CN103440037A (zh) | 2013-12-11 |
CN103440037B CN103440037B (zh) | 2017-02-08 |
Family
ID=49693732
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310375902.9A Expired - Fee Related CN103440037B (zh) | 2013-08-21 | 2013-08-21 | 一种基于有限输入信息的虚拟人体运动实时交互控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103440037B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104391573A (zh) * | 2014-11-10 | 2015-03-04 | 北京华如科技股份有限公司 | 一种基于单姿态传感器识别投掷动作的方法及装置 |
CN105824417A (zh) * | 2016-03-16 | 2016-08-03 | 成都电锯互动科技有限公司 | 一种采用虚拟现实技术的人与物的结合方法 |
CN105843388A (zh) * | 2016-03-23 | 2016-08-10 | 北京轩宇智能科技有限公司 | 一种新型数据手套系统 |
CN106445138A (zh) * | 2016-09-21 | 2017-02-22 | 中国农业大学 | 基于3d关节点坐标的一种人体姿态特征提取方法 |
CN106647796A (zh) * | 2016-06-22 | 2017-05-10 | 中国人民解放军63863部队 | 一种装备三维模型机构运动通用控制方法 |
CN107463256A (zh) * | 2017-08-01 | 2017-12-12 | 网易(杭州)网络有限公司 | 基于虚拟现实的用户朝向控制方法与装置 |
CN107728777A (zh) * | 2016-08-11 | 2018-02-23 | 拓景科技股份有限公司 | 虚拟现实环境中的特定信息展示方法及系统 |
CN107771309A (zh) * | 2015-06-19 | 2018-03-06 | 微软技术许可有限责任公司 | 三维用户输入 |
CN107995964A (zh) * | 2015-01-28 | 2018-05-04 | Ccp公司 | 用于经由虚拟控制对象接收手势输入的方法和系统 |
CN109542210A (zh) * | 2017-09-21 | 2019-03-29 | 福建天晴数码有限公司 | 基于虚拟引擎的手臂运动模拟还原方法、存储介质 |
CN109856991A (zh) * | 2019-01-22 | 2019-06-07 | 华东师范大学 | 一种基于动能热力分布图的动态虚拟人仿真方法 |
CN110096152A (zh) * | 2019-04-30 | 2019-08-06 | 武汉灏存科技有限公司 | 身体部位的空间定位方法、装置、设备及存储介质 |
CN110265994A (zh) * | 2019-05-07 | 2019-09-20 | 上海电力学院 | 一种基于改进鸟群算法的直流微电网下垂系数优化方法 |
CN110570455A (zh) * | 2019-07-22 | 2019-12-13 | 浙江工业大学 | 一种面向房间vr的全身三维姿态跟踪方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1766831A (zh) * | 2004-10-29 | 2006-05-03 | 中国科学院计算技术研究所 | 一种基于光学的运动捕获数据的骨骼运动提取方法 |
CN101246602A (zh) * | 2008-02-04 | 2008-08-20 | 东华大学 | 基于几何骨架的人体姿态重建方法 |
CN101789126A (zh) * | 2010-01-26 | 2010-07-28 | 北京航空航天大学 | 基于体素的三维人体运动跟踪方法 |
CN102479386A (zh) * | 2010-11-24 | 2012-05-30 | 湘潭大学 | 基于单目视频的人体上半身三维运动跟踪方法 |
CN102663197A (zh) * | 2012-04-18 | 2012-09-12 | 天津大学 | 一种基于运动捕获的虚拟手抓取的仿真方法 |
CN102814814A (zh) * | 2012-07-31 | 2012-12-12 | 华南理工大学 | 一种双臂机器人基于Kinect的人机交互方法 |
-
2013
- 2013-08-21 CN CN201310375902.9A patent/CN103440037B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1766831A (zh) * | 2004-10-29 | 2006-05-03 | 中国科学院计算技术研究所 | 一种基于光学的运动捕获数据的骨骼运动提取方法 |
CN101246602A (zh) * | 2008-02-04 | 2008-08-20 | 东华大学 | 基于几何骨架的人体姿态重建方法 |
CN101789126A (zh) * | 2010-01-26 | 2010-07-28 | 北京航空航天大学 | 基于体素的三维人体运动跟踪方法 |
CN102479386A (zh) * | 2010-11-24 | 2012-05-30 | 湘潭大学 | 基于单目视频的人体上半身三维运动跟踪方法 |
CN102663197A (zh) * | 2012-04-18 | 2012-09-12 | 天津大学 | 一种基于运动捕获的虚拟手抓取的仿真方法 |
CN102814814A (zh) * | 2012-07-31 | 2012-12-12 | 华南理工大学 | 一种双臂机器人基于Kinect的人机交互方法 |
Non-Patent Citations (1)
Title |
---|
赵吉昌等: "虚拟维修训练过程研究与实现", 《科技广场》 * |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104391573B (zh) * | 2014-11-10 | 2017-05-03 | 北京华如科技股份有限公司 | 一种基于单姿态传感器识别投掷动作的方法及装置 |
CN104391573A (zh) * | 2014-11-10 | 2015-03-04 | 北京华如科技股份有限公司 | 一种基于单姿态传感器识别投掷动作的方法及装置 |
CN107995964A (zh) * | 2015-01-28 | 2018-05-04 | Ccp公司 | 用于经由虚拟控制对象接收手势输入的方法和系统 |
CN107771309A (zh) * | 2015-06-19 | 2018-03-06 | 微软技术许可有限责任公司 | 三维用户输入 |
CN107771309B (zh) * | 2015-06-19 | 2020-11-24 | 微软技术许可有限责任公司 | 处理三维用户输入的方法 |
CN105824417A (zh) * | 2016-03-16 | 2016-08-03 | 成都电锯互动科技有限公司 | 一种采用虚拟现实技术的人与物的结合方法 |
CN105843388A (zh) * | 2016-03-23 | 2016-08-10 | 北京轩宇智能科技有限公司 | 一种新型数据手套系统 |
CN105843388B (zh) * | 2016-03-23 | 2018-12-04 | 北京轩宇智能科技有限公司 | 一种数据手套系统 |
CN106647796A (zh) * | 2016-06-22 | 2017-05-10 | 中国人民解放军63863部队 | 一种装备三维模型机构运动通用控制方法 |
CN106647796B (zh) * | 2016-06-22 | 2019-06-14 | 中国人民解放军63863部队 | 一种装备三维模型机构运动通用控制方法 |
CN107728777A (zh) * | 2016-08-11 | 2018-02-23 | 拓景科技股份有限公司 | 虚拟现实环境中的特定信息展示方法及系统 |
CN106445138A (zh) * | 2016-09-21 | 2017-02-22 | 中国农业大学 | 基于3d关节点坐标的一种人体姿态特征提取方法 |
CN107463256A (zh) * | 2017-08-01 | 2017-12-12 | 网易(杭州)网络有限公司 | 基于虚拟现实的用户朝向控制方法与装置 |
CN109542210A (zh) * | 2017-09-21 | 2019-03-29 | 福建天晴数码有限公司 | 基于虚拟引擎的手臂运动模拟还原方法、存储介质 |
CN109542210B (zh) * | 2017-09-21 | 2022-02-08 | 福建天晴数码有限公司 | 基于虚拟引擎的手臂运动模拟还原方法、存储介质 |
CN109856991A (zh) * | 2019-01-22 | 2019-06-07 | 华东师范大学 | 一种基于动能热力分布图的动态虚拟人仿真方法 |
CN110096152A (zh) * | 2019-04-30 | 2019-08-06 | 武汉灏存科技有限公司 | 身体部位的空间定位方法、装置、设备及存储介质 |
CN110096152B (zh) * | 2019-04-30 | 2023-02-21 | 武汉灏存科技有限公司 | 身体部位的空间定位方法、装置、设备及存储介质 |
CN110265994A (zh) * | 2019-05-07 | 2019-09-20 | 上海电力学院 | 一种基于改进鸟群算法的直流微电网下垂系数优化方法 |
CN110570455A (zh) * | 2019-07-22 | 2019-12-13 | 浙江工业大学 | 一种面向房间vr的全身三维姿态跟踪方法 |
CN110570455B (zh) * | 2019-07-22 | 2021-12-07 | 浙江工业大学 | 一种面向房间vr的全身三维姿态跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103440037B (zh) | 2017-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103440037A (zh) | 一种基于有限输入信息的虚拟人体运动实时交互控制方法 | |
CN109003301B (zh) | 一种基于OpenPose和Kinect的人体姿态估计方法及康复训练系统 | |
CN110930483B (zh) | 一种角色控制的方法、模型训练的方法以及相关装置 | |
CA3111430C (en) | Systems and methods for generating complementary data for visual display | |
CN102323854B (zh) | 人体运动捕获装置 | |
CN101579238B (zh) | 人体运动捕获三维再现系统及其方法 | |
Sun et al. | Automating gait generation | |
CN103386683B (zh) | 一种基于Kinect的体感控制机械臂方法 | |
CN102375416B (zh) | 基于快速搜索树的人型机器人踢球动作信息处理方法 | |
CN103824326B (zh) | 一种动态的人体三维建模方法 | |
CN106078752A (zh) | 一种基于Kinect的仿人机器人人体行为模仿方法 | |
CN102449577A (zh) | 虚拟桌面坐标变换 | |
CN101246601A (zh) | 基于关键帧和时空约束的三维虚拟人体运动生成方法 | |
US11691292B2 (en) | Robot choreographer | |
CN108230429A (zh) | 基于头部和双手位置及姿态的实时全身姿态重建方法 | |
CN102402291A (zh) | 一种肢体姿势识别方法及装置 | |
CN102467749A (zh) | 基于关键帧和时空约束的三维虚拟人体运动生成方法 | |
CN109785415A (zh) | 一种基于外骨骼技术的动作采集系统及其方法 | |
CN109395375A (zh) | 一种基于增强现实与移动交互的三维游戏接口设计方法 | |
Tao et al. | Human modeling and real-time motion reconstruction for micro-sensor motion capture | |
CN100594520C (zh) | 基于关键帧时刻优化的空中运动仿真方法 | |
Rosado et al. | Reproduction of human arm movements using Kinect-based motion capture data | |
CN104156063B (zh) | 一种面向三维交互界面的手势速度估计方法 | |
Richter et al. | Human Climbing and Bouldering Motion Analysis: A Survey on Sensors, Motion Capture, Analysis Algorithms, Recent Advances and Applications. | |
Nicolas et al. | From bone to plausible bipedal locomotion using inverse kinematics |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170208 |
|
CF01 | Termination of patent right due to non-payment of annual fee |