CN110412996A - 一种基于手势和眼动的无人机操控方法、装置和系统 - Google Patents
一种基于手势和眼动的无人机操控方法、装置和系统 Download PDFInfo
- Publication number
- CN110412996A CN110412996A CN201910524901.3A CN201910524901A CN110412996A CN 110412996 A CN110412996 A CN 110412996A CN 201910524901 A CN201910524901 A CN 201910524901A CN 110412996 A CN110412996 A CN 110412996A
- Authority
- CN
- China
- Prior art keywords
- unmanned plane
- eye movement
- gesture
- helmet
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004424 eye movement Effects 0.000 title claims abstract description 92
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000012545 processing Methods 0.000 claims description 21
- 238000004891 communication Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 9
- 238000013507 mapping Methods 0.000 claims description 4
- 235000013399 edible fruits Nutrition 0.000 claims 1
- 230000003190 augmentative effect Effects 0.000 abstract description 6
- 230000002452 interceptive effect Effects 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 34
- 239000013598 vector Substances 0.000 description 16
- 230000033001 locomotion Effects 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 238000012706 support-vector machine Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 210000003811 finger Anatomy 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000001508 eye Anatomy 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000002902 bimodal effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002567 electromyography Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 230000035800 maturation Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000005180 public health Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/08—Control of attitude, i.e. control of roll, pitch, or yaw
- G05D1/0808—Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种基于手势和眼动的无人机操控方法、装置和系统,包括:手戴设备采集手势信号,发送至头戴设备;头戴设备处理手势信号,得到控制指令;头戴设备采集眼动信号并处理,得到模式指令;头戴设备发送所述控制命令与模式命令至无人机,控制无人机飞行。基于手势和眼动相结合,简化了无人机的操控方法,实现多模态的无人机操控。通过增强现实技术,并在增强现实系统中实现手势与无人机交互、眼动与无人机交互、无人机图像实时显示,为无人机控制呈现一个场景更加立体的、信息更加丰富的、环境更加自然亲切的无人机交互界面。
Description
技术领域
本申请涉及无人机技术领域,尤其涉及一种基于手势和眼动的无人机操控方法、装置和系统。
背景技术
无人机是利用无线电遥控设备和自备的程序控制装置操纵的不载人飞行器,或者由车载计算机完全地或间歇地自主地操作。伴随科技的发展,面对人类无法胜任的高难度、高风险与高含量的任务,无人机应运而生。它替代有人驾驶的飞机去执行这些任务。无人机是一种用无线电来操控的设备,遂有人称其为遥控驾驶航空器。它能够趋于完美的利用人工智能、信号处理和自动驾驶等精尖技术,并由于它具有体积小、无人驾驶和航程远等优势被广泛应用,在自然环境考察、科普研究、农业领域、维护国家主权与公共卫生安全等等许多方面都有所应用。目前这种趋于多元化的应用使得各国都加快探索、开发的步伐。
目前,市面上的消费级无人机产品大小种类繁多,操作方式也各有不同,最常使用的无人机控制需要配备双手操控的双杆遥控器。随着无人机技术的不断成熟,现在的无人机智能化步伐十分迅速,无人机自动避障、路径规划、自动巡航、智能跟随、一键返航等功能改进创新层出不穷,无人机的功能越多越完善,这使得无人机操控方法也是越来越复杂、不可避免的无人机的零部件也会越来越多,在丰富功能体验的同时,也使得操作十分不便,无人机炸机坠毁的事也屡见不鲜。尤其是对于对无人机不熟悉的新手而言,一本厚厚的说明书以及繁复的控制程序是不太友好的,而且一旦发生事故,伤及人员,更是得不偿失。因此在无人机功能如此复杂多样化的前提下,简化用户操作,实现多模态的无人机控制方式是十分钟重要的。
综上所述,需要提供操作方法简单的多模态无人机控制方法、装置和系统。
发明内容
为解决以上问题,本申请提出了一种基于手势和眼动的无人机操控方法、装置和系统。
一方面,本申请提出一种基于手势和眼动的无人机操控方法,包括:
手戴设备采集手势信号,发送至头戴设备;
头戴设备处理手势信号,得到控制指令;
头戴设备采集眼动信号并处理,得到模式指令;
头戴设备发送所述控制命令与模式命令至无人机,控制无人机飞行。
优选地,所述处理手势信号,得到控制指令,包括:
对所述手势信号进行预处理、特征提取和特征处理,得到手势识别结果;
根据手势识别结果得到对应的控制指令。
优选地,所述采集眼动信号并处理,得到模式指令,包括:
采集眼动信号,对所述眼动信号进行预处理、特征提取和特征处理,得到眼动识别结果;
根据眼动识别结果得到对应的模式指令。
优选地,还包括:
头戴设备接收无人机所采集的周围环境的视频流数据和深度数据,处理所述视频流数据和深度数据,生成周围环境的全息影像并显示。
优选地,还包括:
头戴设备接收无人机所获取的自身的位姿数据,解算所述位姿数据,得到姿态样式并显示。
第二方面,本申请提出一种基于手势和眼动的无人机操控装置,包括:手戴设备和头戴设备;所述手戴设备,用于采集手势信号,发送至头戴设备;
所述头戴设备,用于处理手势信号,得到控制指令;采集眼动信号并处理,得到模式指令;发送所述控制命令与模式命令至无人机,控制无人机飞行。
优选地,所述头戴设备还用于处理环境和深度数据,生成周围环境的全息影像并显示;解算位姿数据,得到姿态样式并显示。
优选地,所述头戴设备包括:
眼动采集模块,用于采集眼动信号,并传输至人体生理信号处理模块;
第一通信模块,用于接收所述手势信号,传输至人体生理信号处理模块;
人体生理信号处理模块,用于对所述手势信号和所述眼动信号进行处理,得到控制指令和模式指令;
控制模块,用于将控制指令和模式指令发送至第一通信模块,控制显示模块显示。
优选地,所述头戴设备还包括:
图像处理和空间映射模块,用于处理视频流数据和深度数据,生成周围环境的全息影像;
无人机位姿解算模块,用于解算位姿数据,得到姿态样式;
显示模块,用于显示全息影像、姿态样式和无人机信息;
第一通信模块,还用于接收视频流数据和深度数据,传输至图像处理模块,接收位姿数据,传输至位姿解算模块,接收无人机信息,发送控制指令和模式指令至无人机。
第三方面,本申请提出一种基于手势和眼动的无人机操控系统,其采用上述的装置,还包括:
无人机,用于采集无人机周围环境和深度数据,发送至头戴设备;采集无人机的位姿数据,发送至头戴设备;根据控制命令与模式命令飞行。
本申请的优点在于:基于手势和眼动相结合,简化了无人机的操控方法,实现多模态的无人机操控。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选事实方案的目的,而并不认为是对本申请的限制。而且在整个附图中,用同样的参考符号表示相同的部件。在附图中:
图1是本申请提供的一种基于手势和眼动的无人机操控方法的步骤示意图;
图2是本申请提供的一种基于手势和眼动的无人机操控装置的示意图;
图3是本申请提供的一种基于手势和眼动的无人机操控装置的手戴设备示意图;
图4是本申请提供的一种基于手势和眼动的无人机操控装置的操控手势示意图;
图5是本申请提供的一种基于手势和眼动的无人机操控装置的眼动采集界面示意图;
图6是本申请提供的一种基于手势和眼动的无人机操控装置的流程示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施方式。虽然附图中显示了本公开的示例性实施方式,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施方式所限制。相反,提供这些实施方式是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
根据本申请的实施方式,提出一种基于手势和眼动的无人机操控方法,如图1所示,包括:
手戴设备采集手势信号,发送至头戴设备;
头戴设备处理手势信号,得到控制指令;
头戴设备采集眼动信号并处理,得到模式指令;
头戴设备发送所述控制命令与模式命令至无人机,控制无人机飞行。
所述处理手势信号,得到控制指令,包括:
对所述手势信号进行预处理、特征提取和特征处理,得到手势识别结果;
根据手势识别结果得到对应的控制指令。
通过手戴设备采集使用者的手势信息(手势信号),并将手势信号传输到头戴设备进行分析处理,分析出的结果映射为对应的控制指令发送到无人机,控制无人机做出相应的姿态以及方向的变化。
所述传输方式包括无线方式。
头戴设备采集使用者的眼动信息,进行处理分析,分析出的结果映射为对应的模式指令发送到无人机,使无人机做出相应的模式变换。
手势信号的识别方法包括:基于数据手套的方法、基于肌电信号的方法、基于计算机视觉的方法和基于可穿戴传感器的方法等。
手势信号的识别算法包括:深度学习算法、反向传播(Back Propagation,BP)神经网络算法、动态时间规整(Dynamic Time Warping,DTW)算法和隐马尔可夫模型(HiddenMarkov Model,HMM)模型等。
手势信号的识别算法以隐马尔可夫模型为例,一个HMM可由λi=(S,O,A,B,π)来描述,亦可简写为λi=(π,A,B),其中,S为隐含状态集合,O为观测状态集合,A为隐含状态的转移概率矩阵,B为观测状态概率分布,π为初始状态概率分布向量。
步骤包括:鉴于加速度数据的时序性,选用Bakis类型HMM(自左到右的HMM模型)分别对各个手势动作进行建模,并初始化模型参数λi=(A,B,π);分别反复采集各个手势动作信号的数据,并利用Baum-Welch算法来对手势模型λi进行训练,使模型参数尽可能趋于收敛,得出对应手势的最优λi;选用Viterbi算法作为各个手势对应的HMM识别方法,即将输入手势的加速度特征序列分别与训练好的λi进行计算评估,取其概率输出最大的λi为对应手势动作的识别结果。
所述采集眼动信号并处理,得到模式指令,包括:
采集眼动信号,对所述眼动信号进行预处理、特征提取和特征处理,得到眼动识别结果;
根据眼动识别结果得到对应的模式指令。
眼动信号的算法包括:反向传播(Back Propagation,BP)算法、支持向量机(Support Vector Machine,SVM)算法和动态时间规整(Dynamic Time Warping,DTW)算法等。
眼动信号的识别算法以支持向量机算法为例,对眼动信号的特征提取基于下述过程实现:
设可分数据集D={(xi,yi)|i=1,2,…,n},其中输入向量xi∈Rd,Rd为d维实数平面,目标数据为yi∈{-1,+1},若xi∈Rd属于第1类,则yi标记为正,即yi=1,若属于第2类,则yi标记为负,即yi=-1。
可分数据集D为眼动数据,是经过眼动采集处理后得到的数据。
内积函数(核函数)K(xi,x)可以通过下述三种算法进行求解:
多项式函数:
K(xi,x)=[1+(xi·x)]d
其中d为d维空间(实数平面),xi·x表示xi与x内积;
多层神经网络函数:
K(xi,x)=tanh(v(xi·x)+c)
其中,h()表示函数,v表示一个标量,c表示位移参数;
径向基函数:
其中σ为径向基函数(Radial basis function network,RBF)核的超参数;
求解后得到最优决策函数为:
其中sgn为符号函数,*表示所确定的最优决策函数中的最优参数,ai为拉格朗日乘子,偏值参数b在求解中通过以下公式求解:
其中NNSV为标准支持向量数,JN为标准支持向量的合集,J为支持向量的合集。
所述方法还包括:
头戴设备接收无人机所采集的周围环境的视频流数据和深度数据,处理所述视频流数据和深度数据,生成周围环境的全息影像并显示。
所述方法还包括:
头戴设备接收无人机所获取的自身的位姿数据,解算所述位姿数据,得到姿态样式并显示。
根据本申请的实施方式,还提出一种基于手势和眼动的无人机操控装置,包括:手戴设备和头戴设备;
所述手戴设备,用于采集手势信号,发送至头戴设备;
所述头戴设备,用于处理手势信号,得到控制指令;采集眼动信号并处理,得到模式指令;发送所述控制命令与模式命令至无人机,控制无人机飞行。
手戴设备包括带有微电机系统(Micro-Electro-Mechanical System,MEMS)惯性传感器的指环。
头戴设备为包括眼动仪和摄像头的头戴式智能增强现实(Augmented Reality,AR)系统设备。
所述头戴设备还用于处理环境和深度数据,生成周围环境的全息影像并显示;解算位姿数据,得到姿态样式并显示。
如图2所示,所述头戴设备包括:
眼动采集模块,用于采集眼动信号,并传输至人体生理信号处理模块;
第一通信模块,用于接收所述手势信号,传输至人体生理信号处理模块;
人体生理信号处理模块,用于对所述手势信号和所述眼动信号进行处理,得到控制指令和模式指令;
控制模块,用于将控制指令和模式指令发送至第一通信模块,控制显示模块显示。
所述对所述手势信号和所述眼动信号进行处理,包括:数字信号预处理、特征信号提取和特征信号处理。
采集到的手势信号和眼动信号均由人体生理信号处理模块进行处理,通过对数字信号(手势信号和眼动信号)进行预处理,对数字化的生理电信号去基线漂移、工频陷波等处理,得到更干净的数字信号,之后,对经过预处理的数字信号进行特征信号提取和特征处理。
如图2所示,所述手戴设备包括:手势采集模块和第二通信模块。
所述手戴设备还包括电源模块。
所述手势采集模块包括:加速度计、陀螺仪、ARM处理器、数据采集单元。
所述数据采集单元包括数模转换器(Analog-to-Digital Converter,ADC)。
手势控制用于调整无人机飞行速度和方向。
眼动控制用于微观的飞行姿态调整和模式转化。
在控制无人机调整俯仰、偏航、测滚角度以及无人机加速减速时,通过第二通信模块将手戴设备上的人手运动轨迹传输到头戴设备中的人体生理信号处理模块、并根据分析好的识别结果发送指令给无人机系统使无人机按照人手运动轨迹进行位姿调整。
如图3所示,以手戴设备采集食指、中指、无名指、小拇指第二指节的手势信号为例。
如图4所示,以五种手势对应五个对应指令为例,五种手势分别为五指张开、握拳、手掌旋内旋外、手掌前屈后伸、手掌外展内收,手势对应的指令为减速、加速、滚转、俯仰、偏航方式。
手势信号的识别算法以隐马尔可夫模型为例,为每个手势建立一个HMM模型。每个手势有单独的开始和结束状态。根据手势的复杂度,不同手势的状态数不相同。手势识别的正确率会随着状态数的增加而提高,然而模型的复杂度以及计算时间的复杂度也会随之增加。将状态个数设置为5到10个,针对手势的复杂性设置不同的状态数目。基于有时序特征的传感器数据的手势模型,通常使用自左到右模型(Bakis类型HMM)。
自左到右模型中,状态只能从较低下标的状态转移到较高下标的状态。后边的状态不能跳转到前边的状态。因此,在此模型中,从后向前转移的概率设置成0,假设步长超过2的转移概率为0。为了保证自左向右模型的每个状态都是可达的,模型最初的状态为状态1,也即初始的状态1发生的概率为1,其他的状态概率为0。
自左向右模型λi=(π,A,B),其中A为隐含状态的转移概率矩阵,B为观测状态概率分布,π为初始状态概率分布向量,它是一个1×N阶矩阵,πi表示模型在手势开始时处于状态i的概率,需要满足以下条件:
π1=1
πi,i≠1=0
即初始状态空间概率分布为:π=(1,0,…,0)。
其次是第二个参数A,状态转移矩阵,对于自左向右模型来说,一个8状态的自左向右模型的转移矩阵为:
状态转移矩阵A中的每个状态转移到自身、下一个、下下一个的概率相同,从后面状态转移到前边状态以及转移到步长超过2的状态的概率为0,符合手势数据与时序相关的特征。
参数B,它的元素Bij是指状态i对应观察值为j的概率。以状态数是5到10为例,设当前状态数为10,则B为:
利用Baum-Welch算法来对手势模型λi进行训练,使模型参数尽可能趋于收敛,得出对应手势的最优λi。
选用Viterbi算法作为各个手势对应的HMM识别方法,即将输入手势的加速度特征序列分别与训练好的λi进行计算评估,取其概率输出最大的λi为对应手势动作的识别结果。
如图5所示,眼动采集界面屏幕呈现的区域为视觉三维界面,左上角区域代表定位模式、右上角区域代表姿态模式、左下角区域代表运动模式、右下角区域代表一键返航模式。定位模式通过卫星定位来进行自动增稳、悬停、返航等标准操作。运动模式是定位模式基础上的加速模式,自动避障关闭,速度提升。姿态模式不使用定位,速度提升、更平滑但较危险。一键返航模式无人机自动测定与返航点的高度和水平距离,自动返航。
眼动信号的识别算法以支持向量机算法为例,在进入眼动捕捉(眼动采集)后,会根据眼球相对的位移轨迹使用SVM特征识别测算出使用者进入了哪种模式。在进入该模式前,在屏幕上将显示进入该模式的10秒倒计时,并且在无人机进入该模式后锁定当前模式,避免误操作。
以根据人体眼动,按顺序依次左上、左下、右上、右下所产生的标记为例,在根据人体眼动按顺序依次左上、左下、右上、右下所产生的标记的眼动信号经过A/D转换电路后,进行训练,并将训练后的初始化参数输入给支持量机分类器分类。SVM是基于统计学习理论和结构风险最小化原则,其基本思想是把输入空间的样本通过非线性变换映射到高维特征空间,然后在特征空间中求取把样本线性分开的最优分类面。利用支持向量机算法将肌电信号分类用于无人机的模式变换。
以基于SVM的眼动信号特征提取为例,通过非线性映射,SVM使得输入向量x映射到一个高维的特征空间,通过定义适当的内积函数实现非线性变换,最终在这个高维空间中构造最优分类超平面Z。
设可分数据集D={(xi,yi)|i=1,2,…,n},其中输入向量xi∈Rd,Rd为d维实数平面,目标数据为yi∈{-1,+1},如果xi∈Rd属于第1类,则yi标记为正,即yi=1,如果属于第2类,则yi标记为负,即yi=-1。
通过映射这些输入向量到一个高维的再生核希尔伯特空间(Reproducing KernelHilbert Space,RKHS),其中线性机是由最小化一个正则化泛函所构造的。针对训练样本集为非线性的情况,分类超平面方程为:
其中,w表示超平面的法向量,w∈Rd进行了规范化处理;为低维空间中的非线性函数,它就是将训练集数据x映射到一个高维线性特征空间的函数。
通过该函数在可能为无限大维数的线性空间中构造最优分类超平面,并求解分类器的决策函数;b∈R为偏置参数。
支持向量(Support Vector,SV)就是那些在H1与H2上距离最优超平面最近的点。H1和H2分别是过两个样本中距离H(超平面)最近点的直线。
决策函数为:
其中sgn为符号函数。SVM通过以下的二次规划问题进行求解:
如果在一个高维空间中,数据仍然不是可分离的,可以增加惩罚系数得到目标函数:
yi(<w,φ(xi)>+b)≥1-ξi,ξi≥0,i=1,…,l,
其中,φ(xi)为高维空间中的非线性函数,C为惩罚参数,C越大表示对错误分类的惩罚越大,C>0,ξi为松弛变量,ξi>=0。C—支持向量分类机的对偶最优问题如下:
其中标量积φ(xi)·φ(xj)(高维空间中的)也是RKHS中的再核函数K(xi,xj)。采用不同的内积函数,支持向量机的算法也不同,内积函数形式主要有三种:
多项式函数:
K(xi,x)=[1+(xi·x)]d
其中d为d维实数平面,xi·x表示xi与x内积;
多层神经网络函数:
K(xi,x)=tanh(v(xi·x)+c)
其中,h()表示函数,v表示一个标量,c表示位移参数;
径向基函数:
其中σ为径向基函数(Radial basis function network,RBF)核的超参数;
求解后得到最优决策函数为:
其中sgn为符号函数,*表示所确定的最优决策函数中的最优参数,ai为拉格朗日乘子,偏值参数b在求解中通过以下公式求解:
其中NNSV为标准支持向量数,JN为标准支持向量的合集,J为支持向量的合集。
使用人体生理信号处理模块对采集到的手势信号和眼动信号的原始信号进行预处理,基于自适应高通滤波器和自适应50Hz的工频陷波滤波器对手势信号和眼动信号进行滤波处理,然后用有限长单位冲激响应(Finite Impulse Response,FIR)滤波器对手势信号和眼动信号进行滤波处理,根据信号的有效频段特征,选取手势信号的截止频率为:2Hz和200Hz,选取眼动信号的截至频率为8Hz和90Hz。
手势信号与眼动信号同步采集。手势采集模块和眼动采集模块之间通过蓝牙连接,实现同步采集。
所述手势信号采用异步控制的策略输出控制指令。
所述眼动信号采用异步控制的策略输出模式指令。
如图6所示,预设好步长和阈值,系统根据步长来截取数据并用于特征提取和分类,当得到的预测结果相关系数值P达到阈值PTrd时才将此数据片段记为一次有效数据;当得到的预测结果相关系数值P达不到阈值PTrd时,返回重新进行信号采集。当累计有3次相同眼动、手势,且有效的预测结果,即NTrd>3时,输出控制指令和/或模式指令。
所述头戴设备还包括:
图像处理和空间映射模块,用于处理视频流数据和深度数据,生成周围环境的全息影像;
无人机位姿解算模块,用于解算位姿数据,得到姿态样式;
显示模块,用于显示全息影像、姿态样式和无人机信息;
第一通信模块,还用于接收视频流数据和深度数据,传输至图像处理模块,接收位姿数据,传输至位姿解算模块,接收无人机信息,发送控制指令和模式指令至无人机。
所述无人机信息包括动力、电量、高度、速度等多个重要参数信息。
头戴设备可以实时显示无人机周围环境的全息影像、无人机的姿态样式和无人机信息,能够实现沉浸式的操纵无人机,了解无人机当前的飞行环境。
根据本申请的实施方式,还提出一种基于手势和眼动的无人机操控系统,其采用上述的装置,还包括:
无人机,用于采集无人机周围环境和深度数据,发送至头戴设备;采集无人机的位姿数据,发送至头戴设备;根据控制命令与模式命令飞行。
所述周围环境数据包括周围环境的视频流数据。
本申请的方法中,通过手势和眼动相结合,简化了无人机的操控方法,实现多模态的无人机操控。通过增强现实技术,并在增强现实系统中实现手势与无人机交互、眼动与无人机交互、无人机图像实时显示,为无人机控制呈现一个场景更加立体的、信息更加丰富的、环境更加自然亲切的无人机交互界面。通过采集手势信号和眼动信号对无人机进行操控,操作方便,学习简单,减少炸机的风险。基于手势和眼动的双模态无人机操控方法,比单一手柄控制方式分类风险低、可分类模式多样化、环境适应性强、操作简单,在控制无人机的飞行过程中,手、眼、机能够更加自然和协调配合,充分实现系统全面、动态的优势组合。基于MEMS传感器的手势识别方式具有很高的可靠度和辨识精度。比起基于图像识别的手势控制方式,基于MEMS传感器的手势识别方式不受环境光、背景色的影响,采集数据稳定,信号处理简单。基于MEMS传感器的手势控制方式在面临复杂环境时候,不容易受到突然而来的雾霾、阴雨、雷暴等天气的影响,当有物体不小心遮挡在手与摄像设备之间,也不会受到影响。头戴设备在眼镜界面前方的虚拟屏幕中能够显示无人机的动力、电量、高度、速度等多个重要参数信息,方便实时掌握无人机的飞行状态。还可以切换到无人机的航拍画面,即可沉浸式地操纵无人机,了解当前飞行环境,给人以身临其境的体验。
以上所述,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种基于手势和眼动的无人机操控方法,其特征在于,包括:
手戴设备采集手势信号,发送至头戴设备;
头戴设备处理手势信号,得到控制指令;
头戴设备采集眼动信号并处理,得到模式指令;
头戴设备发送所述控制命令与模式命令至无人机,控制无人机飞行。
2.如权利要求1所述的一种基于手势和眼动的无人机操控方法,其特征在于,所述处理手势信号,得到控制指令,包括:
对所述手势信号进行预处理、特征提取和特征处理,得到手势识别结果;
根据手势识别结果得到对应的控制指令。
3.如权利要求1所述的一种基于手势和眼动的无人机操控方法,其特征在于,所述采集眼动信号并处理,得到模式指令,包括:
采集眼动信号,对所述眼动信号进行预处理、特征提取和特征处理,得到眼动识别结果;
根据眼动识别结果得到对应的模式指令。
4.如权利要求1所述的一种基于手势和眼动的无人机操控方法,其特征在于,还包括:
头戴设备接收无人机所采集的周围环境的视频流数据和深度数据,处理所述视频流数据和深度数据,生成周围环境的全息影像并显示。
5.如权利要求1所述的一种基于手势和眼动的无人机操控方法,其特征在于,还包括:
头戴设备接收无人机所获取的自身的位姿数据,解算所述位姿数据,得到姿态样式并显示。
6.一种基于手势和眼动的无人机操控装置,其特征在于,包括:手戴设备和头戴设备;
所述手戴设备,用于采集手势信号,发送至头戴设备;
所述头戴设备,用于处理手势信号,得到控制指令;采集眼动信号并处理,得到模式指令;发送所述控制命令与模式命令至无人机,控制无人机飞行。
7.如权利要求6所述的一种基于手势和眼动的无人机操控装置,其特征在于,所述头戴设备还用于处理环境和深度数据,生成周围环境的全息影像并显示;解算位姿数据,得到姿态样式并显示。
8.如权利要求6所述的一种基于手势和眼动的无人机操控装置,其特征在于,所述头戴设备包括:
眼动采集模块,用于采集眼动信号,并传输至人体生理信号处理模块;
第一通信模块,用于接收所述手势信号,传输至人体生理信号处理模块;
人体生理信号处理模块,用于对所述手势信号和所述眼动信号进行处理,得到控制指令和模式指令;
控制模块,用于将控制指令和模式指令发送至第一通信模块,控制显示模块显示。
9.如权利要求6所述的一种基于手势和眼动的无人机操控装置,其特征在于,所述头戴设备还包括:
图像处理和空间映射模块,用于处理视频流数据和深度数据,生成周围环境的全息影像;
无人机位姿解算模块,用于解算位姿数据,得到姿态样式;
显示模块,用于显示全息影像、姿态样式和无人机信息;
第一通信模块,还用于接收视频流数据和深度数据,传输至图像处理模块,接收位姿数据,传输至位姿解算模块,接收无人机信息,发送控制指令和模式指令至无人机。
10.一种基于手势和眼动的无人机操控系统,其特征在于,包括如权利要求6-9所述的装置,还包括:
无人机,用于采集无人机周围环境和深度数据,发送至头戴设备;采集无人机的位姿数据,发送至头戴设备;根据控制命令与模式命令飞行。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910524901.3A CN110412996A (zh) | 2019-06-18 | 2019-06-18 | 一种基于手势和眼动的无人机操控方法、装置和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910524901.3A CN110412996A (zh) | 2019-06-18 | 2019-06-18 | 一种基于手势和眼动的无人机操控方法、装置和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110412996A true CN110412996A (zh) | 2019-11-05 |
Family
ID=68359180
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910524901.3A Pending CN110412996A (zh) | 2019-06-18 | 2019-06-18 | 一种基于手势和眼动的无人机操控方法、装置和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110412996A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111093220A (zh) * | 2019-11-14 | 2020-05-01 | 中国人民解放军军事科学院国防科技创新研究院 | 一种自主无人集群动态管理方法及管理平台 |
CN111966217A (zh) * | 2020-07-20 | 2020-11-20 | 中国人民解放军军事科学院国防科技创新研究院 | 基于手势和眼动的无人机控制方法和系统 |
CN112650393A (zh) * | 2020-12-23 | 2021-04-13 | 航天时代电子技术股份有限公司 | 头戴式遥操作控制设备 |
CN112860054A (zh) * | 2019-11-28 | 2021-05-28 | 北京宝沃汽车股份有限公司 | 控制无人机的方法和车辆 |
CN113534835A (zh) * | 2021-07-01 | 2021-10-22 | 湘南学院 | 一种旅游虚拟远程体验系统及方法 |
CN118151759A (zh) * | 2024-04-09 | 2024-06-07 | 广州壹联信息科技有限公司 | 一种人机交互方法、系统及装置 |
CN118377312A (zh) * | 2024-06-24 | 2024-07-23 | 南京信息工程大学 | 一种基于虚拟现实的无人机集群控制方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105676860A (zh) * | 2016-03-17 | 2016-06-15 | 歌尔声学股份有限公司 | 一种可穿戴设备、无人机控制装置和控制实现方法 |
CN106527466A (zh) * | 2016-12-15 | 2017-03-22 | 鹰眼电子科技有限公司 | 穿戴型无人机控制系统 |
CN106569508A (zh) * | 2016-10-28 | 2017-04-19 | 深圳市元征软件开发有限公司 | 一种无人机控制方法和装置 |
CN107454947A (zh) * | 2016-09-26 | 2017-12-08 | 深圳市大疆创新科技有限公司 | 无人机控制方法、头戴式显示眼镜及系统 |
CN107885124A (zh) * | 2017-11-21 | 2018-04-06 | 中国运载火箭技术研究院 | 一种增强现实环境中的脑眼协同控制方法及系统 |
CN108319289A (zh) * | 2017-01-16 | 2018-07-24 | 翔升(上海)电子技术有限公司 | 头戴显示装置、无人机、飞行系统和无人机控制方法 |
CN108700890A (zh) * | 2017-06-12 | 2018-10-23 | 深圳市大疆创新科技有限公司 | 无人机返航控制方法、无人机和机器可读存储介质 |
CN109062398A (zh) * | 2018-06-07 | 2018-12-21 | 中国航天员科研训练中心 | 一种基于虚拟现实与多模态人机接口的航天器交会对接方法 |
CN109669477A (zh) * | 2019-01-29 | 2019-04-23 | 华南理工大学 | 一种面向无人机集群的协同控制系统及控制方法 |
CN111966217A (zh) * | 2020-07-20 | 2020-11-20 | 中国人民解放军军事科学院国防科技创新研究院 | 基于手势和眼动的无人机控制方法和系统 |
-
2019
- 2019-06-18 CN CN201910524901.3A patent/CN110412996A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105676860A (zh) * | 2016-03-17 | 2016-06-15 | 歌尔声学股份有限公司 | 一种可穿戴设备、无人机控制装置和控制实现方法 |
CN107454947A (zh) * | 2016-09-26 | 2017-12-08 | 深圳市大疆创新科技有限公司 | 无人机控制方法、头戴式显示眼镜及系统 |
CN106569508A (zh) * | 2016-10-28 | 2017-04-19 | 深圳市元征软件开发有限公司 | 一种无人机控制方法和装置 |
CN106527466A (zh) * | 2016-12-15 | 2017-03-22 | 鹰眼电子科技有限公司 | 穿戴型无人机控制系统 |
CN108319289A (zh) * | 2017-01-16 | 2018-07-24 | 翔升(上海)电子技术有限公司 | 头戴显示装置、无人机、飞行系统和无人机控制方法 |
CN108700890A (zh) * | 2017-06-12 | 2018-10-23 | 深圳市大疆创新科技有限公司 | 无人机返航控制方法、无人机和机器可读存储介质 |
CN107885124A (zh) * | 2017-11-21 | 2018-04-06 | 中国运载火箭技术研究院 | 一种增强现实环境中的脑眼协同控制方法及系统 |
CN109062398A (zh) * | 2018-06-07 | 2018-12-21 | 中国航天员科研训练中心 | 一种基于虚拟现实与多模态人机接口的航天器交会对接方法 |
CN109669477A (zh) * | 2019-01-29 | 2019-04-23 | 华南理工大学 | 一种面向无人机集群的协同控制系统及控制方法 |
CN111966217A (zh) * | 2020-07-20 | 2020-11-20 | 中国人民解放军军事科学院国防科技创新研究院 | 基于手势和眼动的无人机控制方法和系统 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111093220A (zh) * | 2019-11-14 | 2020-05-01 | 中国人民解放军军事科学院国防科技创新研究院 | 一种自主无人集群动态管理方法及管理平台 |
CN112860054A (zh) * | 2019-11-28 | 2021-05-28 | 北京宝沃汽车股份有限公司 | 控制无人机的方法和车辆 |
CN111966217A (zh) * | 2020-07-20 | 2020-11-20 | 中国人民解放军军事科学院国防科技创新研究院 | 基于手势和眼动的无人机控制方法和系统 |
CN111966217B (zh) * | 2020-07-20 | 2023-08-18 | 中国人民解放军军事科学院国防科技创新研究院 | 基于手势和眼动的无人机控制方法和系统 |
CN112650393A (zh) * | 2020-12-23 | 2021-04-13 | 航天时代电子技术股份有限公司 | 头戴式遥操作控制设备 |
CN113534835A (zh) * | 2021-07-01 | 2021-10-22 | 湘南学院 | 一种旅游虚拟远程体验系统及方法 |
CN113534835B (zh) * | 2021-07-01 | 2022-05-31 | 湘南学院 | 一种旅游虚拟远程体验系统及方法 |
CN118151759A (zh) * | 2024-04-09 | 2024-06-07 | 广州壹联信息科技有限公司 | 一种人机交互方法、系统及装置 |
CN118377312A (zh) * | 2024-06-24 | 2024-07-23 | 南京信息工程大学 | 一种基于虚拟现实的无人机集群控制方法 |
CN118377312B (zh) * | 2024-06-24 | 2024-10-22 | 南京信息工程大学 | 一种基于虚拟现实的无人机集群控制方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110412996A (zh) | 一种基于手势和眼动的无人机操控方法、装置和系统 | |
Mahmud et al. | Interface for human machine interaction for assistant devices: A review | |
CN110083202B (zh) | 与近眼显示器的多模交互 | |
US20180186452A1 (en) | Unmanned Aerial Vehicle Interactive Apparatus and Method Based on Deep Learning Posture Estimation | |
CN109062398B (zh) | 一种基于虚拟现实与多模态人机接口的航天器交会对接方法 | |
CN111055279A (zh) | 基于触觉与视觉结合的多模态物体抓取方法与系统 | |
CN111966217B (zh) | 基于手势和眼动的无人机控制方法和系统 | |
CN105159452B (zh) | 一种基于人脸姿态估计的控制方法与系统 | |
CN106648068A (zh) | 一种双手三维动态手势识别方法 | |
Kassab et al. | Real-time human-UAV interaction: New dataset and two novel gesture-based interacting systems | |
CN111461059A (zh) | 一种多区域多分类可扩展手势识别控制装置及控制方法 | |
JPH0830327A (ja) | 能動的環境認識システム | |
Krishnaraj et al. | A Glove based approach to recognize Indian Sign Languages | |
Abualola et al. | Flexible gesture recognition using wearable inertial sensors | |
CN108052901A (zh) | 一种基于双目的手势识别智能无人机远程操控方法 | |
CN111695408A (zh) | 一种智能手势信息识别系统及方法、信息数据处理终端 | |
Zhao et al. | Real-time head gesture recognition on head-mounted displays using cascaded hidden Markov models | |
Haratiannejadi et al. | Smart glove and hand gesture-based control interface for multi-rotor aerial vehicles in a multi-subject environment | |
Haratiannejadi et al. | Smart glove and hand gesture-based control interface for multi-rotor aerial vehicles | |
CN211979681U (zh) | 一种多区域多分类可扩展手势识别控制装置 | |
CN111134974B (zh) | 一种基于增强现实和多模态生物信号的轮椅机器人系统 | |
Dhamanskar et al. | Human computer interaction using hand gestures and voice | |
Srisuphab et al. | Artificial neural networks for gesture classification with inertial motion sensing armbands | |
CN116257130A (zh) | 一种基于xr设备的眼动手势无人机操控方法 | |
Sung et al. | Motion quaternion-based motion estimation method of MYO using K-means algorithm and Bayesian probability |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191105 |
|
RJ01 | Rejection of invention patent application after publication |