CN108961311B - 一种双模式的旋翼飞行器目标跟踪方法 - Google Patents
一种双模式的旋翼飞行器目标跟踪方法 Download PDFInfo
- Publication number
- CN108961311B CN108961311B CN201810639869.9A CN201810639869A CN108961311B CN 108961311 B CN108961311 B CN 108961311B CN 201810639869 A CN201810639869 A CN 201810639869A CN 108961311 B CN108961311 B CN 108961311B
- Authority
- CN
- China
- Prior art keywords
- target
- value
- tracking
- image
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 239000011159 matrix material Substances 0.000 claims description 24
- 238000004364 calculation method Methods 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 17
- 230000000007 visual effect Effects 0.000 claims description 14
- 230000005540 biological transmission Effects 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 8
- 125000004122 cyclic group Chemical group 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 6
- 230000010365 information processing Effects 0.000 claims description 5
- 238000012417 linear regression Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 238000005316 response function Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 3
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/12—Target-seeking control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- Astronomy & Astrophysics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种双模式的旋翼飞行器目标跟踪方法。本发明所设计的系统具有两种跟踪模式,第一种跟踪模式是基于电子标签的追踪模式,在这种模式下,旋翼飞行器能够从较远的范围获取到目标的信息,从而执行跟踪任务,第二种跟踪模式是是基于视觉的追踪模式,旋翼飞行器通过视觉系统获取目标的位置信息,然后通过图像中目标的位置信息计算出目标相对于旋翼飞行器的距离,从而更精准地完成追踪任务。这种双模式跟踪方法与系统采用的目标跟踪算法具有很好的鲁棒性,对于飞行器飞行过程中所产生的抖动以及背景变化具有很好的抵抗效果。通过两种跟踪模式的配合使用,提高了该系统在飞行器目标跟踪领域的实用性。
Description
技术领域
本发明涉及旋翼飞行器地面机动目标跟踪领域,具体涉及一种双模式的旋翼飞行器目标跟踪方法。
技术背景
旋翼飞行器是无人飞行器(UAV)的一种,目前已经被广泛地应用在侦察、抢险救灾以及航拍等等任务中。而无人机的智能化是无人机的重要发展方向,无论是在抗灾救援的第一线,无人机到达救援人员难以到达的地方,率先开始搜救任务;还是在滑雪速降的雪道上,无人机跟踪拍摄,记录下完整的过程,无人机都能够更为自主地完成这些困难的任务。所以,本课题对于无人机移动目标追踪问题的研究具有很重要的现实意义。
目前的旋翼飞行器目标跟踪方法的研究,主要集中在基于图像的方面,但是基于图像的追踪,目标必须处在相机的视野内才能够开启追踪,具有应用范围较为狭窄这样的缺陷。如专利CN201710631781.8公布了一种长时稳定无人机目标跟踪方法,但是并没有考虑到目标丢失以及目标不在视野范围内的情况。
而对于图像追踪算法部分,大部分的视觉追踪算法都是在相机静止条件下进行运行,而对于旋翼飞行器的目标跟踪,相机会随时出现晃动,并且还会出现各种的干扰,这种情况下的图像跟踪就会非常困难,对于算法的鲁棒性提出了很高的要求。如CN201710322060.9公布的无人机目标跟踪方法就没有考虑飞行过程中出现背景干扰以及相机晃动带来的问题。
发明内容
为解决现有技术中旋翼飞行器地面机动目标跟踪范围小,且跟踪算法鲁棒性弱的问题,本发明提供一种双模式跟踪的方法,旋翼飞行器在距离目标较远时就能够开始追踪,当目标进入到飞行器所携带的相机载荷的视野范围内时,启用视觉追踪算法,由于算法具有较强的鲁棒性,能够完成很高效的追踪。
为了达到上述目的,本发明采用如下技术方案:
第一步,当旋翼式飞行器在远处开始目标追踪时,开启第一种跟踪模式,通过地面机动目标所携带的电子标签中的GPS定位模块对机动目标的位置进行采集,通过电子标签中的数据处理模块对定位信息进行处理,转化为绝对的经纬度值,再通过无线传输模块将位置信息发送给多旋翼飞行器。
第二步,多旋翼飞行器通过无线接收模块接收到电子标签传送来的地面机动目标的位置信息U(LonU,LatU),然后在机载信息处理模块中,将位置信息与自身所携带的GPS定位模块解算所得到的经纬度值T(LonT,LatT)进行比对做差。
其中,LonU为目标的经度值,LatU为目标的纬度值,LonT为多旋翼飞行器的经度值,LatT为多旋翼飞行器的纬度值。
第三步,将上一步中最后得到的经纬度差值进行转换计算,最后转换为实际的距离值,转换计算公式为:
将计算所得距离值作为旋翼飞行器的输入值x和y,控制旋翼飞行器朝向目标位置飞行;
第四步,在追踪过程中,相机载荷一直采集图像,并将图像同步传输给机载图像处理模块和地面PC端,通过地面PC端进行人为检查目标是否进入相机视野范围内;
第五步,在目标进入相机视野范围内后,人为通过地面PC端将地面机动目标在图像中框选出来,选框操作完成后,开启第二种跟踪模式。
第六步,在选择框所在的第一帧图像中,在选择框所在的第一帧图像中,将目标区域的数据进行一个循环移位操作,设目标区域中的一个图像单元为X,将其分别向下以及向右平移a和b个单位,从而得到如下移位操作过的的X1。
X1=PaXPb
其中,
通过循环移位操作,选择目标区域周围的区域,从而得到搜索区域,这个区域也就是下一帧图像所要进行搜索的范围,a和b根据图像分辨率取值,最终选取目标周围2.5倍的区域作为搜索区域;
然后要对当前帧图像中目标区域进行HOG特征的提取,提取到的特征矩阵为x1,并对特征矩阵x1进行离散傅里叶变换,获得目标在离散傅里叶域下的外观模型x′t。
x′t=F(x1)
其中,F(x1)是对x1进行离散傅里叶变换。
计算目标外观模型的核自相关性K,K=K(x′t,x′t),计算过程中所使用的核函数为高斯核函数,具体形式为:
利用非线性回归模型,计算滤波参数
α′t=(K+λI)-1y
其中,K=κ(x′t,x′t),λ是正则化参数,用来防止函数过拟合,y是由对应每个样本的回归值yi(i=1,2,3,4,5,6……)组成的列向量,yi是预先给定的样本回归目标值,是将预先选定的目标位置作为我们的样本回归目标值,来作为回归计算的比较值,也就是上一帧图像中目标所在位置,I是单位矩阵;
更新目标的位置以及滤波参数:
其中,αt为第t帧图像所对应的时刻的滤波函数,xt为第t帧图像所对应的时刻的目标位置,β是预设的学习更新参数,决定着对于上一时刻数据的依赖程度,β的取值范围是[0,1],通常取值0.02,αt-1为上一时刻的滤波参数,xt-1为上一时刻目标位置。所述上一时刻即上一帧图像所对应的时刻;对于第一帧图像所对应的来说,α1根据人为选择的目标区域位置然后带入滤波参数计算公式所得到;xt为人为选择的目标区域位置;
当下一帧图像进入计算时,通过前一帧图像所在位置确定的搜索区域,在区域内提取HOG特征,提取到的特征矩阵为x2,对得到特征矩阵x2进行离散傅里叶变换,获得当前时刻目标的外观模型Zt;
Zt=F(x2)
其中,F(x2)是对x2进行离散傅里叶变换。
计算当前时刻目标的外观模型Zt与上一时刻外观模型x′t之间的核相关性Kxz=κ(x′t,Zt)。
根据之前所得到的滤波参数计算如下的响应回归函数:
当前帧目标位置设定为响应函数值中幅值最大的区域,然后根据当前位置,将该位置作为目标中心,重新将目标区域周围选取为下一帧的搜索区域,并且更新滤波参数,然后重复之前的流程。
当目标运动超出图像采集模块视野范围外时,切换到第一种跟踪模式进行跟踪,然后当目标再次进入图像采集模块视野范围内时,重新进行选框操作,再执行第二种跟踪模式。
附图说明
图1是旋翼飞行器地面机动目标跟踪系统的整体结构图;
图2是第一种跟踪模式下的旋翼飞行器地面机动目标跟踪结果图;
图3是视觉追踪算法的算法流程图
图4(a)~图4(i)是第二种跟踪模式下的旋翼飞行器地面机动目标跟踪结果图。
具体实施方案
以下进一步说明本发明的具体内容和其实施方式:
如图1所示,本发明提供的旋翼飞行器地面机动目标跟踪系统包括以下四个主要部分,电子标签,旋翼无人飞行器,PC机以及遥控器。
其中,电子标签包括了无线传输模块1,定位信息处理单元以及GPS;旋翼飞行器上主要搭载了机载信息处理模块,图像采集模块,图像处理模块以及飞行控制模块;PC机上通过无线传输模块3通过无线传输模块4与图像处理模块连接,从而实时与地面PC端传输图像信息;遥控器与飞行控制模块直接相连,遥控器是最高控制权,保证飞行的稳定性。
第一步,当旋翼飞行器在远处开始目标追踪时,开启第一种跟踪模式,通过地面机动目标所携带的电子标签中的GPS定位模块对机动目标的位置进行采集,通过电子标签中的数据处理模块对定位信息进行处理,转化为绝对的经纬度值,再通过无线传输模块1将位置信息发送给多旋翼飞行器。
第二步,多旋翼飞行器通过无线接收模块2接收到电子标签传送来的地面机动目标的位置信息U(LonU,LatU),然后在机载信息处理模块中,将位置信息与自身所携带的GPS定位模块解算所得到的经纬度值T(LonT,LatT)进行比对做差。
其中,LonU为目标的经度值,LatU为目标的纬度值,LonT为多旋翼飞行器的经度值,LatT为多旋翼飞行器的纬度值。
第三步,将上一步中最后得到的经纬度差值进行转换计算,最后转换为实际的距离值,转换计算公式为:
将计算所得距离值作为旋翼飞行器的输入值x和y,控制旋翼飞行器朝向目标位置飞行;其中第一种跟踪模式下的地面移动目标跟结果如图2所示。
第四步,在追踪过程中,旋翼飞行器上所搭载的图像采集模块也会一直采集图像,并将图像传输给图像处理模块,另一方面,通过无线传输模块4传输给地面PC端,PC端通过无线传输模块3进行接收,而地面监控人员通过人为检查目标是否进入图像采集模块视野范围内。
第五步,在目标进入图像采集模块视野范围内后,人为通过PC端将地面机动目标在图像中框选出来,如图4(a)所示,选框操作完成后,开启第二种跟踪模式。
目标跟踪算法流程参考图3所示。
第六步,在选择框所在的第一帧图像中,在选择框所在的第一帧图像中,将目标区域的数据进行一个循环移位操作,设目标区域中的一个图像单元为X,将其分别向下以及向右平移a和b个单位,从而得到如下移位操作过的的X1。
X1=PaXPb
其中,
通过循环移位操作,选择目标区域周围的区域,从而得到搜索区域,这个区域也就是下一帧图像所要进行搜索的范围,a和b根据图像分辨率取值,最终选取目标周围2.5倍的区域作为搜索区域;如图4(a)所示,白色框为目标所在位置,黑色框为搜索区域。并且,将选定的目标区域作为正样本,搜索区域内的其他区域作为负样本。
然后要对当前帧图像中目标区域进行HOG特征的提取,提取到的特征矩阵为x1,并对特征矩阵x1进行离散傅里叶变换,获得目标在离散傅里叶域下的外观模型x′t。
x′t=F(x1)
其中,F(x1)是对x1进行离散傅里叶变换。
计算目标外观模型的核自相关性K,K=κ(x′t,x′t),计算过程中所使用的核函数为高斯核函数,具体形式为:
利用非线性回归模型,计算滤波参数
α′t=(K+λI)-1y
其中,K=κ(x′t,x′t),λ是正则化参数,用来防止函数过拟合,y是由对应每个样本的回归值yi(i=1,2,3,4,5,6……)组成的列向量,yi是预先给定的样本回归目标值,是将预先选定的目标位置作为我们的样本回归目标值,来作为回归计算的比较值,也就是上一帧图像中目标所在位置,I是单位矩阵;
更新目标的位置以及滤波参数:
其中,αt为第t帧图像所对应的时刻的滤波函数,xt为第t帧图像所对应的时刻的目标位置,β是预设的学习更新参数,决定着对于上一时刻数据的依赖程度,β的取值范围是[0,1],通常取值0.02,αt-1为上一时刻的滤波参数,xt-1为上一时刻目标位置。所述上一时刻即上一帧图像所对应的时刻;对于第一帧图像所对应的来说,α1根据人为选择的目标区域位置然后带入滤波参数计算公式所得到;xt为人为选择的目标区域位置;
当下一帧图像进入计算时,通过前一帧图像所在位置确定的搜索区域,在区域内提取HOG特征,提取到的特征矩阵为x2,对得到特征矩阵x2进行离散傅里叶变换,获得当前时刻目标的外观模型Zt;
Zt=F(x2)
其中,F(x2)是对x2进行离散傅里叶变换。
计算当前时刻目标的外观模型Zt与上一时刻外观模型x′t之间的核相关性Kxz=κ(x′t,Zt)。
根据之前所得到的滤波参数计算如下的响应回归函数:
当前帧目标位置设定为响应函数值中幅值最大的区域,然后根据当前位置,将该位置作为目标中心,重新将目标区域周围选取为下一帧的搜索区域,并且更新滤波参数,然后重复之前的流程。
当目标运动超出图像采集模块视野范围外时,切换到第一种跟踪模式进行跟踪,然后当目标再次进入图像采集模块视野范围内时,重新进行选框操作,再执行第二种跟踪模式。第二种跟踪模式下的跟踪结果如图4(a)-4(i)。
图4(a)-4(i)表明第二种跟踪模式能够很好的完成对于目标的跟踪任务,并且对于旋翼飞行器晃动等干扰能够有很好的抑制效果。从图4(g)-4(i)可以看出,在背景出现干扰,且干扰进入搜索区域时,算法仍然能够保持很好的跟踪效果。
当目标运动超出图像采集模块视野范围外时,切换到第一种跟踪模式进行跟踪,然后当目标再次进入图像采集模块视野范围内时,重新进行选框操作,再执行第二种跟踪模式。
Claims (4)
1.一种双模式的旋翼飞行器目标跟踪方法,具体步骤如下:
第一步,当旋翼式飞行器在远处开始目标追踪时,开启第一种跟踪模式,通过地面机动目标所携带的电子标签中的GPS定位模块对机动目标的位置进行采集,通过电子标签中的数据处理模块对定位信息进行处理,转化为绝对的经纬度值,再通过无线传输模块将位置信息发送给多旋翼飞行器;
第二步,多旋翼飞行器通过无线接收模块接收到电子标签传送来的地面机动目标的位置信息U(LonU,LatU),然后在机载信息处理模块中,将位置信息与自身所携带的GPS定位模块解算所得到的经纬度值T(LonT,LatT)进行比对做差;
其中,LonU为目标的经度值,LatU为目标的纬度值,LonT为多旋翼飞行器的经度值,LatT为多旋翼飞行器的纬度值;
第三步,将上一步中最后得到的经纬度差值进行转换计算,最后转换为实际的距离值,转换计算公式为:
将计算所得距离值作为旋翼飞行器的输入值x和y,控制旋翼飞行器朝向目标位置飞行;
第四步,在追踪过程中,相机载荷一直采集图像,并将图像同步传输给机载图像处理模块和地面PC端,通过地面PC端进行人为检查目标是否进入相机视野范围内;
第五步,在目标进入相机视野范围内后,人为通过地面PC端将地面机动目标在图像中框选出来,选框操作完成后,开启第二种跟踪模式;
第六步,
1)在选择框所在的第一帧图像中,将目标区域的数据进行一个循环移位操作,最终选取目标周围2.5倍的区域作为搜索区域;
2)对当前帧图像中目标区域进行HOG特征的提取,提取到的特征矩阵为x1,并对特征矩阵x1进行离散傅里叶变换,获得目标在离散傅里叶域下的外观模型x′t;
x′t=F(x1)
其中,F(x1)是对x1进行离散傅里叶变换;
3)计算目标外观模型的核自相关性K
4)利用非线性回归模型,计算滤波参数
α′t=(K+λI)-1y
其中,K=κ(x′t,x′t),λ是正则化参数,用来防止函数过拟合,y是由对应每个样本的回归值yi(i=1,2,3,4,5,6……)组成的列向量,yi是预先给定的样本回归目标值,是将预先选定的目标位置作为我们的样本回归目标值,来作为回归计算的比较值,也就是上一帧图像中目标所在位置,I是单位矩阵;
5)更新目标的位置以及滤波参数:
其中,αt为第t帧图像所对应的时刻的滤波函数,xt为第t帧图像所对应的时刻的目标位置,β是预设的学习更新参数,决定着对于上一时刻数据的依赖程度,β的取值范围是[0,1],αt-1为上一时刻的滤波参数,xt-1为上一时刻目标位置;所述上一时刻即上一帧图像所对应的时刻;对于第一帧图像所对应的来说,α1根据人为选择的目标区域位置然后带入滤波参数计算公式所得到;xt为人为选择的目标区域位置;
6)当下一帧图像进入计算时,通过前一帧图像所在位置确定的搜索区域,在区域内提取HOG特征,提取到的特征矩阵为x2,对得到特征矩阵x2进行离散傅里叶变换,获得当前时刻目标的外观模型Zt;
Zt=F(x2)
其中,F(x2)是对x2进行离散傅里叶变换;
7)计算当前时刻目标的外观模型Zt与上一时刻外观模型x′t之间的核相关性Kxz;
8)根据之前所得到的滤波参数计算如下的响应回归函数:
9)当前帧目标位置设定为响应函数值中幅值最大的区域,然后根据当前位置,将该位置作为目标中心,重新将目标区域周围选取为下一帧的搜索区域,并且更新滤波参数,然后重复之前的流程;
10)当目标运动超出图像采集模块视野范围外时,切换到第一种跟踪模式进行跟踪,然后当目标再次进入图像采集模块视野范围内时,重新进行选框操作,再执行第二种跟踪模式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810639869.9A CN108961311B (zh) | 2018-06-20 | 2018-06-20 | 一种双模式的旋翼飞行器目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810639869.9A CN108961311B (zh) | 2018-06-20 | 2018-06-20 | 一种双模式的旋翼飞行器目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108961311A CN108961311A (zh) | 2018-12-07 |
CN108961311B true CN108961311B (zh) | 2021-06-22 |
Family
ID=64491419
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810639869.9A Active CN108961311B (zh) | 2018-06-20 | 2018-06-20 | 一种双模式的旋翼飞行器目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108961311B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112911151B (zh) * | 2021-01-29 | 2023-04-07 | 京东科技信息技术有限公司 | 目标跟随方法、装置、设备、系统及存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10139837B2 (en) * | 2016-09-13 | 2018-11-27 | Hangzhou Zero Zero Technology Co., Ltd. | Unmanned aerial vehicle system and method with environmental sensing |
CN106874854B (zh) * | 2017-01-19 | 2019-12-31 | 西安电子科技大学 | 基于嵌入式平台的无人机车辆跟踪方法 |
CN107590820B (zh) * | 2017-08-25 | 2020-06-02 | 兰州飞搜信息科技有限公司 | 一种基于相关滤波的视频对象追踪方法及其智能装置 |
-
2018
- 2018-06-20 CN CN201810639869.9A patent/CN108961311B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN108961311A (zh) | 2018-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107808407B (zh) | 基于双目相机的无人机视觉slam方法、无人机及存储介质 | |
Abd-Elrahman et al. | Development of pattern recognition algorithm for automatic bird detection from unmanned aerial vehicle imagery | |
CN111476116A (zh) | 一种用于车辆检测跟踪的旋翼无人机系统及检测跟踪方法 | |
Bagheri | Development of a high-resolution aerial remote-sensing system for precision agriculture | |
CN109584213B (zh) | 一种多目标编号选定跟踪方法 | |
US20100305857A1 (en) | Method and System for Visual Collision Detection and Estimation | |
Hassan-Esfahani et al. | Topsoil moisture estimation for precision agriculture using unmmaned aerial vehicle multispectral imagery | |
Ettinger et al. | Towards flight autonomy: Vision-based horizon detection for micro air vehicles | |
WO2020103108A1 (zh) | 一种语义生成方法、设备、飞行器及存储介质 | |
Zhang et al. | Prediction of sorghum biomass based on image based features derived from time series of UAV images | |
CN105526916B (zh) | 动态图像遮蔽系统和方法 | |
CN110765948A (zh) | 一种基于无人机的目标检测识别方法及系统 | |
CN110799983A (zh) | 一种地图生成方法、设备、飞行器及存储介质 | |
Kemker et al. | High-resolution multispectral dataset for semantic segmentation | |
CN117036989A (zh) | 基于计算机视觉的微型无人机目标识别与跟踪控制方法 | |
Faheem et al. | Uav emergency landing site selection system using machine vision | |
Guo et al. | Target recognition method of small UAV remote sensing image based on fuzzy clustering | |
CN108961311B (zh) | 一种双模式的旋翼飞行器目标跟踪方法 | |
Felizardo et al. | Using ANN and UAV for terrain surveillance | |
Bhat et al. | Survey on object detection, face tracking, digital mapping and lane following for remotely piloted aerial systems (RPAS) | |
Yan et al. | A UAV remote sensing system: design and tests | |
Bupathy et al. | Optimizing low-cost UAV aerial image mosaicing for crop growth monitoring | |
Khanykov et al. | The Application of the High-Speed Pixel Clustering Method in Combining Multi-Angle Images Obtained from Airborne Optical-Location Systems | |
Cirneanu et al. | CNN based on LBP for evaluating natural disasters | |
Solonar et al. | Features of trajector measurement coordinates and parameters of movement of ground objects in on-board optical-location systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |