[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN114241008B - 一种适应场景和目标变化的长时区域跟踪方法 - Google Patents

一种适应场景和目标变化的长时区域跟踪方法 Download PDF

Info

Publication number
CN114241008B
CN114241008B CN202111573298.1A CN202111573298A CN114241008B CN 114241008 B CN114241008 B CN 114241008B CN 202111573298 A CN202111573298 A CN 202111573298A CN 114241008 B CN114241008 B CN 114241008B
Authority
CN
China
Prior art keywords
tracking
target
frame
fine
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111573298.1A
Other languages
English (en)
Other versions
CN114241008A (zh
Inventor
李波
辛明
张贵伟
张超
刘偲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN202111573298.1A priority Critical patent/CN114241008B/zh
Publication of CN114241008A publication Critical patent/CN114241008A/zh
Application granted granted Critical
Publication of CN114241008B publication Critical patent/CN114241008B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明公开了一种适应场景和目标变化的长时区域跟踪方法,包括:采用粗精跟踪与中心位置矫正三级结合的方式实现跟踪位置快速准确预测;多线索研判,联合目标表观相似度对跟踪置信度进行修正,考虑多帧间隔约束,对跟踪结果进行综合研判,排除跟踪虚警,提高跟踪结果可靠性;灵活跟踪,根据跟踪研判结果,在跟踪成功时自适应更新跟踪区域,在跟踪失败时重新捕获目标。当判定跟踪结果成功时,短时小场景间隔采用逐帧加权更新方式适应帧间微弱变化,长时间隔通过主动重启模块适应大间隔目标表观显著变化。该方法具有跟踪响应快、精度高以及置信度可靠的优点。

Description

一种适应场景和目标变化的长时区域跟踪方法
技术领域
本发明属于数字图像处理技术领域,重点解决成像设备运动情况下的特定目标长时跟踪问题。该算法能够主动适应目标尺度及表观变化且具有很小的计算量,可以很好地部署在各种低性能硬件平台上。
背景技术
目标跟踪的主要目的是模仿生理视觉系统的运动感知功能,在获得待跟踪的感兴趣目标初始状态后,对成像设备后续捕获到的图像序列进行分析,计算目标在每一帧图像中的位置,获得目标在特定时空范围内的运动轨迹,为目标识别、目标行为分析、三维重建等高级处理和应用提供技术保障。近年来,目标跟踪技术得到了持续快速发展,已广泛应用于国防军事领域,如战场侦察及监视、边境巡逻、重点目标定位校射及打击、电子战以及毁伤评估。该技术在安防监控、交通运行、航空摄影、灾情监视等民用领域也得到了广泛的应用。
一种适应场景和目标变化的长时区域跟踪方法主要针对无人机监控系统或高空瞭望系统,监控目标为特定的刚体目标,监控距离能达到几公里甚至十几公里,为了满足全天时全天候需求,一般安装红外监控设备,为了锁定目标,搭载设备或云台可能会发生各种姿态变换。在这种应用模式下,目标跟踪的难点体现在以下几方面:(1)从目标自身成像来说表观变化大。在拍摄距离较远时,受限于红外成像本身局限性,目标所占像素少,缺乏足够纹理信息,表观特征较弱。在锁定目标持续跟踪过程中不可避免的会出现自身表观成像变化,这包括成像设备与目标距离改变引起的目标尺度变化与外观细节变化,也包括目标由于姿态或运行轨迹发生改变造成的表观变化。(2)从外界环境来说,远距离拍摄时相似目标在运行过程中可能会相互干扰相互遮挡,另外由于俯拍视角,目标也很容易淹没在周围背景中;最后成像平台运动也可能会引起运动模糊、甚至造成目标移出视野。(3)从跟踪算法自身局限上来说,在当前实时目标跟踪算法中,不管是产生式模型还是判别式模型,他们的依据都是在同一段视频中,相同的物体在前后两帧中的尺寸和空间位置不会发生巨大的变化,基于给定的目标模板或训练好的分类器在下一帧中确定目标的位置。但是跟踪相对于其他视觉任务的本质区别在于能够适应运动中目标逐渐变化的能力。所以对于视觉跟踪来说,在线更新起着至关重要的作用。然而,在线更新在平衡动态信息描述和意外噪声引入方面也是一把双刃剑,长时间积累误差,在目标消失时收集不适当的样本或对可用数据过度拟合,容易降低跟踪器的性能,导致跟踪漂移。
在实际跟踪过程中,尽管目前许多跟踪算法在建立外观模型和鲁棒跟踪方面取得了明显进展,但目标跟踪在诸多实际困难面前仍然是一个非常复杂的问题。相比于近年来大热的深度学习算法,在实时处理系统中,相关滤波跟踪算法凭借其在目标跟踪准确性、对目标表观变化鲁棒以及速度上的优秀表现,成为当前研究的热点。该方法通过学习一个滤波模板,将下一帧的图像和滤波模板进行卷积运算,根据输出响应来预测目标位置,在实际计算中使用FFT将图像的卷积运算转换为频域中的点乘,大大降低了计算复杂度,在利用原始像素值描述目标时能够达到每秒几百帧的处理速度。为了满足实时处理需求,并能够在完成基本的位置预测后还能够对预测结果研判,并当目标丢失后重新找回目标,本发明在相关滤波框架下提出一种自适应更新的长时目标跟踪方法,重点解决以下技术问题。
(1)预测位置精确:针对远距离红外成像中目标弱小,容易淹没在周围背景中的现实问题,如果仅局限于目标自身表观进行目标定位,当前基于置信度最大响应值一次确定目标位置的方法很容易造成跟踪位置偏移。本发明需要能够充分利用目标与周围背景信息,精确确定目标最终位置,保证跟踪结果的精确性。
(2)跟踪结果可信:针对外界各种干扰引起的目标漂移问题,其最主要原因是跟踪算法对其跟踪结果不能进行可靠的判定致使模型更新机制存在问题,当前这些算法进行在线更新时,一般使用目标历史跟踪结果作为训练样本,其中隐含地假设了目标跟踪结果是正确的或误差较小,但实际上我们很难保证跟踪结果不出现错误。一个鲁棒的跟踪器应该能够通过外部各种物理约束对跟踪结果进行多手段验证,保证跟踪结果的可靠性。
(3)更新内容正确:针对目标表观变化的现实问题,现有跟踪器都是在首帧确定跟踪目标对象后,采用逐帧更新的方法适应后期目标对象姿态或尺度的动态变化,但是这种固定跟踪目标对象的更新方式适用于目标在视场内的表观变化缓慢且运动轨迹具有连续性的场景,不能彻底解决剧烈尺度变化问题。当跟踪对象超出视野,只有目标局部留于视场中时,这种更新方式由于边缘填充会造成跟踪漂移,同时计算量也大幅增加。本发明需要跟踪器在整个跟踪过程中不断自适应目标模板更新,适应跟踪过程中目标的剧烈尺度与表观变化,并且能够保证跟踪速度与精度。
发明内容
为了能够实现连续视角下广域长时的目标跟踪,本发明提出一种适应场景和目标变化的长时区域跟踪方法。
为了实现上述目的,本发明采用如下技术方案:
一种适应场景和目标变化的长时区域跟踪方法,包括如下步骤:
基于粗精跟踪与中心位置矫正三级结合的方式对无人机监控系统或高空瞭望系统采集的图像进行目标位置跟踪;
计算目标位置跟踪置信度,并基于目标表观相似度对目标位置跟踪置信度进行修正,结合多帧间隔约束,对修正后的跟踪结果进行综合研判;
根据综合研判结果,在跟踪成功时自适应更新跟踪模型,在跟踪失败时重新捕获目标。
如上述所述的一种适应场景和目标变化的长时区域跟踪方法,其特征在于,基于粗精跟踪与中心位置矫正三级结合的方式对无人机监控系统或高空瞭望系统采集的图像进行目标位置跟踪包括:
根据上帧目标位置Pt-1在本帧对应位置选取与粗跟踪滤波器模板大小相同的图像块作为粗跟踪搜索区域进行粗跟踪搜索,获得目标的初步位置估计Pc,如果本次跟踪响应图对应该位置的值高于阈值thrρc则确定精跟踪搜索中心点位置为此点,否则仍采用Pt-1作为本帧精跟踪搜索的中心点位置;
在上述确定的精跟踪搜索中心点位置选取与上帧精跟踪滤波器模板大小相同的图像块作为精跟踪搜索区域进行精跟踪搜索获得精跟踪位置Pf,如果本次跟踪响应图对应该位置的值高于阈值thrρc,接受精跟踪搜索结果,转入下一步,否则本帧跟踪失败,进行丢失重捕;
在精跟踪位置Pf上及其周围选定与图像表观模板Ta大小相同的图像区域,分别与图像表观模板Ta进行平均绝对差算法MAD,取相似度最大的位置点作为最终跟踪位置Pt
如上述所述的一种适应场景和目标变化的长时区域跟踪方法,其特征在于,计算目标位置跟踪置信度,并基于目标表观相似度对目标位置跟踪置信度进行修正包括:
对跟踪响应图如公式(1)所示计算峰值旁瓣比PSR,记作psrcur,反应主峰相对旁瓣的强度,公式中Fmax是峰值的响应值,μsub和σsub是旁瓣的均值与标准差;
Figure BDA0003424500750000031
计算当前帧峰值旁瓣比psrcur与历史最近连续成功M帧跟踪响应PSR均值psravg的比值,反映PSR的震荡程度,确定当前帧的目标位置跟踪置信度ρc
Figure BDA0003424500750000032
计算以最终跟踪位置Pt为中心的5*5区域内图像块与图像表观模板Ta图像表观相似度MAD值,将当前帧的MAD值与历史最近连续成功M帧跟踪结果的MAD均值作比获得归一化后图像表观相似度ρa
目标位置跟踪置信度ρc与图像表观相似度ρa加权平均得到修正后的当前跟踪置信度ρ。
如上述所述的一种适应场景和目标变化的长时区域跟踪方法,其特征在于,多帧间隔约束阈值由历史轨迹中最近连续成功N帧的帧间位移变化加上常量值c共同决定,当跟踪置信度ρ大于阈值thra且当前帧与前N帧间隔位移小于多帧间隔约束阈值thrm时判定跟踪结果正确,否则跟踪失败。
如上述所述的一种适应场景和目标变化的长时区域跟踪方法,其特征在于,在跟踪成功时自适应更新跟踪区域包括:
连续成功跟踪次数小于N帧时,粗跟踪滤波器模和精跟踪滤波器模板逐帧加权更新以适应帧间微弱差异;
连续成功跟踪次数等于N帧时,利用当前帧跟踪结果重新初始化粗跟踪滤波器模、精跟踪滤波器模板与图像表观模板Ta,以适应目标表观显著变化;
在重新初始化粗跟踪滤波器模、精跟踪滤波器模板时跟踪区域与搜索区域大小的确定方法同时考虑目标大小与计算速度限制,具体为:
根据初始帧0时刻物距d0、焦距f0、拍摄角度θ0与当前帧t时刻的物距dt、焦距ft与拍摄角度θt估计目标膨胀系数,确定目标在当前帧尺度大小,膨胀系数γ的粗估计方法为:
Figure BDA0003424500750000041
考虑计算速度限制,当目标成像短边小于等于54像素时,以跟踪点为中心选择短边边长外扩10个像素大小的矩形框作为跟踪区域。当目标成像短边大于54像素时,选择以跟踪点为中心的64*64大小区域作为跟踪区域,精跟踪向外扩展1倍作为搜索区域,粗跟踪向外扩展2倍作为搜索区域,分别创建粗精跟踪滤波器模板。
如上述所述的一种适应场景和目标变化的长时区域跟踪方法,其特征在于,跟踪失败时为了能够实现长时跟踪需要进行丢失重捕,主要包括:
从跟踪缓存中依次选取置信度最高的帧按照当前时刻的跟踪区域大小,并扩大二倍搜索区制备滤波器模板在当前帧中重新进行搜索;
跟踪缓存中存放的是最近判定为成功的原始帧图像、目标位置以及置信度;
搜索成功后在当前帧重新初始化粗跟踪滤波器模板、精跟踪滤波器模板与图像表观模板;
如果搜索失败继续对下帧重复上述方法搜索,当连续N帧都不能重新获取目标位置后宣告目标丢失,终止目标跟踪程序。
本发明所设计的一种适应场景和目标变化的长时区域跟踪方法具有如下优点:
(1)响应快:采用相关滤波方法进行目标位置预测,算法在嵌入式平台上逐帧正常跟踪处理时间小于10ms。当目标丢失需要重新捕获时处理时间最长不超过20ms。
(2)跟踪准:相对于现有相关滤波跟踪算法,本方法因为采用粗精跟踪结合方式,并能够利用跟踪响应结果与历史跟踪信息进行更新时机判定,与现有的CSK,KCF,以及ECO-HC方法相比,具有跟踪结果准确性高的特点。
(3)判断对:本方法联合多种线索,结合时空信息对跟踪结果进行综合研判,在给出目标预测位置的基础上并且提供结果的置信度判断,相对以往方法输出结果更为可靠。
附图说明
下面结合附图和具体实施方式对本发明作进一步的详细说明。
图1是本发明适应场景和目标变化的长时区域跟踪方法总体框架;
图2是逐帧跟踪处理流程图;
图3是多帧缓存管理策略;
图4是跟踪目标丢失重捕示意图。
具体实施方式
前已述及,本发明提出一种适应场景和目标变化的长时区域跟踪方法,下面结合附图清楚完整地描述本发明的具体实施方式。
本实施例公开了一种适应场景和目标变化的长时区域跟踪方法,整体框架如图1所示:
当初始帧获得待跟踪目标后,进行粗、精跟踪滤波器模板与图像表观模板Ta制备,当后续新的一帧图像到来后,选择候选搜索区域,进行目标位置预测,接着联合多种线索对跟踪结果计算置信度并对目标跟踪置信度进行综合研判,排除跟踪虚警;最后根据研判结果对跟踪模型进行更新。
在本实施例中,具体每帧处理流程如图2所示,包括:
步骤1:目标位置预测
主要包括两个部分:粗精跟踪搜索与中心位置修正。
(a)首先粗跟踪搜索,获取目标初步位置Pc,如果该位置的最大响应值大于可接受的阈值thrρc则在此位置上进行精跟踪,否则直接在上帧位置Pt-1上进行精跟踪。粗精跟踪均采用基于相关滤波的跟踪原理,具体做法根据上帧目标位置在本帧对应位置选取与跟踪滤波器模板(包括粗跟踪滤波器模板和精跟踪滤波器模板)大小相同的图像块作为搜索区域,提取特征并加余弦窗消除边界影响,假定该搜索区域特征为z,如公式1所示与上一帧目标特征模型x进行运算得到核矩阵k;再如公式2所示利用上一帧计算的滤波器参数a与核矩阵k进行频域内的点乘运算并将计算结果通过傅里叶逆变换F-1到时域下,得到的就是相关滤波运算后的响应图y;最后通过搜索响应图y中的最大值Fmax和对应坐标(px,py),即可计算得到当前帧中目标最大概率出现的位置。
Figure BDA0003424500750000061
y=F-1(F(a)·F(k)) (2)
此过程中粗精跟踪都采用相关滤波方法,两者差别在于选定跟踪区域后,搜索区域大小设置不同,具体大小根据实际情况设定初始值,同时为了保证速度,粗跟踪对搜索区域进行基于最近邻插值的下采样操作。
(b)当精跟踪位置Pf对应的最大响应值大于可接受的阈值thrρc时,在此位置上利用图像表观相似度进行中心位置矫正。具体方法是在当前帧位置点Pf和周围上下左右选择四个候选点P1,P2,P3和P4。分别以这5个点为中心选取与图像表观模板Ta大小相同的图像区域,在本实施例中选取5*5大小区域形成新的目标表观图像S,S1,S2,S3和S4,然后分别与图像表观模板Ta进行基于灰度的图像匹配算法MAD(平均绝对差),取相似度最大的位置点作为最终跟踪点取代Pf作为跟踪器最终的跟踪结果Pt。MAD计算如公式(3)所示:
Figure BDA0003424500750000062
其中:M=N=5,d表示图像块S与图像表观模板T的像素值平均绝对差。
步骤2:置信度修正
包括两个部分:跟踪滤波器自身响应时空分析与跟踪区域图像表观相似度计算。
跟踪器自身响应时空分析首先对相关滤波跟踪算法求解的跟踪响应图计算峰值旁瓣比(Peak to Sidelobe Ratio,PSR),记作psrcur。PSR可以用来表示相关峰强度。将相关性输出g分为两部分:峰值和旁瓣,峰值即为最大值,旁瓣选择以峰值为中心11*11区域。主要反应了主峰相对旁瓣的比值,当旁瓣均值较大或分布不均时,会降低PSR的值。具体计算为公式(4)所示:
Figure BDA0003424500750000071
Fmax是峰值的响应值,μsub和σsub是旁瓣的均值与标准差。
跟踪响应图的变化在正常跟踪时不会发生激烈的变化,只有当目标发生遮挡或丢失时才会产生激烈变化,所以历史跟踪信息也能给当前跟踪置信度的计算提供参考。本方法利用历史有效帧跟踪结果的均值对峰值旁瓣比归一化表示如公式(5)所示,以此表示目标位置跟踪置信度ρc,这种方法用当前PSR值psrcur与历史有效帧PSR均值psravg之比作为最终跟踪滤波器置信度指标,优点在于可以自适应每段测试场景,有效克服固定阈值的泛化性差等缺点。
Figure BDA0003424500750000072
基于图像表观相似度的跟踪置信度计算方法:对前面计算出来的MAD进行归一化,具体方法为计算历史最近连续成功M帧跟踪结果的MAD平均值,在本实施例中具体取前三帧(M=3)跟踪结果的MAD计算平均值davg作为当前跟踪图像表观的基准相似度值,然后当前帧算出来的跟踪点MAD值dcur与基准相似度值davg作比,如公式(6)所示。
Figure BDA0003424500750000073
目标位置跟踪置信度ρc与图像表观相似度ρa加权平均得到修正后的当前跟踪置信度ρ,具体计算如公式(7)所示。
ρ=0.5*ρc+0.5*ρa (7)
步骤3:跟踪结果研判
结合跟踪置信度与目标跟踪历史轨迹信息对跟踪结果研判。
多帧间隔约束具体指跟踪目标在多帧间的运动位移约束,根据历史连续跟踪成功帧N的帧间位移变化推算当前帧与历史帧的预测位移偏差阈值。为了实现本策略,需要存储历史最近连续多帧(比如N帧,本发明中N=5)的跟踪数据。采用三个缓存队列存储数据,具体存储与更新策略如图3所示,具体描述如下:
缓存1:用于计算当前处理N帧的偏差距离,存储最近的N帧跟踪轨迹信息,更新策略为当前帧处理完毕存入缓存,最早的一帧处理结果删除;
缓存2:用于保存当前阶段的前一阶段的N帧数据,用于更新“缓存3”,更新策略为当“缓存1”第一次存满后,初始化“缓存2”,此后“缓存1”每更新一次,就用“缓存1”里最早的值压入“缓存2”,同时去除缓存2里最早的值。
缓存3:用于计算最近的历史预测,存储历史连续最近成功N帧,更新策略为从“缓存2”中复制连续成功的N帧,采用一次计算平均帧间隔位移,可以多次用于其之后帧的预测;计算平均帧间隔位移后对其清空。
基于跟踪置信度和多帧间隔位移约束的最终跟踪结果判断策略是:只有当跟踪置信度ρ大于可以接受的阈值thra(取值0.15)且当前帧与前N帧间隔位移(如果当前帧是t帧,即t帧与t-N帧的位移)小于可以接受的多帧间隔约束阈值thrm时判定跟踪结果正确,否则跟踪失败。
步骤4:跟踪模型管理
当跟踪结果判定本帧跟踪成功时,进行跟踪模型管理。本发明对滤波器模板更新采用逐帧加权更新与阶段重启制备相结合的方式适应目标尺度与表观变化。具体做法是:
首先对连续跟踪成功次数进行计数,根据连续跟踪成功次数判断是否主动重启。
如果连续成功跟踪次数小于N,在本实施例中N=5时,为了适应短时小场景帧间微弱差异,采用逐帧加权更新模板的策略。然而,每一帧的结果都用来更新,或者隔帧更新是有风险的,特别是当目标被遮挡,或者跟踪器已经跟的不好的时候,再去更新模型,只会使得跟踪器越来越无法识别目标,本发明只在步骤3判定跟踪成功且跟踪置信度ρ大于阈值thrl(thra<thrl<1,thrl取值0.3)的时候才更新跟踪模型,避免目标模型被污染,减少模型漂移与更新次数,同时提升速度。逐帧更新跟踪模型的计算方法如公式(8),(9)所示。
F(x)t=(1-r)F(x)t-1+rF(x)t (8)
F(a)t=(1-r)F(a)t-1+rF(a)t (9)
其中F(·)表示傅里叶变换操作,x表示提取的目标与背景特征,a表示滤波器参数,r表示更新率,r值越大表明当前帧权重越大,但较大的r值很容易使得模板被当前帧污染。因此需要依据跟踪置信度的高低自适应的调整更新率。当前置信度ρ为低(thrl<ρ<thrh,thrh=0.7)时更新率为0.035,置信度ρ为高时(thrh≤ρ≤1)更新率为0.085。
如果连续成功跟踪次数等于N,在本实施例中N=5时,为了适应长时大场景表观巨大变化,本发明在当前帧重新训练滤波器,初始化跟踪参数、踪滤波器模板与目标表观模板。在制备跟踪滤波器模板时,跟踪区域与搜索区域的确定同时考虑目标大小与计算速度限制。根据初始帧0时刻物距d0、焦距f0、拍摄角度θ0与当前帧t时刻的物距dt、焦距ft与拍摄角度θt估计目标膨胀系数,确定目标在当前帧尺度大小,膨胀系数γ的粗估计方法为:
Figure BDA0003424500750000091
其次考虑计算速度限制,当目标成像较小时(短边小于等于54像素),以跟踪点为中心选择短边边长外扩10个像素大小的矩形框作为跟踪区域,当目标成像变大时(短边大于54像素),选择以跟踪点为中心的64*64固定大小的区域作为跟踪区域。粗、精跟踪分别向外扩展1倍、2倍作为搜索区域创建粗精跟踪滤波器模板。
目标表观模板选取跟踪点为中心5*5的图像区域。
步骤5:丢失重补
当跟踪结果判定为本帧跟踪失败时,需要进行丢失重捕工作,首先判断是否停止跟踪,即判断是否已经连续多帧跟踪失败,如果已经连续N=5帧失败则结束跟踪过程。否则利用历史成功跟踪信息进行失败状态下的重启跟踪进行目标丢失重捕。具体方法:
从跟踪缓存中依次选取置信度最高的帧按照当前时刻的跟踪区域大小,并扩大二倍搜索区域制备跟踪滤波器模板在当前帧中重新进行搜索;
对搜索结果计算置信度ρ与多帧间隔位移,并按照步骤3中的策略进行跟踪结果研判,如果搜索成功后在当前帧按照步骤4跟踪区域与搜索区域设置方法重新初始化粗精跟踪滤波器模板与图像表观模板;
如果搜索失败,转入下帧处理。
以上对本发明所提供的模板自适应更新的长时目标跟踪方法作了详细的说明,但显然本发明的具体实现形式并不局限于此。对于本技术领域的一般技术人员来说,在不背离本发明的权利要求范围的情况下对它进行的各种显而易见的改变都在本发明的保护范围之内。

Claims (1)

1.一种适应场景和目标变化的长时区域跟踪方法,其特征在于:包括如下步骤:
基于粗精跟踪与中心位置矫正三级结合的方式对无人机监控系统或高空瞭望系统采集的图像进行目标位置跟踪;
计算目标位置跟踪置信度,并基于目标表观相似度对目标位置跟踪置信度进行修正,结合多帧间隔约束,对修正后的跟踪结果进行综合研判;
根据综合研判结果,在跟踪成功时自适应更新跟踪模型,在跟踪失败时重新捕获目标;
在跟踪成功时自适应更新跟踪模型包括:
连续成功跟踪次数小于N帧时,粗跟踪滤波器模板和精跟踪滤波器模板逐帧加权更新以适应帧间微弱差异;
连续成功跟踪次数等于N帧时,利用当前帧跟踪结果重新初始化粗跟踪滤波器模板、精跟踪滤波器模板与图像表观模板Ta,以适应目标表观显著变化;
在重新初始化粗跟踪滤波器模板、精跟踪滤波器模板时跟踪区域与搜索区域大小的确定方法同时考虑目标大小与计算速度限制,具体为:
根据初始帧0时刻物距d0、焦距f0、拍摄角度θ0与当前帧t时刻的物距dt、焦距ft与拍摄角度θt估计目标膨胀系数,确定目标在当前帧尺度大小,膨胀系数γ的粗估计方法为:
Figure FDA0004046332940000011
考虑计算速度限制,当目标成像短边小于等于54像素时,以跟踪点为中心选择短边边长外扩10个像素大小的矩形框作为跟踪区域,当目标成像短边大于54像素时,选择以跟踪点为中心的64*64大小区域作为跟踪区域,精跟踪向外扩展1倍作为搜索区域,粗跟踪向外扩展2倍作为搜索区域,分别创建精跟踪滤波器模板和粗跟踪滤波器模板;
跟踪失败时为了能够实现长时跟踪需要进行丢失重捕,主要包括:
从跟踪缓存中依次选取置信度最高的帧按照当前时刻的跟踪区域大小,并扩大二倍作为搜索区域制备滤波器模板,在当前帧中重新进行搜索;
跟踪缓存中存放的是最近判定为成功的原始帧图像、目标位置以及置信度;
搜索成功后在当前帧重新初始化粗跟踪滤波器模板、精跟踪滤波器模板与图像表观模板;
如果搜索失败继续对下帧重复上述方法搜索,当连续N帧都不能重新获取目标位置后宣告目标丢失,终止目标跟踪程序;
基于粗精跟踪与中心位置矫正三级结合的方式对无人机监控系统或高空瞭望系统采集的图像进行目标位置跟踪包括:
根据上帧目标位置Pt-1在本帧对应位置选取与粗跟踪滤波器模板大小相同的图像块作为粗跟踪搜索区域进行粗跟踪搜索,获得目标的初步位置估计Pc,如果本次跟踪响应图对应该位置的值高于阈值thrρc,则确定精跟踪搜索中心点位置为此点,否则仍采用Pt-1作为本帧精跟踪搜索的中心点位置;
在上述确定的精跟踪搜索中心点位置选取与上帧精跟踪滤波器模板大小相同的图像块作为精跟踪搜索区域进行精跟踪搜索,获得精跟踪位置Pf,如果本次跟踪响应图对应该位置的值高于阈值thrρc,接受精跟踪搜索结果,转入下一步,否则本帧跟踪失败,进行丢失重捕;
在精跟踪位置Pf上及其周围选定与图像表观模板Ta大小相同的图像区域,分别与图像表观模板Ta进行平均绝对差算法MAD,取相似度最大的位置点作为最终跟踪位置Pt
计算目标位置跟踪置信度,并基于目标表观相似度对目标位置跟踪置信度进行修正包括:
对跟踪响应图如公式(1)所示计算峰值旁瓣比PSR,记作psrcur,反映主峰相对旁瓣的强度,公式中Fmax是峰值的响应值,μsub和σsub是旁瓣的均值与标准差;
Figure FDA0004046332940000021
计算当前帧峰值旁瓣比psrcur与历史最近连续成功M帧跟踪响应PSR均值psravg的比值,反映PSR的震荡程度,确定当前帧的目标位置跟踪置信度ρc
Figure FDA0004046332940000022
计算以最终跟踪位置Pt为中心的5*5区域内图像块与图像表观模板Ta图像表观相似度MAD值,将当前帧的MAD值与历史最近连续成功M帧跟踪结果的MAD均值作比获得归一化后图像表观相似度ρa
目标位置跟踪置信度ρc与图像表观相似度ρa加权平均得到修正后的当前跟踪置信度ρ;
多帧间隔约束阈值由历史轨迹中最近连续成功N帧的帧间位移变化加上常量值c共同决定,当跟踪置信度ρ大于阈值thra且当前帧与前N帧间隔位移小于多帧间隔约束阈值thrm时判定跟踪结果正确,否则跟踪失败。
CN202111573298.1A 2021-12-21 2021-12-21 一种适应场景和目标变化的长时区域跟踪方法 Active CN114241008B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111573298.1A CN114241008B (zh) 2021-12-21 2021-12-21 一种适应场景和目标变化的长时区域跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111573298.1A CN114241008B (zh) 2021-12-21 2021-12-21 一种适应场景和目标变化的长时区域跟踪方法

Publications (2)

Publication Number Publication Date
CN114241008A CN114241008A (zh) 2022-03-25
CN114241008B true CN114241008B (zh) 2023-03-07

Family

ID=80760614

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111573298.1A Active CN114241008B (zh) 2021-12-21 2021-12-21 一种适应场景和目标变化的长时区域跟踪方法

Country Status (1)

Country Link
CN (1) CN114241008B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114663462A (zh) * 2022-04-07 2022-06-24 北京远度互联科技有限公司 目标跟踪方法、装置、电子设备及存储介质
CN116563348B (zh) * 2023-07-06 2023-11-14 中国科学院国家空间科学中心 基于双特征模板的红外弱小目标多模态跟踪方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110335293A (zh) * 2019-07-12 2019-10-15 东北大学 一种基于tld框架的长时间目标跟踪方法
CN111091583A (zh) * 2019-11-22 2020-05-01 中国科学技术大学 长期目标跟踪方法
CN111508002A (zh) * 2020-04-20 2020-08-07 北京理工大学 一种小型低飞目标视觉检测跟踪系统及其方法
CN113327272A (zh) * 2021-05-28 2021-08-31 北京理工大学重庆创新中心 一种基于相关滤波的鲁棒性长时跟踪方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105578034A (zh) * 2015-12-10 2016-05-11 深圳市道通智能航空技术有限公司 一种对目标进行跟踪拍摄的控制方法、控制装置及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110335293A (zh) * 2019-07-12 2019-10-15 东北大学 一种基于tld框架的长时间目标跟踪方法
CN111091583A (zh) * 2019-11-22 2020-05-01 中国科学技术大学 长期目标跟踪方法
CN111508002A (zh) * 2020-04-20 2020-08-07 北京理工大学 一种小型低飞目标视觉检测跟踪系统及其方法
CN113327272A (zh) * 2021-05-28 2021-08-31 北京理工大学重庆创新中心 一种基于相关滤波的鲁棒性长时跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
基于特征融合的长时目标跟踪算法;葛宝义等;《光学学报》;20180627;第38卷(第11期);第1-13页 *
时空上下文学习长时目标跟踪;刘威等;《光学学报》;20160110;第36卷(第01期);第1-8页 *
自适应目标变化的时空上下文抗遮挡跟踪算法;张晶等;《计算机工程与科学》;20180915;第40卷(第09期);第1653-1661页 *

Also Published As

Publication number Publication date
CN114241008A (zh) 2022-03-25

Similar Documents

Publication Publication Date Title
CN111127518B (zh) 基于无人机的目标跟踪方法及装置
CN110796010B (zh) 一种结合光流法和卡尔曼滤波的视频稳像方法
CN110728697B (zh) 基于卷积神经网络的红外弱小目标检测跟踪方法
CN107424177B (zh) 基于连续相关滤波器的定位修正长程跟踪方法
CN114241008B (zh) 一种适应场景和目标变化的长时区域跟踪方法
KR100985805B1 (ko) 적응적인 칼만필터를 이용한 영상 안정화 장치 및 방법
CN101860729A (zh) 一种用于全方位视觉的目标跟踪方法
CN112991391A (zh) 一种基于雷达信号和视觉融合的车辆检测与跟踪方法
CN113379801B (zh) 一种基于机器视觉的高空抛物监测定位方法
KR101308347B1 (ko) 상관관계를 이용한 가려진 얼굴 영상 검출 및 복원 방법
CN105374049B (zh) 一种基于稀疏光流法的多角点跟踪方法及装置
CN112258553B (zh) 一种基于多源图像融合的全天时目标跟踪方法
CN112509003B (zh) 解决目标跟踪框漂移的方法及系统
CN110717934B (zh) 一种基于strcf的抗遮挡目标跟踪方法
CN110827321A (zh) 一种基于三维信息的多相机协同的主动目标跟踪方法
CN111931685A (zh) 一种基于双向跟踪策略的视频卫星移动目标检测方法
CN106296730A (zh) 一种人体运动跟踪系统
JP2022027464A (ja) 映像の深度推定に関する方法及び装置
CN116381672A (zh) 基于孪生网络雷达x波段多扩展目标自适应跟踪方法
CN115953431A (zh) 面向无人机航拍视频的多目标跟踪方法与系统
CN115439777A (zh) 一种基于多特征融合与运动估计的视频卫星目标跟踪方法
CN110751671A (zh) 一种基于核相关滤波与运动估计的目标跟踪方法
CN115511804A (zh) 一种基于管道自适应滤波的海上红外弱小目标检测方法
CN116503244A (zh) 一种保留信息的前视声呐图像拼接方法
CN115082519A (zh) 一种基于背景感知相关滤波的飞机跟踪方法、存储介质和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant