[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN110555870B - 基于神经网络的dcf跟踪置信度评价与分类器更新方法 - Google Patents

基于神经网络的dcf跟踪置信度评价与分类器更新方法 Download PDF

Info

Publication number
CN110555870B
CN110555870B CN201910856724.9A CN201910856724A CN110555870B CN 110555870 B CN110555870 B CN 110555870B CN 201910856724 A CN201910856724 A CN 201910856724A CN 110555870 B CN110555870 B CN 110555870B
Authority
CN
China
Prior art keywords
classifier
confidence
tracking
frame
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910856724.9A
Other languages
English (en)
Other versions
CN110555870A (zh
Inventor
宋勇
杨昕
赵宇飞
王枫宁
郭拯坤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN201910856724.9A priority Critical patent/CN110555870B/zh
Publication of CN110555870A publication Critical patent/CN110555870A/zh
Application granted granted Critical
Publication of CN110555870B publication Critical patent/CN110555870B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2193Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于神经网络的DCF跟踪置信度评价与分类器更新方法,属于计算机视觉技术领域。首先设计并训练响应图分析网络的小规模卷积神经网络。在相关滤波跟踪中,当分类器与搜索区域的特征进行卷积后,将产生的响应图输入到此网络中,并将输出作为这一帧分类器的跟踪置信度评分。当得分低于预设的低置信阈值时,认为目标受到了剧烈干扰,停止更新,以防止目标模型受污染,并且使更新的学习率与时间间隔受置信分数自适应调整,当分类器连续多帧都取得较高的置信分数时,认为目标外观处于高度相似状态,提高更新的间隔以缓解过拟合现象。本发明方法能够显著增强相关滤波跟踪对光照变化、遮挡、出视野等干扰因素的适应能力,提高空间与时间效率。

Description

基于神经网络的DCF跟踪置信度评价与分类器更新方法
技术领域
本发明涉及一种基于神经网络的DCF(Discrimitive Correlation Filters,判别相关滤波)跟踪置信度评价与分类器更新方法,具体涉及一种基于响应图分析卷积神经网络的DCF跟踪置信度评价与分类器更新的方法,属于计算机视觉技术领域。
背景技术
运动目标跟踪技术是计算机视觉的重要研究领域之一,在自动驾驶、人机交互、安全监控等领域得到了广泛应用。
目前,运动目标跟踪技术面临的挑战是:在背景光照条件变化、遮挡、快速运动、出视野、姿态形状变化和尺寸变化等复杂干扰因素的影响下,如何保持精确、实时的跟踪。
在现有技术中,运动目标跟踪技术主要包括生成式跟踪方法与判别式跟踪方法,具体包括:基于核的结构化输出(Structured output tracking with kernel,Struck)跟踪方法、多样本学习(MultipleInstance Learning,MIL)跟踪方法、跟踪-学习-检测(Tracking-Learning-Detection,TLD)跟踪方法等。此类方法的原理是:首先,分别以目标与背景作为正负样本,训练一个分类器;之后,在搜索区域上据此分类器进行检测,将最大响应值位置作为目标中心位置的估计,从而实现跟踪。通常,此类方法通过稀疏采样的方式得到训练样本,即,在目标周围取若干大小相等的窗口,但计算量也会随样本数量的增大而增大,导致跟踪方法的实时性下降。
相关滤波跟踪方法,通过构造循环矩阵形式的样本,较好地处理了判别式跟踪方法训练样本不足和计算量大的问题。Henriques等提出的KCF方法(Henriques J F,Rui C,Martins P,et al.“High-Speed Tracking with Kernelized Correlation Filters”.IEEE Transactions on Pattern Analysis&Machine Intelligence,2014,37(3):583-596),根据循环矩阵在经过傅里叶变换后成为对角矩阵的性质,将单个样本进行移位循环,通过基于核的岭回归运算,从而在傅里叶域实现了分类器的快速检测与训练。该方法不仅具有较高的跟踪精度,而且保持了实时性。
但是,一般的相关滤波方法中,均缺少跟踪失败检测或计算跟踪置信度的过程,无法对目标的状态变化进行判断,且通常以固定的间隔与学习率对分类器进行更新。当目标受到遮挡等干扰时,持续更新会使其外观模型受到污染,从而导致跟踪结果发生漂移,跟踪误差不断积累,最终导致目标丢失。而当目标外观连续多帧都处于高度相似的状态时,这样的更新方式的效率较低,并且容易造成过拟合现象。
一些研究人员意识到了这一点,并采取了一定措施。如ECO方法(Danelljan,Martin,et al."ECO:efficient convolution operators for tracking."Proceedingsof the IEEE conference on computer vision and pattern recognition.2017.),为了降低过拟合的风险,增大了更新的间隔,由每帧都更新分类器变为每6帧更新一次,从而使速度与精度都得到了一定程度的提高。HCF方法(Ma,Chao,et al."When correlationfilters meet convolutional neural networks for visual tracking."IEEE SignalProcessing Letters 23.10(2016):1454-1458.)将分类器检测时产生的响应图上的最大响应值fmax作为置信度判断的依据,当此值低于设定的阈值时,认为目标受到了较大的干扰,不再进行更新,从而保护目标外观模型。MOSSE方法(Bolme,David S.,et al."Visualobject tracking using adaptive correlation filters."2010IEEE Computer SocietyConference on Computer Vision and Pattern Recognition.IEEE,2010.)提出利用峰值旁瓣比PSR作为跟踪置信度的指标。LMCF方法(Wang,Mengmeng,Yong Liu,and ZeyiHuang."Large margin object tracking with circulant feature maps."Proceedingsof the IEEE Conference on Computer Vision and Pattern Recognition.2017.)用平均峰值相关能量APCE(average peak-to correlation energy)反映响应图的波动程度和检测目标的置信水平。但是,这些方法只考虑了响应图上最大响应值与其他响应值的数值关系,没有利用到响应值之间的相对位置关系与响应峰的形状信息。
发明内容
本发明的目的是为了解决计算机视觉领域中,现有的相关滤波跟踪方法由于缺乏跟踪置信度评价措施,在处理运动目标跟踪任务时,面临干扰度大、效率低,影响识别精度和实时性的技术问题,提出一种基于神经网络的DCF跟踪置信度评价与分类器更新方法。
本发明方法的技术原理是:利用卷积神经网络对相关滤波跟踪方法中分类器产生的响应图进行分析,获得跟踪置信度评分,并对分类器的更新参数进行自适应调整。首先,设计并训练了一个称为响应图分析网络的小规模卷积神经网络。在相关滤波跟踪中,当分类器与搜索区域的特征进行卷积后,将产生的响应图输入到此网络中,并将输出作为这一帧分类器的跟踪置信度评分。当得分低于预设的低置信阈值时,认为目标受到了剧烈干扰,停止更新,以防止目标模型受污染;并且,使更新的学习率与时间间隔受置信分数自适应调整,当分类器连续多帧都取得较高的置信分数时,认为目标外观处于高度相似状态,提高更新的间隔以缓解过拟合现象。
为实现上述目的,本发明采取下述技术手段。
一种基于神经网络的DCF跟踪置信度评价与分类器更新方法,包括以下步骤:
首先,对进行跟踪置信度评价的卷积神经网络进行设计与训练。利用现有的相关滤波跟踪方法,建立分类器响应图的数据集。然后,对网络结构进行设计。最后,利用数据集对所提出的网络进行训练与验证。该网络称为响应图分析网络,用
Figure GDA0002954956180000033
进行表示。
网络训练完毕之后,利用该网络对相关滤波跟踪的跟踪置信度进行评价,对分类器更新的频率与学习率进行调整,实现高置信度、自适应的更新,从而提高跟踪精度与效率。具体包括如下步骤:
步骤1:初始化相关滤波跟踪方法
在第一帧时,依据给出的目标位置与大小信息,建立训练区域并提取特征,利用此特征初始化分类器。由于第一帧的目标位置已知,因此无需计算跟踪置信度。
步骤2:建立搜索区域,提取特征
假设第t-1帧时,得到目标位置与大小信息
Figure GDA0002954956180000031
其中
Figure GDA0002954956180000032
为目标估计位置的中心坐标,a和b为所估计目标的宽与高(在相关滤波跟踪中,a与b的值在第一帧确定后就不再变化)。以此为中心向外扩展,在第t帧图像上建立搜索区域
Figure GDA0002954956180000041
其中ρ为尺寸扩展的系数。
之后,在此位置上,提取目标的特征,可以为颜色直方图、方向梯度直方图HOG(Histogram of oriented gradient)、分层的深度卷积特征等。用xt表示此特征,其尺寸为M×N×D×L,其中M、N、D、L分别代表特征的宽、高、通道数与层数。则xt[d,l]代表第t帧时,搜索区域的第l层第d通道的特征图,其中d∈{1,...,D},l∈{1,...,L}。
步骤3:检测分类器,生成响应图
用wt-1代表第t帧前学习到的分类器参数,其与搜索区域特征图具有相同的尺寸,则wt-1[d,l]为与xt[d,l]相对应的第l层第d通道的分类器参数。特征与分类器参数进行傅里叶变换后,使每一层中每个通道上对应的元素互相点乘,再将所有通道的结果依次求和,然后经过傅里叶反变换回到时域,得到每一层的子响应图ft[l]。最后所有子响应图按照对应的系数γl进行加权融合,得到第t帧时总体的响应图ft
Figure GDA0002954956180000042
其中,大写字母W与X表示分类器w与特征x对应的傅里叶变换形式,
Figure GDA0002954956180000043
代表傅里叶反变换操作。
将响应图ft上最大响应值的位置索引视为第t帧时目标的估计位置
Figure GDA0002954956180000044
Figure GDA0002954956180000045
如果此时t等于总的帧数frames,说明相关滤波跟踪已经处理完了整个视频序列,无需再进行跟踪置信度的评价与分类器的更新。
步骤4:基于卷积神经网络的相关滤波跟踪置信度评价
将所生成的响应图ft输入到训练好的卷积神经网络中,得到其对应的跟踪置信分数
Figure GDA0002954956180000046
设置τl和τs两个长、短时间阈值与
Figure GDA0002954956180000047
Figure GDA0002954956180000048
两个高、低跟踪置信分数阈值,其中τls
Figure GDA0002954956180000049
根据τl帧内置信分数的变化情况确定分类器更新频率:
(1)长期高置信度更新模式:在τl帧这一长时间段内,所有的置信分数
Figure GDA0002954956180000051
都大于高置信度阈值
Figure GDA0002954956180000052
即对任意的τ∈[0,1,...,τl-1],都有
Figure GDA0002954956180000053
时,认为目标处于长期高跟踪置信度。每3帧才更新一次分类器,更新的学习率的放大倍率α=α3
(2)短期高置信度更新模式:虽然在τl帧内,不是所有的置信分数
Figure GDA0002954956180000054
都大于高置信阈值
Figure GDA0002954956180000055
但满足对任意的τ∈[0,1,...,τs-1],都有
Figure GDA0002954956180000056
时,认为目标在τs帧这一短时间段内,处于短期高置信度。每2帧更新一次分类器,学习率的放大倍率α=α2
(3)如果不满足(1)和(2)中的条件,但如果此时的置信分数仍大于低置信阈值
Figure GDA0002954956180000057
Figure GDA0002954956180000058
认为目标受到了一定干扰,但是对定位精度影响不大,目标与分类器仍然可以较好地匹配。此时每帧更新一次分类器,放大倍率α=α1
(4)当第t帧的置信分数不超过低置信度阈值
Figure GDA0002954956180000059
Figure GDA00029549561800000510
时,分类器处于低置信度状态,认为目标可能发生了光照变化、形变、严重遮挡等剧烈干扰,分类器与目标的匹配程度下降,跟踪结果不再可靠。此时不再更新分类器,跳过更新步骤5,直接读入下一帧图像,来到步骤2。
更新的学习率根据下式自适应求得:
Figure GDA00029549561800000511
其中,C为偏置的常数。
步骤5:基于跟踪置信分数,更新自适应分类器
在步骤4中,根据跟踪置信度的变化情况确定这一帧进行分类器更新后,以第t帧的估计位置
Figure GDA00029549561800000512
为中心,在图像上扩展出训练区域
Figure GDA00029549561800000513
然后提取其特征图xt'。通过最小化下式得到每一层的第t帧的分类器参数wt'[l]:
Figure GDA00029549561800000514
其中,λ为
Figure GDA00029549561800000515
正则化参数,y为高斯函数生成的软标签:
Figure GDA00029549561800000516
其中σ为高斯带宽,此标签的形状是一个峰值位于中心处的二维高斯函数。
该最小化问题的闭式解表示为:
Figure GDA0002954956180000061
其中,Y为软标签y的傅里叶变换形式,*代表矩阵的复共轭,分子分母进行的是按元素点除操作。
新分类器参数,由前t-1帧的分类器和第t帧的分类器的分子与分母进行滑动平均得到:
Figure GDA0002954956180000062
At[d,l]=(1-η)At-1[d,l]+ηY*⊙Xt′[d,l] (8)
Figure GDA0002954956180000063
Figure GDA0002954956180000064
有益效果
本发明方法,对比现有的其他相关滤波的跟踪置信度评价与分类器更新方法,能够显著增强相关滤波跟踪对光照变化、遮挡、出视野等干扰因素的适应能力,提高空间与时间效率。
(1)跟踪置信度评价更加准确。该方法将分类器与图像特征卷积后得到的响应图输入到一个小规模的卷积神经网络中,将输出值作为这一帧分类器的置信分数。一般的跟踪置信度评价方法只考虑了响应图上响应峰值与其他响应值的相对数值关系,忽视了响应图上响应值之间的相对位置信息与响应峰的形状信息。而卷积神经网络作为一种具有强大的泛化与拟合能力的非线性模型,在图像分类任务上取得了巨大的成功,可以全面地学习到响应图上的各种信息,更为准确地对相关滤波方法的跟踪置信度进行评价,从而提升目标跟踪处理的精确度。
(2)鲁棒性强。该方法依据响应图输入卷积神经网络后得到的跟踪置信分数,对分类器的更新过程进行调整,从而提高分类器对目标变化的适应能力得到的提升,避免污染与过拟合现象。一方面,使分类器更新的学习率与置信分数呈正相关变化,跟踪结果的置信分数越低,说明目标受到的干扰越大,因此学习率也越低。而当置信分数低于低置信度阈值时,认为目标受到了严重的干扰,令学习率等于0,即此时不再对分类器进行更新,以保护其不受背景污染。而另一方面,当置信分数连续多帧都处于高置信度水平时,认为这几帧内目标处于高度相似或者缓慢变化状态,连续地更新会造成过拟合,因此会降低更新的频率。
(3)跟踪速度快。该方法响应图输入卷积神经网络后输出的跟踪置信分数,对分类器更新的频率进行调整,从而提升了相关滤波的时间与空间效率。一般的相关滤波跟踪,在每一帧的检测与更新时需各提取一次特征,并且要计算新的分类器参数。而当利用的是深度卷积特征时,提取特征的时间往往占处理时间的80%以上。一方面,当置信分数低于置信阈值时,将跳过更新步骤;另一方面,当置信分数连续多帧处于高水平时,又会降低更新的频率。从而可以在不更新时节省近一半的时间,并且大大减少了计算的开销,极大提升目标跟踪处理的实时性。
附图说明
图1为本发明方法的原理示意图;
图2为本发明方法的流程图;
图3为本发明方法中用于评价跟踪置信度的响应图分析卷积神经网络的结构图;
图4为本发明方法与常规相关滤波方法的跟踪结果对比;
图5为本发明方法中提出的置信分数在Jogging1图像序列中随目标外观变化的曲线图;
图6为本发明方法中提出的置信分数在Bird1图像序列中随目标外观变化的曲线图;
图7为本发明方法中与其他评价DCF跟踪置信度的指标在Jogging1图像序列中的对比曲线图。
图8为本发明方法中与其他评价DCF跟踪置信度的指标在Bird1图像序列中的对比曲线图。
具体实施方式
下面结合附图和实施例,对本发明作进一步详细说明。
实施例
一种基于神经网络的DCF跟踪置信度评价与分类器更新方法,首先对评价跟踪置信度的响应图分析卷积神经网络进行设计和训练。网络训练完成之后,再用于对相关滤波的跟踪置信度进行评价以及自适应更新。
首先,根据普通的相关滤波方法产生的响应图建立训练数据集,当估计位置与目标实际中心位置的距离小于目标对角线长度的1/5,且形状接近于理想的二维高斯函数的响应图作为正类;估计位置与目标实际中心位置的距离大于目标对角线长度的1/3,且形状非常粗糙、不规则的响应图作为正类。从常规相关滤波方法在Visual Tracker Benchmark数据集上产生的接近6万幅响应图中,挑选了447张作为样本,正负两类样本的数据的比例约为0.6:0.4,训练集与测试集之比为0.8:0.2。建立好数据集后,对网络的结构进行设计,如附图3所示。使用学习率衰减的Adam随机梯度下降法对模型预测的交叉熵损失进行优化,batch大小为256,训练40轮之后开始收敛,100轮之后训练结束,在测试集上的准确率为86.7%。
将训练好的小规模二分类卷积神经网络用于相关滤波方法的跟踪置信度评价,每一帧中分类器产生的响应图会输入此网络,将所输出的该响应图为正类的概率作为置信分数。其整体过程如附图2所示,具体包括如下步骤:
步骤1:初始化相关滤波跟踪。
在第一帧时,依据给出的目标位置与大小信息,建立训练区域并提取特征,利用此特征初始化分类器。因为第一帧的目标位置已知,因此无需计算跟踪置信度。
步骤2:搜索区域的建立与特征提取
假设第t-1帧时,得到了目标位置与大小信息
Figure GDA0002954956180000081
其中
Figure GDA0002954956180000082
为目标估计位置的中心坐标,a和b为所估计目标的宽与高(在相关滤波跟踪方法中,a与b的值在第一帧确定后就不再变化)。以此为中心向外扩展,取尺寸扩展系数ρ=1.8,在第t帧图像上建立搜索区域
Figure GDA0002954956180000091
之后,在此位置上,提取目标的特征,用xt表示,则其尺寸为M×N×D×L,其中M、N、D、L分别代表特征的宽、高、通道数与层数。则xt[d,l]代表第t帧时,搜索区域的第l层第d通道的特征图,其中d∈{1,...,D},l∈{1,...,L}。
本发明方法利用在ImageNet数据集上预训练好的VGG-19卷积神经网络提取搜索区域的分层卷积特征。将该区域图像输入到卷积网络后,选取19个卷积层中的Conv3-4,Conv4-4和Conv5-4的输出作为卷积特征,则有M=ρa,N=ρb,D分别为256,256,512,L等于3。
步骤3:分类器检测与响应图的产生。
用wt-1代表第t帧前学习到的分类器参数,其与搜索区域特征图具有相同的尺寸,则wt-1[d,l]为与xt[d,l]相对应的第l层第d通道的分类器参数。特征与分类器参数进行傅里叶变换后,使每一层中每个通道上对应的元素互相点乘,再将所有通道的结果依次求和,然后经过傅里叶反变换回到时域,得到每一层的子响应图ft[l]。最后所有子响应图按照对应的系数γl进行加权融合,得到第t帧时总体的响应图ft
Figure GDA0002954956180000092
其中,大写字母W与X表示分类器w与特征x对应的傅里叶变换形式,
Figure GDA0002954956180000093
代表傅里叶反变换操作。三层卷积特征对应的响应图的融合系数γ分别为1,0.5,0.25。
将响应图ft上最大响应值的位置索引视为第t帧时目标的估计位置
Figure GDA0002954956180000094
Figure GDA0002954956180000095
步骤4:基于卷积神经网络的相关滤波方法的跟踪置信度评价。
将所生成的响应图ft输入到训练好的卷积神经网络中,得到其对应的跟踪置信分数
Figure GDA0002954956180000096
设置τl和τs两个长、短时间阈值与
Figure GDA0002954956180000097
Figure GDA0002954956180000098
两个高、低跟踪置信分数阈值,其中τls
Figure GDA0002954956180000099
根据τl帧内置信分数的变化情况确定分类器更新频率:
(1)长期高置信度更新模式:在τl帧这一长时间段内,所有的置信分数
Figure GDA00029549561800000910
都大于高置信度阈值
Figure GDA0002954956180000101
即对任意的τ∈[0,1,...,τl-1],都有
Figure GDA0002954956180000102
时,认为目标处于长期高跟踪置信度。每3帧才更新一次分类器,更新的学习率的放大倍率α=α3=2.5;
(2)短期高置信度更新模式:虽然在τl帧内,不是所有的置信分数
Figure GDA0002954956180000103
都大于高置信阈值
Figure GDA0002954956180000104
但满足对任意的τ∈[0,1,...,τs-1],都有
Figure GDA0002954956180000105
时,认为目标在τs帧这一短时间段内,处于短期高置信度。每2帧更新一次分类器,学习率的放大倍率α=α2=1.8;
(3)如果不满足(1)和(2)中的条件,但如果此时的置信分数仍大于低置信阈值
Figure GDA0002954956180000106
Figure GDA0002954956180000107
认为目标受到了一定干扰,但是对定位精度影响不大,目标与分类器仍然可以较好地匹配。此时每帧更新一次分类器,放大倍率α=α1=1;
(4)当第t帧的置信分数不超过低置信度阈值
Figure GDA0002954956180000108
Figure GDA0002954956180000109
时,分类器处于低置信度状态,认为目标可能发生了光照变化、形变、严重遮挡等剧烈干扰,分类器与目标的匹配程度下降,跟踪结果不再可靠。此时不再更新分类器,跳过更新步骤5,直接读入下一帧图像,来到步骤2。
更新的学习率根据下式自适应求得:
Figure GDA00029549561800001010
其中,C=0.35为偏置的常数。
取长时间阈值τl为8帧,短时间阈值τs为4帧,高置信度阈值
Figure GDA00029549561800001017
低置信度阈值
Figure GDA00029549561800001011
步骤5:基于跟踪置信分数的自适应分类器更新。
当在步骤4中根据跟踪置信分数变化情况确定此帧进行更新后,以第t帧的估计位置
Figure GDA00029549561800001012
为中心,在图像上扩展出训练区域
Figure GDA00029549561800001013
然后提取其特征图xt'。通过最小化下式得到每一层的第t帧的分类器参数wt'[l]:
Figure GDA00029549561800001014
其中,λ为
Figure GDA00029549561800001015
正则化参数,取值为10-4,y为二维高斯函数生成的软标签:
Figure GDA00029549561800001016
其中σ为高斯带宽,值为0.1。
该最小化问题的闭式解表示为:
Figure GDA0002954956180000111
其中,Y为软标签y的傅里叶变换形式,*代表矩阵的复共轭,分子分母进行的是按元素点除操作。
新的分类器参数由前t-1帧的分类器和第t帧的分类器的分子与分母进行滑动平均得到:
Figure GDA0002954956180000112
At[d,l]=(1-η)At-1[d,l]+ηY*⊙Xt′[d,l] (8)
Figure GDA0002954956180000113
Figure GDA0002954956180000114
本发明的仿真效果可以通过下述仿真实验说明:
1.仿真条件:
本发明在Intel(R)Core(TM)i7-7820X CPU 3.40GHz,RAM 32.00G,TITAN XP GPU的PC上,使用MATLAB 2018b平台,对Visual Tracker Benchmark视频测试集中的视频序列完成仿真实验。
2.仿真结果:
附图4是本发明方法与常规相关滤波方法在精度、重合率和速度三个方面的跟踪结果对比。精度指的是序列中,估计位置与目标实际中心位置的距离在20像素以内的帧数的百分比;重合率指的是整个序列中,估计的目标框与实际标注的目标框的重合面积占二者总面积的平均比例;速度指的是每秒钟跟踪方法处理的帧数,单位为fps。一般的方法在对原有方法进行改进时,通常会增加算法的计算复杂度,降低算法的效率。而本发明方法在常规相关滤波方法的基础上,将三种指标分别提升了1.6%,1.4%和2.78fps,算法的跟踪精度与计算效率同时得到了改善。从附图4可以看出,本发明提出的相关滤波方法的跟踪置信度评价与自适应更新方法有效改善了相关滤波方法的性能,增强了分类器对目标变化的适应能力,提高了方法的时间与空间效率。
附图5是本发明方法中提出的置信分数随目标外观变化的曲线。为了验证所提出的响应图分析卷积神经网络能有效评价相关滤波方法的跟踪置信度,我们观察了常规相关滤波方法的置信度随目标外观变化的情况。图中,虚线框为常规相关滤波方法估计的目标框,实线框为真实的目标框。在Jogging1序列中,目标在64帧开始受到遮挡,在第71帧完全消失,而置信分数也在这几帧内迅速从高置信度阈值之上降低到低置信度阈值之下。同样的,在Bird1序列中的125到130帧之间也发生了类似的情况。附图6说明本发明方法可以准确地评价相关滤波方法的跟踪置信度,反映目标外观变化的情况与位置估计的可靠性,并且在置信分数低于低置信阈值,即目标受到较大干扰时停止更新可以保护分类器模型免受背景污染。
附图7是本发明方法与其他评价相关滤波方法对于跟踪置信度指标的对比。为了验证所提出的响应图分析卷积神经网络比起其他跟踪置信度评价方法,能更为准确地计算相关滤波方法的置信分数,实施例观察了本发明提出的置信分数、APCE、PSR三种跟踪置信度指标随目标定位误差变化的情况。为了方便进行观察,附图中本发明提出的置信分数的值被放大了25倍,而APCE的值缩小为原来的0.25倍。在定位误差较低且轻微波动时,本发明提出的置信分数更为稳定,变化幅度比较小,而其他评价指标的变化则比较剧烈;在目标定位误差迅速增大时,本发明提出的置信分数也以相同的速度迅速下降到低置信度阈值以下,而其他置信度评价指标则经过了较长时间的连续下降才达到较低的水平。附图8说明本发明方法提出的卷积神经网络比起其他的相关滤波的跟踪置信度评价方法,能够同时具有对目标轻微扰动的鲁棒性以及对目标剧烈变化的敏感性。因此,可以更可靠、更有效地反映目标变化的情况。
以上所述的具体描述,对发明的目的、技术方案和有益效果进行进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (2)

1.一种基于神经网络的DCF跟踪置信度评价与分类器更新方法,其特征在于,包括以下步骤:
首先,对进行跟踪置信度评价的卷积神经网络进行设计与训练,该网络称为响应图分析网络,用
Figure FDA0003116326690000011
进行表示;
网络训练完毕之后,利用该网络对相关滤波跟踪的跟踪置信度进行评价,对分类器更新的频率与学习率进行调整,包括以下步骤:
步骤1:初始化相关滤波跟踪方法
在第一帧时,依据给出的目标位置与大小信息,建立训练区域并提取特征,利用此特征初始化分类器;
步骤2:建立搜索区域,提取特征
在第t-1帧时,得到目标位置与大小信息
Figure FDA0003116326690000012
其中
Figure FDA0003116326690000013
为目标估计位置的中心坐标,a和b为所估计目标的宽与高,以此为中心向外扩展,在第t帧图像上建立搜索区域
Figure FDA0003116326690000014
其中ρ为尺寸扩展的系数;
之后,在此位置上,提取目标的特征,包括颜色直方图、方向梯度直方图HOG、分层的深度卷积特征;用xt表示此特征,其尺寸为M×N×D×L,其中M、N、D、L分别代表特征的宽、高、通道数与层数,则xt[d,l]代表第t帧时,搜索区域的第l层第d通道的特征图,其中d∈{1,...,D},l∈{1,...,L};
步骤3:检测分类器,生成响应图
用wt-1代表第t帧前学习到的分类器参数,其与搜索区域特征图具有相同的尺寸,则wt-1[d,l]为与xt[d,l]相对应的第l层第d通道的分类器参数;特征与分类器参数进行傅里叶变换后,使每一层中每个通道上对应的元素互相点乘,再将所有通道的结果依次求和,然后经过傅里叶反变换回到时域,得到每一层的子响应图ft[l];最后,所有子响应图按照对应的系数γl进行加权融合,得到第t帧时总体的响应图ft
Figure FDA0003116326690000015
其中,大写字母W与X表示分类器w与特征x对应的傅里叶变换形式,
Figure FDA0003116326690000016
代表傅里叶反变换操作;
将响应图ft上最大响应值的位置索引视为第t帧时目标的估计位置
Figure FDA0003116326690000021
Figure FDA0003116326690000022
若此时t等于总的帧数frames,说明相关滤波跟踪已经处理完了整个视频序列,无需再进行跟踪置信度的评价与分类器的更新;
步骤4:基于卷积神经网络的相关滤波跟踪置信度评价
将所生成的响应图ft输入到训练好的卷积神经网络中,得到其对应的跟踪置信分数
Figure FDA0003116326690000023
设置τl和τs两个长、短时间阈值与
Figure FDA0003116326690000024
Figure FDA0003116326690000025
两个高、低跟踪置信分数阈值,其中τls
Figure FDA0003116326690000026
根据τl帧内置信分数的变化情况确定分类器更新频率:
长期高置信度更新模式:在τl帧这一长时间段内,所有的置信分数
Figure FDA0003116326690000027
都大于高置信度阈值
Figure FDA0003116326690000028
即对任意的τ∈[0,1,...,τl-1],都有
Figure FDA0003116326690000029
时,认为目标处于长期高跟踪置信度;每3帧更新一次分类器,更新的学习率的放大倍率α=α3
短期高置信度更新模式:虽然在τl帧内,不是所有的置信分数
Figure FDA00031163266900000210
都大于高置信阈值
Figure FDA00031163266900000211
但满足对任意的τ∈[0,1,...,τs-1],都有
Figure FDA00031163266900000212
时,认为目标在τs帧这一短时间段内,处于短期高置信度;每2帧更新一次分类器,学习率的放大倍率α=α2
如果不满足长期高置信度更新模式和短期高置信度更新模式中的条件,但如果此时的置信分数仍大于低置信阈值
Figure FDA00031163266900000213
Figure FDA00031163266900000214
认为目标受到了一定干扰,但是对定位精度影响不大,目标与分类器仍然能够较好匹配,此时每帧更新一次分类器,放大倍率α=α1
当第t帧的置信分数不超过低置信度阈值
Figure FDA00031163266900000215
Figure FDA00031163266900000216
时,分类器处于低置信度状态,认为目标发生光照变化、形变、严重遮挡,分类器与目标的匹配程度下降,跟踪结果不再可靠;此时不再更新分类器,跳过更新步骤5,直接读入下一帧图像,返回步骤2;
更新的学习率根据下式自适应求得:
Figure FDA00031163266900000217
其中,C为偏置的常数;
步骤5:基于跟踪置信分数,更新自适应分类器
在步骤4中,根据跟踪置信度的变化情况确定这一帧进行分类器更新后,以第t帧的估计位置
Figure FDA0003116326690000031
为中心,在图像上扩展出训练区域
Figure FDA0003116326690000032
然后提取其特征图xt',通过最小化下式得到每一层的第t帧的分类器参数wt'[l]:
Figure FDA0003116326690000033
其中,λ为
Figure FDA0003116326690000034
正则化参数,y为高斯函数生成的软标签:
Figure FDA0003116326690000035
其中σ为高斯带宽,此标签的形状是一个峰值位于中心处的二维高斯函数,该最小化问题的闭式解表示为:
Figure FDA0003116326690000036
其中,Y为软标签y的傅里叶变换形式,*代表矩阵的复共轭,分子分母进行的是按元素点除操作;
新分类器参数,由前t-1帧的分类器和第t帧的分类器的分子与分母进行滑动平均得到:
Figure FDA0003116326690000037
At[d,l]=(1-η)At-1[d,l]+ηY*⊙Xt′[d,l] (8)
Figure FDA0003116326690000038
Figure FDA0003116326690000039
2.如权利要求1所述的一种基于神经网络的DCF跟踪置信度评价与分类器更新方法,其特征在于,对进行跟踪置信度评价的卷积神经网络进行设计与训练的方法为,利用现有的相关滤波跟踪方法,建立分类器响应图的数据集,然后,对网络结构进行设计,最后,利用数据集对所提出的网络进行训练与验证。
CN201910856724.9A 2019-09-09 2019-09-09 基于神经网络的dcf跟踪置信度评价与分类器更新方法 Active CN110555870B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910856724.9A CN110555870B (zh) 2019-09-09 2019-09-09 基于神经网络的dcf跟踪置信度评价与分类器更新方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910856724.9A CN110555870B (zh) 2019-09-09 2019-09-09 基于神经网络的dcf跟踪置信度评价与分类器更新方法

Publications (2)

Publication Number Publication Date
CN110555870A CN110555870A (zh) 2019-12-10
CN110555870B true CN110555870B (zh) 2021-07-27

Family

ID=68739850

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910856724.9A Active CN110555870B (zh) 2019-09-09 2019-09-09 基于神经网络的dcf跟踪置信度评价与分类器更新方法

Country Status (1)

Country Link
CN (1) CN110555870B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111161323B (zh) * 2019-12-31 2023-11-28 北京理工大学重庆创新中心 一种基于相关滤波的复杂场景目标跟踪方法及系统
CN111340846B (zh) * 2020-02-25 2023-02-17 重庆邮电大学 一种多特征融合的抗遮挡目标跟踪方法
CN111461345B (zh) * 2020-03-31 2023-08-11 北京百度网讯科技有限公司 深度学习模型训练方法及装置
CN112200217B (zh) * 2020-09-09 2023-06-09 天津津航技术物理研究所 基于红外图像大数据的识别算法评价方法及系统
CN114140494A (zh) * 2021-06-30 2022-03-04 杭州图灵视频科技有限公司 复杂场景下单目标跟踪系统、方法、电子设备及存储介质
US20230133832A1 (en) * 2021-11-01 2023-05-04 Western Digital Technologies, Inc. Data Collection and User Feedback in Edge Video Devices
CN116052027B (zh) * 2023-03-31 2023-06-09 深圳联和智慧科技有限公司 基于无人机的漂浮垃圾种类识别方法、系统及云平台

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105678338A (zh) * 2016-01-13 2016-06-15 华南农业大学 基于局部特征学习的目标跟踪方法
WO2017015947A1 (en) * 2015-07-30 2017-02-02 Xiaogang Wang A system and a method for object tracking
CN107154024A (zh) * 2017-05-19 2017-09-12 南京理工大学 基于深度特征核相关滤波器的尺度自适应目标跟踪方法
CN108805901A (zh) * 2018-05-04 2018-11-13 北京航空航天大学 一种基于多核dsp的视觉目标快速检测跟踪并行计算及融合方法
WO2019117970A1 (en) * 2017-12-15 2019-06-20 Google Llc Adaptive object tracking policy

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017015947A1 (en) * 2015-07-30 2017-02-02 Xiaogang Wang A system and a method for object tracking
CN105678338A (zh) * 2016-01-13 2016-06-15 华南农业大学 基于局部特征学习的目标跟踪方法
CN107154024A (zh) * 2017-05-19 2017-09-12 南京理工大学 基于深度特征核相关滤波器的尺度自适应目标跟踪方法
WO2019117970A1 (en) * 2017-12-15 2019-06-20 Google Llc Adaptive object tracking policy
CN108805901A (zh) * 2018-05-04 2018-11-13 北京航空航天大学 一种基于多核dsp的视觉目标快速检测跟踪并行计算及融合方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Enhanced GM-PHD Filter Using CNN-Based Weight Penalization for Multi-Target Tracking;Zeyu Fu等;《2017 Sensor Signal Processing for Defence Conference (SSPD)》;20171221;1-5 *
基于子空间半监督学习线性判别方法的目标跟踪技术研究;李红军等;《现代电子技术》;20190201;第42卷(第3期);52-55,60 *

Also Published As

Publication number Publication date
CN110555870A (zh) 2019-12-10

Similar Documents

Publication Publication Date Title
CN110555870B (zh) 基于神经网络的dcf跟踪置信度评价与分类器更新方法
CN108665481B (zh) 多层深度特征融合的自适应抗遮挡红外目标跟踪方法
CN110728697B (zh) 基于卷积神经网络的红外弱小目标检测跟踪方法
CN110084836B (zh) 基于深度卷积特征分层响应融合的目标跟踪方法
CN108447080B (zh) 基于分层数据关联和卷积神经网络的目标跟踪方法、系统和存储介质
CN110120064B (zh) 一种基于互强化与多注意机制学习的深度相关目标跟踪算法
CN107633226B (zh) 一种人体动作跟踪特征处理方法
CN108921877B (zh) 一种基于宽度学习的长期目标跟踪方法
CN108961308B (zh) 一种漂移检测的残差深度特征目标跟踪方法
CN109785366B (zh) 一种针对遮挡的相关滤波目标跟踪方法
CN113327272B (zh) 一种基于相关滤波的鲁棒性长时跟踪方法
CN107590427B (zh) 基于时空兴趣点降噪的监控视频异常事件检测方法
CN111612817A (zh) 基于深浅特征自适应融合与上下文信息的目标跟踪方法
CN110175649A (zh) 一种关于重新检测的快速多尺度估计目标跟踪方法
CN110991397B (zh) 一种行进方向确定方法及相关设备
CN110276784B (zh) 基于记忆机制与卷积特征的相关滤波运动目标跟踪方法
CN113989331A (zh) 基于上下文多线索信息和自适应响应的长时目标跟踪方法
CN110717934B (zh) 一种基于strcf的抗遮挡目标跟踪方法
CN112329784A (zh) 一种基于时空感知及多峰响应的相关滤波跟踪方法
CN111950498A (zh) 一种基于端到端实例分割的车道线检测方法及装置
CN109448024B (zh) 利用深度数据构建约束相关滤波器的视觉跟踪方法、系统
CN110751670B (zh) 一种基于融合的目标跟踪方法
CN110751671B (zh) 一种基于核相关滤波与运动估计的目标跟踪方法
CN115761888A (zh) 基于nl-c3d模型的塔吊操作人员异常行为检测方法
CN110827327B (zh) 一种基于融合的长期目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant