[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN111008991A - 一种背景感知的相关滤波目标跟踪方法 - Google Patents

一种背景感知的相关滤波目标跟踪方法 Download PDF

Info

Publication number
CN111008991A
CN111008991A CN201911171401.2A CN201911171401A CN111008991A CN 111008991 A CN111008991 A CN 111008991A CN 201911171401 A CN201911171401 A CN 201911171401A CN 111008991 A CN111008991 A CN 111008991A
Authority
CN
China
Prior art keywords
target
candidate region
filter
target candidate
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911171401.2A
Other languages
English (en)
Other versions
CN111008991B (zh
Inventor
康文雄
周泳鑫
陈国春
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201911171401.2A priority Critical patent/CN111008991B/zh
Publication of CN111008991A publication Critical patent/CN111008991A/zh
Application granted granted Critical
Publication of CN111008991B publication Critical patent/CN111008991B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种背景感知的相关滤波目标跟踪方法,其特征在于:首先通过发掘大范围搜索范围内具有较高置信度的目标候选区,提取多组循环样本组后,由干扰物感知滤波器来进行滤波检测;滤波器执行双任务,从所有候选区中选择出最高置信度的候选区,并通过相关性回归在候选区上估计出一个初步目标位置。基于初步位置,使用基于标准相关滤波器的位置回归器来实现精细回归,获得精确目标位置。本发明方法的背景感知学习拓展了模型感知范围,并有针对性地抑制干扰区的响应;多锚点检测有效地拓展了目标搜索范围,提高了在快速运动、严重遮挡等情况下的跟踪成功率;渐进式目标搜索策略起到数据对齐效应,从而减轻了边缘效应影响。

Description

一种背景感知的相关滤波目标跟踪方法
技术领域
本发明涉及图像处理与分析技术领域,具体地说,涉及一种基于背景感知的相关滤波目标跟踪方法。
背景技术
目标跟踪长久以来都是图像分析领域一个重要的研究课题,在视频监控、人机交互、导航与无人设备等领域都有非常丰富的应用。近年来,伴随着视觉特征表达和统计机器学习的发展,目标跟踪算法的思路也发生了较大的变化。大体上可分为两类:一类是生成式,此类算法以最小化目标重构误差为准则建立模型,注重对目标外观进行有效建模,搜索目标时,根据已建立的目标外观模型寻找最高置信的样本。跟踪过程中,目标外观变化不定,难以得到全局统一的有效表达,同时该算法对背景判别能力弱,易受背景类似物严重干扰。一类是判别式,该算法主要是基于回归模型或“目标-背景”的二分类模型实现跟踪。其优化目标是学习目标与背景的差异。从搜索区以一定的采样策略获取候选样本,然后用训练好的判别器逐一检测并以检测分数最大的候选样本作为估计的当前帧目标。
基于相关滤波器的跟踪算法是今年来一类非常重要的判别式跟踪算法。其基于循环采样的岭回归模型,训练出来的相关滤波器相比之前的跟踪算法能够兼具高速度和优秀的跟踪能力。相关滤波跟踪虽然有多方面的优点,但也存在不少重要的缺陷。其中,最重要的一个缺点是边缘效应,极大的限制了相关滤波算法的性能。
除此之外,目标跟踪算法还面临目标外观突变,运动状态突变、复杂的视频场景、遮挡、暂时性离开视野等诸多难点与问题。
发明内容
本发明的目的在于克服现有技术中的缺点与不足,提供一种基于背景感知的相关滤波目标跟踪方法;该方法解决了在边缘效应的约束下,实现大范围、高效的目标搜索,并让滤波器学习更多背景样本,抑制干扰物的滤波响应,提出的渐进式目标搜索框架逐步对齐搜索区和训练区的分布,缓解了边缘效应,提升目标跟踪的精度和抗干扰能力。
为了达到上述目的,本发明通过下述技术方案予以实现:一种背景感知的相关滤波目标跟踪方法,其特征在于:包括如下步骤:
S1步,给定第一帧图像I1和第一帧图像中目标位置p1;提取训练区基础样本,计算出标准相关滤波器FR;提取较高置信度目标候选区的多组循环样本,并利用多组循环样本训练干扰物感知滤波器FD
S2步,输入下一帧图像作为当前帧,在大范围的搜索区内寻找目标相似物,得到具有较高置信度的目标候选区W;
S3步,在目标候选区W中以多个目标相似物中心为锚点,提取多组循环样本组,使用干扰物感知滤波器FD进行滤波检测,得到初步目标位置PC
S4步,基于初步位置PC,使用基于标准相关滤波器FR的位置回归器FR来实现精细回归,获得精确的目标位置PR
S5步,判断当前帧是否为最后一帧图像:若是,则结束;否则跳至S2步。
优选地,在所述S1步中,标准相关滤波器FR的数学解为:
Figure BDA0002288814560000021
其中,
Figure BDA0002288814560000022
表示对应量的傅里叶变换,“⊙”表示逐元素点乘,“*”表示共轭变换,x表示基础循环样本,y表示循环样本的类高斯分布标签集,λ表示正则化因子。
优选地,所述S2步中,较高置信度的目标候选区W发掘方法是首先获取大范围的搜索区内目标置信度的空间分布,然后基于该空间分布,用非极大值抑制策略确定少量高置信的位置。
优选地,所述较高置信度的目标候选区W发掘方法是首先获取大范围的搜索区内目标置信度的空间分布,然后基于该空间分布,用非极大值抑制策略确定少量高置信的位置,是指采用如下方式之一:
方式一、基于像素级特征的贝叶斯决策模型发掘:
首先分别对目标候选区及目标候选区周围邻域进行像素直方图统计,得到目标候选区及目标候选区周围邻域的颜色统计信息;
然后根据贝叶斯原理,建立用于描述目标候选区及目标候选区周围邻域颜色关系的颜色概率模型;
像素属于目标候选区的概率为:
Figure BDA0002288814560000031
T表示目标候选区,S表示目标邻域,HT(bx)是指在目标候选区中只属于颜色直方图区间bin的像素个数,HS(bx)是指在目标候选区周围邻域中只属于颜色直方图区间bin的像素个数;
HT(bx)=∑T,r[k(r;σ)·Hr(bx)]
HS(bx)=∑S,r[k(r;σ)·Hr(bx)]
其中,径向权重k(r;σ)=1-(r/σ)2,r表示该像素与目标候选区中心的距离,σ是归一化因子;
之后基于颜色概率模型,对下一帧图像每个像素进行前景概率估计,分别累乘各个目标候选区内所有像素的前景概率,得到各个目标候选区的置信度,以概率的形式输出搜索区的目标位置置信分布,从而得到具有较高置信度的目标候选区W;
目标候选区的置信度概率计算公式:
Figure BDA0002288814560000032
其中,xi表示第i个像素点,T表示目标候选区,
Figure BDA0002288814560000033
表示像素点xi颜色属于直方图中的第b区间;H表示搜索区域;
方式二、基于孪生网络的目标候选区发掘:同时输入目标图像和搜索区图像,然后通过权值共享神经网络进行度量特征表达,分别获得目标图像和搜索区图像的特征图;之后经过互相关层的卷积层,一次性获得搜索区各位置的图像块与目标的相似度分数,将相似度分数高的图像块作为具有较高置信度的目标候选区W。这里的目标图像是指第一帧以给定的目标位置p1为中心的图像区域。
优选地,所述S3步包括如下步骤:
S3.1步,设发掘的目标相似物的外包框集合为{Ri},计算{Ri}中个元素与前一帧目标相似物的外包框重叠率{Oi};若{Oi}的最小值min{Oi}>ε,其中ε为阈值参数,则将前一帧目标相似物中心也作为一个锚点加入到锚点集合,得到多锚点检测的锚点集{Ai};
S3.2步,以各锚点为中心提取多组循环样本组{C(zi)},其中{C(zi)}表示以zi为基础样本的循环偏移样本组,使用干扰物感知滤波器FD对循环样本组{C(zi)}进行滤波检测,得到以各锚点为中心的目标候选区W的滤波响应图{R};计算各滤波响应图峰值{si}及获取滤波响应峰值位置;
S3.3步,计算各锚点的位置先验分数
Figure BDA0002288814560000041
其中ri表示各锚点与前一帧目标位置的距离,σ为归一化因子;
S3.4步,根据融合的目标置信分数
Figure BDA0002288814560000042
确定最高置信分数的目标候选区,并以该目标候选区的滤波响应峰值位置作为当前帧的初步目标位置PC
优选地,所述S1步的干扰物感知滤波器FD训练方法如下:
Figure BDA0002288814560000043
其中,t表示目标图像区域,di表示第i个干扰物图像区域,λ1为模型正则化项系数,
Figure BDA0002288814560000044
干扰物权重;y是当t=1时目标初始位置以及t>1时输出的最终跟踪结果;
在所述S3.2步中,干扰物感知滤波器FD的滤波检测方法为:
Figure BDA0002288814560000045
其中,z表示循环样本组{C(zi)}中的若干个样本;
在使用多锚点检测得到的多个锚点区域使用干扰物滤波器,可得到各个锚点位置的傅里叶逆变换得到的置信度分数,选取其中置信分数最大的锚点作为初步目标位置PC
Figure BDA0002288814560000051
优选地,在所述S5步中,在判定当前帧不是最后一帧图像时,则更新干扰物感知滤波器FD;设定当前帧为视频的第F帧,干扰物感知滤波器FD更新函数为:
Figure BDA0002288814560000052
其中,
Figure BDA0002288814560000053
θT和θD分别是目标样本和干扰物样本的初始权重,γD和γT为控制权重衰减速度的固定超参;在初始化模型时(即第一帧),设置θT,f=1=1,第二帧之后θT,f>1<<1,θD<θT
优选地,在所述S5步中,在判定当前帧不是最后一帧图像时,则更新标准滤波器FR,设定当前帧为视频的第F帧,以精确位置PR,f=F为中心提取基础样本用于更新模型:
Figure BDA0002288814560000054
计算出滤波器参数h,使用学习率lr对h和hF-1进行线性加权,获得更新后的标准滤波器:hF=Linear(h,hF-1,lr)。
与现有技术相比,本发明具有如下优点与有益效果:
本发明提出的背景感知学习拓展了模型感知范围,并有针对性地抑制干扰区的响应;采用的多锚点检测策略有效地拓展了目标搜索范围,提高了在快速运动、严重遮挡等情况下的跟踪成功率;“候选区集-初步定位-精确回归”的渐进式目标搜索策略起到数据对齐的效应,从而减轻了边缘效应的影响,增大了模型预测的可靠性和准确性,位置精调器还能减少误差累积和防止模型漂移。
附图说明
图1是本发明方法的流程示意图;
图2是本发明方法中目标候选区发掘的方法一示意图;
图3是本发明方法中目标候选区发掘的方法二示意图。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细的描述。
实施例
本实施例一种背景感知的相关滤波目标跟踪方法,其流程如图1所示,包括如下步骤:
S1步,给定第一帧图像I1和第一帧图像中目标位置p1;提取训练区基础样本,计算出标准相关滤波器FR;提取较高置信度目标候选区的多组循环样本,并利用多组循环样本训练干扰物感知滤波器FD
S2步,输入下一帧图像作为当前帧,在大范围的搜索区内寻找目标相似物,得到具有较高置信度的目标候选区W;
S3步,在目标候选区W中以多个目标相似物中心为锚点,提取多组循环样本组,使用干扰物感知滤波器FD进行滤波检测,得到初步目标位置PC
S4步,基于初步位置PC,使用基于标准相关滤波器FR的位置回归器FR来实现精细回归,获得精确的目标位置PR
S5步,判断当前帧是否为最后一帧图像:若是,则结束;否则跳至S2步。
在所述S1步中,标准相关滤波器FR的数学解为:
Figure BDA0002288814560000061
其中,
Figure BDA0002288814560000062
表示对应量的傅里叶变换,“⊙”表示逐元素点乘,“*”表示共轭变换,x表示基础循环样本,y表示循环样本的类高斯分布标签集,λ表示正则化因子。
所述S1步的干扰物感知滤波器FD训练方法如下:
Figure BDA0002288814560000063
其中,t表示目标图像区域,di表示第i个干扰物图像区域,λ1为模型正则化项系数,
Figure BDA0002288814560000071
干扰物权重;y是当t=1时目标初始位置以及t>1时输出的最终跟踪结果。
所述S2步中,较高置信度的目标候选区W发掘方法是首先获取大范围的搜索区内目标置信度的空间分布,然后基于该空间分布,用非极大值抑制策略确定少量高置信的位置。
具体地说,是指采用如下方式之一:
方式一、如图2所示,基于像素级特征的贝叶斯决策模型发掘:
首先分别对目标候选区及目标候选区周围邻域进行像素直方图统计,得到目标候选区及目标候选区周围邻域的颜色统计信息;
然后根据贝叶斯原理,建立用于描述目标候选区及目标候选区周围邻域颜色关系的颜色概率模型;
像素属于目标候选区的概率为:
Figure BDA0002288814560000072
T表示目标候选区,S表示目标邻域,HT(bx)是指在目标候选区中只属于颜色直方图区间bin(即第b个区间)的像素个数,HS(bx)是指在目标候选区周围邻域中只属于颜色直方图区间bin的像素个数;
HT(bx)=∑T,r[k(r;σ)·Hr(bx)]
HS(bx)=Σs,r[k(r;σ)·Hr(bx)]
为了是模型更关心中心区域像素,采用径向权重k(r;σ)=1-(r/σ)2,r表示该像素与目标候选区中心的距离,σ是归一化因子;
之后基于颜色概率模型,对下一帧图像每个像素进行前景概率估计,分别累乘各个目标候选区内所有像素的前景概率,得到各个目标候选区的置信度,以概率的形式输出搜索区的目标位置置信分布,从而得到具有较高置信度的目标候选区W;
目标候选区的置信度概率计算公式:
Figure BDA0002288814560000081
其中,xi表示第i个像素点,T表示目标候选区,
Figure BDA0002288814560000082
表示像素点xi颜色属于直方图中的第b区间;H表示搜索区域。
方式二、如图3所示,基于孪生网络的目标候选区发掘:同时输入目标图像和搜索区图像,然后通过权值共享神经网络进行度量特征表达,分别获得目标图像和搜索区图像的特征图;之后经过互相关层的卷积层,一次性获得搜索区各位置的图像块与目标的相似度分数,将相似度分数高的图像块作为具有较高置信度的目标候选区W。这里的目标图像是指第一帧以给定的目标位置p1为中心的图像区域。
所述S3步包括如下步骤:
S3.1步,设发掘的目标相似物的外包框集合为{Ri},计算{Ri}中个元素与前一帧目标相似物的外包框重叠率{Oi};若{Oi}的最小值min{Oi}>ε,其中ε为阈值参数,则将前一帧目标相似物中心也作为一个锚点加入到锚点集合,得到多锚点检测的锚点集{Ai};
S3.2步,以各锚点为中心提取多组循环样本组{C(zi)},其中{C(zi)}表示以zi为基础样本的循环偏移样本组,使用干扰物感知滤波器FD对循环样本组{C(zi)}进行滤波检测,得到以各锚点为中心的目标候选区W的滤波响应图{R};计算各滤波响应图峰值{si}及获取滤波响应峰值位置;
S3.3步,计算各锚点的位置先验分数
Figure BDA0002288814560000083
其中ri表示各锚点与前一帧目标位置的距离,σ为归一化因子;
S3.4步,根据融合的目标置信分数
Figure BDA0002288814560000084
确定最高置信分数的目标候选区,并以该目标候选区的滤波响应峰值位置作为当前帧的初步目标位置PC
在所述S3.2步中,干扰物感知滤波器FD的滤波检测方法为:
Figure BDA0002288814560000085
其中,z表示循环样本组{C(zi)}中的若干个样本;
在使用多锚点检测得到的多个(一般是1~3个)锚点区域使用干扰物滤波器,可得到各个锚点位置的傅里叶逆变换得到的置信度分数,选取其中置信分数最大的锚点作为初步目标位置PC
Figure BDA0002288814560000091
在所述S5步中,在判定当前帧不是最后一帧图像时,则更新干扰物感知滤波器FD;设定当前帧为视频的第F帧,干扰物感知滤波器FD更新函数为:
Figure BDA0002288814560000092
其中,
Figure BDA0002288814560000093
θT和θD分别是目标样本和干扰物样本的初始权重,γD和γT为控制权重衰减速度的固定超参;在初始化模型时(即第一帧),设置θT,f=1=1,第二帧之后θT,f>1<<1,θD<θT
将干扰物感知滤波器FD更新函数简写成:
Figure BDA0002288814560000094
Figure BDA0002288814560000095
AT,BT,BD可按照如下更新:
Figure BDA0002288814560000096
Figure BDA0002288814560000097
Figure BDA0002288814560000098
则干扰物感知滤波器FD可表示为:
Figure BDA0002288814560000099
即滤波器更新时,可以对AT,BT,BD三项分别进行线性插值的滑动平均更新,学习率为lr=1-γT
在所述S5步中,在判定当前帧不是最后一帧图像时,则更新标准滤波器FR,设定当前帧为视频的第F帧,以精确位置PR,f=F为中心提取基础样本用于更新模型:
Figure BDA0002288814560000101
计算出滤波器参数h,使用学习率lr对h和hF-1进行线性加权,获得更新后的标准滤波器:hF=Linear(h,hF-1,lr)。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (8)

1.一种背景感知的相关滤波目标跟踪方法,其特征在于:包括如下步骤:
S1步,给定第一帧图像I1和第一帧图像中目标位置p1;提取训练区基础样本,计算出标准相关滤波器FR;提取较高置信度目标候选区的多组循环样本,并利用多组循环样本训练干扰物感知滤波器FD
S2步,输入下一帧图像作为当前帧,在大范围的搜索区内寻找目标相似物,得到具有较高置信度的目标候选区W;
S3步,在目标候选区W中以多个目标相似物中心为锚点,提取多组循环样本组,使用干扰物感知滤波器FD进行滤波检测,得到初步目标位置PC
S4步,基于初步位置PC,使用基于标准相关滤波器FR的位置回归器FR来实现精细回归,获得精确的目标位置PR
S5步,判断当前帧是否为最后一帧图像:若是,则结束;否则跳至S2步。
2.根据权利要求1所述的背景感知的相关滤波目标跟踪方法,其特征在于:在所述S1步中,标准相关滤波器FR的数学解为:
Figure FDA0002288814550000011
其中,
Figure FDA0002288814550000012
表示对应量的傅里叶变换,“⊙”表示逐元素点乘,“*”表示共轭变换,x表示基础循环样本,y表示循环样本的类高斯分布标签集,λ表示正则化因子。
3.根据权利要求1所述的背景感知的相关滤波目标跟踪方法,其特征在于:所述S2步中,较高置信度的目标候选区W发掘方法是首先获取大范围的搜索区内目标置信度的空间分布,然后基于该空间分布,用非极大值抑制策略确定少量高置信的位置。
4.根据权利要求3所述的背景感知的相关滤波目标跟踪方法,其特征在于:所述较高置信度的目标候选区W发掘方法是首先获取大范围的搜索区内目标置信度的空间分布,然后基于该空间分布,用非极大值抑制策略确定少量高置信的位置,是指采用如下方式之一:
方式一、基于像素级特征的贝叶斯决策模型发掘:
首先分别对目标候选区及目标候选区周围邻域进行像素直方图统计,得到目标候选区及目标候选区周围邻域的颜色统计信息;
然后根据贝叶斯原理,建立用于描述目标候选区及目标候选区周围邻域颜色关系的颜色概率模型;
像素属于目标候选区的概率为:
Figure FDA0002288814550000021
T表示目标候选区,S表示目标邻域,HT(bx)是指在目标候选区中只属于颜色直方图区间bin的像素个数,HS(bx)是指在目标候选区周围邻域中只属于颜色直方图区间bin的像素个数;
HT(bx)=∑T,r[k(r;σ)·Hr(bx)]
HS(bx)=∑S,r[k(r;σ)·Hr(bx)]
其中,径向权重k(r;σ)=1-(r/σ)2,r表示该像素与目标候选区中心的距离,σ是归一化因子;
之后基于颜色概率模型,对下一帧图像每个像素进行前景概率估计,分别累乘各个目标候选区内所有像素的前景概率,得到各个目标候选区的置信度,以概率的形式输出搜索区的目标位置置信分布,从而得到具有较高置信度的目标候选区W;
目标候选区的置信度概率计算公式:
Figure FDA0002288814550000022
其中,xi表示第i个像素点,T表示目标候选区,
Figure FDA0002288814550000023
表示像素点xi颜色属于直方图中的第b区间;H表示搜索区域;
方式二、基于孪生网络的目标候选区发掘:同时输入目标图像和搜索区图像,然后通过权值共享神经网络进行度量特征表达,分别获得目标图像和搜索区图像的特征图;之后经过互相关层的卷积层,一次性获得搜索区各位置的图像块与目标的相似度分数,将相似度分数高的图像块作为具有较高置信度的目标候选区W。这里的目标图像是指第一帧以给定的目标位置p1为中心的图像区域。
5.根据权利要求4所述的背景感知的相关滤波目标跟踪方法,其特征在于:所述S3步包括如下步骤:
S3.1步,设发掘的目标相似物的外包框集合为{Ri},计算{Ri}中个元素与前一帧目标相似物的外包框重叠率{Oi};若{Oi}的最小值min{Oi}>ε,其中ε为阈值参数,则将前一帧目标相似物中心也作为一个锚点加入到锚点集合,得到多锚点检测的锚点集{Ai};
S3.2步,以各锚点为中心提取多组循环样本组{C(zi)},其中{C(zi)}表示以zi为基础样本的循环偏移样本组,使用干扰物感知滤波器FD对循环样本组{C(zi)}进行滤波检测,得到以各锚点为中心的目标候选区W的滤波响应图{R};计算各滤波响应图峰值{si}及获取滤波响应峰值位置;
S3.3步,计算各锚点的位置先验分数
Figure FDA0002288814550000031
其中ri表示各锚点与前一帧目标位置的距离,σ为归一化因子;
S3.4步,根据融合的目标置信分数
Figure FDA0002288814550000032
确定最高置信分数的目标候选区,并以该目标候选区的滤波响应峰值位置作为当前帧的初步目标位置PC
6.根据权利要求5所述的背景感知的相关滤波目标跟踪方法,其特征在于:所述S1步的干扰物感知滤波器FD训练方法如下:
Figure FDA0002288814550000033
其中,t表示目标图像区域,di表示第i个干扰物图像区域,λ1为模型正则化项系数,
Figure FDA0002288814550000034
干扰物权重;y是当t=1时目标初始位置以及t>1时输出的最终跟踪结果;
在所述S3.2步中,干扰物感知滤波器FD的滤波检测方法为:
Figure FDA0002288814550000035
其中,z表示循环样本组{C(zi)}中的若干个样本;
在使用多锚点检测得到的多个锚点区域使用干扰物滤波器,可得到各个锚点位置的傅里叶逆变换得到的置信度分数,选取其中置信分数最大的锚点作为初步目标位置PC
Figure FDA0002288814550000041
7.根据权利要求6所述的背景感知的相关滤波目标跟踪方法,其特征在于:在所述S5步中,在判定当前帧不是最后一帧图像时,则更新干扰物感知滤波器FD;设定当前帧为视频的第F帧,干扰物感知滤波器FD更新函数为:
Figure FDA0002288814550000042
Figure FDA0002288814550000043
其中,
Figure FDA0002288814550000044
θT和θD分别是目标样本和干扰物样本的初始权重,γD和γT为控制权重衰减速度的固定超参;在初始化模型时(即第一帧),设置θT,f=1=1,第二帧之后θT,f>1<<1,θD<θT
8.根据权利要求6所述的背景感知的相关滤波目标跟踪方法,其特征在于:在所述S5步中,在判定当前帧不是最后一帧图像时,则更新标准滤波器FR,设定当前帧为视频的第F帧,以精确位置PR,f=F为中心提取基础样本用于更新模型:
Figure FDA0002288814550000045
计算出滤波器参数h,使用学习率lr对h和hF-1进行线性加权,获得更新后的标准滤波器:hF=Linear(h,hF-1,lr)。
CN201911171401.2A 2019-11-26 2019-11-26 一种背景感知的相关滤波目标跟踪方法 Active CN111008991B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911171401.2A CN111008991B (zh) 2019-11-26 2019-11-26 一种背景感知的相关滤波目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911171401.2A CN111008991B (zh) 2019-11-26 2019-11-26 一种背景感知的相关滤波目标跟踪方法

Publications (2)

Publication Number Publication Date
CN111008991A true CN111008991A (zh) 2020-04-14
CN111008991B CN111008991B (zh) 2023-05-23

Family

ID=70112827

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911171401.2A Active CN111008991B (zh) 2019-11-26 2019-11-26 一种背景感知的相关滤波目标跟踪方法

Country Status (1)

Country Link
CN (1) CN111008991B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112183493A (zh) * 2020-11-05 2021-01-05 北京澎思科技有限公司 目标跟踪的方法、装置以及计算机可读存储介质
CN112507906A (zh) * 2020-12-14 2021-03-16 北京澎思科技有限公司 目标跟踪的方法、装置以及计算机可读存储介质
CN113129337A (zh) * 2021-04-14 2021-07-16 桂林电子科技大学 背景感知跟踪方法、计算机可读存储介质及计算机设备
CN113409357A (zh) * 2021-04-27 2021-09-17 中国电子科技集团公司第十四研究所 一种基于双时空约束的相关滤波目标跟踪方法
CN113947616A (zh) * 2021-09-23 2022-01-18 北京航空航天大学 一种基于层级化感知机的智能目标跟踪及丢失重检方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105809713A (zh) * 2016-03-03 2016-07-27 南京信息工程大学 基于在线Fisher判别机制增强特征选择的目标跟踪方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105809713A (zh) * 2016-03-03 2016-07-27 南京信息工程大学 基于在线Fisher判别机制增强特征选择的目标跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
GENGZHENG PAN 等: "Correlation filter tracker with siamese: A robust and real-time object tracking framework" *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112183493A (zh) * 2020-11-05 2021-01-05 北京澎思科技有限公司 目标跟踪的方法、装置以及计算机可读存储介质
CN112507906A (zh) * 2020-12-14 2021-03-16 北京澎思科技有限公司 目标跟踪的方法、装置以及计算机可读存储介质
CN113129337A (zh) * 2021-04-14 2021-07-16 桂林电子科技大学 背景感知跟踪方法、计算机可读存储介质及计算机设备
CN113129337B (zh) * 2021-04-14 2022-07-19 桂林电子科技大学 背景感知跟踪方法、计算机可读存储介质及计算机设备
CN113409357A (zh) * 2021-04-27 2021-09-17 中国电子科技集团公司第十四研究所 一种基于双时空约束的相关滤波目标跟踪方法
CN113409357B (zh) * 2021-04-27 2023-10-31 中国电子科技集团公司第十四研究所 一种基于双时空约束的相关滤波目标跟踪方法
CN113947616A (zh) * 2021-09-23 2022-01-18 北京航空航天大学 一种基于层级化感知机的智能目标跟踪及丢失重检方法

Also Published As

Publication number Publication date
CN111008991B (zh) 2023-05-23

Similar Documents

Publication Publication Date Title
CN111008991A (zh) 一种背景感知的相关滤波目标跟踪方法
CN110135500B (zh) 一种基于自适应深度特征滤波器的多场景下目标跟踪方法
CN110120064B (zh) 一种基于互强化与多注意机制学习的深度相关目标跟踪算法
CN111126152A (zh) 一种基于视频的多目标行人检测与跟踪的方法
CN108288282B (zh) 一种基于卷积神经网络的自适应特征选择目标跟踪方法
CN111582349B (zh) 一种基于YOLOv3和核相关滤波改进的目标跟踪算法
CN111476817A (zh) 一种基于yolov3的多目标行人检测跟踪方法
CN109993769B (zh) 一种深度学习ssd算法结合kcf算法的多目标跟踪系统
CN111340842B (zh) 一种基于联合模型的相关滤波目标跟踪方法
CN113327272B (zh) 一种基于相关滤波的鲁棒性长时跟踪方法
CN111739053B (zh) 一种复杂场景下的在线多行人检测跟踪方法
CN112085765B (zh) 结合粒子滤波及度量学习的视频目标跟踪方法
CN112884742A (zh) 一种基于多算法融合的多目标实时检测、识别及跟踪方法
CN111208479B (zh) 一种降低深度网络检测中虚警概率的方法
CN104063880B (zh) 一种基于pso的多细胞位置轮廓同步精确跟踪系统
CN112329784A (zh) 一种基于时空感知及多峰响应的相关滤波跟踪方法
CN113538509B (zh) 基于自适应相关滤波特征融合学习的视觉跟踪方法及装置
CN110503663B (zh) 一种基于抽帧检测的随机多目标自动检测跟踪方法
CN109448024B (zh) 利用深度数据构建约束相关滤波器的视觉跟踪方法、系统
CN112164093A (zh) 一种基于边缘特征和相关滤波的人物自动跟踪方法
CN113052136B (zh) 一种基于改进Faster RCNN的行人检测方法
CN110751671B (zh) 一种基于核相关滤波与运动估计的目标跟踪方法
CN111539985A (zh) 一种融合多特征的自适应运动目标跟踪方法
CN118115502B (zh) 基于图像特征的污水排放监测方法及系统
CN110660077A (zh) 一种融合多个特征的多尺度目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant