CN110163132A - 一种基于最大响应值变化率更新策略的相关滤波跟踪方法 - Google Patents
一种基于最大响应值变化率更新策略的相关滤波跟踪方法 Download PDFInfo
- Publication number
- CN110163132A CN110163132A CN201910386391.8A CN201910386391A CN110163132A CN 110163132 A CN110163132 A CN 110163132A CN 201910386391 A CN201910386391 A CN 201910386391A CN 110163132 A CN110163132 A CN 110163132A
- Authority
- CN
- China
- Prior art keywords
- frame
- template
- hist
- feature
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及相关滤波跟踪处理领域,具体涉及一种基于最大响应值变化率更新策略的相关滤波跟踪方法。所述方法基于相关滤波跟踪框架,用方向梯度直方图(HOG)和颜色直方图两种互补特征实现特征提取,基于最大响应值变化率对跟踪结果进行异常判别,并根据可靠的目标模板建立可靠模板库以供异常情况下回滚目标模板。相比逐帧更新策略的相关滤波跟踪方法,取得了更为稳定的跟踪效果。
Description
技术领域
本发明涉及相关滤波跟踪处理领域,具体涉及一种基于最大响应值变化率更新策略的相关滤波跟踪方法。
背景技术
视频目标跟踪是计算机视觉领域的一个研究热点,其目的是为了在视频图像序列中估计目标的位置。该技术在视频监控、人机交互、机器人领域和无人驾驶汽车等众多应用中扮演着十分重要的角色。实时性和稳定性是实现目标跟踪系统的两大目标。卷积原理表明耗时的卷积运算在傅立叶变换域可以转换为元素点积运算。基于卷积原理的相关滤波技术被引入到目标跟踪中,其极高的处理速度满足了目标跟踪系统对实时性的要求。然而,由于复杂场景下光照变化、外观变形、局部遮挡、快速运动、运动模糊、背景相似等诸多因素的干扰,视频目标跟踪仍然是一项具有挑战性的任务。
目标模板是跟踪系统判别每帧候选目标是否真实目标的重要依据。目标模板又是一个在线学习的过程,其更新机制的好坏将影响目标模板与真实目标的偏离程度。目前,在大多数相关滤波跟踪系统中,目标模板都采用逐帧更新的方式进行更新。换句话说,无论当前帧跟踪结果正确与否,跟踪系统都根据当前跟踪结果对目标模板进行更新。然而,当目标外观发生重度形变、局部遮挡的情况下,逐帧更新机制下跟踪结果必然给目标模板带来污染进而导致目标模板的漂移。
根据上述情况,本发明将基于相关滤波跟踪框架,提出一种基于最大响应值变化率更新策略的相关滤波跟踪方法。
发明内容
为了解决上述问题,本发明提供了:一种基于最大响应值变化率更新策略的相关滤波跟踪方法。
具体技术方案为:一种基于最大响应值变化率更新策略的相关滤波跟踪方法,所述方法基于相关滤波跟踪框架,用方向梯度直方图(HOG)和颜色直方图两种互补特征实现特征提取,基于最大响应值变化率对跟踪结果进行异常判别,并根据可靠的目标模板建立可靠模板库以供异常情况下回滚目标模板。
优选的,所述方法包括如下步骤:
步骤一、输入第一帧
视频帧序列中的每一帧左上角为坐标原点(1,1),宽高分别为Width和Height;手工或自动选定第一帧中待跟踪目标的矩形区域(x0,y0,w0,h0),即选定的跟踪目标;其中,(x0,y0)表示矩形区域的左上角坐标,w0,h0分别表示矩形区域的宽高;第一帧选定目标也称为当前帧跟踪结果(x1,y1,w1,h1)=(x0,y0,w0,h0),下标表示当前帧号;
步骤二、初始化目标模板
1、计算搜寻窗口;
2、生成标准高斯响应图;
3、提取方向梯度直方图(HOG)特征;
4、计算HOG特征的相关滤波器模板;
5、提取颜色直方图特征模板;
步骤三、定义判别参数
由于一般情况下跟踪系统前k帧(5≤k≤15)以内不会跟丢,且跟踪到第k帧之后跟踪系统的响应图方可趋于稳定,因此模型更新判别相关的参数从第k+1帧开始计算;自第k+1帧开始,每帧涉及与模型更新判别相关的参数计算方法如下:
令GLt表示当前帧两种特征加权融合响应图,其中t为当前帧号;
令GL_maxt表示GLt矩阵中最大元素值即响应图最大值;
令Rt={GL_maxi|i=k+1..t}表示从第k+1帧到第t帧的响应图最大值序列;
令R_maxt=max(Rt)表示响应图最大值序列Rt的最大值;
令dt=(R_maxt-GL_maxt)/GL_maxt表示响应图最大值的变化率;
令Dt={di|i=k+1..t}表示变化率序列;
令bt表示当前帧跟踪结果是否正常,bt=1表示当前帧跟踪结果正常,bt=0 表示当前帧跟踪结果异常,特别地,第k+1帧bk+1=1;
令V_bt={bi|i=k+1..t}表示从第k+1帧开始跟踪结果是否正常的掩模向量;
令E(Dt)和δ(Dt)分别表示去除了异常情况的变化率序列的期望值和标准差,其中
令Δt={δ(Di)|i=k+1..t}表示标准差序列,其一阶导数为令和表示判别该一阶导数的两个常量参数,其中且二者绝对值皆接近零;
令φt=(dt-E(Dt-1))/δ(Dt-1)表示第t帧模型更新判别指标,令ξ1和ξ2表示该判别指标相关的两个常量参数,其中2.5≤ξ1≤3.5,4.0≤ξ2≤8.0;
令mt={Ht,bg_histt,fg_histt}表示当前帧目标模板;
令M={Modeli|1≤i≤10}表示可靠模板库,其按照先进先出原则保存了最近历史帧的多个可靠目标模板,初始化M为空集,规定最多保存10个模板;如果当前帧目标模板mt是可靠模板的情况下,将mt放入M作为一个可靠模板;
步骤四、输入下一帧并提取特征
依据步骤二中步骤1的方法计算当前帧搜寻窗口Search(t),依据步骤二中步骤3提取当前帧方向梯度直方图(HOG)特征的频域表示Ft,当前帧HOG特征的响应图Gt可以根据公式Gt=Ft⊙Ht-1计算得到;
依据步骤二中步骤5的方法提取当前帧颜色直方图特征bg_histt和fg_histt,将搜寻区域图像中每个像素对应到直方图的bin值,结合标准目标窗口尺寸和上一帧颜色直方图特征bg_histt-1和fg_histt-1,计算出当前帧颜色直方图特征和颜色直方图模板的相似图谱Lt,其尺寸与响应图G相同;
步骤五、自适应特征融合:
1、计算自适应特征融合参数;
2、自适应特征融合的结果;
步骤六、确定跟踪结果;
步骤七、异常判别处理:
如果当前帧号t<k+1,转至步骤8,否则执行以下操作:
1、计算步骤三定义的相关参数;
2、异常处理;
步骤八、更新目标模板;
步骤九、更新可靠模板库;
步骤十、判断是否最后一帧:
如果当前帧是最后一帧,跟踪结束;否则,转至步骤四。
优选的,所述步骤二具体包括:
1、计算搜寻窗口
根据上一帧即t-1帧跟踪结果(xt-1,yt-1,wt-1,ht-1)对应的矩形区域可以计算出当前帧即第t帧候选目标的搜寻窗口Search(t),特别地,第一帧搜寻窗口则根据 (x0,y0,w0,h0)计算;
搜寻窗口的中心点为(x_st,y_st),其中x_st=xt-1+wt-1/2、 y_st=yt-1+ht-1/2,
宽高分别为w_st=1.5×wt-1+0.5×ht-1、h_st=1.5×ht-1+0.5×wt-1;
为了确保搜寻范围在视频帧范围内,进一步依据该搜寻范围与当前帧区域的交集修正搜寻窗口的宽高。为便于后续计算颜色直方图特征,限定搜寻窗口的边界与真实目标边界之间的距离为偶数,进一步修正搜寻窗口的宽高;
令标准化窗口NormWin的宽高分别为w_n和h_n,则搜寻窗口的变换因子为根据搜寻窗口变换因子可以将搜寻窗口图像进行标准化变换形成标准搜寻窗口,其宽高为w_snt=w_st×γ、h_snt=h_st×γ,
当前帧的标准目标窗口的宽高为w_ont=w_snt×0.75-h_snt×0.25、 h_ont=h_snt×0.75-w_snt×0.25;
2、生成标准高斯响应图
标准高斯响应图g是一个二维矩阵,其宽高为w_g=w_snt/cell、 h_g=h_snt/cell,其矩阵元素值是符合二维高斯分布N(0,0,δ,δ,0)的概率密度函数,可按照公式进行计算;其中,δ表示二维高斯分布的标准差,计算方法为cell表示HOG特征提取过程中每个格子的尺寸为cell×cell,(i,j)表示高斯响应图矩阵的元素坐标位置,原点位于矩阵的中心点;将标准高斯响应图进行傅立叶变换可以得到其频域表示G,其与g同尺寸;
3、提取方向梯度直方图(HOG)特征
以cell作为HOG特征格子尺寸参数、2×2个格子作为块大小、直方图组距 bin设置为2π/7,在当前帧标准化搜寻窗口内提取HOG特征ft,其尺寸为w_g×h_g×28;采用尺寸为w_g×h_g的余弦窗对特征ft进行平滑处理,再进行傅里叶变换得到HOG特征的频域表示Ft,其与ft同尺寸;
4、计算HOG特征的相关滤波器模板
已知标准化搜寻窗口HOG特征的频域表示Ft和标准高斯响应图的频域表示G,则HOG特征相关滤波器模板的频域表示Ht可以根据公式Ht=G/Ft计算得到;
5、提取颜色直方图特征模板
搜寻窗口Search(t)=(x_st,y_st,w_st,h_st)内目标区域 (xt-1,yt-1,wt-1,ht-1)以外的区域定义为背景区域,目标区域缩进一定量定义为前景区域,其中心点与目标区域相同,宽高缩进量皆为(wt-1+ht-1)/10;在背景区域和前景区域分别提取背景颜色直方图bg_histt和前景颜色直方图fg_histt,即为当前帧颜色直方图特征模板。
优选的,所述步骤五具体为:
1、计算自适应特征融合参数
令E(Gt)表示HOG特征响应图Gt的期望,计算方法如公式(1)所示:
令Ght表示HOG特征响应图Gt的置信区域,(i,j)位置的元素Ght(i,j)计算方法如公式(2)所示:
HOG特征响应图Gt的自适应融合参数α计算方法如公式(3)所示:
颜色直方图相似图谱Lt的自适应融合参数为1-α;
2、自适应特征融合
令GL表示HOG特征响应图Gt和颜色直方图相似图谱Lt自适应特征融合的结果,其计算方法如公式(4)所示:
GL=α×Gt+(1-α)×Lt (4)。
优选的,所述步骤六具体为:
特征融合响应图GLt矩阵元素值代表其对应搜寻窗口内候选目标是跟踪结果的概率,则最大元素值对应候选目标即是当前帧跟踪结果;
当前帧搜寻窗口内候选目标的个数为(w_snt-w_ont)×(h_snt-h_ont);令 GL_maxt、x_GL_maxt和y_GL_maxt分别表示当前帧特征融合响应图GLt矩阵中最大元素值及其对应的横纵坐标位置,则当前帧跟踪结果为(xt,yt,wt,ht),其中wt=wt-1、ht=ht-1、xt=xt-1+(x_GL_maxt-(w_snt-w_ont)/2)/γ-wt/2、 yt=yt-1+(y_GL_maxt-(h_snt-h_ont)/2)/γ-ht/2,γ为搜寻窗口的变换因子,其计算方法参见步骤二中步骤1。
优选的,所述步骤七具体为:
如果当前帧号t<k+1,转至步骤八,否则执行以下操作;
1、计算步骤三定义的相关参数
首先计算GL_maxt、Rt、R_maxt、dt、Dt;
如果t=k+1,则φk+1=0,bk+1=1;如果t>k+1,根据步骤三计算φt,并计算bt,方法为
计算V_bt、E(Dt)、δ(Dt)、Δt;
如果t=k+1,则如果t>k+1,根据步骤三计算
2、异常处理
如果ξ1<φt≤ξ2,转至步骤十;
如果φt>ξ2且可靠模板库M为空集,则当前目标模板已经漂移但不回滚,转至步骤十;
如果φt>ξ2且可靠模板库M不为空集,则当前目标模板已经漂移需要回滚,且回滚目标模板之后转至步骤十;其中,回滚方法是用可靠模板库中可靠目标模板的均值替换当前目标模板,计算方法为其中 num(M)为可靠模板库M中可靠模板的个数。
优选的,所述步骤八具体为:
依据当前帧跟踪结果(xt,yt,wt,ht)的位置和步骤二中步骤1的方法计算搜寻窗口Search'(t),依据步骤二中步骤3的方法提取Search'(t)范围内方向梯度直方图(HOG)特征的频域表示Ft',依据步骤二中步骤4的方法计算Ht'=G/Ft';令η为更新参数,当前帧HOG特征相关滤波器模板Ht更新方法如公式(5)所示:
Ht=(1-η)Ht-1+ηHt' (5)
依据当前帧跟踪结果(xt,yt,wt,ht)的位置和步骤二中步骤5的方法提取颜色直方图特征bg_histt'和fg_histt';令θ和β为更新参数,当前帧背景颜色直方图和前景颜色直方图模板更新方法如公式(6)和(7)所示:
bg_histt=(1-θ)×bg_histt-1+θ×bg_histt' (6)
fg_histt=(1-β)×fg_histt-1+β×fg_histt' (7)。
有选的,所述步骤九具体为:
如果当前帧号t<k+1,转至步骤十,否则执行以下操作:
如果且则当前目标模板是一个可靠模板需要放入可靠模板库M;
如果num(M)<10,直接将当前帧目标模板mt={Ht,bg_histt,fg_histt}放入可靠模板库M中;如果num(M)=10,先将M中最早放入的可靠模板删除,再将当前帧目标模板mt={Ht,bg_histt,fg_histt}放入可靠模板库M中。
有益效果为:本发明提出了一种基于最大响应值变化率更新策略的相关滤波跟踪方法。该方法基于相关滤波跟踪框架,采用方向梯度直方图(HOG)和颜色直方图两种互补特征进行特征提取,自适应融合后的响应图最大值对应位置作为当前帧跟踪结果。并根据最大响应值变化率对当前跟踪结果是否异常进行判别,当前跟踪结果正常情况下方可更新目标模板,并依据高可靠性的目标模板建立可靠模板库;当前跟踪结果异常情况下不更新目标模板,并在目标模板漂移情况下依据可靠模板库对当前目标模板进行回滚以提高目标模板的正确性。相比逐帧更新策略的相关滤波跟踪方法,取得了更为稳定的跟踪效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为一种基于最大响应值变化率更新策略的相关滤波跟踪方法的示意图;
图2为Lemming序列第一帧跟踪区域选取情况;
图3为跟踪结果图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
一种基于最大响应值变化率更新策略的相关滤波跟踪方法,具体为:
步骤一、输入第一帧
选取Lemming视频,其中视频帧宽高分别是Width=620,Height=480,选定第一帧中待跟踪目标的矩形区域(40,199,61,103),即选定的跟踪目标如图2实线矩形框所示。其中,(40,199)是矩形区域的左上角坐标,(61,103)是矩形区域的宽高。
步骤二、初始化目标模板
1、计算搜寻窗口
根据上一帧即t-1帧跟踪结果(xt-1,yt-1,wt-1,ht-1)对应的矩形区域可以计算出当前帧即第t帧候选目标的搜寻窗口Search(t),特别地,第一帧搜寻窗口则根据 (40,199,61,103)计算。以第一帧为例,搜寻窗口的中心点为(71,251),宽高分别为w_s1=143、h_s1=185。为了确保搜寻范围在视频帧范围内,进一步依据该搜寻范围与当前帧区域的交集修正搜寻窗口的宽高。为便于后续计算颜色直方图特征,限定搜寻窗口的边界与真实目标边界之间的距离为偶数,进一步修正搜寻窗口的宽高。
令标准化窗口NormWin的宽高分别为w_n=150和h_n=150,则搜寻窗口的变换因子为根据搜寻窗口变换因子可以将搜寻窗口图像进行标准化变换形成标准搜寻窗口。以第一帧为例,其宽高为w_sn1=132、 h_sn1=171,当前帧的标准目标窗口的宽高为w_on1=56.25、h_on1=95.25。
2、生成标准高斯响应图
标准高斯响应图g是一个二维矩阵,其中,cell=4其宽高为w_g=33、 h_g=42,其矩阵元素值是符合二维高斯分布N(0,0,δ,δ,0)的概率密度函数,可按照公式进行计算。其中,δ表示二维高斯分布的标准差,计算方法为δ=1.1437,cell表示HOG特征提取过程中每个格子的尺寸为cell×cell, (i,j)表示高斯响应图矩阵的元素坐标位置,原点位于矩阵的中心点。将标准高斯响应图进行傅立叶变换可以得到其频域表示G,其与g同尺寸。
3、提取方向梯度直方图(HOG)特征
以cell作为HOG特征格子尺寸参数、2×2个格子作为块大小、直方图组距 bin设置为2π/7,在当前帧标准化搜寻窗口内提取HOG特征f1,其尺寸为 33×42×28。采用尺寸为33×42的余弦窗对特征ft进行平滑处理,再进行傅里叶变换得到HOG特征的频域表示F1,其与f1同尺寸。
4、计算HOG特征的相关滤波器模板
已知标准化搜寻窗口HOG特征的频域表示F1和标准高斯响应图的频域表示G,则HOG特征相关滤波器模板的频域表示H1可以根据公式H1=G/F1计算得到。
5、提取颜色直方图特征模板
以第一帧为例,搜寻窗口Search(1)=(71,251,143,185)内目标区域 (40,199,61,103)以外的区域定义为背景区域,目标区域缩进一定量定义为前景区域,其中心点与目标区域相同,宽高缩进量皆为16.4。在背景区域和前景区域分别提取背景颜色直方图bg_hist1和前景颜色直方图fg_hist1,即为当前帧颜色直方图特征模板。
步骤三、定义判别参数
由于该视频在k=10帧以内不会跟丢,且跟踪到第10帧之后跟踪系统的响应图方可趋于稳定,因此本发明方法中模型更新判别相关的参数也是从第11帧开始计算。自第11帧开始,每帧涉及与模型更新判别相关的参数计算方法如下:
令GLt表示当前帧两种特征加权融合响应图,其中t为当前帧号。
令GL_maxt表示GLt矩阵中最大元素值即响应图最大值。
令Rt={GL_maxi|i=11..t}表示从第11帧到第t帧的响应图最大值序列。
令R_maxt=max(Rt)表示响应图最大值序列Rt的最大值。
令dt=(R_maxt-GL_maxt)/GL_maxt表示响应图最大值的变化率。
令Dt={di|i=11..t}表示变化率序列。
令bt表示当前帧跟踪结果是否正常,bt=1表示跟踪结果正常,bt=0表示跟踪结果异常,特别地,第11帧b11=1。
令V_bt={bi|i=11..t}表示从第11帧开始跟踪结果是否正常的掩模向量。
令E(Dt)和δ(Dt)分别表示去除了异常情况的变化率序列的期望值和标准差,其中
令Δt={δ(Di)|i=11..t}表示标准差序列,其一阶导数为令
令φt=(dt-E(Dt-1))/δ(Dt-1)表示第t帧模型更新判别指标,令ξ1=3.5,ξ2=7。
令mt={Ht,bg_histt,fg_histt}表示当前帧目标模板。
令M={Modeli|1≤i≤10}表示可靠模板库,其按照先进先出原则保存了最近历史帧的多个可靠目标模板,初始化M为空集,规定最多保存10个模板。如果当前帧目标模板mt是可靠模板的情况下,将mt放入M作为一个可靠模板。
步骤四、输入下一帧并提取特征
依据步骤二中步骤1的方法计算当前帧搜寻窗口Search(2),依据步骤二中步骤3提取当前帧方向梯度直方图(HOG)特征的频域表示F2,当前帧HOG 特征的响应图G2可以根据公式G2=F2⊙H1计算得到。
依据步骤二中步骤5的方法提取当前帧颜色直方图特征bg_hist2和fg_hist2,将搜寻区域图像中每个像素对应到直方图的bin值,结合标准目标窗口尺寸和上一帧颜色直方图特征bg_hist1和fg_hist1,计算出当前帧颜色直方图特征和颜色直方图模板的相似图谱L1,其尺寸与响应图G相同。
步骤五、自适应特征融合
1、计算自适应特征融合参数
令E(G2)表示HOG特征响应图G2的期望,根据公式(1)计算得出 E(G2)=0.0430:
令Gh2表示HOG特征响应图G2的置信区域,(i,j)位置的元素Gh2(i,j)计算方法如公式(2)所示:
HOG特征响应图G2的自适应融合参数α=0.8507计算方法如下公式(3)所示:
颜色直方图相似图谱L2的自适应融合参数为0.1493。
2、自适应特征融合结果
令GL2表示HOG特征响应图G2和颜色直方图相似图谱L2自适应特征融合的结果,其计算方法如公式(4)所示:
GL2=0.8507×G2+0.1493×L2 (4)。
步骤六、确定跟踪结果
特征融合响应图GLt矩阵元素值代表其对应搜寻窗口内候选目标是跟踪结果的概率,则最大元素值对应候选目标即是当前帧跟踪结果。
当前帧搜寻窗口内候选目标的个数为75×75。令GL_max2、x_GL_max2=39和y_GL_max2=39分别表示当前帧特征融合响应图GL2矩阵中最大元素值及其对应的横纵坐标位置,则当前帧跟踪结果为(40,199,61,103),其中w2=61、h2=103、x2=40、y2=199,γ为搜寻窗口的变换因子,其计算方法参见步骤二中步骤1。
步骤七、异常判别处理
如果当前帧号t<11,转至步骤八,否则执行以下操作。
1、计算步骤三定义的相关参数
情况一:
当跟踪进入第11帧时,GL_max11=0.7239、R11={0.7239}、 R_max11=0.7239、d11=0、D11={0}。
根据步骤三判别参数的计算,φ11=0,b11=1即跟踪结果正常。
情况二:
当跟踪进入第12帧时,GL_max12=0.7028、R12={0.7239,0.7028}、 R_max12=0.7239、d12=0.0301、D12={0,0.0301}。
根据步骤三判别参数的计算,φ12=0.7071,E(D12)=0.0150,δ(D12)=0.0213。
由于φ12≤3.5,表明跟踪结果正常,b12=1,V_b12={1,1}。
最后,Δ12={0,0},
情况三:
当跟踪进入第331帧时,GL_max331=0.3274、 R331={0.7239,0.7028,…,0.3274}、R_max331=0.7239、d331=1.2111、 D331={0,0.0301,…,1.2111}。
根据步骤三判别参数的计算,φ331=3.5678,E(D331)=0.4424,δ(D331)=0.2155。
即φ12>3.5,表明跟踪结果异常,b331=1,V_b331={1,1,…,0}。
最后,Δ331={0,0,…,0.2093}。
2、异常处理
情况一:当跟踪进入第331帧时,φ331=3.5678,因为3.5<φ330≤7,转至步骤十。
情况二:当跟踪进入第337帧时,φ337=8.4668,因为φ337>7,即回滚目标模板之后转至步骤十。其中,回滚方法是用可靠模板库中可靠目标模板的均值替换当前目标模板,计算方法为其中num(M)=10。
步骤八、更新目标模板
依据当前帧跟踪结果(40,199,61,103)的位置和步骤二中步骤1的方法计算搜寻窗口Search'(2),依据步骤二中步骤3的方法提取Search'(2)范围内方向梯度直方图(HOG)特征的频域表示F2',依据步骤二中步骤4的方法计算H2'=G/F2'。令η=0.01为更新参数,当前帧HOG特征相关滤波器模板H2更新方法如公式(5) 所示:
H2=(1-0.01)×H1+0.01×H2' (5)
依据当前帧跟踪结果(225,139,61,71)的位置和步骤2.5的方法提取颜色直方图特征bg_hist2'和fg_hist2'。令θ和β为更新参数等于0.04,当前帧背景颜色直方图和前景颜色直方图模板更新方法如公式(6)和(7)所示:
bg_hist2=(1-0.04)×bg_hist1+0.04×bg_hist2' (6)
fg_hist2=(1-0.04)×fg_hist1+0.04×fg_hist2' (7)。
步骤九、更新可靠模板库
如果当前帧号t<11,转至步骤十,否则执行以下操作。
当跟踪进入第12帧时,不满足且即第12帧的模板不是可靠模板,不能放入可靠模板库。
当跟踪进入第15帧时,满足且又由于num(M)<10,则将当前帧目标模板m1={H15,bg_hist15,fg_hist15}直接放入可靠模板库M中。
步骤十、判别是否最后一帧
如果当前帧是最后一帧,跟踪结束;否则,转至步骤四。
最后,本发明平台是基于Matlab R2017b实现,硬件实验环境为Intel Core i7-6700CPU、主频3.4GHz、内存8GB配置的计算机。最终跟踪结果的成功率可以达到97.8%,部分跟踪结果如图3所示:其中,实线框为本发明算法跟踪区域,点线框是目标真实区域,虚线框是算法搜索区域。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
Claims (8)
1.一种基于最大响应值变化率更新策略的相关滤波跟踪方法,其特征在于,所述方法基于相关滤波跟踪框架,用方向梯度直方图(HOG)和颜色直方图两种互补特征实现特征提取,基于最大响应值变化率对跟踪结果进行异常判别,并根据可靠的目标模板建立可靠模板库以供异常情况下回滚目标模板。
2.根据权利要求1所述的方法,其特征在于,包括如下步骤:
步骤一、输入第一帧
视频帧序列中的每一帧左上角为坐标原点(1,1),宽高分别为Width和Height;手工或自动选定第一帧中待跟踪目标的矩形区域(x0,y0,w0,h0),即选定的跟踪目标;其中,(x0,y0)表示矩形区域的左上角坐标,w0,h0分别表示矩形区域的宽高;第一帧选定目标也称为当前帧跟踪结果(x1,y1,w1,h1)=(x0,y0,w0,h0),下标表示当前帧号;
步骤二、初始化目标模板
(1)、计算搜寻窗口;
(2)、生成标准高斯响应图;
(3)、提取方向梯度直方图(HOG)特征;
(4)、计算HOG特征的相关滤波器模板;
(5)、提取颜色直方图特征模板;
步骤三、定义判别参数
由于一般情况下跟踪系统前k帧(5≤k≤15)以内不会跟丢,且跟踪到第k帧之后跟踪系统的响应图方可趋于稳定,因此模型更新判别相关的参数从第k+1帧开始计算;自第k+1帧开始,每帧涉及与模型更新判别相关的参数计算方法如下:
令GLt表示当前帧两种特征加权融合响应图,其中t为当前帧号;
令GL_maxt表示GLt矩阵中最大元素值即响应图最大值;
令Rt={GL_maxi|i=k+1..t}表示从第k+1帧到第t帧的响应图最大值序列;
令R_maxt=max(Rt)表示响应图最大值序列Rt的最大值;
令dt=(R_maxt-GL_maxt)/GL_maxt表示响应图最大值的变化率;
令Dt={di|i=k+1..t}表示变化率序列;
令bt表示当前帧跟踪结果是否正常,bt=1表示当前帧跟踪结果正常,bt=0表示当前帧跟踪结果异常,特别地,第k+1帧bk+1=1;
令V_bt={bi|i=k+1..t}表示从第k+1帧开始跟踪结果是否正常的掩模向量;
令E(Dt)和δ(Dt)分别表示去除了异常情况的变化率序列的期望值和标准差,其中
令Δt={δ(Di)|i=k+1..t}表示标准差序列,其一阶导数为令和表示判别该一阶导数的两个常量参数,其中且二者绝对值皆接近零;
令φt=(dt-E(Dt-1))/δ(Dt-1)表示第t帧模型更新判别指标,令ξ1和ξ2表示该判别指标相关的两个常量参数,其中2.5≤ξ1≤3.5,4.0≤ξ2≤8.0;
令mt={Ht,bg_histt,fg_histt}表示当前帧目标模板;
令M={Modeli|1≤i≤10}表示可靠模板库,其按照先进先出原则保存了最近历史帧的多个可靠目标模板,初始化M为空集,规定最多保存10个模板;如果当前帧目标模板mt是可靠模板的情况下,将mt放入M作为一个可靠模板;
步骤四、输入下一帧并提取特征
依据步骤二中步骤(1)的方法计算当前帧搜寻窗口Search(t),依据步骤二中步骤(3)提取当前帧方向梯度直方图(HOG)特征的频域表示Ft,当前帧HOG特征的响应图Gt可以根据公式Gt=Ft⊙Ht-1计算得到;
依据步骤二中步骤(5)的方法提取当前帧颜色直方图特征bg_histt和fg_histt,将搜寻区域图像中每个像素对应到直方图的bin值,结合标准目标窗口尺寸和上一帧颜色直方图特征bg_histt-1和fg_histt-1,计算出当前帧颜色直方图特征和颜色直方图模板的相似图谱Lt,其尺寸与响应图G相同;
步骤五、自适应特征融合:
(1)、计算自适应特征融合参数,
(2)、自适应特征融合的结果;
步骤六、确定跟踪结果;
步骤七、异常判别处理:
如果当前帧号t<k+1,转至步骤八,否则执行以下操作:
(1)、计算步骤三定义的相关参数,
(2)、异常处理;
步骤八、更新目标模板;
步骤九、更新可靠模板库;
步骤十、判断是否最后一帧:
如果当前帧是最后一帧,跟踪结束;否则,转至步骤四。
3.根据权利要求2所述的方法,其特征在于,所述步骤二具体包括:
(1)、计算搜寻窗口
根据上一帧即t-1帧跟踪结果(xt-1,yt-1,wt-1,ht-1)对应的矩形区域可以计算出当前帧即第t帧候选目标的搜寻窗口Search(t),特别地,第一帧搜寻窗口则根据(x0,y0,w0,h0)计算;
搜寻窗口的中心点为(x_st,y_st),其中x_st=xt-1+wt-1/2、y_st=yt-1+ht-1/2,
宽高分别为w_st=1.5×wt-1+0.5×ht-1、h_st=1.5×ht-1+0.5×wt-1;为了确保搜寻范围在视频帧范围内,进一步依据该搜寻范围与当前帧区域的交集修正搜寻窗口的宽高;为便于后续计算颜色直方图特征,限定搜寻窗口的边界与真实目标边界之间的距离为偶数,进一步修正搜寻窗口的宽高;
令标准化窗口NormWin的宽高分别为w_n和h_n,则搜寻窗口的变换因子为根据搜寻窗口变换因子可以将搜寻窗口图像进行标准化变换形成标准搜寻窗口,其宽高为w_snt=w_st×γ、h_snt=h_st×γ,
当前帧的标准目标窗口的宽高为w_ont=w_snt×0.75-h_snt×0.25、h_ont=h_snt×0.75-w_snt×0.25;
(2)、生成标准高斯响应图
标准高斯响应图g是一个二维矩阵,其宽高为w_g=w_snt/cell、h_g=h_snt/cell,其矩阵元素值是符合二维高斯分布N(0,0,δ,δ,0)的概率密度函数,可按照公式进行计算;其中,δ表示二维高斯分布的标准差,计算方法为cell表示HOG特征提取过程中每个格子的尺寸为cell×cell,(i,j)表示高斯响应图矩阵的元素坐标位置,原点位于矩阵的中心点;将标准高斯响应图进行傅立叶变换可以得到其频域表示G,其与g同尺寸;
(3)、提取方向梯度直方图(HOG)特征
以cell作为HOG特征格子尺寸参数、2×2个格子作为块大小、直方图组距bin设置为2π/7,在当前帧标准化搜寻窗口内提取HOG特征ft,其尺寸为w_g×h_g×28;采用尺寸为w_g×h_g的余弦窗对特征ft进行平滑处理,再进行傅里叶变换得到HOG特征的频域表示Ft,其与ft同尺寸;
(4)、计算HOG特征的相关滤波器模板
已知标准化搜寻窗口HOG特征的频域表示Ft和标准高斯响应图的频域表示G,则HOG特征相关滤波器模板的频域表示Ht可以根据公式Ht=G/Ft计算得到;
(5)、提取颜色直方图特征模板
搜寻窗口Search(t)=(x_st,y_st,w_st,h_st)内目标区域(xt-1,yt-1,wt-1,ht-1)以外的区域定义为背景区域,目标区域缩进一定量定义为前景区域,其中心点与目标区域相同,宽高缩进量皆为(wt-1+ht-1)/10;在背景区域和前景区域分别提取背景颜色直方图bg_histt和前景颜色直方图fg_histt,即为当前帧颜色直方图特征模板。
4.根据权利要求2所述的方法,其特征在于,所述步骤五具体为:
(1)、计算自适应特征融合参数
令E(Gt)表示HOG特征响应图Gt的期望,计算方法如公式(1)所示:
令Ght表示HOG特征响应图Gt的置信区域,(i,j)位置的元素Ght(i,j)计算方法如公式(2)所示:
HOG特征响应图Gt的自适应融合参数α计算方法如公式(3)所示:
颜色直方图相似图谱Lt的自适应融合参数为1-α;
(2)、自适应特征融合
令GL表示HOG特征响应图Gt和颜色直方图相似图谱Lt自适应特征融合的结果,其计算方法如公式(4)所示:
GL=α×Gt+(1-α)×Lt (4)。
5.根据权利要求2所述的方法,其特征在于,所述步骤六具体为:
特征融合响应图GLt矩阵元素值代表其对应搜寻窗口内候选目标是跟踪结果的概率,则最大元素值对应候选目标即是当前帧跟踪结果;
当前帧搜寻窗口内候选目标的个数为(w_snt-w_ont)×(h_snt-h_ont);令GL_maxt、x_GL_maxt和y_GL_maxt分别表示当前帧特征融合响应图GLt矩阵中最大元素值及其对应的横纵坐标位置,则当前帧跟踪结果为(xt,yt,wt,ht),其中wt=wt-1、ht=ht-1、xt=xt-1+(x_GL_maxt-(w_snt-w_ont)/2)/γ-wt/2、yt=yt-1+(y_GL_maxt-(h_snt-h_ont)/2)/γ-ht/2,γ为搜寻窗口的变换因子,其计算方法参见步骤二中步骤(1)。
6.根据权利要求2所述的方法,其特征在于,步骤七具体为:
如果当前帧号t<k+1,转至步骤八,否则执行以下操作;
(1)、计算步骤三定义的相关参数
首先计算GL_maxt、Rt、R_maxt、dt、Dt;
如果t=k+1,则φk+1=0,bk+1=1;如果t>k+1,根据步骤三计算φt,并计算bt,方法为
计算V_bt、E(Dt)、δ(Dt)、Δt;
如果t=k+1,则如果t>k+1,根据步骤三计算
(2)、异常处理
如果ξ1<φt≤ξ2,转至步骤十;
如果φt>ξ2且可靠模板库M为空集,则当前目标模板已经漂移但不回滚,转至步骤十;
如果φt>ξ2且可靠模板库M不为空集,则当前目标模板已经漂移需要回滚,且回滚目标模板之后转至步骤十;其中,回滚方法是用可靠模板库中可靠目标模板的均值替换当前目标模板,计算方法为其中num(M)为可靠模板库M中可靠模板的个数。
7.根据权利要求2所述的方法,其特征在于,步骤八具体为:
依据当前帧跟踪结果(xt,yt,wt,ht)的位置和步骤二中步骤(1)的方法计算搜寻窗口Search'(t),依据步骤二中步骤(3)的方法提取Search'(t)范围内方向梯度直方图(HOG)特征的频域表示Ft',依据步骤二中步骤(4)的方法计算Ht'=G/Ft';令η为更新参数,当前帧HOG特征相关滤波器模板Ht更新方法如公式(5)所示:
Ht=(1-η)Ht-1+ηHt' (5)
依据当前帧跟踪结果(xt,yt,wt,ht)的位置和步骤二中步骤(5)的方法提取颜色直方图特征bg_histt'和fg_histt';令θ和β为更新参数,当前帧背景颜色直方图和前景颜色直方图模板更新方法如公式(6)和(7)所示:
bg_histt=(1-θ)×bg_histt-1+θ×bg_histt' (6)
fg_histt=(1-β)×fg_histt-1+β×fg_histt' (7)。
8.根据权利要求2所述的方法,其特征在于,步骤九具体为:
如果当前帧号t<k+1,转至步骤十,否则执行以下操作:
如果且则当前目标模板是一个可靠模板需要放入可靠模板库M;如果num(M)<10,直接将当前帧目标模板mt={Ht,bg_histt,fg_histt}放入可靠模板库M中;如果num(M)=10,先将M中最早放入的可靠模板删除,再将当前帧目标模板mt={Ht,bg_histt,fg_histt}放入可靠模板库M中。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910386391.8A CN110163132B (zh) | 2019-05-09 | 2019-05-09 | 一种基于最大响应值变化率更新策略的相关滤波跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910386391.8A CN110163132B (zh) | 2019-05-09 | 2019-05-09 | 一种基于最大响应值变化率更新策略的相关滤波跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110163132A true CN110163132A (zh) | 2019-08-23 |
CN110163132B CN110163132B (zh) | 2023-07-11 |
Family
ID=67634028
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910386391.8A Active CN110163132B (zh) | 2019-05-09 | 2019-05-09 | 一种基于最大响应值变化率更新策略的相关滤波跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110163132B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111091583A (zh) * | 2019-11-22 | 2020-05-01 | 中国科学技术大学 | 长期目标跟踪方法 |
CN113346206A (zh) * | 2021-06-28 | 2021-09-03 | 云南大学 | 一种带宽可调的太赫兹带通滤波器 |
CN113379802A (zh) * | 2021-07-01 | 2021-09-10 | 昆明理工大学 | 一种多特征自适应融合的相关滤波目标跟踪方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150009323A1 (en) * | 2013-07-03 | 2015-01-08 | Zmodo Technology Shenzhen Corp. Ltd | Multi-target tracking method for video surveillance |
CN106127798A (zh) * | 2016-06-13 | 2016-11-16 | 重庆大学 | 基于自适应模型的稠密时空上下文目标跟踪方法 |
CN107167799A (zh) * | 2017-04-26 | 2017-09-15 | 南京理工大学 | 基于CS‑Jerk模型的参数自适应机动目标跟踪算法 |
CN107578423A (zh) * | 2017-09-15 | 2018-01-12 | 杭州电子科技大学 | 多特征分层融合的相关滤波鲁棒跟踪方法 |
US20180268559A1 (en) * | 2017-03-16 | 2018-09-20 | Electronics And Telecommunications Research Institute | Method for tracking object in video in real time in consideration of both color and shape and apparatus therefor |
CN108986140A (zh) * | 2018-06-26 | 2018-12-11 | 南京信息工程大学 | 基于相关滤波和颜色检测的目标尺度自适应跟踪方法 |
CN108985204A (zh) * | 2018-07-04 | 2018-12-11 | 北京师范大学珠海分校 | 行人检测跟踪方法及装置 |
CN109035290A (zh) * | 2018-07-16 | 2018-12-18 | 南京信息工程大学 | 一种基于高置信度更新补充学习的跟踪算法 |
-
2019
- 2019-05-09 CN CN201910386391.8A patent/CN110163132B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150009323A1 (en) * | 2013-07-03 | 2015-01-08 | Zmodo Technology Shenzhen Corp. Ltd | Multi-target tracking method for video surveillance |
CN106127798A (zh) * | 2016-06-13 | 2016-11-16 | 重庆大学 | 基于自适应模型的稠密时空上下文目标跟踪方法 |
US20180268559A1 (en) * | 2017-03-16 | 2018-09-20 | Electronics And Telecommunications Research Institute | Method for tracking object in video in real time in consideration of both color and shape and apparatus therefor |
CN107167799A (zh) * | 2017-04-26 | 2017-09-15 | 南京理工大学 | 基于CS‑Jerk模型的参数自适应机动目标跟踪算法 |
CN107578423A (zh) * | 2017-09-15 | 2018-01-12 | 杭州电子科技大学 | 多特征分层融合的相关滤波鲁棒跟踪方法 |
CN108986140A (zh) * | 2018-06-26 | 2018-12-11 | 南京信息工程大学 | 基于相关滤波和颜色检测的目标尺度自适应跟踪方法 |
CN108985204A (zh) * | 2018-07-04 | 2018-12-11 | 北京师范大学珠海分校 | 行人检测跟踪方法及装置 |
CN109035290A (zh) * | 2018-07-16 | 2018-12-18 | 南京信息工程大学 | 一种基于高置信度更新补充学习的跟踪算法 |
Non-Patent Citations (4)
Title |
---|
YAN LIU等: "A Pedestrian Re-Identification Method Based on Multi-Feature Fusion", 《2017 4TH INTERNATIONAL CONFERENCE ON INFORMATION SCIENCE AND CONTROL ENGINEERING (ICISCE)》 * |
YULONG XU等: "Patch-based Scale Calculation for Real-time Visual Tracking", 《IEEE SIGNAL PROCESSING LETTERS ( VOLUME: 23, ISSUE: 1, JANUARY 2016)》 * |
刘磊等: "基于遮挡检测的尺度自适应相关滤波跟踪", 《计算机系统应用》 * |
范文兵等: "多特征融合的自适应相关滤波跟踪算法", 《计算机工程与应用》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111091583A (zh) * | 2019-11-22 | 2020-05-01 | 中国科学技术大学 | 长期目标跟踪方法 |
CN111091583B (zh) * | 2019-11-22 | 2022-09-06 | 中国科学技术大学 | 长期目标跟踪方法 |
CN113346206A (zh) * | 2021-06-28 | 2021-09-03 | 云南大学 | 一种带宽可调的太赫兹带通滤波器 |
CN113379802A (zh) * | 2021-07-01 | 2021-09-10 | 昆明理工大学 | 一种多特征自适应融合的相关滤波目标跟踪方法 |
CN113379802B (zh) * | 2021-07-01 | 2024-04-16 | 昆明理工大学 | 一种多特征自适应融合的相关滤波目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110163132B (zh) | 2023-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111724439B (zh) | 一种动态场景下的视觉定位方法及装置 | |
CN108876820B (zh) | 一种基于均值漂移的遮挡条件下移动目标追踪方法 | |
CN104517275A (zh) | 对象检测方法和系统 | |
CN108198201A (zh) | 一种多目标跟踪方法、终端设备及存储介质 | |
CN104063885A (zh) | 一种改进的运动目标检测与跟踪方法 | |
CN112364865B (zh) | 一种复杂场景中运动小目标的检测方法 | |
CN110163132A (zh) | 一种基于最大响应值变化率更新策略的相关滤波跟踪方法 | |
CN106952294B (zh) | 一种基于rgb-d数据的视频跟踪方法 | |
CN111127519B (zh) | 一种双模型融合的目标跟踪控制系统及其方法 | |
CN111445497B (zh) | 一种基于尺度上下文回归的目标追踪与跟随方法 | |
CN109886994A (zh) | 视频跟踪中自适应遮挡检测系统及方法 | |
CN112446882A (zh) | 一种动态场景下基于深度学习的鲁棒视觉slam方法 | |
CN105374049B (zh) | 一种基于稀疏光流法的多角点跟踪方法及装置 | |
CN113344967A (zh) | 一种复杂背景下的动态目标识别追踪方法 | |
CN105405152B (zh) | 基于结构化支持向量机的自适应尺度目标跟踪方法 | |
CN113763427A (zh) | 一种基于从粗到精遮挡处理的多目标跟踪方法 | |
CN103578121B (zh) | 干扰运动环境下基于共享高斯模型的运动检测方法 | |
CN109949344B (zh) | 一种基于颜色概率目标建议窗口的核相关滤波跟踪方法 | |
Ji et al. | DRV-SLAM: An Adaptive Real-Time Semantic Visual SLAM Based on Instance Segmentation Toward Dynamic Environments | |
CN109558877B (zh) | 基于kcf的海上目标跟踪算法 | |
CN113689459B (zh) | 动态环境下基于gmm结合yolo实时跟踪与建图方法 | |
CN111539985A (zh) | 一种融合多特征的自适应运动目标跟踪方法 | |
CN109658441A (zh) | 基于深度信息的前景检测方法及装置 | |
CN116563327A (zh) | 基于箱线图的动态场景背景建模方法 | |
CN111768427A (zh) | 一种多运动目标跟踪方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |