[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN104463912A - 一种基于簇相似的多尺度目标跟踪方法 - Google Patents

一种基于簇相似的多尺度目标跟踪方法 Download PDF

Info

Publication number
CN104463912A
CN104463912A CN201410785162.0A CN201410785162A CN104463912A CN 104463912 A CN104463912 A CN 104463912A CN 201410785162 A CN201410785162 A CN 201410785162A CN 104463912 A CN104463912 A CN 104463912A
Authority
CN
China
Prior art keywords
bunch
frame
target
represent
particle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201410785162.0A
Other languages
English (en)
Inventor
何发智
李康
潘一腾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201410785162.0A priority Critical patent/CN104463912A/zh
Publication of CN104463912A publication Critical patent/CN104463912A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了一种基于簇相似的多尺度目标跟踪方法,本方法的外观模型使用改进的类哈尔特征表示,可以适应目标尺度变化.首先对目标周围进行滑动窗口稠密采样,依据采样半径将样本划分为目标簇和背景簇,定义了一种粒子与簇之间的距离度量,并定义它们之间的相似度与距离成反比.当新帧到来时,粒子通过运动模型运动,根据粒子与目标簇和背景簇的相似度对粒子评分,评分最高的粒子作为目标在该帧的位置;为了适应跟踪过程中目标和背景的变化,设计动态更新机制对目标簇和背景簇的统计特征更新.在每帧跟踪结束时,根据粒子的评分值赋予粒子新的权值,并根据该权值进行粒子重采样以防止粒子退化,本方法能够在复杂条件下实现对目标的鲁棒跟踪。

Description

一种基于簇相似的多尺度目标跟踪方法
技术领域
本发明属于目标跟踪技术领域,涉及一种基于簇相似的多尺度目标跟踪方法。
背景技术
目标跟踪在计算机视觉中一个重要领域,在军事,医疗,监控以及人机交互中有着重要的应用。最近几年来有许多算法用于解决目标跟踪的问题,但是由于目标的形变,光照的变化,以及目标被遮挡等原因,目标跟踪仍然是一个难点。
目前主流的实时跟踪算法都是具有自适应性的。一般来说跟踪算法可以分为两类:生成算法和判别算法。生成算法能够学习目标的特征模型,然后搜索目标可能所在的区域,使用已学习的模型以最小误差重建的区域即为目标所在位置。为了解决目标形变问题,WSL和IVT算法先后被提出。最近,稀疏表示方法用来解决目标被部分遮挡的问题。但是这些生成模型都没有利用目标周围的背景信息,这些背景信息能够在检测目标时更好地将目标与背景分离出来。
判别模型将目标跟踪看做一种将目标与背景分离出来的检测问题。在判别模型中,使用区分能力较好的特征能够有效的提高跟踪精度。使用多个弱分类器组成强分类器的boosting算法目前得到了广泛的应用。但是,许多boosting算法只利用了目标本身的信息,并没有利用目标背景的信息,所以当目标没有被精确的检测到之后,就会影响以后目标跟踪的精度,最终导致跟踪失败。
发明内容
为了克服上述现有技术的不足,本发明提供了一种基于簇相似的多尺度目标跟踪方法。
本发明所采用的技术方案是:一种基于簇相似的多尺度目标跟踪方法,包括以下步骤:
步骤1:获取包括N帧的视频序列;
步骤2:从t=1帧开始,确定第t帧的目标它的位置为其中是一个矩形框,框内是需要跟踪的目标;包含四个参数,目标在该帧中的行坐标列坐标宽度width和高度height;初始化参数 为0,参数是nf维的向量,这四个参数分别表示系统维持的全局目标簇χ+的均值、方差和全局背景簇χ-的均值、方差,其中上标“+”表示目标簇,“-”表示背景簇,下标i表示从样本提取出的第i个类哈尔特征;
步骤3:在t=1帧时初始化粒子集其中每个粒子表示一个测试样本,每个测试样本表示一种目标可能的状态.粒子的状态向量定义为这里xp,yp表示粒子所表示的样本在图像中的列坐标与行坐标,sp表示样本的尺度;
步骤4:在第t帧,在周围半径rp个像素内采集目标簇样本集这里xt表示第t帧目标簇中的样本,l(xt)表示样本xt所在的坐标位置,表示样本xt之间的距离(以像素为单位),表示第t帧的目标簇;在周围半径rin、ron像素之间采集背景簇样本集这里xt表示第t帧背景簇中的样本,l(xt)表示样本xt所在的位置,表示第t帧的背景簇;
步骤5:对目标簇和背景簇中的每个样本提取nf个类哈尔特征;
步骤6:计算目标簇和背景簇在第i个类哈尔特征和第t帧的统计特征 其中i∈{1,...,nf},对于第t帧的目标簇和背景簇根据其中样本的特征计算均值和标准差;
μ t , i + = 1 n p Σ x ∈ χ t + f i ( x )
μ t , i - = 1 n n Σ x ∈ χ t - f i ( x )
σ t , i + = 1 n p Σ x ∈ χ t + ( f i ( x ) - μ t , i + ) 2
σ t , i - = 1 n n Σ x ∈ χ t - ( f i ( x ) - μ t , i - ) 2
其中,其中np为目标簇中样本的个数;nn为背景簇中样本的个数,下标i表示是针对第i个类哈尔特征求出统计特征;fi(x)表示从样本x中提取出的第i个类哈尔特征;
步骤7:根据求得的使用学习率λ更新系统维持的目标簇和背景簇的参数
步骤8:粒子集At在第t+1帧时使用2阶自回归模型进行移动,移动后的粒子集为At+1,根据步骤5中的方法提取出这些粒子的类哈尔特征,其中wt是与目标状态相互独立并且其各维度之间相互独立的白噪声;表示第t+1帧第i个粒子的状态向量;
步骤9:在第t+1帧,根据步骤8得到的移动后的粒子集At+1,其中每个粒子表示一个测试样本,定义测试样本与系统维持的全局目标簇χ+之间的距离为其中i表示根据第i个特征计算出的距离其中χ+表示全局目标簇,表示目标簇χ+对应的第i个特征的均值,表示全局目标簇χ+对应的第i个特征的标准差;定义第t+1帧,测试样本与系统维持的全局背景簇χ之间的距离为为所有样本特征的距离之和,其中i表示根据第i个特征计算出的距离其中χ-表示全局背景簇,表示背景簇χ-对应的第i个特征的均值,表示全局背景簇χ-对应的第i个特征的标准差;
步骤10:根据步骤9得到的距离,定义第t+1帧测试样本与全局目标簇簇χ+之间的相似度为定义第t+1帧测试样本与全局背景簇簇χ-之间的相似度为
步骤11:根据步骤10得到的相似度,定义目标函数选择测试样本中与全局目标簇相似且与全局背景簇不相似的样本作为目标在t+1帧的位置;目标函数 J ( a t + 1 ( j ) ) = S ( a t + 1 ( j ) , χ + ) S ( a t + 1 ( j ) , χ - ) , 目标在t+1帧所在位置为 x t + 1 * = arg max a t + 1 ( j ) ∈ A t + 1 J ( a t + 1 ( j ) )
步骤12:对于第t+1帧粒子集中At+1的每个粒子作为其权值,并对这些权值进行归一化.
步骤13:根据粒子的权值对粒子进行重采样;
步骤14:若t+1帧是最后一帧,则本算法结束;
若t+1帧不是最后一帧,则令t=t+1,回转执行所述的步骤4。
所述的矩形框中背景所占的像素不得超过矩形框总像素的10%。
所述的步骤3中,在t=1帧时,所有粒子的位置初始化为: x p = col ( x t * ) , y p = row ( x t * ) , 其中表示样本的列坐标,表示样本的行坐标.初始尺度sp=1,粒子的个数N的取值为200。
所述的步骤4中,rp取值为4,rin取值为6,ron取值范围9~15,单位为像素。
所述的步骤5中,提取nf个类哈尔特征的方法是对于任何样本z,随机在样本所表示的矩形框中选取nf个小矩形框,使用每个小矩形框中像素和的平均值作为特征f(z)={f1(z),f2(z),...,fnf(z)}。
所述的步骤5中,当粒子的尺度变化时,根据粒子尺度等比例缩放每个小矩形框计算像素平均值。
所述的步骤7中,更新过程为:若当前帧t=1,则 μ i - = μ t , i - , σ i - = σ t , i - , 否则 μ i + = λμ i + + ( 1 - λ ) μ t , i + , σ i + = λ σ i + + ( 1 - λ ) σ t , i + , μ i - = λμ i - + ( 1 - λ ) μ t , i - , σ i - = λ σ i - + ( 1 - λ ) σ t , i - ; 其中λ=0.9,是系统维持的目标簇和背景簇的全局统计特征变量.下标i表示的是第i个类哈尔特征,上标”+”表示目标簇,上标“-”表示背景簇.全局统计特征描述了目标簇和背景簇当前时刻的状态。
所述的步骤8中白噪声wt符合高斯分布,并且均值为0,方差为0.2。
所述的步骤13中对粒子的重采样是将权值较小的粒子舍弃,并将权值较大的粒子的值赋值给权值较小的粒子。
本发明的有益效果是:本发明简化了基于检测的跟踪的许多步骤,通过直观的判断样本与目表、样本与背景的相似度直接得出目标所在位置,到达速度快,跟踪准的效果。粒子滤波框架能够有效的跟踪到目标的尺度变化.与现有技术相比,本发明的有益效果是易于理解,速度快,跟踪准确,能够应对跟踪过程中发生的形变,光照变化,遮挡等各种因素。
附图说明
图1为本发明实施例的流程图;
图2为本发明实施例的试验对比图。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
请见图1,本发明所采用的技术方案是:一种基于簇相似的多尺度目标跟踪方法,包括以下步骤:
步骤1:获取包括N帧的视频序列;
步骤2:从t=1帧开始,确定第t帧的目标它的位置为其中是一个矩形框,框内是需要跟踪的目标;其中矩形框需要准确的给出目标所在位置,并且保证精确,矩形框中背景所占的像素不得超过矩形框总像素的10%;包含四个参数:目标在该帧中的行坐标列坐标宽度width和高度height;初始化参数为0,参数是nf维的向量,这四个参数分别表示系统维持的全局目标簇χ+的均值、方差和全局背景簇χ-的均值、方差,其中上标“+”表示目标簇,“-”表示背景簇,下标i表示从样本提取出的第i个特征;
步骤3:在t=1帧时初始化粒子集其中每个粒子可以表示一个测试样本,每个测试样本都表示一种目标可能的状态.粒子的状态向量定义为:这里xp,yp表示粒子所表示的样本在图像中的列坐标与行坐标,sp表示样本的尺度.在t=1帧时,所有粒子的位置初始化为: x p = col ( x t * ) , y p = row ( x t * ) , 其中表示样本的列坐标,表示样本的行坐标.初始尺度sp=1;粒子的个数N的取值为200。
步骤4:在第t帧,在周围半径rp个像素内采集目标簇样本集这里xt表示第t帧目标簇中的样本,l(xt)表示样本xt所在的坐标位置,表示样本xt之间的距离(以像素为单位),表示第t帧的目标簇(注意与系统维持的全局目标簇区别);在周围半径rin、ron像素之间采集背景簇样本集这里xt表示第t帧背景簇中的样本,l(xt)表示样本xt所在的位置,表示第t帧的背景簇(注意与系统维持的全局背景簇区别);其中rp取值为4,rin取值为6,ron取值范围9~15,单位为像素;
步骤5:对目标簇和背景簇中的每个样本提取nf个类哈尔特征,的方法是:对于任何样本z,随机在样本所表示的矩形框中选取nf个小矩形框,使用每个小矩形框中像素和的平均值作为特征f(z)={f1(z),f2(z),...,fnf(z)};注意,当粒子(即测试样本)的尺度变化时,需要根据粒子尺度等比例缩放每个小矩形框计算像素平均值。
步骤6:计算目标簇和背景簇在第i个类哈尔特征、第t帧的统计特征 其中i∈{1,...,nf},其具体实现过程是对于第t帧的目标簇和背景簇根据其中样本的特征计算均值和标准差;
μ t , i + = 1 n p Σ x ∈ χ t + f i ( x )
μ t , i - = 1 n n Σ x ∈ χ t - f i ( x )
σ t , i + = 1 n p Σ x ∈ χ t + ( f i ( x ) - μ t , i + ) 2
σ t , i - = 1 n n Σ x ∈ χ t - ( f i ( x ) - μ t , i - ) 2
其中np为目标簇中样本的个数;其中nn为背景簇中样本的个数;其中下标i表示是针对第i个类哈尔特征求出统计特征.fi(x)表示从样本x中提取出的第i个类哈尔特征;
步骤7:根据求得的使用学习率λ更新系统维持的目标簇和背景簇的参数由于目标在视频中的变化是动态过程,所以系统维持的全局目标簇和背景簇的参数需要通过更新来适应目标的变化.根据学习率λ更新系统维持的目标簇和背景簇的参数其具体实现过程为:若当前帧t=1,则 μ i + = μ t , i + , σ i + = σ t , i + , μ i - = μ t , i - , σ i - = σ t , i - , 否则 μ i + = λ μ i + + ( 1 - λ ) μ t , i + , σ i + = λ σ i + + ( 1 - λ ) σ t , i + , μ i - = λ μ i - + ( 1 - λ ) μ t , i - , σ i - = λ σ i - + ( 1 - λ ) σ t , i - , 其中λ=0.9。是系统维持的目标簇和背景簇的全局统计特征变量.其中下标i表示的是第i个类哈尔特征,上标”+”表示目标簇,上标“-”表示背景簇.在第t帧求得后,使用这些第t帧目标簇和背景簇的统计特征更新系统维持的全局统计特征 全局统计特征描述了目标簇和背景簇当前时刻的状态;
步骤8:在第t+1帧时,粒子集At使用2阶自回归模型进行移动,移动后的粒子集为At+1其中wt是与目标状态相互独立并且其各维度之间相互独立的白噪声.表示第t+1帧第i个粒子的状态向量;根据步骤5中的方法提取出这些粒子(测试样本)的类哈尔特征,白噪声wt符合高斯分布,并且均值为0,方差为0.2。
步骤9:在第t+1帧,根据步骤8得到的移动后的粒子集At+1,其中每个粒子表示一个测试样本,定义测试样本与系统维持的全局目标簇χ+之间的距离为即为所有样本特征的距离之和,其中i表示根据第i个特征计算出的距离,其中χ+表示全局目标簇,表示目标簇χ+对应的第i个特征的均值,表示全局目标簇χ+对应的第i个特征的标准差;定义第t+1帧,测试样本与系统维持的全局背景簇χ-之间的距离为即为所有样本特征的距离之和,其中i表示根据第i个特征计算出的距离,其中χ-表示全局背景簇,表示背景簇χ-对应的第i个特征的均值,表示全局背景簇χ-对应的第i个特征的标准差;
步骤10:根据步骤9得到的距离,定义第t+1帧测试样本与全局目标簇簇χ+之间的相似度为定义第t+1帧测试样本与全局背景簇簇χ-之间的相似度为
步骤11:根据步骤10得到的相似度,定义目标函数选择测试样本中与全局目标簇相似且与全局背景簇不相似的样本作为目标在t+1帧的位置;目标函数 J ( a t + 1 ( j ) ) = S ( a t + 1 ( j ) , χ + ) S ( a t + 1 ( j ) , χ - ) , 目标在t+1帧所在位置为 x t + 1 * = arg max a t + 1 ( j ) ∈ A t + 1 J ( a t + 1 ( j ) ) 其中是返回使取最大值的粒子。
步骤12:对于第t+1帧粒子集中At+1的每个粒子作为其权值,并对这些权值进行归一化。
步骤13:根据粒子的权值对粒子进行重采样,对粒子的重采样是将权值较小的粒子舍弃,并将权值较大的粒子的值赋值给权值较小的粒子。
步骤14:若t+1帧是最后一帧,则本算法结束。
若t+1帧不是最后一帧,则令t=t+1,回转执行所述的步骤4。
请见图2,本发明在各个跟踪测试集上进行测试表现良好,平均正确率(average)高于其他方法,其中(CT)为压缩感知跟踪方法,(FRAG)为分块跟踪方法。说明本发明(MSCSM)在跟踪精度上优于其他方法。其跟踪正确率请见表1。
表1 跟踪正确率
测试序列 CT FRAG MSCSM
david 0.49 0.16 0.64
FaceOcc2 0.60 0.53 0.71
Fish 0.71 0.54 0.70
David2 0.02 0.31 0.77
average 0.455 0.385 0.70
测试视频序列可以从网站:http://visualtracking.net获得.
应当理解的是,本说明书未详细阐述的部分均属于现有技术。
应当理解的是,上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。

Claims (9)

1.一种基于簇相似的多尺度目标跟踪方法,其特征在于,包括以下步骤:
步骤1:获取包括N帧的视频序列;
步骤2:从t=1帧开始,确定第t帧的目标它的位置为其中是一个矩形框,框内是需要跟踪的目标;包含四个参数,目标在该帧中的行坐标列坐标宽度width和高度height;初始化参数 为0,参数是nf维的向量,这四个参数分别表示系统维持的全局目标簇χ+的均值、方差和全局背景簇χ-的均值、方差,其中上标“+”表示目标簇,“-”表示背景簇,下标i表示从样本提取出的第i个类哈尔特征;
步骤3:在t=1帧时初始化粒子集其中每个粒子表示一个测试样本,每个测试样本表示一种目标可能的状态.粒子的状态向量定义为这里xp,yp表示粒子所表示的样本在图像中的列坐标与行坐标,sp表示样本的尺度;
步骤4:在第t帧,在周围半径rp个像素内采集目标簇样本集这里xt表示第t帧目标簇中的样本,l(xt)表示样本xt所在的坐标位置,表示样本xt之间的距离,表示第t帧的目标簇;在周围半径rin、ron像素之间采集背景簇样本集这里xt表示第t帧背景簇中的样本,l(xt)表示样本xt所在的位置,表示第t帧的背景簇;
步骤5:对目标簇和背景簇中的每个样本提取nf个类哈尔特征;
步骤6:计算目标簇和背景簇在第i个类哈尔特征和第t帧的统计特征 其中i∈{1,...,nf},对于第t帧的目标簇和背景簇根据其中样本的特征计算均值和标准差;
μ t , i + = 1 n p Σ x ∈ χ t + f i ( x )
μ t , i - = 1 n n Σ x ∈ χ t - f i ( x )
σ t , i + = 1 n p Σ x ∈ χ t + ( f i ( x ) - μ t , i + ) 2
σ t , i - = 1 n n Σ x ∈ χ t - ( f i ( x ) - μ t , i - ) 2
其中,其中np为目标簇中样本的个数;nn为背景簇中样本的个数,下标i表示是针对第i个类哈尔特征求出的统计特征,fi(x)表示从样本x中提取出的第i个类哈尔特征;
步骤7:根据求得的使用学习率λ更新系统维持的目标簇和背景簇的参数
步骤8:粒子集At在第t+1帧时使用2阶自回归模型进行移动,移动后的粒子集为At+1,根据步骤5中的方法提取出这些粒子的类哈尔特征,其中wt是与目标状态相互独立并且其各维度之间相互独立的白噪声,表示第t+1帧第i个粒子的状态向量;
步骤9:在第t+1帧,根据步骤8得到的移动后的粒子集At+1,其中每个粒子表示一个测试样本,定义测试样本与系统维持的全局目标簇χ+之间的距离为其中i表示根据第i个特征计算出的距离其中χ+表示全局目标簇,表示目标簇χ+对应的第i个特征的均值,表示全局目标簇χ+对应的第i个特征的标准差;定义第t+1帧,测试样本与系统维持的全局背景簇χ-之间的距离为为所有样本特征的距离之和,其中i表示根据第i个特征计算出的距离其中χ-表示全局背景簇,表示背景簇χ-对应的第i个特征的均值,表示全局背景簇χ-对应的第i个特征的标准差;
步骤10:根据步骤9得到的距离,定义第t+1帧测试样本与全局目标簇簇χ+之间的相似度为定义第t+1帧测试样本与全局背景簇簇χ-之间的相似度为 S ( a t + 1 ( j ) , χ - ) = exp ( - d ( a t + 1 ( j ) , χ - ) ) ;
步骤11:根据步骤10得到的相似度,定义目标函数选择测试样本中与全局目标簇相似且与全局背景簇不相似的样本作为目标在t+1帧的位置;目标函数 J ( a t + 1 ( j ) ) = S ( a t + 1 ( j ) , χ + ) S ( a t + 1 ( j ) , χ - ) , 目标在t+1帧所在位置为 x t + 1 * = arg max a t + 1 ( j ) ∈ A t + 1 J ( a t + 1 ( j ) ) ;
步骤12:对于第t+1帧粒子集中At+1的每个粒子作为其权值,并对这些权值进行归一化;
步骤13:根据粒子的权值对粒子进行重采样;
步骤14:若t+1帧是最后一帧,则本算法结束;
若t+1帧不是最后一帧,则令t=t+1,回转执行所述的步骤4。
2.根据权利要求1所述的一种基于簇相似的多尺度目标跟踪方法,其特征在于:所述的矩形框中背景所占的像素不得超过矩形框总像素的10%。
3.根据权利要求1所述的一种基于簇相似的多尺度目标跟踪方法,其特征在于:所述的步骤3中,在t=1帧时,所有粒子的位置初始化为: x p = col ( x t * ) , y p = row ( x t * ) , 其中表示样本的列坐标,表示样本的行坐标.初始尺度sp=1,粒子的个数N的取值为200。
4.根据权利要求1所述的一种基于簇相似的多尺度目标跟踪方法,其特征在于:所述的步骤4中,rp取值为4,rin取值为6,ron取值范围9~15,单位为像素。
5.根据权利要求1所述的一种基于簇相似的多尺度目标跟踪方法,其特征在于:所述的步骤5中,提取nf个类哈尔特征的方法是对于任何样本z,随机在样本所表示的矩形框中选取nf个小矩形框,使用每个小矩形框中像素和的平均值作为特征 f ( z ) = { f 1 ( z ) , f 2 ( z ) , . . . , f n f ( z ) } .
6.根据权利要求5所述的一种基于簇相似的多尺度目标跟踪方法,其特征在于,所述的步骤5中,当粒子的尺度变化时,根据粒子尺度等比例缩放每个小矩形框计算像素平均值。
7.根据权利要求1所述的一种基于簇相似的多尺度目标跟踪方法,其特征在于,所述的步骤7中,更新过程为:若当前帧t=1,则 σ i - = σ t , i - , 否则 μ i + = λμ i + + ( 1 - λ ) μ t , i + , σ i + = λσ i + + ( 1 - λ ) σ t , i + , μ i - = λμ i - + ( 1 - λ ) μ t , i - , 其中λ=0.9,是系统维持的目标簇和背景簇的全局统计特征变量。下标i表示的是第i个类哈尔特征,上标”+”表示目标簇,上标“-”表示背景簇.全局统计特征描述了目标簇和背景簇当前时刻的状态。
8.根据权利要求1所述的一种基于簇相似的多尺度目标跟踪方法,其特征在于:所述的步骤8中白噪声wt符合高斯分布,并且均值为0,方差为0.2。
9.根据权利要求1所述的一种基于簇相似的多尺度目标跟踪方法,其特征在于:所述的步骤13中对粒子的重采样是将权值较小的粒子舍弃,并将权值较大的粒子的值赋值给权值较小的粒子。
CN201410785162.0A 2014-12-16 2014-12-16 一种基于簇相似的多尺度目标跟踪方法 Pending CN104463912A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410785162.0A CN104463912A (zh) 2014-12-16 2014-12-16 一种基于簇相似的多尺度目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410785162.0A CN104463912A (zh) 2014-12-16 2014-12-16 一种基于簇相似的多尺度目标跟踪方法

Publications (1)

Publication Number Publication Date
CN104463912A true CN104463912A (zh) 2015-03-25

Family

ID=52909894

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410785162.0A Pending CN104463912A (zh) 2014-12-16 2014-12-16 一种基于簇相似的多尺度目标跟踪方法

Country Status (1)

Country Link
CN (1) CN104463912A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106231547A (zh) * 2016-07-19 2016-12-14 河海大学 基于动态分簇的移动目标追踪方法
CN111459162A (zh) * 2020-04-07 2020-07-28 珠海格力电器股份有限公司 待命位置规划方法、装置、存储介质及计算机设备
CN112085765A (zh) * 2020-09-15 2020-12-15 浙江理工大学 结合粒子滤波及度量学习的视频目标跟踪方法
CN114723776A (zh) * 2022-04-01 2022-07-08 深圳市九天睿芯科技有限公司 目标跟踪方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100195870A1 (en) * 2007-06-14 2010-08-05 Haizhou Ai Tracking method and device adopting a series of observation models with different life spans
CN103886619A (zh) * 2014-03-18 2014-06-25 电子科技大学 一种融合多尺度超像素的目标跟踪方法
CN104200493A (zh) * 2014-09-05 2014-12-10 武汉大学 一种基于类相似性测量的实时目标跟踪算法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100195870A1 (en) * 2007-06-14 2010-08-05 Haizhou Ai Tracking method and device adopting a series of observation models with different life spans
CN103886619A (zh) * 2014-03-18 2014-06-25 电子科技大学 一种融合多尺度超像素的目标跟踪方法
CN104200493A (zh) * 2014-09-05 2014-12-10 武汉大学 一种基于类相似性测量的实时目标跟踪算法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
相入喜: "复杂环境下的目标跟踪算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106231547A (zh) * 2016-07-19 2016-12-14 河海大学 基于动态分簇的移动目标追踪方法
CN106231547B (zh) * 2016-07-19 2019-04-30 河海大学 基于动态分簇的移动目标追踪方法
CN111459162A (zh) * 2020-04-07 2020-07-28 珠海格力电器股份有限公司 待命位置规划方法、装置、存储介质及计算机设备
CN112085765A (zh) * 2020-09-15 2020-12-15 浙江理工大学 结合粒子滤波及度量学习的视频目标跟踪方法
CN112085765B (zh) * 2020-09-15 2024-05-31 浙江理工大学 结合粒子滤波及度量学习的视频目标跟踪方法
CN114723776A (zh) * 2022-04-01 2022-07-08 深圳市九天睿芯科技有限公司 目标跟踪方法及装置
CN114723776B (zh) * 2022-04-01 2024-04-19 深圳市九天睿芯科技有限公司 目标跟踪方法及装置

Similar Documents

Publication Publication Date Title
Jiang et al. FLYOLOv3 deep learning for key parts of dairy cow body detection
CN102722712B (zh) 基于连续度的多尺度高分辨图像目标检测方法
CN102789568B (zh) 一种基于深度信息的手势识别方法
CN102663454B (zh) 一种字符书写规范度评测的方法和装置
CN103996018B (zh) 基于4dlbp的人脸识别方法
CN107292330A (zh) 一种基于监督学习和半监督学习双重信息的迭代式标签噪声识别算法
CN103810393B (zh) 一种基于心电向量的心电波形特征点定位方法
CN104484890A (zh) 基于复合稀疏模型的视频目标跟踪方法
CN106408030A (zh) 基于中层语义属性和卷积神经网络的sar图像分类方法
CN103632382A (zh) 一种基于压缩感知的实时多尺度目标跟踪方法
CN104517097A (zh) 一种基于kinect的运动人体姿态识别方法
CN109035300B (zh) 一种基于深度特征与平均峰值相关能量的目标跟踪方法
CN106846362A (zh) 一种目标检测跟踪方法和装置
CN106778687A (zh) 基于局部评估和全局优化的注视点检测方法
CN110889421A (zh) 目标物检测方法及装置
CN101853388B (zh) 一种基于几何不变量的视角不变的行为识别方法
CN105426929A (zh) 对象形状对准装置、对象处理装置及其方法
CN103745233B (zh) 基于空间信息迁移的高光谱图像分类方法
CN104463912A (zh) 一种基于簇相似的多尺度目标跟踪方法
CN103839273A (zh) 基于压缩感知特征选择的实时检测跟踪框架与跟踪方法
CN106127161A (zh) 基于级联多层检测器的快速目标检测方法
CN102651072A (zh) 一种面向三维人体运动数据的分类方法
CN109902582B (zh) 一种动作分类方法、装置、存储介质及终端设备
Gawade et al. Early-stage apple leaf disease prediction using deep learning
CN111053552B (zh) 一种基于深度学习的qrs波检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20150325

WD01 Invention patent application deemed withdrawn after publication