CN109191491A - 基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统 - Google Patents
基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统 Download PDFInfo
- Publication number
- CN109191491A CN109191491A CN201810878152.XA CN201810878152A CN109191491A CN 109191491 A CN109191491 A CN 109191491A CN 201810878152 A CN201810878152 A CN 201810878152A CN 109191491 A CN109191491 A CN 109191491A
- Authority
- CN
- China
- Prior art keywords
- image
- target
- frame
- score
- convolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 230000004927 fusion Effects 0.000 title claims abstract description 55
- 238000012549 training Methods 0.000 claims abstract description 37
- 238000010586 diagram Methods 0.000 claims description 54
- 238000009499 grossing Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 description 16
- 230000008569 process Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 6
- 238000005286 illumination Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 206010034719 Personality change Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/223—Analysis of motion using block-matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于多层特征融合的卷积孪生网络的目标跟踪方法及系统,该方法包括:根据图像的目标位置和大小,裁剪出图像序列训练集中的所有图像的目标模板图像和搜索区域图像,目标模板图像和搜索区域图像组成的图像对构成训练数据集;构建基于多层特征融合的卷积孪生网络;基于训练数据集,训练所述基于多层特征融合的卷积孪生网络,获得训练好的基于多层特征融合的卷积孪生网络;使用训练好的基于多层特征融合的卷积孪生网络进行目标跟踪。本发明在跟踪目标的过程中,融合不同层的得分图,结合高层语义特征与底层细节特征,更好地区分相似或同类目标的干扰,防止跟踪过程中的目标漂移和目标丢失问题。
Description
技术领域
本发明属于数字图像处理、深度学习以及模式识别的交叉领域,更具体地,涉及基于多层特征融合的卷积孪生网络的目标跟踪方法及系统。
背景技术
目标跟踪在计算机视觉中具有非常重要的地位,然而由于自然场景的复杂性,目标对光照变化的敏感性,跟踪对实时性和鲁棒性的要求,以及遮挡、姿态和尺度变化等因素的存在,使得跟踪问题仍然很困难。传统的目标跟踪方法,无法对目标提取丰富的特征使得严格区别目标与背景,容易出现跟踪漂移现象,因此无法长时间跟踪目标。随着深度学习的兴起,一般的卷积神经网络可以有效提取目标丰富的特征,但是网络参数过多,如果要在线跟踪,无法满足实时性能的要求,实际工程利用价值有限。
由于硬件性能的提高以及GPU等高性能计算器件的普及,跟踪的实时性不再是难以克服的问题,有效的目标外观模型在跟踪过程中才是至关重要的。目标跟踪的本质是一个相似性度量的过程,由于孪生卷积网络的特殊结构,其在相似性度量方面具有天然的优势,而且具有卷积结构,可以提取丰富的特征用于目标跟踪。纯粹的基于孪生卷积网络采用离线训练,在线跟踪,虽然可以在高性能运算设备上实时性满足要求,但是全卷积孪生网络在跟踪过程中只利用了卷积网络高层提取的语义信息,在复杂场景中并不能很好区分与目标相似的背景,导致跟踪漂移和目标丢失问题。
发明内容
针对现有技术的缺陷,本发明的目的在于解决现有技术相似背景干扰导致的跟踪漂移和目标丢失的技术问题。
为实现上述目的,第一方面,本发明实施例提供了基于多层特征融合的卷积孪生网络的目标跟踪方法,该方法包括以下步骤:
(1)根据图像的目标位置和大小,裁剪出图像序列训练集中的所有图像的目标模板图像和搜索区域图像,目标模板图像和搜索区域图像组成的图像对构成训练数据集;
(2)构建基于多层特征融合的卷积孪生网络,所述基于多层特征融合的卷积孪生网络包含2个完全相同的第一分支卷积网络和第二分支卷积网络,所述第一分支卷积网络用于获取搜索区域图像的特征图,所述第二分支卷积网络用于获取目标模板图像的特征图,两分支网络在指定层特征图上有连接,目标模板图像的特征图和搜索区域图像的特征图的对应层分别做互相关运算,得到对应的得分图;
(3)基于所述训练数据集,训练所述基于多层特征融合的卷积孪生网络,获得训练好的基于多层特征融合的卷积孪生网络;
(4)使用训练好的基于多层特征融合的卷积孪生网络计算待测图像序列中图像的得分图,基于得分图进行目标跟踪。
具体地,步骤(1)包括:目标模板图像的裁剪方法为:以目标区域为中心的目标矩形框,以目标区域中心位置代表目标位置,在目标矩形框四边分别扩充p个像素,若矩形框超出图像边界,超出部分用图像均值像素填充,最后将裁剪的目标图像块尺寸缩放至127×127大小;搜索区域图像的裁剪方法为:以目标区域为中心,在目标矩形框四边分别扩充2p个像素,若矩形框超出图像边界,超出部分用图像均值像素填充,最后将裁剪的搜索区域图像块尺寸缩放至255×255大小;其中,p=(w+h)/4,w为目标矩形框宽像素,h为目标矩形框长像素。
具体地,步骤(2)包括:搜索区域图像输入第一分支卷积网络,通过Conv1得到第一层特征图SFM1,接着通过Pool1、Conv2层得到第二层特征图SFM2,最后通过Pool2、Conv3、Conv4、Conv5得到第三层特征图SFM3;目标模板图像输入到第二分支卷积网络,通过Conv1得到第一层特征图GFM1,接着通过Pool1、Conv2得到第二层特征图GFM2,最后通过Pool2、Conv3、Conv4、Conv5得到第三层特征图GFM3;将目标模板特征图和搜索区域图像特征图对应层分别做互相关运算,得到对应的三张得分图SM1、SM2、SM3,公式如下:
SMi=GFMi*SFMi
其中,i分别取1、2、3,*为互相关运算。
具体地,步骤(3)中构建的联合损失函数L(y,v)计算公式如下:
L(y,v)=α1L1(y,v1)+α2L2(y,v2)+α3L3(y,v3)
l(y[u],vi[u])=log(1+exp(y[u]×vi[u]))
其中,Li为得分图SMi的损失函数,l(y[u],vi[u])为得分图SMi中每个点的对数损失函数,αi为得分图SMi的权重,0<α1<α2<α3≤1,Di表示得分图SMi的中所有点的集合,u为得分图中的点,ci为得分图SMi的中心点,Ri是得分图SMi的半径,ki为得分图SMi的步幅,vi[u]为得分图SMi中u点对应的值,|| ||代表欧氏距离,i=1,2,3。
具体地,步骤(4)包括:
1)根据待测图像序列的第1帧图像的目标位置和大小,裁剪出第1帧图像的目标模板图像,将第1帧图像的目标模板图像输入训练好的多层特征融合的卷积孪生网络的第二分支卷积网络,获得的目标模板图像的特征图M1,t=2;
2)根据待测图像序列的第t-1帧图像的目标位置和大小,裁剪出第t帧图像的搜索区域图像,将第t帧的搜索区域图像输入训练好的多层特征融合的卷积孪生网络的第一分支卷积网络,获得第t帧图像的搜索区域图像特征图;
3)将第t-1帧的目标模板特征图与第t帧的搜索区域图像特征图对应层分别进行互相关运算,得到目标在第t帧的搜索区域图像内的三张得分图,然后采用线性加权的方式融合多张得分图,得到第t帧的最终得分图;
4)根据第t帧的最终得分图计算目标在第t帧图像中的目标位置;
5)根据第t帧图像中的目标位置和大小,裁剪出第t帧图像的目标模板图像,将第t帧图像的目标模板图像输入训练好的多层特征融合的卷积孪生网络的第二分支卷积网络,获得的目标模板图像的特征图记为Mt,则第t帧的目标模板图像的特征图为其中:η为平滑因子;
6)t=t+1,重复步骤2)-5),直至t=N,待测图像序列目标跟踪结束,其中,N为待测图像序列的总帧数。
为实现上述目的,第二方面,本发明实施例提供了基于多层特征融合的卷积孪生网络的目标跟踪系统,该系统包括:
裁剪模块,用于根据图像的目标位置和大小,裁剪出图像序列训练集中的所有图像的目标模板图像和搜索区域图像,目标模板图像和搜索区域图像组成的图像对构成训练数据集;
基于多层特征融合的卷积孪生网络模块,所述基于多层特征融合的卷积孪生网络包含2个完全相同的第一分支卷积网络和第二分支卷积网络,所述第一分支卷积网络用于获取搜索区域图像的特征图,所述第二分支卷积网络用于获取目标模板图像的特征图,两分支网络在指定层特征图上有连接,目标模板图像的特征图和搜索区域图像的特征图的对应层分别做互相关运算,得到对应的得分图;
训练模块,用于基于所述训练数据集,训练所述基于多层特征融合的卷积孪生网络,获得训练好的基于多层特征融合的卷积孪生网络;
目标跟踪模块,用于使用训练好的基于多层特征融合的卷积孪生网络计算待测图像序列中图像的得分图,基于得分图进行目标跟踪。
具体地,其特征在于,目标模板图像的裁剪方法为:以目标区域为中心的目标矩形框,以目标区域中心位置代表目标位置,在目标矩形框四边分别扩充p个像素,若矩形框超出图像边界,超出部分用图像均值像素填充,最后将裁剪的目标图像块尺寸缩放至127×127大小;搜索区域图像的裁剪方法为:以目标区域为中心,在目标矩形框四边分别扩充2p个像素,若矩形框超出图像边界,超出部分用图像均值像素填充,最后将裁剪的搜索区域图像块尺寸缩放至255×255大小;其中,p=(w+h)/4,w为目标矩形框宽像素,h为目标矩形框长像素。
具体地,所述基于多层特征融合的卷积孪生网络包括:搜索区域图像输入第一分支卷积网络,通过Conv1得到第一层特征图SFM1,接着通过Pool1、Conv2层得到第二层特征图SFM2,最后通过Pool2、Conv3、Conv4、Conv5得到第三层特征图SFM3;目标模板图像输入到第二分支卷积网络,通过Conv1得到第一层特征图GFM1,接着通过Pool1、Conv2得到第二层特征图GFM2,最后通过Pool2、Conv3、Conv4、Conv5得到第三层特征图GFM3;将目标模板特征图和搜索区域图像特征图对应层分别做互相关运算,得到对应的三张得分图SM1、SM2、SM3,公式如下:
SMi=GFMi*SFMi
其中,i分别取1、2、3,*为互相关运算。
具体地,训练模块中构建的联合损失函数L(y,v)计算公式如下:
L(y,v)=α1L1(y,v1)+α2L2(y,v2)+α3L3(y,v3)
l(y[u],vi[u])=log(1+exp(y[u]×vi[u]))
其中,Li为得分图SMi的损失函数,l(y[u],vi[u])为得分图SMi中每个点的对数损失函数,αi为得分图SMi的权重,0<α1<α2<α3≤1,Di表示得分图SMi的中所有点的集合,u为得分图中的点,ci为得分图SMi的中心点,Ri是得分图SMi的半径,ki为得分图SMi的步幅,vi[u]为得分图SMi中u点对应的值,|| ||代表欧氏距离,i=1,2,3。
具体地,所述目标跟踪模块经过以下步骤进行目标跟踪:
1)根据待测图像序列的第1帧图像的目标位置和大小,裁剪出第1帧图像的目标模板图像,将第1帧图像的目标模板图像输入训练好的多层特征融合的卷积孪生网络的第二分支卷积网络,获得的目标模板图像的特征图M1,t=2;
2)根据待测图像序列的第t-1帧图像的目标位置和大小,裁剪出第t帧图像的搜索区域图像,将第t帧的搜索区域图像输入训练好的多层特征融合的卷积孪生网络的第一分支卷积网络,获得第t帧图像的搜索区域图像特征图;
3)将第t-1帧的目标模板特征图与第t帧的目搜索区域图像特征图对应层分别进行互相关运算,得到目标在第t帧的搜索区域图像内的三张得分图,然后采用线性加权的方式融合多张得分图,得到第t帧的最终得分图;
4)根据第t帧的最终得分图计算目标在第t帧图像中的目标位置;
5)根据第t帧图像中的目标位置和大小,裁剪出第t帧图像的目标模板图像,将第t帧图像的目标模板图像输入训练好的多层特征融合的卷积孪生网络的第二分支卷积网络,获得的目标模板图像的特征图记为Mt,则第t帧的目标模板图像的特征图为其中:η为平滑因子;
6)t=t+1,重复步骤2)-5),直至t=N,待测图像序列目标跟踪结束,其中,N为待测图像序列的总帧数。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,具有以下有益效果:
(1)本发明在跟踪目标的过程中,融合不同层的得分图,结合高层语义特征与底层细节特征,可以更好的区分相似或同类目标的干扰,防止跟踪过程中的目标漂移和目标丢失问题。
(2)本发明使用多层特征图互相关得到的融合得分图进行监督训练,设计新的联合损失函数,联合损失函数的设计考虑到不同层得分图的作用大小赋予不同的权重,可以防止梯度弥散,加速收敛过程。
附图说明
图1为本发明实施例提供的基于多层特征融合的卷积孪生网络的目标跟踪方法流程图;
图2为本发明实施例提供的目标模板图像和搜索区域图像示例图;
图3为本发明实施例提供的基于多层特征融合的卷积孪生网络结构示意图;
图4(a)、图4(b)、图4(c)分别为本发明实施例提供的使用本发明方法对第一视频序列进行目标跟踪的第36帧、第102帧、136帧图像;
图5(a)、图5(b)、图5(c)分别为本发明实施例提供的使用本发明方法对第二视频序列进行目标跟踪的第14帧、第24帧、第470帧图像;
图6(a)、图6(b)、图6(c)分别为本发明实施例提供的使用本发明方法对第三视频序列进行目标跟踪的第39帧、第61帧、第85帧图像;
图7(a)、图7(b)、图7(c)分别为本发明实施例提供的使用本发明方法对第四视频序列进行目标跟踪的第23帧、第239帧、第257帧图像;
图8(a)、图8(b)、图8(c)分别为本发明实施例提供的使用本发明方法对第五视频序列进行目标跟踪的第14帧、第52帧、第98帧图像;
图9(a)、图9(b)、图9(c)分别为本发明实施例提供的使用本发明方法对第六视频序列进行目标跟踪的第23帧、第37帧、第63帧图像。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
图1为本发明实施例提供的基于多层特征融合的卷积孪生网络的目标跟踪方法流程图。如图1所示,该方法包括以下步骤:
(1)根据图像的目标位置和大小,裁剪出图像序列训练集中的所有图像的目标模板图像和搜索区域图像,目标模板图像和搜索区域图像组成的图像对构成训练数据集。
图像序列训练集中是图像和标签图组成的图像对,所述标签图标注了对应图像的目标位置和大小。通过标签图从图像中裁剪出以目标区域为中心的目标模板图像和搜索区域图像。本实施例的训练数据集为4万对训练图像。
目标模板图像的裁剪方法为:以目标区域为中心的目标矩形框,以目标区域中心位置代表目标位置。在目标矩形框四边分别扩充p个像素,得到目标模板图像块的大小为(w+2p)×(h+2p),这里取p=(w+h)/4,w为目标矩形框宽像素,h为目标矩形框长像素。若矩形框超出图像边界,超出部分用图像均值像素填充。最后将裁剪的目标图像块尺寸缩放至127×127大小。
搜索区域图像的裁剪方法为:以目标区域为中心,在目标矩形框四边分别扩充2p个像素,得到搜索区域图像块的大小为(w+4p)×(h+4p),取p=(w+h)/4。若矩形框超出图像边界,超出部分用图像均值像素填充。最后将裁剪的搜索区域图像块尺寸缩放至255×255大小。
图2为本发明实施例提供的目标模板图像和搜索区域图像示例图。如图2所示,第1行为目标模板图像,第2行为对应的搜索区域图像。
(2)构建基于多层特征融合的卷积孪生网络。
图3为本发明实施例提供的基于多层特征融合的卷积孪生网络结构示意图。如图3所示,基于多层特征融合的卷积孪生网络包含2个完全相同的第一分支卷积网络和第二分支卷积网络,第一分支卷积网络用于获取搜索区域图像的特征图,第二分支卷积网络用于获取目标模板图像的特征图。
两分支网络结构和参数完全相同,均包含依次连接的第一卷积层Conv1、第一池化层Pool1、第二卷积层Conv2、第二池化层Pool2、第三卷积层Conv3、第四卷积层Conv4、第五卷积层Conv5。具体参数为:Conv1卷积核大小为11×11,步长为2,通道数为48;Pool1卷积核大小为3×3,步长为2,通道数为48;Conv2卷积核大小为5×5,步长为1,通道数为128;Pool2卷积核大小为3×3,步长为1,通道数为128;Conv3、Conv4、Conv5卷积核大小均为3×3,步长均为1,Conv3、Conv4通道数为192,Conv5通道数为128。
搜索区域图像输入第一分支卷积网络,通过Conv1得到第一层特征图SFM1,大小为123×123×48,接着通过Pool1、Conv2层得到第二层特征图SFM2,大小为57×57×128,最后通过Pool2、Conv3、Conv4、Conv5得到第三层特征图SFM3,大小为22×22×128。
目标模板图像输入到第二分支卷积网络,通过Conv1得到第一层特征图GFM1,大小为59×59×48,接着通过Pool1、Conv2得到第二层特征图GFM2,大小为25×25×128,最后通过Pool2、Conv3、Conv4、Conv5得到第三层特征图GFM3,大小为6×6×128。
两分支网络在指定层特征图上有连接,目标模板图像的特征图和搜索区域图像的特征图的对应层分别做互相关运算,得到对应的得分图。
将目标模板特征图和搜索区域图像特征图对应层分别做互相关运算,得到对应的三张得分图SM1、SM2、SM3,大小分别为65×65、33×33、17×17,公式如下:SMi=GFMi*SFMi,其中,i分别取1、2、3,*为互相关运算。
(3)基于所述训练数据集,训练所述基于多层特征融合的卷积孪生网络,获得训练好的基于多层特征融合的卷积孪生网络。
构建联合损失函数。对于得分图中每个点u∈D都有一个真实的标签y[u]∈{+1,-1},同时由于目标在得分图的中心,所以设定得分图的中心为圆心,在半径R内(考虑网络的步幅k)认为得分图中的元素属于正样本,反之为负样本,公式化如下:
其中:c是得分图的中心点,|| ||代表欧氏距离。
训练中使用的损失函数是基于对数损失函数,对于单张得分图的整体损失,采用全部点的损失的均值。本发明构建的联合损失函数L(y,v)为:
L(y,v)=α1L1(y,v1)+α2L2(y,v2)+α3L3(y,v3)
l(y[u],vi[u])=log(1+exp(y[u]×vi[u]))
其中,Li为得分图SMi的损失函数,l(y[u],vi[u])为得分图SMi中每个点的对数损失函数,αi为得分图SMi的权重,0<α1<α2<α3≤1,Di表示得分图SMi的中所有点的集合,u为得分图中的点,ci为得分图SMi的中心点,Ri是得分图SMi的半径,ki为得分图SMi的步幅,vi[u]为得分图SMi中u点对应的值,|| ||代表欧氏距离,i=1,2,3。
具体地,α1、α2、α3分别取0.3、0.6、1,对于得分图1、得分图2和得分图3来说,步幅k对应的取值分别是2、4和8。
以联合损失函数最小化为目标函数,采用反向传播算法学习多层特征融合的卷积孪生网络的网络参数W。
本实施例训练40次,每一次迭代5000次,每次迭代使用8对训练图像。在网络训练过程中,随着网络参数的收敛,设置随机梯度下降法中的学习率依次从10-2缩减至10-5,即每训练10次后,梯度下降法的学习率减少10倍。
(4)使用训练好的基于多层特征融合的卷积孪生网络计算待测图像序列中图像的得分图,基于得分图进行目标跟踪。
1)根据待测图像序列的第1帧图像的目标位置和大小,裁剪出第1帧图像的目标模板图像,将第1帧图像的目标模板图像输入训练好的多层特征融合的卷积孪生网络的第二分支卷积网络,获得的目标模板图像的特征图M1,t=2;
待测图像序列的初始帧图像中目标位置和目标大小是已知的。根据待测图像序列的第1帧图像的目标位置和大小,裁剪出第1帧图像的目标模板图像。
2)根据待测图像序列的第t-1帧图像的目标位置和大小,裁剪出第t帧图像的搜索区域图像,将第t帧的搜索区域图像输入训练好的多层特征融合的卷积孪生网络的第一分支卷积网络,获得第t帧图像的搜索区域图像特征图;
待测图像序列的初始帧图像中目标位置和目标大小是已知的。根据待测图像序列的第1帧图像的目标位置和大小,裁剪出第2帧图像的搜索区域图像。
3)将第t-1帧的目标模板特征图与第t帧的搜索区域图像特征图对应层分别进行互相关运算,得到目标在第t帧的搜索区域图像内的三张得分图,然后采用线性加权的方式融合多张得分图,得到第t帧的最终得分图;
将大小为17×17的SM3双三次插值上采样为大小65×65的得分图将大小为33×33的SM2双三次插值上采样为大小65×65的得分图采用如下计算公式计算最终得分图SM123:
其中,和分别是得分图SM2和SM3上采样后得到的得分图,本实施例取w1=21、w2=22、w3=23。
4)根据第t帧的最终得分图计算目标在第t帧图像中的目标位置;
在得到三个得分图按权重叠加之后的最终得分图SM123之后,SM123通过双三次插值到255×255大小。得分图中最大得分点所在位置记为位置pt。
为了使跟踪过程更体现连续性,采用线性插值位置pt来确定目标在第t帧图像中的目标位置具体处理方式如下:
其中,γ为平滑因子。
本实施例γ取为0.35。
5)根据第t帧图像中的目标位置和大小,裁剪出第t帧图像的目标模板图像,将第t帧图像的目标模板图像输入训练好的多层特征融合的卷积孪生网络的第二分支卷积网络,获得的目标模板图像的特征图记为Mt,则第t帧的目标模板图像的特征图为其中:η为平滑因子;
本实施例η取0.01。
6)t=t+1,重复步骤2)-5),直至t=N,待测图像序列目标跟踪结束,其中,N为待测图像序列的总帧数。
图4(a)为本发明实施例提供的使用本发明方法对第一视频序列进行目标跟踪的第36帧图像;图4(b)为本发明实施例提供的使用本发明方法对第一视频序列进行目标跟踪的第102帧图像;图4(c)为本发明实施例提供的使用本发明方法对第一视频序列进行目标跟踪的第136帧图像。可以看出,本发明提出的目标跟踪方法可以有效地跟踪到有目标快速运动、姿态变化,遮挡和相似背景干扰的目标。
图5(a)为本发明实施例提供的使用本发明方法对第二视频序列进行目标跟踪的第14帧图像;图5(b)为本发明实施例提供的使用本发明方法对第二视频序列进行目标跟踪的第24帧图像;图5(c)为本发明实施例提供的使用本发明方法对第二视频序列进行目标跟踪的第470帧图像。可以看出,本发明提出的目标跟踪方法可以有效地跟踪到有姿态变化,遮挡和相似背景干扰的目标。
图6(a)为本发明实施例提供的使用本发明方法对第三视频序列进行目标跟踪的第39帧图像;图6(b)为本发明实施例提供的使用本发明方法对第三视频序列进行目标跟踪的第61帧图像;图6(c)为本发明实施例提供的使用本发明方法对第三视频序列进行目标跟踪的第85帧图像。可以看出,本发明提出的目标跟踪方法可以有效地跟踪到有姿态变化,遮挡,运动模糊的目标。
图7(a)为本发明实施例提供的使用本发明方法对第四视频序列进行目标跟踪的第23帧图像;图7(b)为本发明实施例提供的使用本发明方法对第四视频序列进行目标跟踪的第239帧图像;图7(c)为本发明实施例提供的使用本发明方法对第四视频序列进行目标跟踪的第257帧图像。可以看出,本发明提出的目标跟踪方法可以有效地跟踪到有光照变化,遮挡的目标。
图8(a)为本发明实施例提供的使用本发明方法对第五视频序列进行目标跟踪的第14帧图像;图8(b)为本发明实施例提供的使用本发明方法对第五视频序列进行目标跟踪的第52帧图像;图8(c)为本发明实施例提供的使用本发明方法对第五视频序列进行目标跟踪的第98帧图像。可以看出,本发明提出的目标跟踪方法可以有效地跟踪到有姿态变化,以及有相似背景干扰的目标。
图9(a)为本发明实施例提供的使用本发明方法对第六视频序列进行目标跟踪的第23帧图像;图9(b)为本发明实施例提供的使用本发明方法对第六视频序列进行目标跟踪的第37帧图像;图9(c)为本发明实施例提供的使用本发明方法对第六视频序列进行目标跟踪的第63帧图像。可以看出,本发明提出的目标跟踪方法可以有效地跟踪到有光照变化的目标。
以上,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。
Claims (10)
1.基于多层特征融合的卷积孪生网络的目标跟踪方法,其特征在于,该方法包括以下步骤:
(1)根据图像的目标位置和大小,裁剪出图像序列训练集中的所有图像的目标模板图像和搜索区域图像,目标模板图像和搜索区域图像组成的图像对构成训练数据集;
(2)构建基于多层特征融合的卷积孪生网络,所述基于多层特征融合的卷积孪生网络包含2个完全相同的第一分支卷积网络和第二分支卷积网络,所述第一分支卷积网络用于获取搜索区域图像的特征图,所述第二分支卷积网络用于获取目标模板图像的特征图,两分支网络在指定层特征图上有连接,目标模板图像的特征图和搜索区域图像的特征图的对应层分别做互相关运算,得到对应的得分图;
(3)基于所述训练数据集,训练所述基于多层特征融合的卷积孪生网络,获得训练好的基于多层特征融合的卷积孪生网络;
(4)使用训练好的基于多层特征融合的卷积孪生网络计算待测图像序列中图像的得分图,基于得分图进行目标跟踪。
2.如权利要求1所述的目标跟踪方法,其特征在于,步骤(1)包括:
目标模板图像的裁剪方法为:以目标区域为中心的目标矩形框,以目标区域中心位置代表目标位置,在目标矩形框四边分别扩充p个像素,若矩形框超出图像边界,超出部分用图像均值像素填充,最后将裁剪的目标图像块尺寸缩放至127×127大小;
搜索区域图像的裁剪方法为:以目标区域为中心,在目标矩形框四边分别扩充2p个像素,若矩形框超出图像边界,超出部分用图像均值像素填充,最后将裁剪的搜索区域图像块尺寸缩放至255×255大小;
其中,p=(w+h)/4,w为目标矩形框宽像素,h为目标矩形框长像素。
3.如权利要求1所述的目标跟踪方法,其特征在于,步骤(2)包括:
搜索区域图像输入第一分支卷积网络,通过Conv1得到第一层特征图SFM1,接着通过Pool1、Conv2层得到第二层特征图SFM2,最后通过Pool2、Conv3、Conv4、Conv5得到第三层特征图SFM3;
目标模板图像输入到第二分支卷积网络,通过Conv1得到第一层特征图GFM1,接着通过Pool1、Conv2得到第二层特征图GFM2,最后通过Pool2、Conv3、Conv4、Conv5得到第三层特征图GFM3;
将目标模板特征图和搜索区域图像特征图对应层分别做互相关运算,得到对应的三张得分图SM1、SM2、SM3,公式如下:
SMi=GFMi*SFMi
其中,i分别取1、2、3,*为互相关运算。
4.如权利要求1所述的目标跟踪方法,其特征在于,步骤(3)中构建的联合损失函数L(y,v)计算公式如下:
L(y,v)=α1L1(y,v1)+α2L2(y,v2)+α3L3(y,v3)
其中,Li为得分图SMi的损失函数,为得分图SMi中每个点的对数损失函数,αi为得分图SMi的权重,0<α1<α2<α3≤1,Di表示得分图SMi的中所有点的集合,u为得分图中的点,ci为得分图SMi的中心点,Ri是得分图SMi的半径,ki为得分图SMi的步幅,vi[u]为得分图SMi中u点对应的值,||||代表欧氏距离,i=1,2,3。
5.如权利要求1所述的目标跟踪方法,其特征在于,步骤(4)包括:
1)根据待测图像序列的第1帧图像的目标位置和大小,裁剪出第1帧图像的目标模板图像,将第1帧图像的目标模板图像输入训练好的多层特征融合的卷积孪生网络的第二分支卷积网络,获得的目标模板图像的特征图M1,t=2;
2)根据待测图像序列的第t-1帧图像的目标位置和大小,裁剪出第t帧图像的搜索区域图像,将第t帧的搜索区域图像输入训练好的多层特征融合的卷积孪生网络的第一分支卷积网络,获得第t帧图像的搜索区域图像特征图;
3)将第t-1帧的目标模板特征图与第t帧的搜索区域图像特征图对应层分别进行互相关运算,得到目标在第t帧的搜索区域图像内的三张得分图,然后采用线性加权的方式融合多张得分图,得到第t帧的最终得分图;
4)根据第t帧的最终得分图计算目标在第t帧图像中的目标位置;
5)根据第t帧图像中的目标位置和大小,裁剪出第t帧图像的目标模板图像,将第t帧图像的目标模板图像输入训练好的多层特征融合的卷积孪生网络的第二分支卷积网络,获得的目标模板图像的特征图记为Mt,则第t帧的目标模板图像的特征图为其中:η为平滑因子;
6)t=t+1,重复步骤2)-5),直至t=N,待测图像序列目标跟踪结束,其中,N为待测图像序列的总帧数。
6.基于多层特征融合的卷积孪生网络的目标跟踪系统,其特征在于,该系统包括:
裁剪模块,用于根据图像的目标位置和大小,裁剪出图像序列训练集中的所有图像的目标模板图像和搜索区域图像,目标模板图像和搜索区域图像组成的图像对构成训练数据集;
基于多层特征融合的卷积孪生网络模块,所述基于多层特征融合的卷积孪生网络包含2个完全相同的第一分支卷积网络和第二分支卷积网络,所述第一分支卷积网络用于获取搜索区域图像的特征图,所述第二分支卷积网络用于获取目标模板图像的特征图,两分支网络在指定层特征图上有连接,目标模板图像的特征图和搜索区域图像的特征图的对应层分别做互相关运算,得到对应的得分图;
训练模块,用于基于所述训练数据集,训练所述基于多层特征融合的卷积孪生网络,获得训练好的基于多层特征融合的卷积孪生网络;
目标跟踪模块,用于使用训练好的基于多层特征融合的卷积孪生网络计算待测图像序列中图像的得分图,基于得分图进行目标跟踪。
7.如权利要求6所述的目标跟踪系统,其特征在于,
目标模板图像的裁剪方法为:以目标区域为中心的目标矩形框,以目标区域中心位置代表目标位置,在目标矩形框四边分别扩充p个像素,若矩形框超出图像边界,超出部分用图像均值像素填充,最后将裁剪的目标图像块尺寸缩放至127×127大小;
搜索区域图像的裁剪方法为:以目标区域为中心,在目标矩形框四边分别扩充2p个像素,若矩形框超出图像边界,超出部分用图像均值像素填充,最后将裁剪的搜索区域图像块尺寸缩放至255×255大小;
其中,p=(w+h)/4,w为目标矩形框宽像素,h为目标矩形框长像素。
8.如权利要求6所述的目标跟踪系统,其特征在于,所述基于多层特征融合的卷积孪生网络包括:
搜索区域图像输入第一分支卷积网络,通过Conv1得到第一层特征图SFM1,接着通过Pool1、Conv2层得到第二层特征图SFM2,最后通过Pool2、Conv3、Conv4、Conv5得到第三层特征图SFM3;
目标模板图像输入到第二分支卷积网络,通过Conv1得到第一层特征图GFM1,接着通过Pool1、Conv2得到第二层特征图GFM2,最后通过Pool2、Conv3、Conv4、Conv5得到第三层特征图GFM3;
将目标模板特征图和搜索区域图像特征图对应层分别做互相关运算,得到对应的三张得分图SM1、SM2、SM3,公式如下:
SMi=GFMi*SFMi
其中,i分别取1、2、3,*为互相关运算。
9.如权利要求6所述的目标跟踪系统,其特征在于,训练模块中构建的联合损失函数L(y,v)计算公式如下:
L(y,v)=α1L1(y,v1)+α2L2(y,v2)+α3L3(y,v3)
其中,Li为得分图SMi的损失函数,为得分图SMi中每个点的对数损失函数,αi为得分图SMi的权重,0<α1<α2<α3≤1,Di表示得分图SMi的中所有点的集合,u为得分图中的点,ci为得分图SMi的中心点,Ri是得分图SMi的半径,ki为得分图SMi的步幅,vi[u]为得分图SMi中u点对应的值,||||代表欧氏距离,i=1,2,3。
10.如权利要求6所述的目标跟踪系统,其特征在于,所述目标跟踪模块经过以下步骤进行目标跟踪:
1)根据待测图像序列的第1帧图像的目标位置和大小,裁剪出第1帧图像的目标模板图像,将第1帧图像的目标模板图像输入训练好的多层特征融合的卷积孪生网络的第二分支卷积网络,获得的目标模板图像的特征图M1,t=2;
2)根据待测图像序列的第t-1帧图像的目标位置和大小,裁剪出第t帧图像的搜索区域图像,将第t帧的搜索区域图像输入训练好的多层特征融合的卷积孪生网络的第一分支卷积网络,获得第t帧图像的搜索区域图像特征图;
3)将第t-1帧的目标模板特征图与第t帧的搜索区域图像特征图对应层分别进行互相关运算,得到目标在第t帧的搜索区域图像内的三张得分图,然后采用线性加权的方式融合多张得分图,得到第t帧的最终得分图;
4)根据第t帧的最终得分图计算目标在第t帧图像中的目标位置;
5)根据第t帧图像中的目标位置和大小,裁剪出第t帧图像的目标模板图像,将第t帧图像的目标模板图像输入训练好的多层特征融合的卷积孪生网络的第二分支卷积网络,获得的目标模板图像的特征图记为Mt,则第t帧的目标模板图像的特征图为其中:η为平滑因子;
6)t=t+1,重复步骤2)-5),直至t=N,待测图像序列目标跟踪结束,其中,N为待测图像序列的总帧数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810878152.XA CN109191491B (zh) | 2018-08-03 | 2018-08-03 | 基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810878152.XA CN109191491B (zh) | 2018-08-03 | 2018-08-03 | 基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109191491A true CN109191491A (zh) | 2019-01-11 |
CN109191491B CN109191491B (zh) | 2020-09-08 |
Family
ID=64920067
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810878152.XA Expired - Fee Related CN109191491B (zh) | 2018-08-03 | 2018-08-03 | 基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109191491B (zh) |
Cited By (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110021052A (zh) * | 2019-04-11 | 2019-07-16 | 北京百度网讯科技有限公司 | 用于生成眼底图像生成模型的方法和装置 |
CN110070562A (zh) * | 2019-04-02 | 2019-07-30 | 西北工业大学 | 一种上下文相关的深度目标跟踪方法 |
CN110210551A (zh) * | 2019-05-28 | 2019-09-06 | 北京工业大学 | 一种基于自适应主体敏感的视觉目标跟踪方法 |
CN110222641A (zh) * | 2019-06-06 | 2019-09-10 | 北京百度网讯科技有限公司 | 用于识别图像的方法和装置 |
CN110246155A (zh) * | 2019-05-17 | 2019-09-17 | 华中科技大学 | 一种基于模型交替的抗遮挡目标跟踪方法及系统 |
CN110378938A (zh) * | 2019-06-24 | 2019-10-25 | 杭州电子科技大学 | 一种基于残差回归网络的单目标跟踪方法 |
CN110443827A (zh) * | 2019-07-22 | 2019-11-12 | 浙江大学 | 一种基于改进孪生网络的无人机视频单目标长期跟踪方法 |
CN110473231A (zh) * | 2019-08-20 | 2019-11-19 | 南京航空航天大学 | 一种具有预判式学习更新策略的孪生全卷积网络的目标跟踪方法 |
CN110480128A (zh) * | 2019-08-28 | 2019-11-22 | 华南理工大学 | 一种六自由度焊接机器人线激光实时焊缝跟踪方法 |
CN110516745A (zh) * | 2019-08-28 | 2019-11-29 | 北京达佳互联信息技术有限公司 | 图像识别模型的训练方法、装置及电子设备 |
CN110570458A (zh) * | 2019-08-12 | 2019-12-13 | 武汉大学 | 一种基于内部裁剪和多层特征信息融合的目标跟踪方法 |
CN110580713A (zh) * | 2019-08-30 | 2019-12-17 | 武汉大学 | 基于全卷积孪生网络和轨迹预测的卫星视频目标跟踪方法 |
CN110675423A (zh) * | 2019-08-29 | 2020-01-10 | 电子科技大学 | 一种基于孪生神经网络和注意力模型的无人机跟踪方法 |
CN110728697A (zh) * | 2019-09-30 | 2020-01-24 | 华中光电技术研究所(中国船舶重工集团有限公司第七一七研究所) | 基于卷积神经网络的红外弱小目标检测跟踪方法 |
CN110782480A (zh) * | 2019-10-15 | 2020-02-11 | 哈尔滨工程大学 | 一种基于在线模板预测的红外行人跟踪方法 |
CN110796679A (zh) * | 2019-10-30 | 2020-02-14 | 电子科技大学 | 一种面向航拍影像的目标跟踪方法 |
CN110807793A (zh) * | 2019-09-29 | 2020-02-18 | 南京大学 | 一种基于孪生网络的目标跟踪方法 |
CN110992404A (zh) * | 2019-12-23 | 2020-04-10 | 驭势科技(南京)有限公司 | 目标跟踪方法、装置和系统及存储介质 |
CN111091582A (zh) * | 2019-12-31 | 2020-05-01 | 北京理工大学重庆创新中心 | 一种基于深度神经网络的单视觉目标跟踪算法及系统 |
CN111105031A (zh) * | 2019-11-11 | 2020-05-05 | 北京地平线机器人技术研发有限公司 | 网络结构搜索方法和装置、存储介质、电子设备 |
CN111161311A (zh) * | 2019-12-09 | 2020-05-15 | 中车工业研究院有限公司 | 一种基于深度学习的视觉多目标跟踪方法及装置 |
CN111161317A (zh) * | 2019-12-30 | 2020-05-15 | 北京工业大学 | 一种基于多重网络的单目标跟踪方法 |
CN111179307A (zh) * | 2019-12-16 | 2020-05-19 | 浙江工业大学 | 一种全卷积分类及回归孪生网络结构的视觉目标跟踪方法 |
CN111260682A (zh) * | 2020-02-10 | 2020-06-09 | 深圳市铂岩科技有限公司 | 目标对象的追踪方法、装置、存储介质和电子设备 |
CN111260688A (zh) * | 2020-01-13 | 2020-06-09 | 深圳大学 | 一种孪生双路目标跟踪方法 |
CN111340850A (zh) * | 2020-03-20 | 2020-06-26 | 军事科学院系统工程研究院系统总体研究所 | 基于孪生网络和中心逻辑损失的无人机对地目标跟踪方法 |
CN111415318A (zh) * | 2020-03-20 | 2020-07-14 | 山东大学 | 基于拼图任务的无监督相关滤波目标跟踪方法及系统 |
CN111415373A (zh) * | 2020-03-20 | 2020-07-14 | 北京以萨技术股份有限公司 | 基于孪生卷积网络的目标跟踪与分割方法、系统及介质 |
CN111462175A (zh) * | 2020-03-11 | 2020-07-28 | 华南理工大学 | 时空卷积孪生匹配网络目标跟踪方法、装置、介质及设备 |
CN111489361A (zh) * | 2020-03-30 | 2020-08-04 | 中南大学 | 基于孪生网络的深层特征聚合的实时视觉目标跟踪方法 |
CN111583345A (zh) * | 2020-05-09 | 2020-08-25 | 吉林大学 | 一种相机参数的获取方法、装置、设备及存储介质 |
CN111639551A (zh) * | 2020-05-12 | 2020-09-08 | 华中科技大学 | 基于孪生网络和长短期线索的在线多目标跟踪方法和系统 |
CN111666974A (zh) * | 2020-04-29 | 2020-09-15 | 平安科技(深圳)有限公司 | 图像匹配方法、装置、计算机设备及存储介质 |
CN111754546A (zh) * | 2020-06-18 | 2020-10-09 | 重庆邮电大学 | 一种基于多特征图融合的目标跟踪方法、系统及存储介质 |
CN111753667A (zh) * | 2020-05-27 | 2020-10-09 | 江苏大学 | 一种基于孪生网络的智能汽车单目标跟踪方法 |
CN111797716A (zh) * | 2020-06-16 | 2020-10-20 | 电子科技大学 | 一种基于Siamese网络的单目标跟踪方法 |
CN111950493A (zh) * | 2020-08-20 | 2020-11-17 | 华北电力大学 | 图像识别方法、装置、终端设备和可读存储介质 |
CN112183675A (zh) * | 2020-11-10 | 2021-01-05 | 武汉工程大学 | 一种基于孪生网络的针对低分辨率目标的跟踪方法 |
CN112184752A (zh) * | 2020-09-08 | 2021-01-05 | 北京工业大学 | 一种基于金字塔卷积的视频目标跟踪方法 |
CN112330718A (zh) * | 2020-11-12 | 2021-02-05 | 重庆邮电大学 | 一种基于cnn的三级信息融合视觉目标跟踪方法 |
CN112330719A (zh) * | 2020-12-02 | 2021-02-05 | 东北大学 | 基于特征图分割和自适应融合的深度学习目标跟踪方法 |
CN112381788A (zh) * | 2020-11-13 | 2021-02-19 | 北京工商大学 | 一种基于双分支匹配网络的零部件表面缺陷增量检测方法 |
CN112418203A (zh) * | 2020-11-11 | 2021-02-26 | 南京邮电大学 | 基于双线性汇合四流网络的鲁棒性rgb-t跟踪方法 |
CN112446900A (zh) * | 2019-09-03 | 2021-03-05 | 中国科学院长春光学精密机械与物理研究所 | 孪生神经网络目标跟踪方法及系统 |
CN112734726A (zh) * | 2020-09-29 | 2021-04-30 | 首都医科大学附属北京天坛医院 | 一种血管造影的分型方法、装置以及设备 |
CN112785626A (zh) * | 2021-01-27 | 2021-05-11 | 安徽大学 | 一种基于多尺度特征融合的孪生网络小目标跟踪方法 |
CN112837344A (zh) * | 2019-12-18 | 2021-05-25 | 沈阳理工大学 | 一种基于条件对抗生成孪生网络的目标跟踪方法 |
CN112836606A (zh) * | 2021-01-25 | 2021-05-25 | 合肥工业大学 | 融合目标显著性和在线学习干扰因子的航拍目标跟踪方法 |
CN112884037A (zh) * | 2021-02-09 | 2021-06-01 | 中国科学院光电技术研究所 | 一种基于模板更新和无锚框方式的目标跟踪方法 |
CN113052874A (zh) * | 2021-03-18 | 2021-06-29 | 上海商汤智能科技有限公司 | 目标跟踪方法及装置、电子设备和存储介质 |
CN113192124A (zh) * | 2021-03-15 | 2021-07-30 | 大连海事大学 | 一种基于孪生网络的图像目标定位方法 |
CN113379788A (zh) * | 2021-06-29 | 2021-09-10 | 西安理工大学 | 一种基于三元组网络的目标跟踪稳定性方法 |
CN113538507A (zh) * | 2020-04-15 | 2021-10-22 | 南京大学 | 一种基于全卷积网络在线训练的单目标跟踪方法 |
CN113805240A (zh) * | 2020-05-28 | 2021-12-17 | 同方威视技术股份有限公司 | 车辆检查方法和系统 |
CN113808166A (zh) * | 2021-09-15 | 2021-12-17 | 西安电子科技大学 | 基于聚类差分和深度孪生卷积神经网络的单目标跟踪方法 |
CN113870312A (zh) * | 2021-09-30 | 2021-12-31 | 四川大学 | 基于孪生网络的单目标跟踪方法 |
CN114155274A (zh) * | 2021-11-09 | 2022-03-08 | 中国海洋大学 | 一种基于全局可缩放孪生网络的目标跟踪方法和装置 |
CN114429491A (zh) * | 2022-04-07 | 2022-05-03 | 之江实验室 | 一种基于事件相机的脉冲神经网络目标跟踪方法和系统 |
CN114612516A (zh) * | 2022-03-15 | 2022-06-10 | 中国科学院半导体研究所 | 目标追踪方法以及目标追踪装置 |
CN114820709A (zh) * | 2022-05-05 | 2022-07-29 | 郑州大学 | 基于改进UNet网络的单目标跟踪方法、装置、设备及介质 |
CN115330876A (zh) * | 2022-09-15 | 2022-11-11 | 中国人民解放军国防科技大学 | 基于孪生网络和中心位置估计的目标模板图匹配定位方法 |
CN115393406A (zh) * | 2022-08-17 | 2022-11-25 | 武汉华中天经通视科技有限公司 | 一种基于孪生卷积网络的图像配准方法 |
CN111582214B (zh) * | 2020-05-15 | 2023-05-12 | 中国科学院自动化研究所 | 基于孪生网络的笼养动物行为分析方法、系统、装置 |
WO2023112581A1 (ja) * | 2021-12-14 | 2023-06-22 | 富士フイルム株式会社 | 推論装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107818575A (zh) * | 2017-10-27 | 2018-03-20 | 深圳市唯特视科技有限公司 | 一种基于分层卷积的视觉对象跟踪方法 |
CN107992826A (zh) * | 2017-12-01 | 2018-05-04 | 广州优亿信息科技有限公司 | 一种基于深度孪生网络的人流检测方法 |
CN108257158A (zh) * | 2018-03-27 | 2018-07-06 | 福州大学 | 一种基于循环神经网络的目标预测与跟踪方法 |
CN108320297A (zh) * | 2018-03-09 | 2018-07-24 | 湖北工业大学 | 一种视频目标实时跟踪方法及系统 |
US10204299B2 (en) * | 2015-11-04 | 2019-02-12 | Nec Corporation | Unsupervised matching in fine-grained datasets for single-view object reconstruction |
-
2018
- 2018-08-03 CN CN201810878152.XA patent/CN109191491B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10204299B2 (en) * | 2015-11-04 | 2019-02-12 | Nec Corporation | Unsupervised matching in fine-grained datasets for single-view object reconstruction |
CN107818575A (zh) * | 2017-10-27 | 2018-03-20 | 深圳市唯特视科技有限公司 | 一种基于分层卷积的视觉对象跟踪方法 |
CN107992826A (zh) * | 2017-12-01 | 2018-05-04 | 广州优亿信息科技有限公司 | 一种基于深度孪生网络的人流检测方法 |
CN108320297A (zh) * | 2018-03-09 | 2018-07-24 | 湖北工业大学 | 一种视频目标实时跟踪方法及系统 |
CN108257158A (zh) * | 2018-03-27 | 2018-07-06 | 福州大学 | 一种基于循环神经网络的目标预测与跟踪方法 |
Non-Patent Citations (1)
Title |
---|
CHAO MA等: "Hierarchical Convolutional Features for Visual Tracking", 《2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 * |
Cited By (102)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110070562A (zh) * | 2019-04-02 | 2019-07-30 | 西北工业大学 | 一种上下文相关的深度目标跟踪方法 |
CN110021052A (zh) * | 2019-04-11 | 2019-07-16 | 北京百度网讯科技有限公司 | 用于生成眼底图像生成模型的方法和装置 |
CN110246155B (zh) * | 2019-05-17 | 2021-05-18 | 华中科技大学 | 一种基于模型交替的抗遮挡目标跟踪方法及系统 |
CN110246155A (zh) * | 2019-05-17 | 2019-09-17 | 华中科技大学 | 一种基于模型交替的抗遮挡目标跟踪方法及系统 |
CN110210551A (zh) * | 2019-05-28 | 2019-09-06 | 北京工业大学 | 一种基于自适应主体敏感的视觉目标跟踪方法 |
CN110210551B (zh) * | 2019-05-28 | 2021-07-30 | 北京工业大学 | 一种基于自适应主体敏感的视觉目标跟踪方法 |
CN110222641A (zh) * | 2019-06-06 | 2019-09-10 | 北京百度网讯科技有限公司 | 用于识别图像的方法和装置 |
CN110378938A (zh) * | 2019-06-24 | 2019-10-25 | 杭州电子科技大学 | 一种基于残差回归网络的单目标跟踪方法 |
CN110443827A (zh) * | 2019-07-22 | 2019-11-12 | 浙江大学 | 一种基于改进孪生网络的无人机视频单目标长期跟踪方法 |
CN110443827B (zh) * | 2019-07-22 | 2022-12-20 | 浙江大学 | 一种基于改进孪生网络的无人机视频单目标长期跟踪方法 |
CN110570458A (zh) * | 2019-08-12 | 2019-12-13 | 武汉大学 | 一种基于内部裁剪和多层特征信息融合的目标跟踪方法 |
CN110570458B (zh) * | 2019-08-12 | 2022-02-01 | 武汉大学 | 一种基于内部裁剪和多层特征信息融合的目标跟踪方法 |
CN110473231A (zh) * | 2019-08-20 | 2019-11-19 | 南京航空航天大学 | 一种具有预判式学习更新策略的孪生全卷积网络的目标跟踪方法 |
CN110516745B (zh) * | 2019-08-28 | 2022-05-24 | 北京达佳互联信息技术有限公司 | 图像识别模型的训练方法、装置及电子设备 |
CN110516745A (zh) * | 2019-08-28 | 2019-11-29 | 北京达佳互联信息技术有限公司 | 图像识别模型的训练方法、装置及电子设备 |
CN110480128A (zh) * | 2019-08-28 | 2019-11-22 | 华南理工大学 | 一种六自由度焊接机器人线激光实时焊缝跟踪方法 |
CN110675423A (zh) * | 2019-08-29 | 2020-01-10 | 电子科技大学 | 一种基于孪生神经网络和注意力模型的无人机跟踪方法 |
CN110580713A (zh) * | 2019-08-30 | 2019-12-17 | 武汉大学 | 基于全卷积孪生网络和轨迹预测的卫星视频目标跟踪方法 |
CN112446900B (zh) * | 2019-09-03 | 2024-05-17 | 中国科学院长春光学精密机械与物理研究所 | 孪生神经网络目标跟踪方法及系统 |
CN112446900A (zh) * | 2019-09-03 | 2021-03-05 | 中国科学院长春光学精密机械与物理研究所 | 孪生神经网络目标跟踪方法及系统 |
CN110807793B (zh) * | 2019-09-29 | 2022-04-22 | 南京大学 | 一种基于孪生网络的目标跟踪方法 |
CN110807793A (zh) * | 2019-09-29 | 2020-02-18 | 南京大学 | 一种基于孪生网络的目标跟踪方法 |
CN110728697A (zh) * | 2019-09-30 | 2020-01-24 | 华中光电技术研究所(中国船舶重工集团有限公司第七一七研究所) | 基于卷积神经网络的红外弱小目标检测跟踪方法 |
CN110782480A (zh) * | 2019-10-15 | 2020-02-11 | 哈尔滨工程大学 | 一种基于在线模板预测的红外行人跟踪方法 |
CN110782480B (zh) * | 2019-10-15 | 2023-08-04 | 哈尔滨工程大学 | 一种基于在线模板预测的红外行人跟踪方法 |
CN110796679B (zh) * | 2019-10-30 | 2023-04-07 | 电子科技大学 | 一种面向航拍影像的目标跟踪方法 |
CN110796679A (zh) * | 2019-10-30 | 2020-02-14 | 电子科技大学 | 一种面向航拍影像的目标跟踪方法 |
CN111105031B (zh) * | 2019-11-11 | 2023-10-17 | 北京地平线机器人技术研发有限公司 | 网络结构搜索方法和装置、存储介质、电子设备 |
CN111105031A (zh) * | 2019-11-11 | 2020-05-05 | 北京地平线机器人技术研发有限公司 | 网络结构搜索方法和装置、存储介质、电子设备 |
CN111161311A (zh) * | 2019-12-09 | 2020-05-15 | 中车工业研究院有限公司 | 一种基于深度学习的视觉多目标跟踪方法及装置 |
CN111179307A (zh) * | 2019-12-16 | 2020-05-19 | 浙江工业大学 | 一种全卷积分类及回归孪生网络结构的视觉目标跟踪方法 |
CN112837344B (zh) * | 2019-12-18 | 2024-03-29 | 沈阳理工大学 | 一种基于条件对抗生成孪生网络的目标跟踪方法 |
CN112837344A (zh) * | 2019-12-18 | 2021-05-25 | 沈阳理工大学 | 一种基于条件对抗生成孪生网络的目标跟踪方法 |
CN110992404A (zh) * | 2019-12-23 | 2020-04-10 | 驭势科技(南京)有限公司 | 目标跟踪方法、装置和系统及存储介质 |
CN110992404B (zh) * | 2019-12-23 | 2023-09-19 | 驭势科技(浙江)有限公司 | 目标跟踪方法、装置和系统及存储介质 |
CN111161317A (zh) * | 2019-12-30 | 2020-05-15 | 北京工业大学 | 一种基于多重网络的单目标跟踪方法 |
CN111091582A (zh) * | 2019-12-31 | 2020-05-01 | 北京理工大学重庆创新中心 | 一种基于深度神经网络的单视觉目标跟踪算法及系统 |
CN111260688A (zh) * | 2020-01-13 | 2020-06-09 | 深圳大学 | 一种孪生双路目标跟踪方法 |
US11770617B2 (en) | 2020-02-10 | 2023-09-26 | Boyan Technologies (Shenzhen) Co., Ltd | Method for tracking target object |
CN111260682A (zh) * | 2020-02-10 | 2020-06-09 | 深圳市铂岩科技有限公司 | 目标对象的追踪方法、装置、存储介质和电子设备 |
CN111260682B (zh) * | 2020-02-10 | 2023-11-17 | 深圳市铂岩科技有限公司 | 目标对象的追踪方法、装置、存储介质和电子设备 |
CN111462175B (zh) * | 2020-03-11 | 2023-02-10 | 华南理工大学 | 时空卷积孪生匹配网络目标跟踪方法、装置、介质及设备 |
CN111462175A (zh) * | 2020-03-11 | 2020-07-28 | 华南理工大学 | 时空卷积孪生匹配网络目标跟踪方法、装置、介质及设备 |
CN111340850A (zh) * | 2020-03-20 | 2020-06-26 | 军事科学院系统工程研究院系统总体研究所 | 基于孪生网络和中心逻辑损失的无人机对地目标跟踪方法 |
CN111415373A (zh) * | 2020-03-20 | 2020-07-14 | 北京以萨技术股份有限公司 | 基于孪生卷积网络的目标跟踪与分割方法、系统及介质 |
CN111415318A (zh) * | 2020-03-20 | 2020-07-14 | 山东大学 | 基于拼图任务的无监督相关滤波目标跟踪方法及系统 |
CN111415318B (zh) * | 2020-03-20 | 2023-06-13 | 山东大学 | 基于拼图任务的无监督相关滤波目标跟踪方法及系统 |
CN111489361A (zh) * | 2020-03-30 | 2020-08-04 | 中南大学 | 基于孪生网络的深层特征聚合的实时视觉目标跟踪方法 |
CN111489361B (zh) * | 2020-03-30 | 2023-10-27 | 中南大学 | 基于孪生网络的深层特征聚合的实时视觉目标跟踪方法 |
CN113538507A (zh) * | 2020-04-15 | 2021-10-22 | 南京大学 | 一种基于全卷积网络在线训练的单目标跟踪方法 |
CN113538507B (zh) * | 2020-04-15 | 2023-11-17 | 南京大学 | 一种基于全卷积网络在线训练的单目标跟踪方法 |
CN111666974A (zh) * | 2020-04-29 | 2020-09-15 | 平安科技(深圳)有限公司 | 图像匹配方法、装置、计算机设备及存储介质 |
CN111666974B (zh) * | 2020-04-29 | 2024-07-16 | 平安科技(深圳)有限公司 | 图像匹配方法、装置、计算机设备及存储介质 |
CN111583345B (zh) * | 2020-05-09 | 2022-09-27 | 吉林大学 | 一种相机参数的获取方法、装置、设备及存储介质 |
CN111583345A (zh) * | 2020-05-09 | 2020-08-25 | 吉林大学 | 一种相机参数的获取方法、装置、设备及存储介质 |
CN111639551A (zh) * | 2020-05-12 | 2020-09-08 | 华中科技大学 | 基于孪生网络和长短期线索的在线多目标跟踪方法和系统 |
CN111639551B (zh) * | 2020-05-12 | 2022-04-01 | 华中科技大学 | 基于孪生网络和长短期线索的在线多目标跟踪方法和系统 |
CN111582214B (zh) * | 2020-05-15 | 2023-05-12 | 中国科学院自动化研究所 | 基于孪生网络的笼养动物行为分析方法、系统、装置 |
CN111753667B (zh) * | 2020-05-27 | 2024-05-14 | 江苏大学 | 一种基于孪生网络的智能汽车单目标跟踪方法 |
CN111753667A (zh) * | 2020-05-27 | 2020-10-09 | 江苏大学 | 一种基于孪生网络的智能汽车单目标跟踪方法 |
CN113805240A (zh) * | 2020-05-28 | 2021-12-17 | 同方威视技术股份有限公司 | 车辆检查方法和系统 |
CN111797716A (zh) * | 2020-06-16 | 2020-10-20 | 电子科技大学 | 一种基于Siamese网络的单目标跟踪方法 |
CN111797716B (zh) * | 2020-06-16 | 2022-05-03 | 电子科技大学 | 一种基于Siamese网络的单目标跟踪方法 |
CN111754546A (zh) * | 2020-06-18 | 2020-10-09 | 重庆邮电大学 | 一种基于多特征图融合的目标跟踪方法、系统及存储介质 |
CN111950493A (zh) * | 2020-08-20 | 2020-11-17 | 华北电力大学 | 图像识别方法、装置、终端设备和可读存储介质 |
CN111950493B (zh) * | 2020-08-20 | 2024-03-08 | 华北电力大学 | 图像识别方法、装置、终端设备和可读存储介质 |
CN112184752A (zh) * | 2020-09-08 | 2021-01-05 | 北京工业大学 | 一种基于金字塔卷积的视频目标跟踪方法 |
CN112734726B (zh) * | 2020-09-29 | 2024-02-02 | 首都医科大学附属北京天坛医院 | 一种血管造影的分型方法、装置以及设备 |
CN112734726A (zh) * | 2020-09-29 | 2021-04-30 | 首都医科大学附属北京天坛医院 | 一种血管造影的分型方法、装置以及设备 |
CN112183675A (zh) * | 2020-11-10 | 2021-01-05 | 武汉工程大学 | 一种基于孪生网络的针对低分辨率目标的跟踪方法 |
CN112183675B (zh) * | 2020-11-10 | 2023-09-26 | 武汉工程大学 | 一种基于孪生网络的针对低分辨率目标的跟踪方法 |
CN112418203B (zh) * | 2020-11-11 | 2022-08-30 | 南京邮电大学 | 基于双线性汇合四流网络的鲁棒性rgb-t跟踪方法 |
CN112418203A (zh) * | 2020-11-11 | 2021-02-26 | 南京邮电大学 | 基于双线性汇合四流网络的鲁棒性rgb-t跟踪方法 |
CN112330718B (zh) * | 2020-11-12 | 2022-08-23 | 重庆邮电大学 | 一种基于cnn的三级信息融合视觉目标跟踪方法 |
CN112330718A (zh) * | 2020-11-12 | 2021-02-05 | 重庆邮电大学 | 一种基于cnn的三级信息融合视觉目标跟踪方法 |
CN112381788A (zh) * | 2020-11-13 | 2021-02-19 | 北京工商大学 | 一种基于双分支匹配网络的零部件表面缺陷增量检测方法 |
CN112330719B (zh) * | 2020-12-02 | 2024-02-27 | 东北大学 | 基于特征图分割和自适应融合的深度学习目标跟踪方法 |
CN112330719A (zh) * | 2020-12-02 | 2021-02-05 | 东北大学 | 基于特征图分割和自适应融合的深度学习目标跟踪方法 |
CN112836606A (zh) * | 2021-01-25 | 2021-05-25 | 合肥工业大学 | 融合目标显著性和在线学习干扰因子的航拍目标跟踪方法 |
CN112785626A (zh) * | 2021-01-27 | 2021-05-11 | 安徽大学 | 一种基于多尺度特征融合的孪生网络小目标跟踪方法 |
CN112884037A (zh) * | 2021-02-09 | 2021-06-01 | 中国科学院光电技术研究所 | 一种基于模板更新和无锚框方式的目标跟踪方法 |
CN113192124A (zh) * | 2021-03-15 | 2021-07-30 | 大连海事大学 | 一种基于孪生网络的图像目标定位方法 |
CN113192124B (zh) * | 2021-03-15 | 2024-07-02 | 大连海事大学 | 一种基于孪生网络的图像目标定位方法 |
CN113052874B (zh) * | 2021-03-18 | 2022-01-25 | 上海商汤智能科技有限公司 | 目标跟踪方法及装置、电子设备和存储介质 |
CN113052874A (zh) * | 2021-03-18 | 2021-06-29 | 上海商汤智能科技有限公司 | 目标跟踪方法及装置、电子设备和存储介质 |
WO2022193456A1 (zh) * | 2021-03-18 | 2022-09-22 | 上海商汤智能科技有限公司 | 目标跟踪方法及装置、电子设备和存储介质 |
CN113379788B (zh) * | 2021-06-29 | 2024-03-29 | 西安理工大学 | 一种基于三元组网络的目标跟踪稳定性方法 |
CN113379788A (zh) * | 2021-06-29 | 2021-09-10 | 西安理工大学 | 一种基于三元组网络的目标跟踪稳定性方法 |
CN113808166A (zh) * | 2021-09-15 | 2021-12-17 | 西安电子科技大学 | 基于聚类差分和深度孪生卷积神经网络的单目标跟踪方法 |
CN113870312B (zh) * | 2021-09-30 | 2023-09-22 | 四川大学 | 基于孪生网络的单目标跟踪方法 |
CN113870312A (zh) * | 2021-09-30 | 2021-12-31 | 四川大学 | 基于孪生网络的单目标跟踪方法 |
CN114155274B (zh) * | 2021-11-09 | 2024-05-24 | 中国海洋大学 | 一种基于全局可缩放孪生网络的目标跟踪方法和装置 |
CN114155274A (zh) * | 2021-11-09 | 2022-03-08 | 中国海洋大学 | 一种基于全局可缩放孪生网络的目标跟踪方法和装置 |
WO2023112581A1 (ja) * | 2021-12-14 | 2023-06-22 | 富士フイルム株式会社 | 推論装置 |
CN114612516A (zh) * | 2022-03-15 | 2022-06-10 | 中国科学院半导体研究所 | 目标追踪方法以及目标追踪装置 |
CN114429491A (zh) * | 2022-04-07 | 2022-05-03 | 之江实验室 | 一种基于事件相机的脉冲神经网络目标跟踪方法和系统 |
CN114429491B (zh) * | 2022-04-07 | 2022-07-08 | 之江实验室 | 一种基于事件相机的脉冲神经网络目标跟踪方法和系统 |
CN114820709B (zh) * | 2022-05-05 | 2024-03-08 | 郑州大学 | 基于改进UNet网络的单目标跟踪方法、装置、设备及介质 |
CN114820709A (zh) * | 2022-05-05 | 2022-07-29 | 郑州大学 | 基于改进UNet网络的单目标跟踪方法、装置、设备及介质 |
CN115393406B (zh) * | 2022-08-17 | 2024-05-10 | 中船智控科技(武汉)有限公司 | 一种基于孪生卷积网络的图像配准方法 |
CN115393406A (zh) * | 2022-08-17 | 2022-11-25 | 武汉华中天经通视科技有限公司 | 一种基于孪生卷积网络的图像配准方法 |
CN115330876A (zh) * | 2022-09-15 | 2022-11-11 | 中国人民解放军国防科技大学 | 基于孪生网络和中心位置估计的目标模板图匹配定位方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109191491B (zh) | 2020-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109191491B (zh) | 基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统 | |
CN111354017B (zh) | 一种基于孪生神经网络及平行注意力模块的目标跟踪方法 | |
CN110135375B (zh) | 基于全局信息整合的多人姿态估计方法 | |
WO2023273136A1 (zh) | 一种基于目标物表征点估计的视觉跟踪方法 | |
CN107274433B (zh) | 基于深度学习的目标跟踪方法、装置及存储介质 | |
CN111161317A (zh) | 一种基于多重网络的单目标跟踪方法 | |
CN112184752A (zh) | 一种基于金字塔卷积的视频目标跟踪方法 | |
CN112288627B (zh) | 一种面向识别的低分辨率人脸图像超分辨率方法 | |
CN112232134B (zh) | 一种基于沙漏网络结合注意力机制的人体姿态估计方法 | |
CN113706581B (zh) | 基于残差通道注意与多层次分类回归的目标跟踪方法 | |
CN107730536B (zh) | 一种基于深度特征的高速相关滤波物体追踪方法 | |
CN112712546A (zh) | 一种基于孪生神经网络的目标跟踪方法 | |
CN111612825B (zh) | 基于光流与多尺度上下文的图像序列运动遮挡检测方法 | |
CN110942476A (zh) | 基于二维图像引导的改进三维点云配准方法、系统及可读存储介质 | |
CN113205595A (zh) | 一种3d人体姿态估计模型的构建方法及其应用 | |
CN116030498A (zh) | 面向虚拟服装走秀的三维人体姿态估计方法 | |
CN112464900B (zh) | 基于孪生网络的多模板视觉目标跟踪方法 | |
CN111882581A (zh) | 一种深度特征关联的多目标跟踪方法 | |
CN113592900A (zh) | 一种基于注意力机制与全局推理的目标跟踪方法及系统 | |
Khan et al. | Towards monocular neural facial depth estimation: Past, present, and future | |
CN117576753A (zh) | 基于面部关键点的注意力特征融合的微表情识别方法 | |
CN114155273B (zh) | 一种结合历史轨迹信息的视频图像单目标跟踪方法 | |
CN116343017A (zh) | 基于自适应交叉注意力的水下目标跟踪方法与系统 | |
CN114821418A (zh) | 一种运动员单目视频的运动特征获取方法 | |
CN113808164A (zh) | 红外视频多目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200908 Termination date: 20210803 |