CN112446900A - 孪生神经网络目标跟踪方法及系统 - Google Patents
孪生神经网络目标跟踪方法及系统 Download PDFInfo
- Publication number
- CN112446900A CN112446900A CN201910829033.XA CN201910829033A CN112446900A CN 112446900 A CN112446900 A CN 112446900A CN 201910829033 A CN201910829033 A CN 201910829033A CN 112446900 A CN112446900 A CN 112446900A
- Authority
- CN
- China
- Prior art keywords
- response
- neural network
- branch image
- layer
- twin neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 40
- 238000000034 method Methods 0.000 title claims abstract description 24
- 230000004044 response Effects 0.000 claims abstract description 73
- 230000004927 fusion Effects 0.000 claims abstract description 42
- 238000000605 extraction Methods 0.000 claims abstract description 26
- 238000013507 mapping Methods 0.000 claims abstract description 9
- 238000011156 evaluation Methods 0.000 claims description 6
- 238000005096 rolling process Methods 0.000 claims description 6
- 102400000832 Antiplasmin-cleaving enzyme FAP, soluble form Human genes 0.000 claims 2
- 101800000492 Antiplasmin-cleaving enzyme FAP, soluble form Proteins 0.000 claims 2
- 238000004364 calculation method Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 5
- 238000011176 pooling Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000013441 quality evaluation Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种孪生神经网络目标跟踪方法,包括:将模板分支图像与搜索区域分支图像输入到离线训练过的孪生神经网络中;利用所述孪生神经网络中的卷积层对上述输入的模板分支图像与搜索区域分支图像进行特征提取,得到三个卷积块的特征图;对特征提取得到的三个卷积块的特征图,采用多层信息融合得到响应图;在多层信息融合得到的响应图中寻找最大峰值,并映射到搜索区域分支图像中确定目标的精确位置。本发明还涉及一种孪生神经网络目标跟踪系统。本发明能够得到语义信息更加丰富的深度特征,提高跟踪精度并能更好地利用深层网络的优势。
Description
技术领域
本发明涉及一种孪生神经网络目标跟踪方法及系统。
背景技术
作为计算机视觉领域中的一个重要方向,目标跟踪一直以来都受到学者们的高度关注。并且,在视频监控、增强现实和人机交互等领域中具有很广泛的应用。虽然,在最近的研究过程中跟踪算法的性能已经得到了提升,但是,由于光照变化、遮挡和相似干扰等复杂场景的存在,目标跟踪任务依旧充满了挑战。
近年来,随着深度卷积神经网络的引入,自适应提取的语义信息丰富的高维特征使目标跟踪算法获得了很大的提升。但是,由于深度神经网络结构的复杂性及卷积特征的高维性,使得跟踪算法的端到端训练和在线微调变得尤为复杂。同时,深度神经网络中计算量的大幅增加会导致跟踪速度的减慢,即使算法满足了精度的要求也无法达到实时性的要求。为了解决这些问题,基于孪生神经网络的目标跟踪算法获得了较快的进展。
BERTINETTO等最先提出了全卷积孪生神经网络(SiamFC)。算法结合两个具有相同参数的卷积神经网络,通过离线训练的方式学习一种高性能的相似性度量函数,从而进行实时准确的在线跟踪。并且,采用卷积层将网络中的全连接层进行替代,使得网络能够实现端到端的训练,且搜索模块不再受尺寸的限制。在SiamFC之后,开展了很多后续的研究工作。Tao等使用孪生神经网络分别对模板模块和搜索模块进行特征提取。为了提高跟踪精度,算法减少了最大池化层的使用,并采用感兴趣区域池化层(ROI pooling)来减少特征提取的复杂度。同时,为了提高算法的性能,采用光流法对需要搜索的候选样本进行滤除,保证采样机制的自适应性。Held等将孪生网络作为特征提取器,并运用全连接层融合张量。在跟踪过程中,算法采用一种的回归的方式进行处理,将上一帧与当前帧的图像剪裁后输入到离线训练好的网络中,继而计算出当前帧目标的位置。Valmadre等将相关滤波器融入到模板分支中,使得孪生神经网络在浅层网络结构的条件下变得更加高效。不仅提升了网络在较浅层结构下的跟踪性能,还能将深度特征与相关滤波器完美结合。Li等为了在保证跟踪器优越性能的同时进一步提升处理速度,将区域生成网络(Region Proposal Network,RPN)与孪生网络相结合,不仅能够利用大尺度的图像进行端到端的离线训练,还能优化传统多尺度测试及在线微调带来的计算复杂的问题,大大提高了算法的运行速度。
虽然,上述的算法能够在保证实时性的同时,充分利用深度特征提高算法的精度与鲁棒性。但是,采用的网络结构都是浅层网络,无法充分利用深度神经网络带来的优势。而且,如果直接使用VGG等深度网络,边缘填充、网络步长较大和神经元感受野的大幅度增加,会直接影响目标特征的可辨识性及定位精度,不利于目标的精确定位。同时,上述算法在离线训练后,网络参数和模板都是固定的,虽然这种方式会大幅度提升算法的处理速度,减少计算复杂度,但是当遇到遮挡和相似目标干扰等复杂场景时,算法精度会出现下滑。
发明内容
有鉴于此,有必要提供一种孪生神经网络目标跟踪方法及系统。
本发明提供一种孪生神经网络目标跟踪方法,该方法包括如下步骤:a.将模板分支图像与搜索区域分支图像输入到离线训练过的孪生神经网络中;b.利用所述孪生神经网络中的卷积层对上述输入的模板分支图像与搜索区域分支图像进行特征提取,得到Layer2、Layer3和Layer4三个卷积块的特征图;c.对上述特征提取得到的三个卷积块的特征图,采用多层信息融合得到响应图;d.在上述多层信息融合得到的响应图中寻找最大峰值,并映射到搜索区域分支图像中确定目标的精确位置。
其中,所述的步骤b包括:所述Layer3和Layer4的步长为1。
所述的步骤b还包括:将所述Layer2、Layer3和Layer4三个卷积块的特征图进行裁剪,裁剪后的特征图尺寸分别为8×8和24×24。
所述的步骤c包括:采用APCE对各响应图进行质量评估,并将评估得分进行归一化处理,作为各层响应图的权重,
其中,Rmax,Rmin和Rw,h分别代表响应图R中的最大值、最小值和第w行,h列的值。
所述的步骤c还包括:在得到各响应图的评分数后,进行层级加权融合,加权公式如下:
本发明提供一种孪生神经网络目标跟踪系统,该系统包括输入模块、提取模块、融合模块、定位模块,其中:所述输入模块用于将模板分支图像与搜索区域分支图像输入到离线训练过的孪生神经网络中;所述提取模块用于利用所述孪生神经网络中的卷积层对上述输入的模板分支图像与搜索区域分支图像进行特征提取,得到Layer2、Layer3和Layer4三个卷积块的特征图;所述融合模块用于对上述特征提取得到的三个卷积块的特征图,采用多层信息融合得到响应图;所述定位模块用于在上述多层信息融合得到的响应图中寻找最大峰值,并映射到搜索区域分支图像中确定目标的精确位置。
其中,所述的提取模块具体用于:将Layer3和Layer4的步长设为1。
所述的提取模块还具体用于:将所述Layer2、Layer3和Layer4三个卷积块的特征图进行裁剪,裁剪后的特征图尺寸分别为8×8和24×24。
所述的融合模块具体用于:采用APCE对各响应图进行质量评估,并将评估得分进行归一化处理,作为各层响应图的权重,
其中,Rmax,Rmin和Rw,h分别代表响应图R中的最大值、最小值和第w行,h列的值。
所述的融合模块还具体用于:在得到各响应图的评分数后,进行层级加权融合,加权公式如下:
本发明一种孪生神经网络目标跟踪方法及系统,基于深度特征与多层信息融合,在SiamFC的基础上采用残差网络对原有的浅层网络进行替代,从而得到语义信息更加丰富的深度特征。为了消除深层网络中填充处理对目标定位造成的不利影响,对卷积层提取的特征图进行了剪切操作,采用多层信息融合的方式对多个响应图进行了加权合并,从而提高跟踪精度并能更好地利用深层网络的优势。
附图说明
图1为本发明孪生神经网络目标跟踪方法的流程图;
图2为本发明实施例提供的跟踪示意图;
图3为本发明实施例提供的多层信息融合示意图;
图4为本发明孪生神经网络目标跟踪系统的硬件架构图。
具体实施方式
下面结合附图及具体实施例对本发明作进一步详细的说明。
参阅图1所示,是本发明孪生神经网络目标跟踪方法较佳实施例的作业流程图。请一并同时参阅图2。
步骤S1,将模板分支图像与搜索区域分支图像输入到离线训练过的孪生神经网络中。其中:
所述模板分支图像、所述搜索区域分支图像均为提前做过预处理的数据,尺寸分别固定为127×127像素和255×255像素。
步骤S2,利用所述孪生神经网络中的卷积层对上述输入的模板分支图像与搜索区域分支图像进行特征提取,得到Layer2、Layer3和Layer4三个卷积块的特征图。
所述孪生神经网络的结构如表1所示:
表1
其中,层结构中卷积层和卷积块(Conv和Layer)的数据顺序为核尺寸、通道数、步长和边缘填充数,池化层(Maxpool)的数据顺序为核尺寸、步长和边缘填充数,XCorr代表交叉相关。
所述孪生神经网络的结构优势主要有以下三个方面:
(1)Layer3和Layer4的步长为1。与分类任务不同,网络中的步长增大会使得定位精度下降,从而影响跟踪精度。同时,为了使交叉相关计算后的响应图尺寸为17像素×17像素,且方便之后的多层信息融合,最后两个卷积块的步长设为1。
(2)增加了特征图裁剪操作。由于模板分支图像与搜索区域分支图像,在经过Layer2、Layer3和Layer4三个卷积块后得到的特征图尺寸分别为16像素×16像素和32像素×32像素。这样不仅增加了交叉相关计算的运算量,还将边缘填充所引入的背景信息结合到计算中,不利于目标的精确定位。为此,本实施例将所述Layer2、Layer3和Layer4三个卷积块的特征图进行裁剪,裁剪后的特征图尺寸分别为8像素×8像素和24像素×24像素,从而提高网络的定位精度。
(3)对所述Layer2、Layer3和Layer4三个卷积块分别进行交叉相关计算。将裁剪后的Layer2、Layer3和Layer4分别进行交叉相关计算,从而得到三个尺寸为17像素×17像素的响应图。结合三个响应图,可以进行多层信息融合,更好地利用深层网络的优势,提高跟踪器的跟踪精度。
步骤S3,对上述特征提取得到的三个卷积块的特征图,采用多层信息融合得到响应图。
为了更好地利用深度网络的优势,提高跟踪器的定位精度,本实施例采用多层信息融合的方式,将三个卷积块交叉相关计算后的多个响应图进行融合,请一并参阅图3。具体而言:
Conv2、Conv3和Conv4为1×1大小,通道数为1的卷积核,主要用来对三个响应图进行像素级加权。为了能自适应的将各层的响应图进行层级加权,采用APCE(average peak-to-correlation energy)对各响应图进行质量评估,并将评估得分进行归一化处理,作为各层响应图的权重。
其中,Rmax,Rmin和Rw,h分别代表响应图R中的最大值、最小值和第w行,h列的值。APCE能够反映响应图的波动程度与检测目标的置信度。其值越大,代表响应图峰值越高,噪声就越小。
在得到各响应图的评分数后,进行层级加权融合,加权公式如下:
步骤S4,在上述多层信息融合得到的响应图中寻找最大峰值,并映射到搜索区域分支图像中确定目标的精确位置。具体而言:
在多层信息融合得到的响应图中通过滑动窗遍历搜索来寻找最大峰值,并结合网络结构总体步长和尺度变换因子将峰值映射到搜索区域分支图像中,搜索区域分支图像中的位置即为目标的精确位置。
为了解决目标尺度变化的问题,本实施例将映射的尺度估计规定为1.0375{-1,0,1}三种。
参阅图4所示,是本发明孪生神经网络目标跟踪系统10的硬件架构图。该系统包括:输入模块101、提取模块102、融合模块103、定位模块104。
所述输入模块101用于将模板分支图像与搜索区域分支图像输入到离线训练过的孪生神经网络中。其中:
所述模板分支图像、所述搜索区域分支图像均为提前做过预处理的数据,尺寸分别固定为127×127像素和255×255像素。
所述提取模块102用于利用所述孪生神经网络中的卷积层对上述输入的模板分支图像与搜索区域分支图像进行特征提取,得到Layer2、Layer3和Layer4三个卷积块的特征图。
所述孪生神经网络的结构如表1所示:
表1
其中,层结构中卷积层和卷积块(Conv和Layer)的数据顺序为核尺寸、通道数、步长和边缘填充数,池化层(Maxpool)的数据顺序为核尺寸、步长和边缘填充数,XCorr代表交叉相关。
所述孪生神经网络的结构优势主要有以下三个方面:
(1)Layer3和Layer4的步长为1。与分类任务不同,网络中的步长增大会使得定位精度下降,从而影响跟踪精度。同时,为了使交叉相关计算后的响应图尺寸为17像素×17像素,且方便之后的多层信息融合,最后两个卷积块的步长设为1。
(2)增加了特征图裁剪操作。由于模板分支图像与搜索区域分支图像,在经过Layer2、Layer3和Layer4三个卷积块后得到的特征图尺寸分别为16像素×16像素和32像素×32像素。这样不仅增加了交叉相关计算的运算量,还将边缘填充所引入的背景信息结合到计算中,不利于目标的精确定位。为此,本实施例将所述Layer2、Layer3和Layer4三个卷积块的特征图进行裁剪,裁剪后的特征图尺寸分别为8像素×8像素和24像素×24像素,从而提高网络的定位精度。
(3)对所述Layer2、Layer3和Layer4三个卷积块分别进行交叉相关计算。将裁剪后的Layer2、Layer3和Layer4分别进行交叉相关计算,从而得到三个尺寸为17像素×17像素的响应图。结合三个响应图,可以进行多层信息融合,更好地利用深层网络的优势,提高跟踪器的跟踪精度。
所述融合模块103用于对上述特征提取得到的三个卷积块的特征图,采用多层信息融合得到响应图。
为了更好地利用深度网络的优势,提高跟踪器的定位精度,本实施例采用多层信息融合的方式,将三个卷积块交叉相关计算后的多个响应图进行融合,请一并参阅图3。具体而言:
Conv2、Conv3和Conv4为1×1大小,通道数为1的卷积核,主要用来对三个响应图进行像素级加权。为了能自适应的将各层的响应图进行层级加权,采用APCE(average peak-to-correlation energy)对各响应图进行质量评估,并将评估得分进行归一化处理,作为各层响应图的权重。
其中,Rmax,Rmin和Rw,h分别代表响应图R中的最大值、最小值和第w行,h列的值。APCE能够反映响应图的波动程度与检测目标的置信度。其值越大,代表响应图峰值越高,噪声就越小。
在得到各响应图的评分数后,进行层级加权融合,加权公式如下:
所述定位模块104用于在上述多层信息融合得到的响应图中寻找最大峰值,并映射到搜索区域分支图像中确定目标的精确位置。具体而言:
所述定位模块104在多层信息融合得到的响应图中通过滑动窗遍历搜索来寻找最大峰值,并结合网络结构总体步长和尺度变换因子将峰值映射到搜索区域分支图像中,搜索区域分支图像中的位置即为目标的精确位置。
为了解决目标尺度变化的问题,本实施例将映射的尺度估计规定为1.0375{-1,0,1}三种。
虽然本发明参照当前的较佳实施方式进行了描述,但本领域的技术人员应能理解,上述较佳实施方式仅用来说明本发明,并非用来限定本发明的保护范围,任何在本发明的精神和原则范围之内,所做的任何修饰、等效替换、改进等,均应包含在本发明的权利保护范围之内。
Claims (10)
1.一种孪生神经网络目标跟踪方法,其特征在于,该方法包括如下步骤:
a.将模板分支图像与搜索区域分支图像输入到离线训练过的孪生神经网络中;
b.利用所述孪生神经网络中的卷积层对上述输入的模板分支图像与搜索区域分支图像进行特征提取,得到Layer2、Layer3和Layer4三个卷积块的特征图;
c.对上述特征提取得到的三个卷积块的特征图,采用多层信息融合得到响应图;
d.在上述多层信息融合得到的响应图中寻找最大峰值,并映射到搜索区域分支图像中确定目标的精确位置。
2.如权利要求1所述的方法,其特征在于,所述的步骤b包括:
所述Layer3和Layer4的步长为1。
3.如权利要求2所述的方法,其特征在于,所述的步骤b还包括:
将所述Layer2、Layer3和Layer4三个卷积块的特征图进行裁剪,裁剪后的特征图尺寸分别为8×8和24×24。
6.一种孪生神经网络目标跟踪系统,其特征在于,该系统包括输入模块、提取模块、融合模块、定位模块,其中:
所述输入模块用于将模板分支图像与搜索区域分支图像输入到离线训练过的孪生神经网络中;
所述提取模块用于利用所述孪生神经网络中的卷积层对上述输入的模板分支图像与搜索区域分支图像进行特征提取,得到Layer2、Layer3和Layer4三个卷积块的特征图;
所述融合模块用于对上述特征提取得到的三个卷积块的特征图,采用多层信息融合得到响应图;
所述定位模块用于在上述多层信息融合得到的响应图中寻找最大峰值,并映射到搜索区域分支图像中确定目标的精确位置。
7.如权利要求6所述的系统,其特征在于,所述的提取模块具体用于:
将Layer3和Layer4的步长设为1。
8.如权利要求7所述的系统,其特征在于,所述的提取模块还具体用于:
将所述Layer2、Layer3和Layer4三个卷积块的特征图进行裁剪,裁剪后的特征图尺寸分别为8×8和24×24。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910829033.XA CN112446900B (zh) | 2019-09-03 | 2019-09-03 | 孪生神经网络目标跟踪方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910829033.XA CN112446900B (zh) | 2019-09-03 | 2019-09-03 | 孪生神经网络目标跟踪方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112446900A true CN112446900A (zh) | 2021-03-05 |
CN112446900B CN112446900B (zh) | 2024-05-17 |
Family
ID=74735147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910829033.XA Active CN112446900B (zh) | 2019-09-03 | 2019-09-03 | 孪生神经网络目标跟踪方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112446900B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113592899A (zh) * | 2021-05-28 | 2021-11-02 | 北京理工大学重庆创新中心 | 一种相关滤波目标跟踪深度特征的提取方法 |
CN113689464A (zh) * | 2021-07-09 | 2021-11-23 | 西北工业大学 | 一种基于孪生网络的自适应多层响应融合的目标跟踪方法 |
CN114359336A (zh) * | 2021-11-30 | 2022-04-15 | 南昌航空大学 | 基于光流和动态级联rpn的目标跟踪算法 |
CN117115478A (zh) * | 2023-08-01 | 2023-11-24 | 南京林业大学 | 一种基于双流孪生网络的装配防错检测方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180129934A1 (en) * | 2016-11-07 | 2018-05-10 | Qualcomm Incorporated | Enhanced siamese trackers |
CN108830170A (zh) * | 2018-05-24 | 2018-11-16 | 杭州电子科技大学 | 一种基于分层特征表示的端到端目标跟踪方法 |
CN108846358A (zh) * | 2018-06-13 | 2018-11-20 | 浙江工业大学 | 一种基于孪生网络进行特征融合的目标跟踪方法 |
CN109191491A (zh) * | 2018-08-03 | 2019-01-11 | 华中科技大学 | 基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统 |
CN109543559A (zh) * | 2018-10-31 | 2019-03-29 | 东南大学 | 基于孪生网络和动作选择机制的目标跟踪方法及系统 |
CN109685073A (zh) * | 2018-12-28 | 2019-04-26 | 南京工程学院 | 一种基于核相关滤波的尺度自适应目标跟踪算法 |
CN109767456A (zh) * | 2019-01-09 | 2019-05-17 | 上海大学 | 一种基于SiameseFC框架和PFP神经网络的目标跟踪方法 |
CN109978921A (zh) * | 2019-04-01 | 2019-07-05 | 南京信息工程大学 | 一种基于多层注意力机制的实时视频目标跟踪算法 |
-
2019
- 2019-09-03 CN CN201910829033.XA patent/CN112446900B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180129934A1 (en) * | 2016-11-07 | 2018-05-10 | Qualcomm Incorporated | Enhanced siamese trackers |
CN108830170A (zh) * | 2018-05-24 | 2018-11-16 | 杭州电子科技大学 | 一种基于分层特征表示的端到端目标跟踪方法 |
CN108846358A (zh) * | 2018-06-13 | 2018-11-20 | 浙江工业大学 | 一种基于孪生网络进行特征融合的目标跟踪方法 |
CN109191491A (zh) * | 2018-08-03 | 2019-01-11 | 华中科技大学 | 基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统 |
CN109543559A (zh) * | 2018-10-31 | 2019-03-29 | 东南大学 | 基于孪生网络和动作选择机制的目标跟踪方法及系统 |
CN109685073A (zh) * | 2018-12-28 | 2019-04-26 | 南京工程学院 | 一种基于核相关滤波的尺度自适应目标跟踪算法 |
CN109767456A (zh) * | 2019-01-09 | 2019-05-17 | 上海大学 | 一种基于SiameseFC框架和PFP神经网络的目标跟踪方法 |
CN109978921A (zh) * | 2019-04-01 | 2019-07-05 | 南京信息工程大学 | 一种基于多层注意力机制的实时视频目标跟踪算法 |
Non-Patent Citations (4)
Title |
---|
DAQUN LI ET AL: ""Siamese Visual Tracking With Deep Features and Robust Feature Fusion"", 《IEEE ACCESS》 * |
姚英杰: ""基于单次深度学习的目标跟踪方法研究"", 《CNKI优秀硕士学位论文全文库》 * |
李荅群: ""复杂场景下基于深度特征匹配的目标跟踪算法研究"", 《CNKI优秀硕士学位论文全文库》 * |
高俊艳;刘文印;杨振国: "结合注意力与特征融合的目标跟踪", 广东工业大学学报, vol. 36, no. 004 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113592899A (zh) * | 2021-05-28 | 2021-11-02 | 北京理工大学重庆创新中心 | 一种相关滤波目标跟踪深度特征的提取方法 |
CN113689464A (zh) * | 2021-07-09 | 2021-11-23 | 西北工业大学 | 一种基于孪生网络的自适应多层响应融合的目标跟踪方法 |
CN114359336A (zh) * | 2021-11-30 | 2022-04-15 | 南昌航空大学 | 基于光流和动态级联rpn的目标跟踪算法 |
CN117115478A (zh) * | 2023-08-01 | 2023-11-24 | 南京林业大学 | 一种基于双流孪生网络的装配防错检测方法 |
CN117115478B (zh) * | 2023-08-01 | 2024-08-02 | 南京林业大学 | 一种基于双流孪生网络的装配防错检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112446900B (zh) | 2024-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111291679B (zh) | 一种基于孪生网络的目标特定响应注意力目标跟踪方法 | |
CN108154118B (zh) | 一种基于自适应组合滤波与多级检测的目标探测系统及方法 | |
CN112446900B (zh) | 孪生神经网络目标跟踪方法及系统 | |
US20200226421A1 (en) | Training and using a convolutional neural network for person re-identification | |
CN112184752A (zh) | 一种基于金字塔卷积的视频目标跟踪方法 | |
CN112258554B (zh) | 基于注意力机制的双流层次孪生网络目标跟踪方法 | |
CN108062531A (zh) | 一种基于级联回归卷积神经网络的视频目标检测方法 | |
CN109087337B (zh) | 基于分层卷积特征的长时间目标跟踪方法及系统 | |
CN113963026B (zh) | 基于非局部特征融合和在线更新的目标跟踪方法及系统 | |
CN111429485B (zh) | 基于自适应正则化和高信度更新的跨模态滤波跟踪方法 | |
CN112085765A (zh) | 结合粒子滤波及度量学习的视频目标跟踪方法 | |
CN114663707A (zh) | 基于Faster RCNN改进的少样本目标检测方法 | |
CN114332157B (zh) | 一种双阈值控制的长时跟踪方法 | |
CN113538509B (zh) | 基于自适应相关滤波特征融合学习的视觉跟踪方法及装置 | |
CN112785626A (zh) | 一种基于多尺度特征融合的孪生网络小目标跟踪方法 | |
Chen et al. | Correlation filter tracking via distractor-aware learning and multi-anchor detection | |
CN112767440B (zh) | 一种基于siam-fc网络的目标跟踪方法 | |
CN113129332A (zh) | 执行目标对象跟踪的方法和装置 | |
CN111144469B (zh) | 基于多维关联时序分类神经网络的端到端多序列文本识别方法 | |
Rubin Bose et al. | In-situ identification and recognition of multi-hand gestures using optimized deep residual network | |
CN115080778B (zh) | 一种基于噪声数据清理的跨模态三维模型检索方法 | |
CN113610888B (zh) | 一种基于高斯平滑的孪生网络目标跟踪方法 | |
CN116168060A (zh) | 结合元学习的深度孪生网络目标跟踪算法 | |
CN113538507B (zh) | 一种基于全卷积网络在线训练的单目标跟踪方法 | |
CN115937654A (zh) | 一种基于多层次特征融合的单目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |