CN111179307A - 一种全卷积分类及回归孪生网络结构的视觉目标跟踪方法 - Google Patents
一种全卷积分类及回归孪生网络结构的视觉目标跟踪方法 Download PDFInfo
- Publication number
- CN111179307A CN111179307A CN201911292419.8A CN201911292419A CN111179307A CN 111179307 A CN111179307 A CN 111179307A CN 201911292419 A CN201911292419 A CN 201911292419A CN 111179307 A CN111179307 A CN 111179307A
- Authority
- CN
- China
- Prior art keywords
- target
- network
- image
- regression
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000000007 visual effect Effects 0.000 title claims abstract description 18
- 230000004044 response Effects 0.000 claims abstract description 50
- 238000012549 training Methods 0.000 claims abstract description 40
- 230000008569 process Effects 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 8
- 230000009467 reduction Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000001914 filtration Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 3
- MWPLVEDNUUSJAV-UHFFFAOYSA-N anthracene Chemical compound C1=CC=CC2=CC3=CC=CC=C3C=C21 MWPLVEDNUUSJAV-UHFFFAOYSA-N 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 240000002989 Euphorbia neriifolia Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
一种全卷积分类及回归孪生网络结构的视觉目标跟踪方法,包括以下步骤:(1)根据图像中目标的所在位置,在原始训练集中裁剪出目标模板图像和搜索区域图像,裁剪出的图像对构成了训练数据集;(2)搭建全卷积孪生网络提取图像特征;(3)搭建分类回归网络;(4)响应图上的每个像素点都有对应的前景得分和预测的包围框,结合前景得分和包围框的信息,计算每个像素点的总得分,总得分最高的像素点是跟踪目标的中心;(5)使用训练数据集,训练全卷积孪生网络和分类回归网络,获得训练好的全卷积孪生网络和分类回归网络,使用训练好的网络计算待测图像序列中目标的得分图,基于得分图进行目标定位。本发明提升了跟踪的精度和速度。
Description
技术领域
本方法涉及视觉目标跟踪领域,更具体地,涉及一种全卷积分类及回归孪生网络结构的视觉目标跟踪方法。
背景技术
视觉目标跟踪是机器视觉领域的基础研究问题,其广泛应用于智能监控、人机交互和无人驾驶等领域。尽管目标跟踪的研究已经有了很大的进展,然而,在实际应用中目标跟踪仍是一项极具挑战性的任务。因为在实际应用中,被跟踪目标难以避免的会遭遇光照变化、尺度变化、背景干扰、目标遮挡和目标形变。
传统的目标跟踪方法可以分为两种:基于生成式的跟踪和基于判别式的跟踪。生成式跟踪算法通过提取目标对象的特征,构建出能够表征目标外观的模型。利用模型在搜索图像内进行匹配,最匹配的区域即为目标。常见的基于生成式的跟踪算法有meanshift、粒子滤波、卡尔曼滤波以及基于特征点的光流算法。而在目标跟踪过程中,经常会出现背景与目标外观相似的情况。因此仅仅对跟踪目标进行建模,并不能满足目标跟踪的需求。基于判别式的目标跟踪算法充分利用了第一帧模板图像中的背景信息。这类算法将跟踪问题归结为一个二分类问题,主要研究如何区分目标和背景。检测器通过在线或者离线训练,获得区分目标和背景的能力,进而在搜索区域图像上找到目标位置。基于判别式的目标跟踪算法有Struck和TLD等,相比生成式的方法,这类方法更能适应背景变化复杂的情况。
基于相关滤波的目标跟踪算法用第一帧中的目标训练滤波器,滤波器在搜索图像上进行搜索,根据响应值判断目标的位置。整个过程中滤波器不是固定的,而是随着跟踪过程经历不断地更新。相比于传统的跟踪算法,基于相关滤波的目标跟踪算法利用快速傅里叶变换将滤波过程从时域转到频域进行计算,极大地加快了跟踪速度。基于相关滤波的目标跟踪算法有CF,KCF,DSST,CCOT等。
深度学习模型因其强大的特征表达能力,极大地提高了复杂环境下目标跟踪的算法精度。它最大的优势是模型经过大量数据的训练,可以得到有效的语义特征,而特征的有效性决定了目标跟踪方法性能的好坏。深度学习应用于目标跟踪领域面临两个难题:(1)仅利用视频第一帧获得的先验知识,远达不到训练深度模型对数据量的要求;(2)在线更新模型导致计算的复杂度增加,损害了跟踪过程的实时性。
针对数据量不足这个问题,研究人员提出使用图像分类的大型数据集(例如ImageNet)预训练跟踪模型。而针对实时性问题,研究人员采取离线训练、在线微调的策略,缓解了深度模型造成的耗时。通过不断优化深度模型与目标跟踪算法的结合方式,基于深度学习的目标跟踪算法已经获得了比传统算法更好的精度和速度。目标跟踪算法使用的深度学习框架主要有3种,分别是:堆栈自编码器、卷积神经网络和孪生网络。
目前很多流行的目标跟踪方法是建立在孪生网络的架构上。这些方法把目标跟踪视为一个目标匹配问题,利用孪生网络得到一张目标模板图像和搜索区域图像之间相似性的映射图。由于单一的相似性映射图通常包含有限的空间信息,所以SiamFC提出了一种改进方法:在搜索区域图像上进行多个尺度的相似性匹配,用多个相似性映射图确定目标的位置。虽然这种方法借助多次相似性匹配提高了目标跟踪的精度,但是损害了跟踪的速度。SiamRPN中提出的另一种改进方法是:在孪生网络的后面加上一个区域提案网络,通过分类分支网络和回归分支网络最终实现目标跟踪。这种方法有效的避免了多尺度相似性匹配的耗时问题,但是当出现干扰物,特别是干扰物与目标对象的外观相似时,跟踪的成功率会受到很大的影响。为了提高跟踪器辨别干扰物的能力,DaSiamRPN在训练模型的阶段增加了负样本训练数据,通过数据增强的方式,提高了跟踪器的辨别干扰物的能力。以上提及的几种跟踪方法都把AlexNet作为主干网络进行图像特征提取,SimaRPN++方法中把ResNet深度残差网络作为主干网络,获得了更深层次的特征,进而提高了跟踪的精度。
基于区域提案网络的跟踪方法,使用锚框进行区域提案,这种做法虽然能够有效利用深层特征信息,避免了重复计算造成的耗时,但锚框数量、尺寸和宽高比等参数的设置,对最终的跟踪效果影响很大。另外,正因为锚框的尺寸和宽高比等参数在跟踪时是保持固定的,所以基于区域提案的跟踪方法无法成功跟踪形变较大的目标。
发明内容
针对现有方法存在的不足,本发明提供了一种全卷积分类及回归孪生网络结构的视觉目标跟踪方法,在速度和精度方面都取得了良好的结果。
为了解决上述问题,本发明提供如下的技术方案:
一种全卷积分类及回归孪生网络结构的视觉目标跟踪方法,包括以下步骤:
(1)选择视觉目标跟踪训练集,根据图像中目标的所在位置,在原始训练集中裁剪出目标模板图像和搜索区域图像,裁剪出的图像对构成了训练数据集;
(2)搭建全卷积孪生网络提取图像特征,所述全卷积孪生网络包含两个架构完全相同的分支网络,分别是提取目标模板图像特征的分支网络和提取搜索区域图像特征的分支网络,这两个分支网络的输出层做深度互相关运算得到一张响应图,响应图降维后作为分类回归网络的输入;
(3)搭建分类回归网络,全卷积孪生网络生成的响应图作为分类回归网络的输入,分类回归网络包含两个分支,分别是进行分类分支网络和回归分支网络,分类分支网络输出相应像素点属于目标区域的概率,回归分支网络输出四条包围框与对应像素点间的距离;
(4)全卷积孪生网络产生的响应图在经过分类回归网络后,响应图上的每个像素点都有对应的前景得分和预测的包围框,结合前景得分和包围框的信息,计算每个像素点的总得分,总得分最高的像素点是跟踪目标的中心;
(5)使用训练数据集,训练全卷积孪生网络和分类回归网络,获得训练好的全卷积孪生网络和分类回归网络,使用训练好的网络计算待测图像序列中目标的得分图,基于得分图进行目标定位。
进一步,所述步骤(1)中,为了与其他跟踪器进行公平的比较,本发明只使用官方网站提供的特定训练集进行训练,用于训练的数据集有:COCO,ImageNet DET,ImageNetVID或者YouTube-BB。
更进一步,所述步骤(2)中,全卷积孪生网络包括两个分支,分别是:a)以目标模板图像Z作为输入的目标分支;b)以搜索区域图像X作为输入的搜索分支。这两个分支的主干网络结构相同、共享参数,两个分支输出的特征图分别表示为和在上执行以为核的深层互相关运算,得到嵌有两个分支信息的响应图R。降维后的响应图R*作为分类回归子网络的输入。
更进一步,所述步骤(3)中,响应图R*上的位置(i,j)能在输入的搜索区域中映射为(x,y),对搜索区域上的像素进行前景、背景分类并回归出目标包围框,用端到端的全卷积操作完成相关的训练,所述任务被拆解成两个子任务:a)分类分支网络,用于计算响应图R*上每个像素点属于前景、背景的概率;b)回归分支网络,用于计算响应图R*上每个像素对应的目标包围框。
更进一步,所述步骤(4)中,在分类回归网络的基础上对响应图R*上的每个位置计算总得分,在跟踪过程中,相邻帧之间包围框的大小和宽高比只有微小的变化,引入了尺寸变化惩罚pi,j,结合pi,j对分类分支的得分重新进行排序,把总得分最高的像素位置记做目标中心,按得分排序在目标中心附近取k个像素点,把目标中心像素和k个像素点的包围框进行加权平均运算,计算结果是最终的目标包围框。
更进一步,所述步骤(5)的过程如下:
5.1)在待测图像序列中,根据第一帧给定目标所在位置,剪裁出目标模板图像,将第一帧的目标模板图像输入到训练好的全卷积孪生网络的目标模板分支网络中,得到目标模板图像的特征图M1。此时,t=2;
5.2)根据待测图像序列的第t-1帧图像的目标框所在位置,剪裁出第t帧图像的搜索区域图像,将第t帧的搜索区域图像输入到训练好的全卷积孪生网络的搜索区域分支中,获得第t帧图像的搜索区域图像特征图;
5.3)将第t-1帧的目标模板特征图和第t帧的搜索区域图像特征图对应层进行深度互相关运算,得到响应图R*,响应图R*输入到分类回归网络中,计算出目标在第t帧的搜索区域图像内的得分图;
5.4)根据第t帧的最终得分图计算目标在第t帧图像中的目标位置;
5.5)令t=t+1,重复执行步骤5.2)-5.5),直至待测图像序列目标跟踪结束,即t=N,其中,N为待测图像序列的总帧数。
本发明的有益效果主要表现在:
(1)框架简单,性能强大。所述提出了一种全卷积分类及回归孪生网络结构的目标跟踪方法,这种方法的网络结构简单,性能良好;
(2)减少了网络的参数量。所述方法不需要锚框和区域提案识别跟踪目标,大大减少了网络的参数量。此外,所述方法不需要进行复杂的调参,大大简化了训练过程。
(3)跟踪的精度和速度都得到了提升。所述方法没有使用复杂的跟踪框架,却取得了良好的跟踪精度。而且正因为使用的网络结构简单,所以在提高精度的同时不需要牺牲跟踪的速度。
附图说明
图1为本发明的网络框架结构示意图;
图2为本发明的跟踪流程示意图。
具体实施方式
为使本发明更容易理解、优势更加清楚,下面结合附图和具体实施例,对本发明实施例中的技术方案作详细说明。
参照给图1和图2,一种全卷积分类及回归孪生网络结构的视觉目标跟踪方法,包括以下步骤:
(1)选择视觉目标跟踪训练集,根据图像中目标的所在位置,在原始训练集中裁剪出目标模板图像和搜索区域图像,裁剪出的图像对构成了训练数据集;
(2)搭建全卷积孪生网络提取图像特征,所述全卷积孪生网络包含两个架构完全相同的分支网络,分别是提取目标模板图像特征的分支网络和提取搜索区域图像特征的分支网络,这两个分支网络的输出层做深度互相关运算得到一张响应图,响应图降维后作为分类回归网络的输入;
(3)搭建分类回归网络,全卷积孪生网络生成的响应图作为分类回归网络的输入,分类回归网络包含两个分支,分别是进行分类分支网络和回归分支网络,分类分支网络输出相应像素点属于目标区域的概率,回归分支网络输出四条包围框与对应像素点间的距离;
(4)全卷积孪生网络产生的响应图在经过分类回归网络后,响应图上的每个像素点都有对应的前景得分和预测的包围框,结合前景得分和包围框的信息,计算每个像素点的总得分,总得分最高的像素点是跟踪目标的中心;
(5)使用训练数据集,训练全卷积孪生网络和分类回归网络,获得训练好的全卷积孪生网络和分类回归网络,使用训练好的网络计算待测图像序列中目标的得分图,基于得分图进行目标定位。
本实施例中,目标模板图像的剪裁方法为:把目标框的中心点作为裁剪矩形框的中心点,目标框宽和高分别延长p个像素点,作为裁剪矩形框的宽和高。如果裁剪矩形框超出了图像边界,用图像的均值像素填充超出部分,最后将裁剪的图像缩放至127*127大小;搜索区域图像的裁剪方法为:把目标框的中心点作为裁剪矩形框的中心点,目标框的宽和高分别延长2p个像素点,作为裁剪矩形框的宽和高。如果裁剪矩形框超出了图像边界,用图像的均值像素填充超出部分,最后将裁剪的图像缩放至255*255大小。其中,p=(w+h)/2,w是目标位置宽像素,h是目标位置高像素。
图1为本发明的网络框架结构示意图,左侧是用于提取目标模板图片和搜索区域图片的全卷积孪生子网络,右侧是预测目标中心和包围框的分类回归子网络,下面将对这两个子网络做具体说明:
2.1)全卷积孪生子网络中包含两个架构完全相同的分支网络,图1中左上方是目标模板图像分支网络,左下方是搜索区域图像分支网络。这两个分支网络都把ResNet-50作为主干网络,与AlexNet相比,ResNet-50能获得到更深层次的图像特征。剪裁好的目标模板图像和搜索区域图像被分别缩放至127*127和255*255大小,经过深度卷积网络后得到形状为7*7*n和31*31*n的特征图,特征图分别表示为和其中,是目标模板图像的特征图,是搜索区域图像的特征图。
浅层次的特征,如边缘、角点、颜色和形状,在目标定位上是不可缺少的。深层次特征包含的语义信息在区分对象时起着至关重要的作用。本发明把主干网络ResNet-50中最后三个残差块提取的特征组合起来,实现了更好的识别和区分效果。这三个残差块提取的特征分别用F3(X),F4(X),F5(X)表示,组合成一个整体:F3(X),F4(X),F5(X)各有256个通道数,因此包含了的通道数是3*256。
经过互相关运算得到响应图R。由于在后续网络中需要对响应图R进行解码以获得目标的位置和规模等信息,所以R中必须保留丰富的特征信息。不同特征通道包含了不同的语义信息,而互相关层只能生成单通道压缩响应图,这样一来丢失了重要的特征和跟踪信息。所以,本发明对特征图进行深度互相关运算,生成了多个语义相似图。生成的响应图R通道数与的通道数一样,R中包含大量的特征信息有助于后续的分类和回归操作。
响应图R有3*256个通道数,减少R的通道数能极大的减少后续网络的参数量,从而加快跟踪的速度。所以本发明对R进行了降维,具体操作是响应图R与1*1的核进行卷积,得到的R*只有256个通道。降维操作能够极大的减少参数的数量,提高了后续步骤的计算速度。
2.2)分类回归子网络包含两个分支,图1中右上方是分类分支网络,右下方是回归分支网络。分类分支网络中又包含两个并列的分支,分别是分类分支和中心度分支。分类分支输出响应图R*中像素点是前景或者背景的得分,中心度分支输出响应图R*中像素点是目标中心的得分。回归分支网络输出响应图R*上每个像素点对应的包围框四边与该点的距离。
响应图R*输入到分类分支网络中,先经过一个卷积神经网络,这个卷积神经网络有4个卷积层。这4个卷积层的结构相同,每一层的输入通道和输出通道都是25,卷积核是3,步长是1,填充是1。这个卷积神经网络后面是并列的分类分支和中心度分支,这两个分支都只有一个卷积层。分类分支的卷积层输入通道是255,输出通道是2,卷积核是3,步长是1,填充是1,它输出25*25*2的响应图Acls w×h×2。其中,w和h分别表示响应图的宽和高。Acls w×h×2中的每个像素点(i,j,:)都对应一个2维向量,它表示该点被分类成前景和背景的得分。中心度分支的卷积层输入通道是255,输出通道是1,卷积核是3,步长是1,填充是1。它输出25*25*1的响应图Acen w×h×1,Acen w×h×1是每个像素点中心度的得分。
回归分支网络在搜索区域图像上逐像素预测目标包围框。响应图R*输入到回归分支网络中,也会经过一个卷积神经网络,这个卷积神经网络与分类分支网络中的卷积神经网络结构相同、参数不同。随后再经过一个卷积层,这个卷积层的输入通道是255,输出通道是4,卷积核是3,步长是1,填充是1,它输出25*25*4的响应图Areg w×h×4。Areg w×h×4上的每个像素点(i,j,:)都对应一个4维向量t(i,j)=(j,t,r,b),这个4维向量表示该点到包围框四边的像素距离。
因为在输入搜索区域中的目标和背景占据的区域之比并不大,所以不存在样本不平衡的问题。我们只需要分别采用交叉熵损失、交并比损失计算分类网络的损失和回归网络的损失。
观察发现,远离目标中心的位置往往会产生低质量的预测包围框,从而降低了跟踪系统的性能。所以本发明中增加了一个与分类分支并列的的中心分支,它的作用是移除离群点。这个分支的输出一张中心特征响应图Acen w×h×1,响应图中每一个值是对应位置是否处于中心的得分情况。处于位置Acen w×h×1(i,j)的得分C(i,j)的定义是:其中C(i,j)与搜索区域中相应位置(x,y)与目标中心之间的距离成正比。如果(x,y)处于背景区域,那么C(i,j)的值被置为0。中心分支网络的损失被定义为:
总的损失函数为:L=Lcls+λ1Lcen+λ2Lreg。其中,Lcls表示分类的交叉熵损失,常数λ1和λ2表示中心损失和回归损失的权重。在模型训练过程中,权重设置成λ1=1,λ2=2。
图2是本发明进行目标跟踪的流程示意图,下面结合图2介绍跟踪的具体流程。图2中的子图A显示的是一对输入图片,处于上方的是目标模板图像,下方是搜索区域图像。子图B显示的是子图A中的图像依次经过全卷积孪生网络和分类回归网络后得到的特征图,cls是前景得分图,cen是中心度得分图,l,t,r,b是像素点到包围框四边的距离。子图C显示的是得分最高的像素点和该点邻域的k个像素点预测出来的包围框。子图D显示的是(k+1)个包围框取平均值得到最终的包围框。
对位置(i,j)来说,所述框架能产生一个6维的向量Tij=(cls,cen,l,t,r,b),其中cls代表分类的前景得分,cen代表中心度得分,l+r和t+b分别代表当前帧预测包围框的宽和高。在跟踪过程中,相邻帧之间包围框的大小和宽高比只有微小的变化。因此,本发明引入了尺寸变化惩罚pi,j,对分类得分cls进行重新排序,更新过后的6维向量表示成PTij=(clsij×pij,cen,l,t,r,b)。跟踪过程就是寻找总得分最大的像素作为目标像素,用公式可以表示成:q=argmaxi,j{(1-λd)clsij×pij+λdH}。其中H是余弦窗,λd是平衡权重。
因为所述模型用逐像素的方式进行目标定位,所以每个像素都有对应的预测边界框。在实际跟踪中,如果使用q唯一的边界框作为目标框,则在相邻帧之间会产生抖动。在实验中观察到q附近的像素点也有可能是目标像素,因此根据clsij×pij的值,从q的n个邻域中选择前k点个像素点,最终的预测结果是所选k个回归框的加权平均值。其中当n=1和k=5时,跟踪结果最稳定。
训练模型和测试模型的细节介绍。在训练过程中,批处理的大小为96,总共训练20个回合。随机梯度下降的初始学习率是0.001。在前10个回合当中,当训练分类回归子网络时,全卷积孪生子网络的参数是被冻结的。在后10个回合当中,ResNet-50的后3个残差块解冻,和分类回归子网络一起训练。总训练时间约42个小时。
测试时,本发明采取离线跟踪策略。只有初始帧的对象被当成模板,预先计算全卷积孪生网络的目标模板分支,并这个分支在跟踪过程中保持固定。当前帧中的搜索区域图像作为搜索区域分支的输入。利用分类回归子网络的输出,找到总得分最高的位置q。计算出q的邻域得分最高的3个像素点对应的回归框,这几个回归框的加权平均值是预测的目标包围框。
本发明跟踪的效果。表1是本发明与其他方法的跟踪器在GOT-10K数据集上的结果对比。其中,AO代表预测的包围框和真实包围框的重叠率,SR0.5代表重叠率在50%以上的比例,SR0.75代表重叠率在75%以上的比例。从表1中可以看出本发明在跟踪的精度和速度与其他跟踪器相比,都有明显的优势。表1为GOT-10K数据集测试结果对比。
Tracker | AO | SR0.5 | SR0.75 | FPS |
KCF | 0.203 | 0.177 | 0.065 | 94.66 |
fDSST | 0.206 | 0.187 | 0.075 | 30.43 |
SRDCF | 0.236 | 0.227 | 0.094 | 5.58 |
Staple | 0.246 | 0.239 | 0.089 | 28.87 |
SAMF | 0.246 | 0.241 | 0.084 | 7.43 |
DSST | 0.247 | 0.223 | 0.081 | 18.25 |
DAT | 0.251 | 0.242 | 0.048 | 45.52 |
MEEM | 0.253 | 0.235 | 0.068 | 20.59 |
BACF | 0.260 | 0.262 | 0.101 | 14.44 |
ECO-HC | 0.286 | 0.276 | 0.096 | 44.55 |
CFnet | 0.293 | 0.265 | 0.087 | 35.62 |
MDnet | 0.299 | 0.303 | 0.099 | 1.52 |
ECO | 0.316 | 0.309 | 0.111 | 2.62 |
CCOT | 0.325 | 0.328 | 0.107 | 0.68 |
SiamFC | 0.374 | 0.404 | 0.144 | 25.81 |
THOR | 0.447 | 0.538 | 0.204 | 1.00 |
SiamRPN R18 | 0.483 | 0.581 | 0.270 | 97.55 |
SPM | 0.513 | 0.593 | 0.359 | 72.30 |
SiamRPN++ | 0.517 | 0.616 | 0.325 | 49.83 |
Ours | 0.569 | 0.670 | 0.415 | 52.27 |
表1。
Claims (6)
1.一种全卷积分类及回归孪生网络结构的视觉目标跟踪方法,其特征在于,所述方法包括以下步骤:
(1)选择视觉目标跟踪训练集,根据图像中目标的所在位置,在原始训练集中裁剪出目标模板图像和搜索区域图像,裁剪出的图像对构成了训练数据集;
(2)搭建全卷积孪生网络提取图像特征,所述全卷积孪生网络包含两个架构完全相同的分支网络,分别是提取目标模板图像特征的分支网络和提取搜索区域图像特征的分支网络,这两个分支网络的输出层做深度互相关运算得到一张响应图,响应图降维后作为分类回归网络的输入;
(3)搭建分类回归网络,全卷积孪生网络生成的响应图作为分类回归网络的输入,分类回归网络包含两个分支,分别是进行分类分支网络和回归分支网络,分类分支网络输出相应像素点属于目标区域的概率,回归分支网络输出四条包围框与对应像素点间的距离;
(4)全卷积孪生网络产生的响应图在经过分类回归网络后,响应图上的每个像素点都有对应的前景得分和预测的包围框,结合前景得分和包围框的信息,计算每个像素点的总得分,总得分最高的像素点是跟踪目标的中心;
(5)使用训练数据集,训练全卷积孪生网络和分类回归网络,获得训练好的全卷积孪生网络和分类回归网络,使用训练好的网络计算待测图像序列中目标的得分图,基于得分图进行目标定位。
2.如权利要求1所述的一种全卷积分类及回归孪生网络结构的视觉目标跟踪方法,其特征在于,所述步骤(1)中,用于训练的数据集有:COCO,ImageNet DET,ImageNet VID或者YouTube-BB。
4.如权利要求1或2所述的一种全卷积分类及回归孪生网络结构的视觉目标跟踪方法,其特征在于,所述步骤(3)中,响应图R*上的位置(i,j)能在输入的搜索区域中映射为(x,y),对搜索区域上的像素进行前景、背景分类并回归出目标包围框,用端到端的全卷积操作完成相关的训练,所述任务被拆解成两个子任务:a)分类分支网络,用于计算响应图R*上每个像素点属于前景、背景的概率;b)回归分支网络,用于计算响应图R*上每个像素对应的目标包围框。
5.如权利要求1或2所述的一种全卷积分类及回归孪生网络结构的视觉目标跟踪方法,其特征在于,所述步骤(4)中,在分类回归网络的基础上对响应图R*上的每个位置计算总得分,在跟踪过程中,相邻帧之间包围框的大小和宽高比只有微小的变化,引入了尺寸变化惩罚pi,j,结合pi,j对分类分支的得分重新进行排序,把总得分最高的像素位置记做目标中心,按得分排序在目标中心附近取k个像素点,把目标中心像素和k个像素点的包围框进行加权平均运算,计算结果是最终的目标包围框。
6.如权利要求1或2所述的一种全卷积分类及回归孪生网络结构的视觉目标跟踪方法,其特征在于,所述步骤(5)的过程如下:
5.1)在待测图像序列中,根据第一帧给定目标所在位置,剪裁出目标模板图像,将第一帧的目标模板图像输入到训练好的全卷积孪生网络的目标模板分支网络中,得到目标模板图像的特征图M1,此时,t=2;
5.2)根据待测图像序列的第t-1帧图像的目标框所在位置,剪裁出第t帧图像的搜索区域图像,将第t帧的搜索区域图像输入到训练好的全卷积孪生网络的搜索区域分支中,获得第t帧图像的搜索区域图像特征图;
5.3)将第t-1帧的目标模板特征图和第t帧的搜索区域图像特征图对应层进行深度互相关运算,得到响应图R*,响应图R*输入到分类回归网络中,计算出目标在第t帧的搜索区域图像内的得分图;
5.4)根据第t帧的最终得分图计算目标在第t帧图像中的目标位置;
5.5)令t=t+1,重复执行步骤5.2)-5.5),直至待测图像序列目标跟踪结束,即t=N,其中,N为待测图像序列的总帧数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911292419.8A CN111179307A (zh) | 2019-12-16 | 2019-12-16 | 一种全卷积分类及回归孪生网络结构的视觉目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911292419.8A CN111179307A (zh) | 2019-12-16 | 2019-12-16 | 一种全卷积分类及回归孪生网络结构的视觉目标跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111179307A true CN111179307A (zh) | 2020-05-19 |
Family
ID=70650239
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911292419.8A Pending CN111179307A (zh) | 2019-12-16 | 2019-12-16 | 一种全卷积分类及回归孪生网络结构的视觉目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111179307A (zh) |
Cited By (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111640138A (zh) * | 2020-05-28 | 2020-09-08 | 济南博观智能科技有限公司 | 一种目标跟踪方法、装置、设备及存储介质 |
CN111696136A (zh) * | 2020-06-09 | 2020-09-22 | 电子科技大学 | 一种基于编解码结构的目标跟踪方法 |
CN111738259A (zh) * | 2020-06-29 | 2020-10-02 | 广东电网有限责任公司 | 一种杆塔状态检测方法及装置 |
CN111797716A (zh) * | 2020-06-16 | 2020-10-20 | 电子科技大学 | 一种基于Siamese网络的单目标跟踪方法 |
CN111898504A (zh) * | 2020-07-20 | 2020-11-06 | 南京邮电大学 | 一种基于孪生循环神经网络的目标跟踪方法及系统 |
CN111915650A (zh) * | 2020-07-30 | 2020-11-10 | 齐鲁工业大学 | 基于改进孪生网络的目标跟踪方法及系统 |
CN111915644A (zh) * | 2020-07-09 | 2020-11-10 | 苏州科技大学 | 孪生导向锚框rpn网络的实时目标跟踪方法 |
CN112184752A (zh) * | 2020-09-08 | 2021-01-05 | 北京工业大学 | 一种基于金字塔卷积的视频目标跟踪方法 |
CN112200870A (zh) * | 2020-10-30 | 2021-01-08 | 上海海事大学 | 基于孪生网络的分类和位置损失相结合的单目标跟踪方法 |
CN112200831A (zh) * | 2020-09-16 | 2021-01-08 | 浙江工业大学 | 一种基于动态模板的密集连接孪生神经网络目标跟踪方法 |
CN112258558A (zh) * | 2020-10-23 | 2021-01-22 | 复旦大学 | 基于多尺度孪生网络的目标追踪方法、电子设备及介质 |
CN112308013A (zh) * | 2020-11-16 | 2021-02-02 | 电子科技大学 | 一种基于深度学习的足球球员追踪方法 |
CN112489081A (zh) * | 2020-11-30 | 2021-03-12 | 北京航空航天大学 | 一种视觉目标跟踪方法及装置 |
CN112509008A (zh) * | 2020-12-15 | 2021-03-16 | 重庆邮电大学 | 一种基于交并比引导孪生网络的目标跟踪方法 |
CN112507835A (zh) * | 2020-12-01 | 2021-03-16 | 燕山大学 | 一种基于深度学习技术分析多目标对象行为的方法及系统 |
CN112560651A (zh) * | 2020-12-09 | 2021-03-26 | 燕山大学 | 基于深度网络和目标分割结合的目标跟踪方法及装置 |
CN112686326A (zh) * | 2021-01-05 | 2021-04-20 | 中国科学技术大学 | 一种智能排序候选框的目标跟踪方法及系统 |
CN112734726A (zh) * | 2020-09-29 | 2021-04-30 | 首都医科大学附属北京天坛医院 | 一种血管造影的分型方法、装置以及设备 |
CN112750148A (zh) * | 2021-01-13 | 2021-05-04 | 浙江工业大学 | 一种基于孪生网络的多尺度目标感知跟踪方法 |
CN112785626A (zh) * | 2021-01-27 | 2021-05-11 | 安徽大学 | 一种基于多尺度特征融合的孪生网络小目标跟踪方法 |
CN112816474A (zh) * | 2021-01-07 | 2021-05-18 | 武汉大学 | 一种基于目标感知的深度孪生网络高光谱视频目标跟踪方法 |
CN112884037A (zh) * | 2021-02-09 | 2021-06-01 | 中国科学院光电技术研究所 | 一种基于模板更新和无锚框方式的目标跟踪方法 |
CN112966553A (zh) * | 2021-02-02 | 2021-06-15 | 同济大学 | 基于孪生网络的强耦合目标跟踪方法、装置、介质及设备 |
CN113129335A (zh) * | 2021-03-25 | 2021-07-16 | 西安电子科技大学 | 一种基于孪生网络的视觉跟踪算法及多模板更新策略 |
CN113240709A (zh) * | 2021-04-23 | 2021-08-10 | 中国人民解放军32802部队 | 基于对比学习的孪生网络目标跟踪方法 |
CN113255611A (zh) * | 2021-07-05 | 2021-08-13 | 浙江师范大学 | 基于动态标签分配的孪生网络目标跟踪方法及移动设备 |
CN113298136A (zh) * | 2021-05-21 | 2021-08-24 | 南京邮电大学 | 一种基于alpha散度的孪生网络跟踪方法 |
CN113298142A (zh) * | 2021-05-24 | 2021-08-24 | 南京邮电大学 | 一种基于深度时空孪生网络的目标跟踪方法 |
CN113436227A (zh) * | 2021-06-07 | 2021-09-24 | 南京航空航天大学 | 一种基于倒残差的孪生网络目标跟踪方法 |
CN113536933A (zh) * | 2021-06-17 | 2021-10-22 | 杭州电子科技大学 | 一种目标跟踪型水下航行器 |
CN113592899A (zh) * | 2021-05-28 | 2021-11-02 | 北京理工大学重庆创新中心 | 一种相关滤波目标跟踪深度特征的提取方法 |
CN113609904A (zh) * | 2021-06-30 | 2021-11-05 | 杭州电子科技大学 | 一种基于动态全局信息建模和孪生网络的单目标跟踪算法 |
CN113610888A (zh) * | 2021-06-29 | 2021-11-05 | 南京信息工程大学 | 一种基于高斯平滑的孪生网络目标跟踪方法 |
CN113706581A (zh) * | 2021-08-13 | 2021-11-26 | 河南大学 | 基于残差通道注意与多层次分类回归的目标跟踪方法 |
CN113762256A (zh) * | 2021-09-16 | 2021-12-07 | 山东工商学院 | 多视角专家组的区域建议预测的视觉跟踪方法及系统 |
CN113793364A (zh) * | 2021-11-16 | 2021-12-14 | 深圳佑驾创新科技有限公司 | 目标跟踪方法、装置、计算机设备和存储介质 |
CN113808166A (zh) * | 2021-09-15 | 2021-12-17 | 西安电子科技大学 | 基于聚类差分和深度孪生卷积神经网络的单目标跟踪方法 |
CN113850189A (zh) * | 2021-09-26 | 2021-12-28 | 北京航空航天大学 | 一种应用于机动平台的嵌入式孪生网络实时跟踪方法 |
CN113870330A (zh) * | 2021-09-30 | 2021-12-31 | 四川大学 | 基于特定标签和损失函数的孪生视觉跟踪方法 |
CN113870312A (zh) * | 2021-09-30 | 2021-12-31 | 四川大学 | 基于孪生网络的单目标跟踪方法 |
CN113888590A (zh) * | 2021-09-13 | 2022-01-04 | 华南理工大学 | 一种基于数据增强和孪生网络的视频目标跟踪方法 |
CN113963032A (zh) * | 2021-12-01 | 2022-01-21 | 浙江工业大学 | 一种融合目标重识别的孪生网络结构目标跟踪方法 |
CN114219826A (zh) * | 2021-09-30 | 2022-03-22 | 北京航空航天大学 | 一种应用于航拍视频中的地面目标跟踪方法 |
CN114240994A (zh) * | 2021-11-04 | 2022-03-25 | 北京工业大学 | 目标跟踪方法、装置、电子设备及存储介质 |
CN114596432A (zh) * | 2022-03-10 | 2022-06-07 | 山东大学 | 基于前景区域对应模板特征的视觉跟踪方法及系统 |
CN114639050A (zh) * | 2022-03-23 | 2022-06-17 | 北京科能腾达信息技术股份有限公司 | 一种基于尺度等变卷积孪生网络的序列图像目标跟踪方法 |
CN114820709A (zh) * | 2022-05-05 | 2022-07-29 | 郑州大学 | 基于改进UNet网络的单目标跟踪方法、装置、设备及介质 |
CN114900406A (zh) * | 2022-04-22 | 2022-08-12 | 深圳市人工智能与机器人研究院 | 一种基于孪生网络的盲调制信号识别方法 |
CN115761393A (zh) * | 2022-10-18 | 2023-03-07 | 北京航空航天大学 | 一种基于模板在线学习的无锚目标跟踪方法 |
CN116188804A (zh) * | 2023-04-25 | 2023-05-30 | 山东大学 | 一种基于transformer的孪生网络目标搜索系统 |
CN116486203A (zh) * | 2023-04-24 | 2023-07-25 | 燕山大学 | 一种基于孪生网络和在线模板更新的单目标跟踪方法 |
WO2023159558A1 (zh) * | 2022-02-28 | 2023-08-31 | 中国科学院深圳先进技术研究院 | 一种实时目标跟踪方法、装置及存储介质 |
CN118210321A (zh) * | 2024-05-21 | 2024-06-18 | 鹰驾科技(深圳)有限公司 | 一种基于360环视摄像头的无人机行人跟踪系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109191491A (zh) * | 2018-08-03 | 2019-01-11 | 华中科技大学 | 基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统 |
CN109767456A (zh) * | 2019-01-09 | 2019-05-17 | 上海大学 | 一种基于SiameseFC框架和PFP神经网络的目标跟踪方法 |
CN110570458A (zh) * | 2019-08-12 | 2019-12-13 | 武汉大学 | 一种基于内部裁剪和多层特征信息融合的目标跟踪方法 |
-
2019
- 2019-12-16 CN CN201911292419.8A patent/CN111179307A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109191491A (zh) * | 2018-08-03 | 2019-01-11 | 华中科技大学 | 基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统 |
CN109767456A (zh) * | 2019-01-09 | 2019-05-17 | 上海大学 | 一种基于SiameseFC框架和PFP神经网络的目标跟踪方法 |
CN110570458A (zh) * | 2019-08-12 | 2019-12-13 | 武汉大学 | 一种基于内部裁剪和多层特征信息融合的目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
DONGYAN GUO 等: "《SiamCAR: Siamese Fully Convolutional Classification and Regression》" * |
Cited By (89)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111640138B (zh) * | 2020-05-28 | 2023-10-27 | 济南博观智能科技有限公司 | 一种目标跟踪方法、装置、设备及存储介质 |
CN111640138A (zh) * | 2020-05-28 | 2020-09-08 | 济南博观智能科技有限公司 | 一种目标跟踪方法、装置、设备及存储介质 |
CN111696136A (zh) * | 2020-06-09 | 2020-09-22 | 电子科技大学 | 一种基于编解码结构的目标跟踪方法 |
CN111696136B (zh) * | 2020-06-09 | 2023-06-16 | 电子科技大学 | 一种基于编解码结构的目标跟踪方法 |
CN111797716B (zh) * | 2020-06-16 | 2022-05-03 | 电子科技大学 | 一种基于Siamese网络的单目标跟踪方法 |
CN111797716A (zh) * | 2020-06-16 | 2020-10-20 | 电子科技大学 | 一种基于Siamese网络的单目标跟踪方法 |
CN111738259A (zh) * | 2020-06-29 | 2020-10-02 | 广东电网有限责任公司 | 一种杆塔状态检测方法及装置 |
CN111915644A (zh) * | 2020-07-09 | 2020-11-10 | 苏州科技大学 | 孪生导向锚框rpn网络的实时目标跟踪方法 |
CN111915644B (zh) * | 2020-07-09 | 2023-07-04 | 苏州科技大学 | 孪生导向锚框rpn网络的实时目标跟踪方法 |
CN111898504B (zh) * | 2020-07-20 | 2022-07-26 | 南京邮电大学 | 一种基于孪生循环神经网络的目标跟踪方法及系统 |
CN111898504A (zh) * | 2020-07-20 | 2020-11-06 | 南京邮电大学 | 一种基于孪生循环神经网络的目标跟踪方法及系统 |
CN111915650A (zh) * | 2020-07-30 | 2020-11-10 | 齐鲁工业大学 | 基于改进孪生网络的目标跟踪方法及系统 |
CN111915650B (zh) * | 2020-07-30 | 2023-08-11 | 齐鲁工业大学 | 基于改进孪生网络的目标跟踪方法及系统 |
CN112184752A (zh) * | 2020-09-08 | 2021-01-05 | 北京工业大学 | 一种基于金字塔卷积的视频目标跟踪方法 |
CN112200831A (zh) * | 2020-09-16 | 2021-01-08 | 浙江工业大学 | 一种基于动态模板的密集连接孪生神经网络目标跟踪方法 |
CN112200831B (zh) * | 2020-09-16 | 2024-03-26 | 浙江工业大学 | 一种基于动态模板的密集连接孪生神经网络目标跟踪方法 |
CN112734726A (zh) * | 2020-09-29 | 2021-04-30 | 首都医科大学附属北京天坛医院 | 一种血管造影的分型方法、装置以及设备 |
CN112734726B (zh) * | 2020-09-29 | 2024-02-02 | 首都医科大学附属北京天坛医院 | 一种血管造影的分型方法、装置以及设备 |
CN112258558B (zh) * | 2020-10-23 | 2022-11-04 | 复旦大学 | 基于多尺度孪生网络的超声颈动脉斑块视频追踪方法 |
CN112258558A (zh) * | 2020-10-23 | 2021-01-22 | 复旦大学 | 基于多尺度孪生网络的目标追踪方法、电子设备及介质 |
CN112200870B (zh) * | 2020-10-30 | 2024-03-12 | 上海海事大学 | 基于孪生网络的分类和位置损失相结合的单目标跟踪方法 |
CN112200870A (zh) * | 2020-10-30 | 2021-01-08 | 上海海事大学 | 基于孪生网络的分类和位置损失相结合的单目标跟踪方法 |
CN112308013B (zh) * | 2020-11-16 | 2023-03-31 | 电子科技大学 | 一种基于深度学习的足球球员追踪方法 |
CN112308013A (zh) * | 2020-11-16 | 2021-02-02 | 电子科技大学 | 一种基于深度学习的足球球员追踪方法 |
CN112489081A (zh) * | 2020-11-30 | 2021-03-12 | 北京航空航天大学 | 一种视觉目标跟踪方法及装置 |
CN112507835A (zh) * | 2020-12-01 | 2021-03-16 | 燕山大学 | 一种基于深度学习技术分析多目标对象行为的方法及系统 |
CN112560651A (zh) * | 2020-12-09 | 2021-03-26 | 燕山大学 | 基于深度网络和目标分割结合的目标跟踪方法及装置 |
CN112560651B (zh) * | 2020-12-09 | 2023-02-03 | 燕山大学 | 基于深度网络和目标分割结合的目标跟踪方法及装置 |
CN112509008A (zh) * | 2020-12-15 | 2021-03-16 | 重庆邮电大学 | 一种基于交并比引导孪生网络的目标跟踪方法 |
CN112509008B (zh) * | 2020-12-15 | 2022-05-03 | 重庆邮电大学 | 一种基于交并比引导孪生网络的目标跟踪方法 |
CN112686326A (zh) * | 2021-01-05 | 2021-04-20 | 中国科学技术大学 | 一种智能排序候选框的目标跟踪方法及系统 |
CN112686326B (zh) * | 2021-01-05 | 2022-09-06 | 中国科学技术大学 | 一种智能排序候选框的目标跟踪方法及系统 |
CN112816474A (zh) * | 2021-01-07 | 2021-05-18 | 武汉大学 | 一种基于目标感知的深度孪生网络高光谱视频目标跟踪方法 |
CN112816474B (zh) * | 2021-01-07 | 2022-02-01 | 武汉大学 | 一种基于目标感知的深度孪生网络高光谱视频目标跟踪方法 |
CN112750148B (zh) * | 2021-01-13 | 2024-03-22 | 浙江工业大学 | 一种基于孪生网络的多尺度目标感知跟踪方法 |
CN112750148A (zh) * | 2021-01-13 | 2021-05-04 | 浙江工业大学 | 一种基于孪生网络的多尺度目标感知跟踪方法 |
CN112785626A (zh) * | 2021-01-27 | 2021-05-11 | 安徽大学 | 一种基于多尺度特征融合的孪生网络小目标跟踪方法 |
CN112966553A (zh) * | 2021-02-02 | 2021-06-15 | 同济大学 | 基于孪生网络的强耦合目标跟踪方法、装置、介质及设备 |
CN112884037A (zh) * | 2021-02-09 | 2021-06-01 | 中国科学院光电技术研究所 | 一种基于模板更新和无锚框方式的目标跟踪方法 |
CN112884037B (zh) * | 2021-02-09 | 2022-10-21 | 中国科学院光电技术研究所 | 一种基于模板更新和无锚框方式的目标跟踪方法 |
CN113129335A (zh) * | 2021-03-25 | 2021-07-16 | 西安电子科技大学 | 一种基于孪生网络的视觉跟踪算法及多模板更新策略 |
CN113129335B (zh) * | 2021-03-25 | 2023-03-14 | 西安电子科技大学 | 一种基于孪生网络的视觉跟踪算法及多模板更新策略 |
CN113240709B (zh) * | 2021-04-23 | 2022-05-20 | 中国人民解放军32802部队 | 基于对比学习的孪生网络目标跟踪方法 |
CN113240709A (zh) * | 2021-04-23 | 2021-08-10 | 中国人民解放军32802部队 | 基于对比学习的孪生网络目标跟踪方法 |
CN113298136B (zh) * | 2021-05-21 | 2022-08-05 | 南京邮电大学 | 一种基于alpha散度的孪生网络跟踪方法 |
CN113298136A (zh) * | 2021-05-21 | 2021-08-24 | 南京邮电大学 | 一种基于alpha散度的孪生网络跟踪方法 |
CN113298142A (zh) * | 2021-05-24 | 2021-08-24 | 南京邮电大学 | 一种基于深度时空孪生网络的目标跟踪方法 |
CN113298142B (zh) * | 2021-05-24 | 2023-11-17 | 南京邮电大学 | 一种基于深度时空孪生网络的目标跟踪方法 |
CN113592899A (zh) * | 2021-05-28 | 2021-11-02 | 北京理工大学重庆创新中心 | 一种相关滤波目标跟踪深度特征的提取方法 |
CN113436227A (zh) * | 2021-06-07 | 2021-09-24 | 南京航空航天大学 | 一种基于倒残差的孪生网络目标跟踪方法 |
CN113536933A (zh) * | 2021-06-17 | 2021-10-22 | 杭州电子科技大学 | 一种目标跟踪型水下航行器 |
CN113610888A (zh) * | 2021-06-29 | 2021-11-05 | 南京信息工程大学 | 一种基于高斯平滑的孪生网络目标跟踪方法 |
CN113610888B (zh) * | 2021-06-29 | 2023-11-24 | 南京信息工程大学 | 一种基于高斯平滑的孪生网络目标跟踪方法 |
CN113609904B (zh) * | 2021-06-30 | 2024-03-29 | 杭州电子科技大学 | 一种基于动态全局信息建模和孪生网络的单目标跟踪算法 |
CN113609904A (zh) * | 2021-06-30 | 2021-11-05 | 杭州电子科技大学 | 一种基于动态全局信息建模和孪生网络的单目标跟踪算法 |
CN113255611B (zh) * | 2021-07-05 | 2021-10-01 | 浙江师范大学 | 基于动态标签分配的孪生网络目标跟踪方法及移动设备 |
CN113255611A (zh) * | 2021-07-05 | 2021-08-13 | 浙江师范大学 | 基于动态标签分配的孪生网络目标跟踪方法及移动设备 |
CN113706581A (zh) * | 2021-08-13 | 2021-11-26 | 河南大学 | 基于残差通道注意与多层次分类回归的目标跟踪方法 |
CN113706581B (zh) * | 2021-08-13 | 2024-02-20 | 河南大学 | 基于残差通道注意与多层次分类回归的目标跟踪方法 |
CN113888590A (zh) * | 2021-09-13 | 2022-01-04 | 华南理工大学 | 一种基于数据增强和孪生网络的视频目标跟踪方法 |
CN113888590B (zh) * | 2021-09-13 | 2024-04-16 | 华南理工大学 | 一种基于数据增强和孪生网络的视频目标跟踪方法 |
CN113808166B (zh) * | 2021-09-15 | 2023-04-18 | 西安电子科技大学 | 基于聚类差分和深度孪生卷积神经网络的单目标跟踪方法 |
CN113808166A (zh) * | 2021-09-15 | 2021-12-17 | 西安电子科技大学 | 基于聚类差分和深度孪生卷积神经网络的单目标跟踪方法 |
CN113762256B (zh) * | 2021-09-16 | 2023-12-19 | 山东工商学院 | 多视角专家组的区域建议预测的视觉跟踪方法及系统 |
CN113762256A (zh) * | 2021-09-16 | 2021-12-07 | 山东工商学院 | 多视角专家组的区域建议预测的视觉跟踪方法及系统 |
CN113850189B (zh) * | 2021-09-26 | 2024-06-21 | 北京航空航天大学 | 一种应用于机动平台的嵌入式孪生网络实时跟踪方法 |
CN113850189A (zh) * | 2021-09-26 | 2021-12-28 | 北京航空航天大学 | 一种应用于机动平台的嵌入式孪生网络实时跟踪方法 |
CN113870330B (zh) * | 2021-09-30 | 2023-05-12 | 四川大学 | 基于特定标签和损失函数的孪生视觉跟踪方法 |
CN114219826A (zh) * | 2021-09-30 | 2022-03-22 | 北京航空航天大学 | 一种应用于航拍视频中的地面目标跟踪方法 |
CN113870312A (zh) * | 2021-09-30 | 2021-12-31 | 四川大学 | 基于孪生网络的单目标跟踪方法 |
CN114219826B (zh) * | 2021-09-30 | 2024-06-07 | 北京航空航天大学 | 一种应用于航拍视频中的地面目标跟踪方法 |
CN113870312B (zh) * | 2021-09-30 | 2023-09-22 | 四川大学 | 基于孪生网络的单目标跟踪方法 |
CN113870330A (zh) * | 2021-09-30 | 2021-12-31 | 四川大学 | 基于特定标签和损失函数的孪生视觉跟踪方法 |
CN114240994B (zh) * | 2021-11-04 | 2024-07-19 | 北京工业大学 | 目标跟踪方法、装置、电子设备及存储介质 |
CN114240994A (zh) * | 2021-11-04 | 2022-03-25 | 北京工业大学 | 目标跟踪方法、装置、电子设备及存储介质 |
CN113793364A (zh) * | 2021-11-16 | 2021-12-14 | 深圳佑驾创新科技有限公司 | 目标跟踪方法、装置、计算机设备和存储介质 |
CN113963032A (zh) * | 2021-12-01 | 2022-01-21 | 浙江工业大学 | 一种融合目标重识别的孪生网络结构目标跟踪方法 |
WO2023159558A1 (zh) * | 2022-02-28 | 2023-08-31 | 中国科学院深圳先进技术研究院 | 一种实时目标跟踪方法、装置及存储介质 |
CN114596432A (zh) * | 2022-03-10 | 2022-06-07 | 山东大学 | 基于前景区域对应模板特征的视觉跟踪方法及系统 |
CN114639050A (zh) * | 2022-03-23 | 2022-06-17 | 北京科能腾达信息技术股份有限公司 | 一种基于尺度等变卷积孪生网络的序列图像目标跟踪方法 |
CN114900406B (zh) * | 2022-04-22 | 2023-08-08 | 深圳市人工智能与机器人研究院 | 一种基于孪生网络的盲调制信号识别方法 |
CN114900406A (zh) * | 2022-04-22 | 2022-08-12 | 深圳市人工智能与机器人研究院 | 一种基于孪生网络的盲调制信号识别方法 |
CN114820709B (zh) * | 2022-05-05 | 2024-03-08 | 郑州大学 | 基于改进UNet网络的单目标跟踪方法、装置、设备及介质 |
CN114820709A (zh) * | 2022-05-05 | 2022-07-29 | 郑州大学 | 基于改进UNet网络的单目标跟踪方法、装置、设备及介质 |
CN115761393A (zh) * | 2022-10-18 | 2023-03-07 | 北京航空航天大学 | 一种基于模板在线学习的无锚目标跟踪方法 |
CN116486203B (zh) * | 2023-04-24 | 2024-02-02 | 燕山大学 | 一种基于孪生网络和在线模板更新的单目标跟踪方法 |
CN116486203A (zh) * | 2023-04-24 | 2023-07-25 | 燕山大学 | 一种基于孪生网络和在线模板更新的单目标跟踪方法 |
CN116188804A (zh) * | 2023-04-25 | 2023-05-30 | 山东大学 | 一种基于transformer的孪生网络目标搜索系统 |
CN118210321A (zh) * | 2024-05-21 | 2024-06-18 | 鹰驾科技(深圳)有限公司 | 一种基于360环视摄像头的无人机行人跟踪系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111179307A (zh) | 一种全卷积分类及回归孪生网络结构的视觉目标跟踪方法 | |
CN113706581B (zh) | 基于残差通道注意与多层次分类回归的目标跟踪方法 | |
CN112184752A (zh) | 一种基于金字塔卷积的视频目标跟踪方法 | |
CN109214403B (zh) | 图像识别方法、装置及设备、可读介质 | |
CN109543701A (zh) | 视觉显著性区域检测方法及装置 | |
CN111260688A (zh) | 一种孪生双路目标跟踪方法 | |
CN109934846B (zh) | 基于时间和空间网络的深度集成目标跟踪方法 | |
CN112712546A (zh) | 一种基于孪生神经网络的目标跟踪方法 | |
CN105488812A (zh) | 一种融合运动特征的时空显著性检测方法 | |
CN104574445A (zh) | 一种目标跟踪方法及装置 | |
CN111640089A (zh) | 一种基于特征图中心点的缺陷检测方法及装置 | |
CN111738344A (zh) | 一种基于多尺度融合的快速目标检测方法 | |
CN102779157B (zh) | 搜索图像的方法和装置 | |
CN110827312A (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
CN111797841A (zh) | 一种基于深度残差网络的视觉显著性检测方法 | |
CN110569706A (zh) | 一种基于时间和空间网络的深度集成目标跟踪算法 | |
CN113850189A (zh) | 一种应用于机动平台的嵌入式孪生网络实时跟踪方法 | |
CN117152604A (zh) | 一种建筑物轮廓的提取方法、装置、电子设备和存储介质 | |
Sreekumar et al. | Hand segmentation in complex background using UNet | |
CN116051601A (zh) | 一种深度时空关联的视频目标跟踪方法及系统 | |
CN114707604A (zh) | 一种基于时空注意力机制的孪生网络跟踪系统及方法 | |
CN110751671B (zh) | 一种基于核相关滤波与运动估计的目标跟踪方法 | |
CN111008630A (zh) | 一种基于弱监督学习的目标定位方法 | |
CN111914809B (zh) | 目标对象定位方法、图像处理方法、装置和计算机设备 | |
CN113888597A (zh) | 一种基于轻量化目标跟踪网络的目标跟踪识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200519 |
|
RJ01 | Rejection of invention patent application after publication |