CN109886998B - 多目标跟踪方法、装置、计算机装置及计算机存储介质 - Google Patents
多目标跟踪方法、装置、计算机装置及计算机存储介质 Download PDFInfo
- Publication number
- CN109886998B CN109886998B CN201910064677.4A CN201910064677A CN109886998B CN 109886998 B CN109886998 B CN 109886998B CN 201910064677 A CN201910064677 A CN 201910064677A CN 109886998 B CN109886998 B CN 109886998B
- Authority
- CN
- China
- Prior art keywords
- target
- target frame
- frame
- screened
- frames
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 239000013598 vector Substances 0.000 claims abstract description 68
- 238000012549 training Methods 0.000 claims description 76
- 238000013528 artificial neural network Methods 0.000 claims description 31
- 238000013527 convolutional neural network Methods 0.000 claims description 30
- 238000004590 computer program Methods 0.000 claims description 23
- 238000003062 neural network model Methods 0.000 claims description 13
- 238000001514 detection method Methods 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 5
- 238000005065 mining Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000012216 screening Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000008685 targeting Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
一种多目标跟踪方法、装置、计算机装置及存储介质。所述多目标跟踪方法包括:利用目标检测器检测图像中的预定类型目标,得到所述预定类型目标的目标框;利用目标分类器对所述目标框打分,得到所述目标框属于指定目标的分数;删除所述目标框中所述分数低于预设阈值的目标框,得到筛选后的目标框;利用特征提取器提取所述筛选后的目标框的特征,得到所述筛选后的目标框的特征向量;根据所述特征向量将所述筛选后的目标框与所述图像的前一帧图像的各个目标框进行匹配,得到更新后的目标框。本发明解决了现有多目标跟踪方案中对目标检测器的依赖问题,并且提高了跟踪的精度和鲁棒性。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及一种多目标跟踪方法、装置、计算机装置及计算机存储介质。
背景技术
多目标跟踪是指对视频或图像序列中多个运动物体(例如交通视频中的汽车和行人)进行跟踪,得到运动物体在每一帧的位置。多目标跟踪在视频监控、自动驾驶和视频娱乐等领域有广泛的应用。
目前的多目标跟踪主要采用了track by detection架构,在视频或图像序列的每帧图像上通过检测器检测出各个目标的位置信息,然后将当前帧的目标位置信息和前一帧的目标位置信息进行匹配。如果检测器的精度不高、出现大量的错检或者检测框跟真实框的偏差过大,就会直接导致跟踪的精度变差、跟踪错误或丢失目标。
发明内容
鉴于以上内容,有必要提出一种多目标跟踪方法、装置、计算机装置及计算机存储介质,其可以解决现有多目标跟踪方案中对目标检测器的依赖问题,并且提高了跟踪的精度和鲁棒性。
本申请的第一方面提供一种多目标跟踪方法,所述方法包括:
利用目标检测器检测图像中的预定类型目标,得到所述预定类型目标的目标框;
利用目标分类器对所述目标框打分,得到所述目标框属于指定目标的分数;
删除所述目标框中所述分数低于预设阈值的目标框,得到筛选后的目标框;
利用特征提取器提取所述筛选后的目标框的特征,得到所述筛选后的目标框的特征向量;
根据所述特征向量将所述筛选后的目标框与所述图像的前一帧图像的各个目标框进行匹配,得到更新后的目标框。
另一种可能的实现方式中,所述目标检测器是加快区域卷积神经网络模型,所述加快区域卷积神经网络模型包括区域建议网络和快速区域卷积神经网络,所述加快区域卷积神经网络模型在检测所述图像中的预定类型目标之前按照以下步骤进行训练:
第一训练步骤,使用Imagenet模型初始化所述区域建议网络,使用训练样本集训练所述区域建议网络;
第二训练步骤,使用所述第一训练步骤中训练后的区域建议网络生成所述训练样本集中各个样本图像的候选框,利用所述候选框训练所述快速区域卷积神经网络;
第三训练步骤,使用所述第二训练步骤中训练后的快速区域卷积神经网络初始化所述区域建议网络,使用所述训练样本集训练所述区域建议网络;
第四训练步骤,使用所述第三训练步骤中训练后的区域建议网络初始化所述快速区域卷积神经网络,并保持所述卷积层固定,使用所述训练样本集训练所述快速区域卷积神经网络。
另一种可能的实现方式中,所述加快区域卷积神经网络模型采用ZF框架,所述区域建议网络和所述快速区域卷积神经网络共享5个卷积层。
另一种可能的实现方式中,所述目标分类器是区域全卷积网络模型。
另一种可能的实现方式中,所述利用特征提取器提取所述筛选后的目标框的特征包括:
采用重识别方法提取所述筛选后的目标框的特征。
另一种可能的实现方式中,所述根据所述特征向量将所述筛选后的目标框与所述图像的前一帧图像的各个目标框进行匹配包括:
根据所述特征向量计算所述筛选后的目标框与所述前一帧图像的各个目标框的差异值,根据所述差异值确定所述筛选后的目标框中与所述前一帧图像的各个目标框匹配的目标框。
另一种可能的实现方式中,所述根据所述特征向量计算所述筛选后的目标框与所述前一帧图像的各个目标框的差异值包括:
计算所述筛选后的目标框的特征向量与所述前一帧图像的各个目标框的特征向量的余弦距离,将所述余弦距离作为所述筛选后的目标框与所述前一帧图像的各个目标框的差异值;或
计算所述筛选后的目标框的特征向量与所述前一帧图像的各个目标框的特征向量的欧氏距离,将所述欧氏距离作为所述筛选后的目标框与所述前一帧图像的各个目标框的差异值。
本申请的第二方面提供一种多目标跟踪装置,所述装置包括:
检测模块,用于利用目标检测器检测图像中的预定类型目标,得到所述预定类型目标的目标框;
打分模块,用于利用目标分类器对所述目标框打分,得到所述目标框属于指定目标的分数;
删除模块,用于删除所述目标框中所述分数低于预设阈值的目标框,得到筛选后的目标框;
提取模块,用于利用特征提取器提取所述筛选后的目标框的特征,得到所述筛选后的目标框的特征向量;
匹配模块,用于根据所述特征向量将所述筛选后的目标框与所述图像的前一帧图像的各个目标框进行匹配,得到更新后的目标框。
本申请的第三方面提供一种计算机装置,所述计算机装置包括处理器,所述处理器用于执行存储器中存储的计算机程序时实现所述多目标跟踪方法。
本申请的第四方面提供一种计算机存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现所述多目标跟踪方法。
本发明利用目标检测器检测图像中的预定类型目标,得到所述预定类型目标的目标框;利用目标分类器对所述目标框打分,得到所述目标框属于指定目标的分数;删除所述目标框中所述分数低于预设阈值的目标框,得到筛选后的目标框;利用特征提取器提取所述筛选后的目标框的特征,得到所述筛选后的目标框的特征向量;根据所述特征向量将所述筛选后的目标框与所述图像的前一帧图像的各个目标框进行匹配,得到更新后的目标框。本发明解决了现有多目标跟踪方案中对目标检测器的依赖问题,并且提高了跟踪的精度和鲁棒性。
附图说明
图1是本发明实施例提供的多目标跟踪方法的流程图。
图2是本发明实施例提供的多目标跟踪装置的结构图。
图3是本发明实施例提供的计算机装置的示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施例对本发明进行详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
优选地,本发明的多目标跟踪方法应用在一个或者多个计算机装置中。所述计算机装置是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific IntegratedCircuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机装置可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机装置可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
实施例一
图1是本发明实施例一提供的多目标跟踪方法的流程图。所述多目标跟踪方法应用于计算机装置。
本发明多目标跟踪方法对视频或图像序列中指定类型的运动物体(例如行人)进行跟踪,得到运动物体在每一帧图像中的位置。所述多目标跟踪方法可以解决现有多目标跟踪方案中对目标检测器的依赖问题,并且提高了跟踪的精度和鲁棒性。
如图1所示,所述多目标跟踪方法包括:
步骤101,利用目标检测器检测图像中的预定类型目标,得到所述预定类型目标的目标框。
所述预定类型目标可以包括行人、汽车、飞机、船只等。所述预定类型目标可以是一种类型的目标(例如行人),也可以是多种类型的目标(例如行人和汽车)。
所述目标检测器可以是具有分类和回归功能的神经网络模型。在本实施例中,所述目标检测器可以是加快区域卷积神经网络(Faster Region-Based ConvolutionalNeural Network,Faster RCNN)模型。
Faster RCNN模型包括区域建议网络(Region Proposal Network,RPN)和快速区域卷积神经网络(Fast Region-based Convolution Neural Network,Fast RCNN)。
所述区域建议网络和所述快速区域卷积神经网络有共享的卷积层,所述卷积层用于提取图像的特征图。所述区域建议网络根据所述特征图生成图像的候选框,并将生成的候选框输入所述快速区域卷积神经网络。所述快速区域卷积神经网络根据所述特征图对所述候选框进行筛选和调整,得到图像的目标框。
在利用目标检测器检测图像中的预定类型目标之前,所述目标检测器需要使用训练样本集进行训练。在训练时,所述卷积层提取训练样本集中各个样本图像的特征图,所述区域建议网络根据所述特征图获取所述各个样本图像中的候选框,所述快速区域卷积神经网络根据所述特征图对所述候选框进行筛选和调整,得到所述各个样本图像的目标框。目标检测器检测预定类型目标(例如行人、汽车、飞机、船只等)的目标框。
在一较佳实施例中,所述加快区域卷积神经网络模型采用ZF框架,所述区域建议网络和所述快速区域卷积神经网络共享5个卷积层。
在一具体实施例中,可以按照以下步骤使用训练样本集对加快区域卷积神经网络模型进行训练:
(1)使用Imagenet模型初始化所述区域建议网络,使用所述训练样本集训练所述区域建议网络;
(2)使用(1)中训练后的区域建议网络生成训练样本集中各个样本图像的候选框,利用所述候选框训练所述快速区域卷积神经网络。此时,区域建议网络和快速区域卷积神经网络还没有共享卷积层;
(3)使用(2)中训练后的快速区域卷积神经网络初始化所述区域建议网络,使用训练样本集训练所述区域建议网络;
(4)使用(3)中训练后的区域建议网络初始化所述快速区域卷积神经网络,并保持所述卷积层固定,使用训练样本集训练所述快速区域卷积神经网络。此时,区域建议网络和快速区域卷积神经网络共享相同的卷积层,构成了一个统一的网络模型。
区域建议网络选取的候选框较多,可以根据候选框的目标分类得分筛选了若干个得分最高的候选框输入到快速区域卷积神经网络,以加快训练和检测的速度。
可以使用反向传播算法对区域建议网络进行训练,训练过程中调整区域建议网络的网络参数,使损失函数最小化。损失函数指示区域建议网络预测的候选框的预测置信度与真实置信度的差异。损失函数可以包括目标分类损失和回归损失两部分。
损失函数可以定义为:
其中,i为一个训练批量(mini-batch)中候选框的索引。
是候选框的目标分类损失。Ncls为训练批量的大小,例如256。pi是第i个候选框为目标的预测概率。是GT标签,若候选框为正(即分配的标签为正标签,称为正候选框),为1;若候选框为负(即分配的标签为负标签,称为负候选框),为0。可以计算为
是候选框的回归损失。λ为平衡权重,可以取为10。Nreg为候选框的数量。可以计算为ti是一个坐标向量,即ti=(tx,ty,tw,th),表示候选框的4个参数化坐标(例如候选框左上角的坐标以及宽度、高度)。是与正候选框对应的GT边界框的坐标向量,即 (例如真实目标框左上角的坐标以及宽度、高度)。R为具有鲁棒性的损失函数(smoothL1),定义为:
快速区域卷积网络的训练方法可以参照区域建议网络的训练方法,此处不再赘述。
在本实施例中,在快速区域卷积网络的训练中加入负样本难例挖掘(HardNegative Mining,HNM)方法。对于被快速区域卷积网络错误地分类为正样本的负样本(即难例),将这些负样本的信息记录下来,在下次迭代训练的过程中,将这些负样本再次输入到训练样本集中,并且加大其损失的权重,增强其对分类器的影响,这样能够保证不停的针对更难的负样本进行分类,使得分类器学到的特征由易到难,涵盖的样本分布也更具多样性。
在其他的实施例中,所述目标检测器还可以是其他的神经网络模型,例如区域卷积神经网络(RCNN)模型、加快卷积神经网络(Faster RCNN)模型。
利用目标检测器检测图像中的预定类型目标时,将所述图像输入所述目标检测器,所述目标检测器对图像中的预定类型目标进行检测,输出所述图像中的预定类型目标的目标框的位置。例如,所述目标检测器输出所述图像中的6个目标框。目标框可以以矩形框的形式呈现。目标框的位置可以用位置坐标表示,所述位置坐标可以包括左上角坐标(x,y)和宽高(w,h)。
所述目标检测器还可以输出每个目标框的类型,例如输出5个行人类型的目标框(称为行人目标框)和1个汽车类型的目标框(称为汽车目标框)。本方法对目标检测器的精度要求不高,所述目标检测器输出的目标框的类型可能是不准确的。
步骤102,利用目标分类器对所述目标框打分,得到所述目标框属于指定目标的分数。
将所述图像和所述目标框的位置输入目标分类器,所述目标分类器对每个目标框打分,得到每个目标框的分数。
所述指定目标包含在所述预定类型目标中。例如,所述预定类型目标包括行人和汽车,所述指定目标包括行人。
预定类型目标的目标框可以是多个,利用目标分类器对目标框打分是对每个目标框分别进行打分,得到每个目标框属于指定目标的分数。例如,在对行人进行跟踪的应用中,对得到的5个行人目标框和1个汽车目标框进行打分,得到每个目标框属于行人的分数。
目标检测器检测得到的预定类型目标的目标框中可能含有非指定目标的目标框,目标分类器对所述目标框打分的目的是要识别出非指定目标的目标框。若目标框属于指定目标,则属于指定目标的分数较高;若目标框不属于指定目标,则属于指定目标的分数较低。例如,指定目标是行人,输入的是行人目标框,得到的分数为0.9,输入的是汽车目标框,得到的分数为0.1。
所述目标分类器可以是神经网络模型。在本实施例中,所述目标分类器可以是区域全卷积网络(Region-based Fully Convolutional Network,R-FCN)模型。
R-FCN模型也包括区域建议网络。与Faster RCNN模型相比,R-FCN模型具有更深的共享卷积层,可以获得更加抽象的特征用于打分。
R-FCN模型获取目标框的的位置敏感得分图(position-sensitive score map),根据所述位置敏感得分图对所述目标框打分。
在利用目标分类器对所述目标框进行打分之前,需要使用训练样本集对目标检测器进行训练。目标分类器的训练可以参考现有技术,此处不再赘述。
步骤103,删除所述目标框中所述分数低于预设阈值的目标框,得到筛选后的目标框。
筛选后的目标框也就是指定目标的目标框。
可以判断所述目标框中每个目标框属于指定目标的分数是否低于所述预设阈值(例如0.7),若目标框属于指定目标的分数低于所述预设阈值,则删除该目标框。若目标框属于指定目标的分数低于所述预设阈值,则认定该目标框是错检,删除该目标框。例如,得到的5个行人目标框的分数分别是0.9、0.8、0.7、0.8、0.9,得到的1个汽车目标框的分数是0.1,汽车目标框的分数低于所述预设阈值,则删除该汽车目标框,剩下5个行人目标框。
所述预设阈值可以根据实际需要进行设置。
步骤104,利用特征提取器提取所述筛选后的目标框的特征,得到所述筛选后的目标框的特征向量。
将所述筛选后的目标框输入到特征提取器,所述特征提取器提取所述筛选后的目标框的特征,得到所述筛选后的目标框的特征向量。
筛选后的目标框可以有多个,利用特征提取器提取筛选后的目标框的特征是提取每个筛选后的目标框的特征,得到每个筛选后的目标框的特征向量。
所述特征提取器可以是神经网络模型。在本实施例中,可以采用重识别(Re-Identification,ReID)方法提取筛选后的目标框的特征。例如,所述方法用于对行人进行跟踪,可以采用ReID方法,例如部位对齐ReID(part-aligned ReID)方法提取筛选后的行人目标框的特征(称为行人重识别特征)。
提取的所述筛选后的目标框的特征可以包括全局特征和局部特征。提取局部特征的方式可以包括图像切块、利用关键点(例如骨架关键点)定位以及姿态/角度矫正等。
在一具体实施例中,所述方法用于对行人进行跟踪,可以利用特征提取卷积神经网络(CNN)模型提取筛选后的目标框的特征。所述特征提取CNN模型包括线性的三个子网络FEN-C1、FEN-C2、FEN-C3。对于每个筛选后的目标框,可以提取目标框中的14个骨架关键点,根据所述14个骨架关键点获取7个感兴趣区域(Region of interest,ROI))区域,所述7个感兴趣区域包括头、上身、下身3个大区域和4个四肢小区域。目标框经过完整的特征提取CNN模型得到全局特征。3个大区域经过FEN-C2和FEN-C3子网络得到三个局部特征。四个四肢区域经过FEN-C3子网络得到四个局部特征。所有8个特征在不同的尺度进行联结,最终得到一个融合全局特征和多个尺度局部特征的行人重识别特征。
在一具体实施例中,提取的筛选后的目标框的特征向量是128维的特征向量。
步骤105,根据所述特征向量将所述筛选后的目标框与所述图像的前一帧图像的各个目标框进行匹配,得到更新后的目标框。
可以根据所述特征向量计算所述筛选后的目标框与所述前一帧图像的各个目标框的差异值,根据所述差异值确定所述筛选后的目标框中与所述前一帧图像的各个目标框匹配的目标框,得到更新后的目标框。
例如,筛选后的目标框包括目标框A1、目标框A2、目标框A3、目标框A4,前一帧图像的目标框包括目标框B1、目标框B2、目标框B3、目标框B4。对于目标框A1,计算目标框A1与目标框B1、目标框A1与目标框B2、目标框A1与目标框B3、目标框A1与目标框B4的差异值,将差异值最小且不大于预设差异值的一组目标框(例如目标框A1与目标框B1)确定为匹配的目标框。类似地,对于目标框A2,计算目标框A2与目标框B1、目标框A2与目标框B2、目标框A2与目标框B3、目标框A2与目标框B4的差异值,将差异值最小且不大于预设差异值的一组目标框(例如目标框A2与目标框B2)确定为匹配的目标框;对于目标框A3,计算目标框A3与目标框B1、目标框A3与目标框B2、目标框A3与目标框B3、目标框A3与目标框B4的差异值,将差异值最小且不大于预设差异值的一组目标框(例如目标框A3与目标框B3)确定为匹配的目标框;对于目标框A4,计算目标框A4与目标框B1、目标框A4与目标框B2、目标框A4与目标框B3、目标框A4与目标框B4的差异值,将差异值最小且不大于预设差异值的一组目标框(例如目标框A4与目标框B4)确定为匹配的目标框。因此,更新后的目标框包括目标框A1、目标框A2、目标框A3、目标框A4,分别对应前一帧图像中目标框B1、目标框B2、目标框B3、目标框B4。
可以计算所述筛选后的目标框的特征向量与前一帧图像的各个目标框的特征向量的余弦距离,将所述余弦距离作为所述筛选后的目标框与所述前一帧图像的各个目标框的差异值。
或者,可以计算所述筛选后的目标框的特征向量与前一帧图像的各个目标框的特征向量的欧氏距离,将所述欧氏距离作为所述筛选后的目标框与所述前一帧图像的各个目标框的差异值。
如果所述筛选后的目标框与所述前一帧图像的各个目标框的差异值均大于预设差异值,则将所述筛选后的目标框存储为新的目标框。
需要说明的是,如果是对连续拍摄的多帧图像中的第一帧图像进行处理,即不存在前一帧图像,则在步骤104得到筛选后的目标框的特征向量之后,直接将筛选后的目标框的特征向量进行存储。
综上所述,根据上述目标跟踪方法,利用目标检测器检测图像中的预定类型目标,得到所述预定类型目标的目标框;利用目标分类器对所述目标框打分,得到所述目标框属于指定目标的分数;删除所述目标框中所述分数低于预设阈值的目标框,得到筛选后的目标框;利用特征提取器提取所述筛选后的目标框的特征,得到所述筛选后的目标框的特征向量;根据所述特征向量将所述筛选后的目标框与所述图像的前一帧图像的各个目标框进行匹配,得到更新后的目标框。本发明解决了现有多目标跟踪方案中对目标检测器的依赖问题,并且提高了跟踪的精度和鲁棒性。
实施例二
图2是本发明实施例二提供的多目标跟踪装置的结构图。所述多目标跟踪装置20应用于计算机装置。本装置的多目标跟踪对视频或图像序列中指定类型的运动物体(例如行人)进行跟踪,得到运动物体在每一帧图像中的位置。所述多目标跟踪装置20可以解决现有多目标跟踪方案中对目标检测器的依赖问题,并且提高了跟踪的精度和鲁棒性。如图2所示,所述多目标跟踪装置20可以包括检测模块201、打分模块202、删除模块203、提取模块204、匹配模块205。
检测模块201,用于利用目标检测器检测图像中的预定类型目标,得到所述预定类型目标的目标框。
所述预定类型目标可以包括行人、汽车、飞机、船只等。所述预定类型目标可以是一种类型的目标(例如行人),也可以是多种类型的目标(例如行人和汽车)。
所述目标检测器可以是具有分类和回归功能的神经网络模型。在本实施例中,所述目标检测器可以是加快区域卷积神经网络(Faster Region-Based ConvolutionalNeural Network,Faster RCNN)模型。
Faster RCNN模型包括区域建议网络(Region Proposal Network,RPN)和快速区域卷积神经网络(Fast Region-based Convolution Neural Network,Fast RCNN)。
所述区域建议网络和所述快速区域卷积神经网络有共享的卷积层,所述卷积层用于提取图像的特征图。所述区域建议网络根据所述特征图生成图像的候选框,并将生成的候选框输入所述快速区域卷积神经网络。所述快速区域卷积神经网络根据所述特征图对所述候选框进行筛选和调整,得到图像的目标框。
在利用目标检测器检测图像中的预定类型目标之前,所述目标检测器需要使用训练样本集进行训练。在训练时,所述卷积层提取训练样本集中各个样本图像的特征图,所述区域建议网络根据所述特征图获取所述各个样本图像中的候选框,所述快速区域卷积神经网络根据所述特征图对所述候选框进行筛选和调整,得到所述各个样本图像的目标框。目标检测器检测预定类型目标(例如行人、汽车、飞机、船只等)的目标框。
在一较佳实施例中,所述加快区域卷积神经网络模型采用ZF框架,所述区域建议网络和所述快速区域卷积神经网络共享5个卷积层。
在一具体实施例中,可以按照以下步骤使用训练样本集对加快区域卷积神经网络模型进行训练:
(1)使用Imagenet模型初始化所述区域建议网络,使用所述训练样本集训练所述区域建议网络;
(2)使用(1)中训练后的区域建议网络生成训练样本集中各个样本图像的候选框,利用所述候选框训练所述快速区域卷积神经网络。此时,区域建议网络和快速区域卷积神经网络还没有共享卷积层;
(3)使用(2)中训练后的快速区域卷积神经网络初始化所述区域建议网络,使用训练样本集训练所述区域建议网络;
(4)使用(3)中训练后的区域建议网络初始化所述快速区域卷积神经网络,并保持所述卷积层固定,使用训练样本集训练所述快速区域卷积神经网络。此时,区域建议网络和快速区域卷积神经网络共享相同的卷积层,构成了一个统一的网络模型。
区域建议网络选取的候选框较多,可以根据候选框的目标分类得分筛选了若干个得分最高的候选框输入到快速区域卷积神经网络,以加快训练和检测的速度。
可以使用反向传播算法对区域建议网络进行训练,训练过程中调整区域建议网络的网络参数,使损失函数最小化。损失函数指示区域建议网络预测的候选框的预测置信度与真实置信度的差异。损失函数可以包括目标分类损失和回归损失两部分。
其中,i为一个训练批量(mini-batch)中候选框的索引。
是候选框的目标分类损失。Ncls为训练批量的大小,例如256。pi是第i个候选框为目标的预测概率。是GT标签,若候选框为正(即分配的标签为正标签,称为正候选框),为1;若候选框为负(即分配的标签为负标签,称为负候选框),为0。可以计算为
是候选框的回归损失。λ为平衡权重,可以取为10。Nreg为候选框的数量。可以计算为ti是一个坐标向量,即ti=(tx,ty,tw,th),表示候选框的4个参数化坐标(例如候选框左上角的坐标以及宽度、高度)。是与正候选框对应的GT边界框的坐标向量,即 (例如真实目标框左上角的坐标以及宽度、高度)。R为具有鲁棒性的损失函数(smoothL1),定义为:
快速区域卷积网络的训练方法可以参照区域建议网络的训练方法,此处不再赘述。
在本实施例中,在快速区域卷积网络的训练中加入负样本难例挖掘(HardNegative Mining,HNM)方法。对于被快速区域卷积网络错误地分类为正样本的负样本(即难例),将这些负样本的信息记录下来,在下次迭代训练的过程中,将这些负样本再次输入到训练样本集中,并且加大其损失的权重,增强其对分类器的影响,这样能够保证不停的针对更难的负样本进行分类,使得分类器学到的特征由易到难,涵盖的样本分布也更具多样性。
在其他的实施例中,所述目标检测器还可以是其他的神经网络模型,例如区域卷积神经网络(RCNN)模型、加快卷积神经网络(Faster RCNN)模型。
利用目标检测器检测图像中的预定类型目标时,将所述图像输入所述目标检测器,所述目标检测器对图像中的预定类型目标进行检测,输出所述图像中的预定类型目标的目标框的位置。例如,所述目标检测器输出所述图像中的6个目标框。目标框可以以矩形框的形式呈现。目标框的位置可以用位置坐标表示,所述位置坐标可以包括左上角坐标(x,y)和宽高(w,h)。
所述目标检测器还可以输出每个目标框的类型,例如输出5个行人类型的目标框(称为行人目标框)和1个汽车类型的目标框(称为汽车目标框)。本方法对目标检测器的精度要求不高,所述目标检测器输出的目标框的类型可能是不准确的。
打分模块202,用于利用目标分类器对所述目标框打分,得到所述目标框属于指定目标的分数。
将所述图像和所述目标框的位置输入目标分类器,所述目标分类器对每个目标框打分,得到每个目标框的分数。
所述指定目标包含在所述预定类型目标中。例如,所述预定类型目标包括行人和汽车,所述指定目标包括行人。
预定类型目标的目标框可以是多个,利用目标分类器对目标框打分是对每个目标框分别进行打分,得到每个目标框属于指定目标的分数。例如,在对行人进行跟踪的应用中,对得到的5个行人目标框和1个汽车目标框进行打分,得到每个目标框属于行人的分数。
目标检测器检测得到的预定类型目标的目标框中可能含有非指定目标的目标框,目标分类器对所述目标框打分的目的是要识别出非指定目标的目标框。若目标框属于指定目标,则属于指定目标的分数较高;若目标框不属于指定目标,则属于指定目标的分数较低。例如,指定目标是行人,输入的是行人目标框,得到的分数为0.9,输入的是汽车目标框,得到的分数为0.1。
所述目标分类器可以是神经网络模型。在本实施例中,所述目标分类器可以是区域全卷积网络(Region-based Fully Convolutional Network,R-FCN)模型。
R-FCN模型也包括区域建议网络。与Faster RCNN模型相比,R-FCN模型具有更深的共享卷积层,可以获得更加抽象的特征用于打分。
R-FCN模型获取目标框的的位置敏感得分图(position-sensitive score map),根据所述位置敏感得分图对所述目标框打分。
在利用目标分类器对所述目标框进行打分之前,需要使用训练样本集对目标检测器进行训练。目标分类器的训练可以参考现有技术,此处不再赘述。
删除模块203,用于删除所述目标框中所述分数低于预设阈值的目标框,得到筛选后的目标框。
筛选后的目标框也就是指定目标的目标框。
可以判断所述目标框中每个目标框属于指定目标的分数是否低于所述预设阈值(例如0.7),若目标框属于指定目标的分数低于所述预设阈值,则删除该目标框。若目标框属于指定目标的分数低于所述预设阈值,则认定该目标框是错检,删除该目标框。例如,得到的5个行人目标框的分数分别是0.9、0.8、0.7、0.8、0.9,得到的1个汽车目标框的分数是0.1,汽车目标框的分数低于所述预设阈值,则删除该汽车目标框,剩下5个行人目标框。
所述预设阈值可以根据实际需要进行设置。
提取模块204,用于利用特征提取器提取所述筛选后的目标框的特征,得到所述筛选后的目标框的特征向量。
将所述筛选后的目标框输入到特征提取器,所述特征提取器提取所述筛选后的目标框的特征,得到所述筛选后的目标框的特征向量。
筛选后的目标框可以有多个,利用特征提取器提取筛选后的目标框的特征是提取每个筛选后的目标框的特征,得到每个筛选后的目标框的特征向量。
所述特征提取器可以是神经网络模型。在本实施例中,可以采用重识别(Re-Identification,ReID)方法提取筛选后的目标框的特征。例如,所述方法用于对行人进行跟踪,可以采用ReID方法,例如部位对齐ReID(part-aligned ReID)方法提取筛选后的行人目标框的特征(称为行人重识别特征)。
提取的所述筛选后的目标框的特征可以包括全局特征和局部特征。提取局部特征的方式可以包括图像切块、利用关键点(例如骨架关键点)定位以及姿态/角度矫正等。
在一具体实施例中,所述方法用于对行人进行跟踪,可以利用特征提取卷积神经网络(CNN)模型提取筛选后的目标框的特征。所述特征提取CNN模型包括线性的三个子网络FEN-C1、FEN-C2、FEN-C3。对于每个筛选后的目标框,可以提取目标框中的14个骨架关键点,根据所述14个骨架关键点获取7个感兴趣区域(Region of interest,ROI))区域,所述7个感兴趣区域包括头、上身、下身3个大区域和4个四肢小区域。目标框经过完整的特征提取CNN模型得到全局特征。3个大区域经过FEN-C2和FEN-C3子网络得到三个局部特征。四个四肢区域经过FEN-C3子网络得到四个局部特征。所有8个特征在不同的尺度进行联结,最终得到一个融合全局特征和多个尺度局部特征的行人重识别特征。
在一具体实施例中,提取的筛选后的目标框的特征向量是128维的特征向量。
匹配模块205,用于根据所述特征向量将所述筛选后的目标框与所述图像的前一帧图像的各个目标框进行匹配,得到更新后的目标框。
可以根据所述特征向量计算所述筛选后的目标框与所述前一帧图像的各个目标框的差异值,根据所述差异值确定所述筛选后的目标框中与所述前一帧图像的各个目标框匹配的目标框,得到更新后的目标框。
例如,筛选后的目标框包括目标框A1、目标框A2、目标框A3、目标框A4,前一帧图像的目标框包括目标框B1、目标框B2、目标框B3、目标框B4。对于目标框A1,计算目标框A1与目标框B1、目标框A1与目标框B2、目标框A1与目标框B3、目标框A1与目标框B4的差异值,将差异值最小且不大于预设差异值的一组目标框(例如目标框A1与目标框B1)确定为匹配的目标框。类似地,对于目标框A2,计算目标框A2与目标框B1、目标框A2与目标框B2、目标框A2与目标框B3、目标框A2与目标框B4的差异值,将差异值最小且不大于预设差异值的一组目标框(例如目标框A2与目标框B2)确定为匹配的目标框;对于目标框A3,计算目标框A3与目标框B1、目标框A3与目标框B2、目标框A3与目标框B3、目标框A3与目标框B4的差异值,将差异值最小且不大于预设差异值的一组目标框(例如目标框A3与目标框B3)确定为匹配的目标框;对于目标框A4,计算目标框A4与目标框B1、目标框A4与目标框B2、目标框A4与目标框B3、目标框A4与目标框B4的差异值,将差异值最小且不大于预设差异值的一组目标框(例如目标框A4与目标框B4)确定为匹配的目标框。因此,更新后的目标框包括目标框A1、目标框A2、目标框A3、目标框A4,分别对应前一帧图像中目标框B1、目标框B2、目标框B3、目标框B4。
可以计算所述筛选后的目标框的特征向量与前一帧图像的各个目标框的特征向量的余弦距离,将所述余弦距离作为所述筛选后的目标框与所述前一帧图像的各个目标框的差异值。
或者,可以计算所述筛选后的目标框的特征向量与前一帧图像的各个目标框的特征向量的欧氏距离,将所述欧氏距离作为所述筛选后的目标框与所述前一帧图像的各个目标框的差异值。
如果所述筛选后的目标框与所述前一帧图像的各个目标框的差异值均大于预设差异值,则将所述筛选后的目标框存储为新的目标框。
需要说明的是,如果是对连续拍摄的多帧图像中的第一帧图像进行处理,即不存在前一帧图像,则在模块204得到筛选后的目标框的特征向量之后,直接将筛选后的目标框的特征向量进行存储。
本实施例供了一种多目标跟踪装置20。所述多目标跟踪是对视频或图像序列中指定类型的运动物体(例如行人)进行跟踪,得到运动物体在每一帧图像中的位置。所述多目标跟踪装置20利用目标检测器检测图像中的预定类型目标,得到所述预定类型目标的目标框;利用目标分类器对所述目标框打分,得到所述目标框属于指定目标的分数;删除所述目标框中所述分数低于预设阈值的目标框,得到筛选后的目标框;利用特征提取器提取所述筛选后的目标框的特征,得到所述筛选后的目标框的特征向量;根据所述特征向量将所述筛选后的目标框与所述图像的前一帧图像的各个目标框进行匹配,得到更新后的目标框。本实施例解决了现有多目标跟踪方案中对目标检测器的依赖问题,并且提高了跟踪的精度和鲁棒性。
实施例三
本实施例提供一种计算机存储介质,该计算机存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述多目标跟踪方法实施例中的步骤,例如图1所示的步骤101-105:
步骤101,利用目标检测器检测图像中的预定类型目标,得到所述预定类型目标的目标框;
步骤102,利用目标分类器对所述目标框打分,得到所述目标框属于指定目标的分数;
步骤103,删除所述目标框中所述分数低于预设阈值的目标框,得到筛选后的目标框;
步骤104,利用特征提取器提取所述筛选后的目标框的特征,得到所述筛选后的目标框的特征向量;
步骤105,根据所述特征向量将所述筛选后的目标框与所述图像的前一帧图像的各个目标框进行匹配,得到更新后的目标框。
或者,该计算机程序被处理器执行时实现上述装置实施例中各模块的功能,例如图2中的模块201-205:
检测模块201,用于利用目标检测器检测图像中的预定类型目标,得到所述预定类型目标的目标框;
打分模块202,用于利用目标分类器对所述目标框打分,得到所述目标框属于指定目标的分数;
删除模块203,用于删除所述目标框中所述分数低于预设阈值的目标框,得到筛选后的目标框;
提取模块204,用于利用特征提取器提取所述筛选后的目标框的特征,得到所述筛选后的目标框的特征向量;
匹配模块205,用于根据所述特征向量将所述筛选后的目标框与所述图像的前一帧图像的各个目标框进行匹配,得到更新后的目标框。
实施例四
图3为本发明实施例四提供的计算机装置的示意图。所述计算机装置30包括存储器301、处理器302以及存储在所述存储器301中并可在所述处理器302上运行的计算机程序303,例如多目标跟踪程序。所述处理器302执行所述计算机程序303时实现上述多目标跟踪方法实施例中的步骤,例如图1所示的步骤101-105:
步骤101,利用目标检测器检测图像中的预定类型目标,得到所述预定类型目标的目标框;
步骤102,利用目标分类器对所述目标框打分,得到所述目标框属于指定目标的分数;
步骤103,删除所述目标框中所述分数低于预设阈值的目标框,得到筛选后的目标框;
步骤104,利用特征提取器提取所述筛选后的目标框的特征,得到所述筛选后的目标框的特征向量;
步骤105,根据所述特征向量将所述筛选后的目标框与所述图像的前一帧图像的各个目标框进行匹配,得到更新后的目标框。
或者,该计算机程序被处理器执行时实现上述装置实施例中各模块的功能,例如图2中的模块201-205:
检测模块201,用于利用目标检测器检测图像中的预定类型目标,得到所述预定类型目标的目标框;
打分模块202,用于利用目标分类器对所述目标框打分,得到所述目标框属于指定目标的分数;
删除模块203,用于删除所述目标框中所述分数低于预设阈值的目标框,得到筛选后的目标框;
提取模块204,用于利用特征提取器提取所述筛选后的目标框的特征,得到所述筛选后的目标框的特征向量;
匹配模块205,用于根据所述特征向量将所述筛选后的目标框与所述图像的前一帧图像的各个目标框进行匹配,得到更新后的目标框。
示例性的,所述计算机程序303可以被分割成一个或多个模块,所述一个或者多个模块被存储在所述存储器301中,并由所述处理器302执行,以完成本方法。所述一个或多个模块可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序303在所述计算机装置30中的执行过程。例如,所述计算机程序303可以被分割成图2中的检测模块201、打分模块202、删除模块203、提取模块204,匹配模块205,各模块具体功能参见实施例二。
所述计算机装置30可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。本领域技术人员可以理解,所述示意图3仅仅是计算机装置30的示例,并不构成对计算机装置30的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述计算机装置30还可以包括输入输出设备、网络接入设备、总线等。
所称处理器302可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器302也可以是任何常规的处理器等,所述处理器302是所述计算机装置30的控制中心,利用各种接口和线路连接整个计算机装置30的各个部分。
所述存储器301可用于存储所述计算机程序303,所述处理器302通过运行或执行存储在所述存储器301内的计算机程序或模块,以及调用存储在存储器301内的数据,实现所述计算机装置30的各种功能。所述存储器301可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据计算机装置30的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器301可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
所述计算机装置30集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
上述以软件功能模块的形式实现的集成的模块,可以存储在一个计算机可读取存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他模块或步骤,单数不排除复数。系统权利要求中陈述的多个模块或装置也可以由一个模块或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (9)
1.一种多目标跟踪方法,其特征在于,所述方法包括:
利用目标检测器检测图像中的预定类型目标,得到所述预定类型目标的目标框;
利用目标分类器对所述目标框打分,得到所述目标框属于指定目标的分数,所述指定目标包括行人;
删除所述目标框中所述分数低于预设阈值的目标框,得到筛选后的目标框;
利用特征提取器提取所述筛选后的目标框的特征,得到所述筛选后的目标框的特征向量,所述特征提取器包括FEN-C1、FEN-C2及FEN-C3子网络,包括:基于所述特征提取器对所述筛选后的目标框进行特征提取,得到全局特征,从所述筛选后的目标框中提取所述行人的多个骨架关键点,根据所述多个骨架关键点从所述筛选后的目标框中获取关于头部、上身、下身的感兴趣区域以及关于四肢的多个感兴趣区域,将关于头部、上身、下身的感兴趣区域输入至FEN-C2、FEN-C3,得到关于头部、上身、下身的感兴趣区域分别对应的局部特征,将关于四肢的每个感兴趣区域输入FEN-C3子网络,得到关于四肢的每个感兴趣区域对应的局部特征,将所述全局特征及所有的局部特征进行联结,得到所述特征向量;
根据所述特征向量将所述筛选后的目标框与所述图像的前一帧图像的各个目标框进行匹配,得到更新后的目标框,包括:根据所述特征向量计算所述筛选后的目标框与所述前一帧图像的各个目标框的差异值,根据所述差异值确定所述筛选后的目标框中与所述前一帧图像的各个目标框匹配的目标框。
2.如权利要求1所述的方法,其特征在于,所述目标检测器是加快区域卷积神经网络模型,所述加快区域卷积神经网络模型包括区域建议网络和快速区域卷积神经网络,所述加快区域卷积神经网络模型在检测所述图像中的预定类型目标之前按照以下步骤进行训练:
第一训练步骤,使用Imagenet模型初始化所述区域建议网络,使用训练样本集训练所述区域建议网络;
第二训练步骤,使用所述第一训练步骤中训练后的区域建议网络生成所述训练样本集中各个样本图像的候选框,利用所述候选框训练所述快速区域卷积神经网络;
第三训练步骤,使用所述第二训练步骤中训练后的快速区域卷积神经网络初始化所述区域建议网络,使用所述训练样本集训练所述区域建议网络;
第四训练步骤,使用所述第三训练步骤中训练后的区域建议网络初始化所述快速区域卷积神经网络,并保持卷积层固定,使用所述训练样本集训练所述快速区域卷积神经网络。
3.如权利要求2所述的方法,其特征在于,所述加快区域卷积神经网络模型采用ZF框架,所述区域建议网络和所述快速区域卷积神经网络共享5个卷积层。
4.如权利要求1所述的方法,其特征在于,所述目标分类器是区域全卷积网络模型。
5.如权利要求1所述的方法,其特征在于,所述利用特征提取器提取所述筛选后的目标框的特征包括:
采用重识别方法提取所述筛选后的目标框的特征。
6.如权利要求1所述的方法,其特征在于,所述根据所述特征向量计算所述筛选后的目标框与所述前一帧图像的各个目标框的差异值包括:
计算所述筛选后的目标框的特征向量与所述前一帧图像的各个目标框的特征向量的余弦距离,将所述余弦距离作为所述筛选后的目标框与所述前一帧图像的各个目标框的差异值;或
计算所述筛选后的目标框的特征向量与所述前一帧图像的各个目标框的特征向量的欧氏距离,将所述欧氏距离作为所述筛选后的目标框与所述前一帧图像的各个目标框的差异值。
7.一种多目标跟踪装置,所述装置用于实现如权利要求1-6中任一项所述多目标跟踪方法,其特征在于,所述装置包括:
检测模块,用于利用目标检测器检测图像中的预定类型目标,得到所述预定类型目标的目标框;
打分模块,用于利用目标分类器对所述目标框打分,得到所述目标框属于指定目标的分数;
删除模块,用于删除所述目标框中所述分数低于预设阈值的目标框,得到筛选后的目标框;
提取模块,用于利用特征提取器提取所述筛选后的目标框的特征,得到所述筛选后的目标框的特征向量;
匹配模块,用于根据所述特征向量将所述筛选后的目标框与所述图像的前一帧图像的各个目标框进行匹配,得到更新后的目标框。
8.一种计算机装置,其特征在于:所述计算机装置包括处理器,所述处理器用于执行存储器中存储的计算机程序以实现如权利要求1-6中任一项所述多目标跟踪方法。
9.一种计算机存储介质,所述计算机存储介质上存储有计算机程序,其特征在于:所述计算机程序被处理器执行时实现如权利要求1-6中任一项所述多目标跟踪方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910064677.4A CN109886998B (zh) | 2019-01-23 | 2019-01-23 | 多目标跟踪方法、装置、计算机装置及计算机存储介质 |
PCT/CN2019/091158 WO2020151166A1 (zh) | 2019-01-23 | 2019-06-13 | 多目标跟踪方法、装置、计算机装置及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910064677.4A CN109886998B (zh) | 2019-01-23 | 2019-01-23 | 多目标跟踪方法、装置、计算机装置及计算机存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109886998A CN109886998A (zh) | 2019-06-14 |
CN109886998B true CN109886998B (zh) | 2024-09-06 |
Family
ID=66926556
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910064677.4A Active CN109886998B (zh) | 2019-01-23 | 2019-01-23 | 多目标跟踪方法、装置、计算机装置及计算机存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN109886998B (zh) |
WO (1) | WO2020151166A1 (zh) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110826403B (zh) * | 2019-09-27 | 2020-11-24 | 深圳云天励飞技术有限公司 | 跟踪目标确定方法及相关设备 |
CN110992401A (zh) * | 2019-11-25 | 2020-04-10 | 上海眼控科技股份有限公司 | 目标跟踪方法、装置、计算机设备和存储介质 |
CN111091091A (zh) * | 2019-12-16 | 2020-05-01 | 北京迈格威科技有限公司 | 目标对象重识别特征的提取方法、装置、设备及存储介质 |
CN111340092B (zh) * | 2020-02-21 | 2023-09-22 | 浙江大华技术股份有限公司 | 一种目标关联处理方法及装置 |
CN111401224B (zh) * | 2020-03-13 | 2023-05-23 | 北京字节跳动网络技术有限公司 | 目标检测方法、装置及电子设备 |
CN113766175B (zh) * | 2020-06-04 | 2024-08-13 | 杭州萤石软件有限公司 | 目标监控方法、装置、设备及存储介质 |
CN111783797B (zh) * | 2020-06-30 | 2023-08-18 | 杭州海康威视数字技术股份有限公司 | 目标检测方法、装置及存储介质 |
CN111881908B (zh) * | 2020-07-20 | 2024-04-05 | 北京百度网讯科技有限公司 | 目标检测模型的修正方法、检测方法、装置、设备及介质 |
CN111931641B (zh) * | 2020-08-07 | 2023-08-22 | 华南理工大学 | 基于权重多样性正则化的行人重识别方法及其应用 |
CN112055172B (zh) * | 2020-08-19 | 2022-04-19 | 浙江大华技术股份有限公司 | 一种监控视频的处理方法、装置以及存储介质 |
CN112070175B (zh) * | 2020-09-04 | 2024-06-07 | 湖南国科微电子股份有限公司 | 视觉里程计方法、装置、电子设备及存储介质 |
CN112183558A (zh) * | 2020-09-30 | 2021-01-05 | 北京理工大学 | 一种基于YOLOv3的目标检测和特征提取一体化网络 |
CN112417970A (zh) * | 2020-10-22 | 2021-02-26 | 北京迈格威科技有限公司 | 目标对象识别方法、装置和电子系统 |
CN112257809B (zh) * | 2020-11-02 | 2023-07-14 | 浙江大华技术股份有限公司 | 目标检测网络优化方法和装置、存储介质及电子设备 |
CN112418278A (zh) * | 2020-11-05 | 2021-02-26 | 中保车服科技服务股份有限公司 | 一种多类物体检测方法、终端设备及存储介质 |
CN112465819B (zh) * | 2020-12-18 | 2024-06-18 | 平安科技(深圳)有限公司 | 图像异常区域检测方法、装置、电子设备及存储介质 |
CN112633352B (zh) * | 2020-12-18 | 2023-08-29 | 浙江大华技术股份有限公司 | 一种目标检测方法、装置、电子设备及存储介质 |
CN112712119B (zh) * | 2020-12-30 | 2023-10-24 | 杭州海康威视数字技术股份有限公司 | 确定目标检测模型的检测准确率的方法和装置 |
CN112800873A (zh) * | 2021-01-14 | 2021-05-14 | 知行汽车科技(苏州)有限公司 | 确定目标方向角的方法、装置、系统及存储介质 |
CN112733741B (zh) * | 2021-01-14 | 2024-07-19 | 苏州挚途科技有限公司 | 交通标识牌识别方法、装置和电子设备 |
CN113408356A (zh) * | 2021-05-21 | 2021-09-17 | 深圳市广电信义科技有限公司 | 基于深度学习的行人重识别方法、装置、设备及存储介质 |
CN113378969B (zh) * | 2021-06-28 | 2023-08-08 | 北京百度网讯科技有限公司 | 一种目标检测结果的融合方法、装置、设备及介质 |
CN113628245B (zh) * | 2021-07-12 | 2023-10-31 | 中国科学院自动化研究所 | 多目标跟踪方法、装置、电子设备和存储介质 |
CN113470078B (zh) * | 2021-07-15 | 2024-09-06 | 浙江大华技术股份有限公司 | 一种目标跟踪方法、装置及系统 |
CN116862946A (zh) * | 2022-03-25 | 2023-10-10 | 影石创新科技股份有限公司 | 运动视频生成方法、装置、终端设备以及存储介质 |
CN114782891A (zh) * | 2022-04-13 | 2022-07-22 | 浙江工业大学 | 一种基于对比聚类自学习的道路抛洒物检测方法 |
CN115115871B (zh) * | 2022-05-26 | 2024-10-18 | 腾讯科技(成都)有限公司 | 图像识别模型的训练方法、装置、设备及存储介质 |
CN115348385B (zh) * | 2022-07-06 | 2024-03-01 | 深圳天海宸光科技有限公司 | 一种枪球联动的足球检测方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229524A (zh) * | 2017-05-25 | 2018-06-29 | 北京航空航天大学 | 一种基于遥感图像的烟囱和冷凝塔检测方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3638234B2 (ja) * | 1999-09-30 | 2005-04-13 | 三菱電機株式会社 | 多目標追尾装置 |
CN108416250B (zh) * | 2017-02-10 | 2021-06-22 | 浙江宇视科技有限公司 | 人数统计方法及装置 |
CN107679455A (zh) * | 2017-08-29 | 2018-02-09 | 平安科技(深圳)有限公司 | 目标跟踪装置、方法及计算机可读存储介质 |
CN107784282B (zh) * | 2017-10-24 | 2020-04-03 | 北京旷视科技有限公司 | 对象属性的识别方法、装置及系统 |
CN108121986B (zh) * | 2017-12-29 | 2019-12-17 | 深圳云天励飞技术有限公司 | 目标检测方法及装置、计算机装置和计算机可读存储介质 |
-
2019
- 2019-01-23 CN CN201910064677.4A patent/CN109886998B/zh active Active
- 2019-06-13 WO PCT/CN2019/091158 patent/WO2020151166A1/zh active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229524A (zh) * | 2017-05-25 | 2018-06-29 | 北京航空航天大学 | 一种基于遥感图像的烟囱和冷凝塔检测方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2020151166A1 (zh) | 2020-07-30 |
CN109886998A (zh) | 2019-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109886998B (zh) | 多目标跟踪方法、装置、计算机装置及计算机存储介质 | |
CN109903310B (zh) | 目标跟踪方法、装置、计算机装置及计算机存储介质 | |
CN108121986B (zh) | 目标检测方法及装置、计算机装置和计算机可读存储介质 | |
Xu et al. | An enhanced Viola-Jones vehicle detection method from unmanned aerial vehicles imagery | |
EP3338248B1 (en) | Systems and methods for object tracking | |
CN103699905B (zh) | 一种车牌定位方法及装置 | |
Joshi et al. | Comparing random forest approaches to segmenting and classifying gestures | |
CN106845430A (zh) | 基于加速区域卷积神经网络的行人检测与跟踪方法 | |
WO2014174932A1 (ja) | 画像処理装置、プログラム及び画像処理方法 | |
Yang et al. | Tracking based multi-orientation scene text detection: A unified framework with dynamic programming | |
Van Pham et al. | Front-view car detection and counting with occlusion in dense traffic flow | |
CN111931571B (zh) | 基于在线增强检测的视频文字目标追踪方法与电子设备 | |
JP2022521540A (ja) | オンライン学習を利用した物体追跡のための方法およびシステム | |
Gao et al. | Tracking video objects with feature points based particle filtering | |
Yuan et al. | Multiple object detection and tracking from drone videos based on GM-YOLO and multi-tracker | |
Alomari et al. | Smart real-time vehicle detection and tracking system using road surveillance cameras | |
Yu et al. | Shallow detail and semantic segmentation combined bilateral network model for lane detection | |
Chu et al. | Flood-fill-based object segmentation and tracking for intelligent vehicles | |
CN116580063B (zh) | 目标追踪方法、装置、电子设备及存储介质 | |
CN112560856A (zh) | 车牌检测识别方法、装置、设备及存储介质 | |
CN116958873A (zh) | 行人跟踪方法、装置、电子设备及可读存储介质 | |
CN113807407B (zh) | 目标检测模型训练方法、模型性能检测方法及装置 | |
CN114972434A (zh) | 一种级联检测和匹配的端到端多目标跟踪系统 | |
Azi et al. | Car tracking technique for DLES project | |
Peng et al. | Combining front vehicle detection with 3d pose estimation for a better driver assistance |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |