CN106875425A - 一种基于深度学习的多目标追踪系统及实现方法 - Google Patents
一种基于深度学习的多目标追踪系统及实现方法 Download PDFInfo
- Publication number
- CN106875425A CN106875425A CN201710053918.6A CN201710053918A CN106875425A CN 106875425 A CN106875425 A CN 106875425A CN 201710053918 A CN201710053918 A CN 201710053918A CN 106875425 A CN106875425 A CN 106875425A
- Authority
- CN
- China
- Prior art keywords
- target
- frame
- tracking
- trail
- followed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于深度学习的多目标追踪系统及实现方法,方法包括:通过目标检测获得第一帧的目标位置,将多个待追踪目标加入到追踪队列中,输入下一帧图片并遍历所述追踪队列,得到该目标在下一帧中的位置,在得到上述目标在下一帧的位置之后,通过阈值判断该目标是否离开屏幕,若否,则每隔一固定帧调用一次目标检测,将目标检测的结果与追踪的结果计算IOU交并比,如果IOU<0.1,则认为新的目标加入了屏幕,将该目标加入追踪队列中;如果IOU>0.5,则利用目标检测的框替代追踪的框,进行位置校正;继续对目标进行追踪。本发明通过精心设计网络结构,改进训练方法,在高追踪精度的同时,显著提高了追踪的速度,减少了网络的冗余,减小了模型的大小。
Description
技术领域
本发明涉及图像处理领域,特别涉及一种基于深度学习的多目标追踪系统及实现方法,实现对于多目标准确且快速追踪的问题。
背景技术
运动目标跟踪就是在一个连续视频序列中,在每一帧监控画面中找到感兴趣的运动目标(例如,车辆,行人,动物等)。跟踪可以大致分为以下几个步骤:
1)目标的有效描述;目标的跟踪过程跟目标检测一样,需要对其进行有效的描述,即,需要提取目标的特征,从而能够表达该目标;一般来说,我们可以通过图像的边缘、轮廓、形状、纹理、区域、直方图、矩特征、变换系数等来进行目标的特征描述;
2)相似性度量计算;常用的方法有:欧式距离、马氏距离、棋盘距离、加权距离、相似系数、相关系数等;
3)目标区域搜索匹配;如果对场景中出现的所有目标都进行特征提取、相似性计算,则系统运行所耗费的计算量是很大的。所以,目前通常采用一定的方式对运动目标可能出现的区域进行估计,从而减少冗余,加快目标跟踪的速度;常见的预测算法有:Kalman滤波、粒子滤波、均值漂移等等。
基于上述,运动目标跟踪的目标追踪算法一般包括基于主动轮廓的跟踪、基于特征的跟踪、基于区域的跟踪以及基于模型的跟踪。跟踪算法的精度和鲁棒性很大程度上取决于对运动目标的表达和相似性度量的定义,跟踪算法的实时性取决于匹配搜索策略和滤波预测算法。
基于主动轮廓的跟踪,是在图像域内定义的可变形曲线即Snake曲线,通过对其能量函数的最小化,动态轮廓逐步调整自身形状与目标轮廓相一致。Snake技术可以处理任意形状物体的任意形变,首先将分割得到的物体边界作为跟踪的初始模板然后确定表征物体真实边界的目标函数,并通过降低目标函数值,使初始轮廓逐渐向物体的真实边界移动。基于主动轮廓跟踪的优点是不但考虑来自图像的灰度信息,而且考虑整体轮廓的几何信息,增强了跟踪的可靠性。由于跟踪过程实际上是解的寻优过程,带来的计算量比较大,而且由于Snake模型的盲目性,对于快速运动的物体或者形变较大的情况,跟踪效果不够理想。
基于特征的跟踪,其不考虑运动目标的整体特征,只通过目标图像的一些显著特征来进行跟踪。假定运动目标可以由惟一的特征集合表达,搜索到该相应的特征集合就认为跟踪上了运动目标。主要包括特征提取和特征匹配两个方面:特征提取的目的是进行帧间目标特征的匹配,并以最优匹配来跟踪目标。常见的基于特征匹配的跟踪算法有基于二值化目标图像匹配的跟踪、基于边缘特征匹配或角点特征匹配的跟踪、基于目标灰度特征匹配的跟踪、基于目标颜色特征匹配的跟踪等。基于特征的跟踪算法对于图像模糊、噪声等比较敏感,图像特征的提取效果也依赖于各种提取算子及其参数的设置,此外,连续帧间的特征对应关系也较难确定,尤其是当每一帧图像的特征数目不一致、存在漏检、特征增加或减少等情况。
基于区域的跟踪,通过得到包含目标的模板,该模板可通过图像分割获得或预先人为确定,模板通常为略大于目标的矩形,也可为不规则形状;在序列图像中,运用相关算法跟踪目标。其缺点首先是费时,当搜索区域较大时情况尤其严重;其次,算法要求目标变形不大,且不能有太大遮挡,否则相关精度下降会造成目标的丢失。近年来,对基于区域的跟踪方法关注较多的是如何处理模板变化时的情况,这种变化是由运动目标姿态变化引起的,如果能正确预测目标的姿态变化,则可实现稳定跟踪。
基于模型的跟踪,是通过一定的先验知识对所跟踪目标建立模型,然后通过匹配跟踪目标进行模型的实时更新。对于刚体目标来说,其运动状态变换主要是平移、旋转等,可以利用该方法实现目标跟踪。但是实际应用中跟踪的不仅仅是刚体,还有一大部分是非刚体,目标确切的几何模型不容易得到。这种方法不易受观测视角的影响,具有较强的鲁棒性,模型匹配跟踪精度高,适合于机动目标的各种运动变化,抗干扰能力强,但由于计算分析复杂、运算速度慢,模型的更新较为复杂,实时性较差。准确建立运动模型是模型匹配能否成功的关键。
现如今的目标追踪算法网络存在冗余多,速度慢,模型大,难以实用,无法实时追踪等问题。而深度学习的概念源于人工神经网络的研究,深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。
发明内容
本发明要解决的技术问题是,提供通过物体检测获得一个基准帧的各目标物体的准确位置,并在目标初始位置的基础上能够对各个目标物体进行长时间的追踪的系他。
解决上述技术问题,本发明提供了一种基于深度学习的多目标追踪方法,包括如下步骤:
通过目标检测获得第一帧的目标位置,将多个待追踪目标加入到追踪队列中,
输入下一帧图片并遍历所述追踪队列,得到该目标在下一帧中的位置,
具体地,在预测下一帧的目标位置的时候,系统以及保存了上一帧的图片和图片中目标的位置,卷及神经网络通过对比上一帧和下一帧的差异,能预测出目标在下一帧的位置;
在得到上述目标在下一帧的位置之后,通过阈值判断该目标是否离开屏幕,
若否,则每隔一固定帧调用一次目标检测,将目标检测的结果与追踪的结果计算IOU交并比,
如果目标检测的一结果和追踪的所有目标的IOU<0.1,则认为新的目标加入了屏幕,将该目标加入追踪队列中;
如果IOU>0.5,则利用目标检测的框替代追踪的框,进行位置校正;
继续对目标进行追踪。
更进一步,方法还包括以下预训练过程:
将这两张图片通过尺度变换到同一个尺度,得到类似相邻视频帧的两种图片作为训练图片,对网络进行预训练。
更进一步,采用ILSVRC竞赛目标检测DET的图片作为上述训练图片,基于ImageNet目标检测DET这个任务的图像数据库,ImageNet有5个任务,每个任务对应不同的图像数据库。
更进一步,方法还包括以下训练过程:
首先将两张图片预处理之后通过参数相同的孪生网络提取图片特征;
其次,所述孪生网络通过稠密->稀疏->稠密的卷积神经网络提取图片特征;
然后,将两个特征相减作为融合的特征,然后再将该特征通过全连接层进行回归得到目标框的位置。
更进一步,在卷积神经网络的特征提取过程中采用CRELU联合修正线性单元。
更进一步,利用基于faster-rcnn框架的目标检测技术检测所述第一帧的目标位置。
更进一步,所述固定帧为10。
更进一步,判断目标是否离开屏幕阈值条件为:
h/w>threshold1、w/h>threshold2、|x1|/W<threshold3、|W-x2|/W<threshold3、|y1|/H<threshold4、|H-y1|/H<threshold4的阈值条件中的任一一种,
其中,threshold表示阈值,h和w分别为物体的高和宽,H和W分别为帧的高和宽,(x1,y1)为目标左上角的点坐标,(x2,y2)为目标右下角的点坐标。
更进一步,若多目标追踪为人脸追踪,则设threshold1=threshold2=2,threshold3=threshold4=0.02。
基于上述本发明还提供了一种基于深度学习的多目标追踪系统,包括:
训练单元,用以进行目标检测获得第一帧的目标位置,将多个待追踪目标加入到追踪队列中;
检测单元,用以对输入的下一帧图片并遍历所述追踪队列,得到该目标在下一帧中的位置;以及在目标未离开屏幕时,每隔一固定帧调用一次目标检测;
追踪单元,用以在得到上述目标在下一帧的位置之后,通过阈值判断该目标是否离开屏幕即离开屏幕指目标物体已经不在图片中了离开屏幕指目标物体已经不在图片中了;
阈值单元,用以将目标检测的结果与追踪的结果计算IOU交并比,如果目标检测的一结果和追踪的所有目标的IOU<0.1,则认为新的目标加入了屏幕,将该目标加入追踪队列中;如果IOU>0.5,则利用目标检测的框替代追踪的框,进行位置校正
本发明的有益效果:
在本发明中,通过精心设计网络结构,改进训练方法,在高追踪精度的同时,显著提高了追踪算法的速度,减少了网络的冗余,减小了模型的大小,并且将物体追踪算法加以实用。
此外,本发明还具备如下优点:1)速度快,在i5cpu上达到对单目标120fps的追踪速度,然而当前主流的视频帧率的25fps,故本发明的方法能够对视频中的目标物体进行实时追踪。2)模型小,通过模拟实验,模型大小为5.5M,相比现有主流的的深度学习追踪算法的模型小了50倍以上。3)准确率更高,本发明在物体数据集ALOV和人脸数据集300VW进行验证。4)实现多目标追踪,目前主流的追踪模型难以对多目标进行追踪,本发明中的追踪系统能够对多个目标实时进行追踪。
附图说明
图1是本发明中的方法流程示意图;
图2是本发明中的系统结构示意图;
图3是训练过程示意图;
图4是本发明一优选实施例中具体实现流程示意图;
图5(a)-图5(c)是本发明中的模拟追踪结果示意图。
具体实施方式
现在将参考一些示例实施例描述本公开的原理。可以理解,这些实施例仅出于说明并且帮助本领域的技术人员理解和实施例本公开的目的而描述,而非建议对本公开的范围的任何限制。在此描述的本公开的内容可以以下文描述的方式之外的各种方式实施。
如本文中所述,术语“包括”及其各种变体可以被理解为开放式术语,其意味着“包括但不限于”。术语“基于”可以被理解为“至少部分地基于”。术语“一个实施例”可以被理解为“至少一个实施例”。术语“另一实施例”可以被理解为“至少一个其它实施例”。
可以理解,在本申请中定义如下的概念:
所述CRELU是指联合修正线性单元。
所述参数共享是指一种特征相似度学习的算法。
所述特征融合包括但不限于,将特征矩阵进行合并,从而将多个特征变成一个更有效的融合特征。
所述IOU是指交并比,即两个集合的交集除以两个集合的并集
所述线下训练包括但不限于利用大量数据离线进行训练,训练好之后对模型进行测试的时候不进行模型参数的更新。线下训练的概念和线上训练的概念是相对的。
所述孪生网络是指,两个结构完全相同的网络结构。
如图1所示是本发明中的方法流程示意图,一种基于深度学习的多目标追踪方法,包括如下步骤:
步骤S100通过目标检测获得第一帧的目标位置,将多个待追踪目标加入到追踪队列中,
步骤S101输入下一帧图片并遍历所述追踪队列,得到该目标在下一帧中的位置,
步骤S102在得到上述目标在下一帧的位置之后,通过阈值判断该目标是否离开屏幕,
步骤S103若否,则每隔一固定帧调用一次目标检测,将目标检测的结果与追踪的结果计算IOU交并比,
步骤S104如果目标检测的一结果和追踪的所有目标的IOU<0.1,则认为新的目标加入了屏幕,将该目标加入追踪队列中;
步骤S105如果IOU>0.5,则利用目标检测的框替代追踪的框,进行位置校正;
结束上述步骤后继续对目标进行追踪。
作为本实施例中的优选,本实施例的方法还包括以下预训练过程:将这两张图片通过尺度变换到同一个尺度,得到类似相邻视频帧的两种图片作为训练图片,对网络进行预训练。并采用ILSVRC竞赛目标检测DET的图片作为上述训练图片。
作为本实施例中的优选,方法还包括以下训练过程:
首先将两张图片预处理之后通过参数相同的孪生网络提取图片特征;首先将两张图片预处理之后通过参数相同的孪生网络提取图片特征,图中框的长度代表卷积的输出通道数。
其次,所述孪生网络通过稠密->稀疏->稠密的卷积神经网络提取图片特征;卷积提特征部分的网络是一个sparse-dense-sparse的结构,即先用通道数少的卷积提取特征,再接一个通道数多的卷积对特征进行稠密化,再接一个通道数少的卷积对稠密化的特征稀疏化,通过上述的特征,能够减少冗余。
然后,将两个特征相减作为融合的特征,然后再将该特征通过全连接层进行回归得到目标框的位置。
作为本实施例中的优选,在卷积神经网络的特征提取过程中采用CRELU联合修正线性单元。
作为本实施例中的优选,利用基于faster-rcnn框架的目标检测技术检测所述第一帧的目标位置。
作为本实施例中的优选,所述固定帧为10。
作为本实施例中的优选,判断目标是否离开屏幕阈值条件为:
h/w>threshold1、w/h>threshold2、|x1|/W<threshold3、|W-x2|/W<threshold3、|y1|/H<threshold4、|H-y1|/H<threshold4的阈值条件中的任一一种,
其中,threshold表示阈值,h和w分别为物体的高和宽,H和W分别为帧的高和宽,(x1,y1)为目标左上角的点坐标,(x2,y2)为目标右下角的点坐标。
作为本实施例中的优选,若多目标追踪为人脸追踪,则设threshold1=threshold2=2,threshold3=threshold4=0.02。
本实施例中的方法,通过精心设计网络结构,改进训练方法,在高追踪精度的同时,显著提高了追踪算法的速度,减少了网络的冗余,减小了模型的大小,并且将物体追踪算法加以实用。
图2是本发明中的系统结构示意图,在本实施例中的一种基于深度学习的多目标追踪系统100,包括:
训练单元1,用以进行目标检测获得第一帧的目标位置,将多个待追踪目标加入到追踪队列中;
检测单元2,用以对输入的下一帧图片并遍历所述追踪队列,得到该目标在下一帧中的位置;以及在目标未离开屏幕时,每隔一固定帧调用一次目标检测;
追踪单元3,用以在得到上述目标在下一帧的位置之后,通过阈值判断该目标是否离开屏幕即离开屏幕指目标物体已经不在图片中了离开屏幕指目标物体已经不在图片中了;
阈值单元4,用以将目标检测的结果与追踪的结果计算IOU交并比,如果目标检测的一结果和追踪的所有目标的IOU<0.1,则认为新的目标加入了屏幕,将该目标加入追踪队列中;如果IOU>0.5,则利用目标检测的框替代追踪的框,进行位置校正。
根据上述可知,本实施例中在获得相邻两帧的基础上,通过卷积神经网络(CNN)提取图片特征,将相邻两帧的特征进行融合。同时通过特征稠密->稀疏->稠密的网络结构设计方式,以及CRELU在卷积神经网络的特征提取过程中采用CRELU联合修正线性单元。在保持高准确率的同时,减小了模型大小和容量,使得模型能够在嵌入式设备中使用。
具体地,在实用场景中,通过物体检测获得一个基准帧的各目标物体的准确位置,本实施例中的追踪系统在目标初始位置的基础上能够对各个目标物体进行长时间的追踪。
本发明的原理描述:
一、预训练
训练过程中,视频数据收集比较困难,一个随机初始化的网络收敛比较慢,所以找到一个好的预训练方法对于物体追踪的算法很重要。
可以推测,一个物体在相邻两帧之间的位置坐标满足一定的分布规律。
设(c'x,c'y)当前帧中目标中心点的坐标,(cx,cy)为上一帧中目标中心点的坐标,w和h分别为目标上一帧的矩形框的宽和高。w'和h'为当前帧的矩形框的宽和高。△x和△y为中心点在x方向和y方向的变化因子。
c'x=cx+wΔx (1)
c'y=cy+hΔy (2)
w′=wγw (3)
h'=hγh (4)
研究表明,△x、△y、w'和h'满足拉普拉斯分布:
利用这一规律,可以对一个静态图片,截取目标所在位置外围的一个区域,进行变形处理,包括放大缩小,仿射变换等得到一个变形之后的图片,将这两张图片通过尺度变换到同一个尺度。得到类似相邻视频帧的两种图片,作为训练图片。
用ILSVRC竞赛目标检测DET的图片作为训练图片,对网络进行预训练。
二、训练过程
如图3所示是训练过程示意图训练的过程具体如下流程图所示:
首先将两张图片预处理之后通过参数相同的孪生网络提取图片特征,图中框的长度代表卷积的输出通道数。可以看到,卷积提特征部分的网络是一个sparse-dense-sparse的结构,即先用通道数少的卷积提取特征,再接一个通道数多的卷积对特征进行稠密化,再接一个通道数少的卷积对稠密化的特征稀疏化,提出最重要的特征,减少冗余。卷积部分将特征提取出来之后将两个特征相减作为融合的特征,在将该特征通过全连接层进行回归得到目标的框的位置。
三、系统流程:如图4所示,
步骤S1目标检测获得第一帧的目标位置
步骤S2将追踪目标放入队列
步骤S3多目标追踪
步骤S4目标是否离开屏幕,若是则进入步骤S5,若是则进入步骤S6
步骤S5移出追踪队列
步骤S6每10帧调用一次目标检测
步骤S7 IOU<0.1,若是则进入步骤S10
步骤S8 IOU>0.5,若是则进入步骤S12
步骤S9用目标检测结果校正追踪的结果
步骤S10检测到新目标
步骤S11加入目标队列
步骤S12出现追踪或者检测异常
步骤S13继续追踪
首先,利用基于faster-rcnn框架的目标检测技术检测第一帧的目标位置,将多个待追踪目标加入到追踪队列中。输入下一帧图片,然后遍历追踪队列,对于每一个追踪目标调用追踪算法得到该目标在下一帧中的位置。得到该目标在下一帧的位置之后,通过阈值判断该目标是否离开屏幕。如果该目标离开了屏幕,则将该目标移出追踪目标队列。
每隔10帧,调用一次目标检测,将目标检测的结果跟追踪的结果计算IOU,如果目标检测的某个结果和追踪的所有目标的IOU<0.1,则认为新的目标加入了屏幕,将该目标加入追踪队列中。如果IOU>0.5,利用目标检测的框替代追踪的框,进行位置校正。
判断目标是否离开屏幕的条件是(满足任一条件即可):
h/w>threshold1 (6)
w/h>threshold2 (7)
|x1|/W<threshold3 (8)
|W-x2|/W<threshold3 (9)
|y1|/H<threshold4 (10)
|H-y1|/H<threshold4 (11)
h和w分别为物体的高和宽,H和W分别为帧的高和宽,(x1,y1)为目标左上角的点坐标,(x2,y2)为目标右下角的点坐标,在不同物体的追踪系统汇总,threshold会取不同的值,在人脸追踪系统中,设为threshold1=threshold2=2,threshold3=threshold4=0.02。
图5(a)-图5(c)是本发明中的模拟追踪结果示意图,输入一段行人视频,首先按照25fps将视频截出帧序列。按照帧数对视频进行命名。先对第一帧的图片进行检测,如图5(a)-图5(c)逐一所示,可以看到第一帧检测到了四个人脸。以这四个人脸作为追踪目标,将这四个追踪目标加入到追踪队列中。输入下一帧,追踪算法对着四个目标进行实时追踪。每隔10帧调用一次人脸检测,检测是否有新目标,如果有新目标,将新目标加入到追踪队列中;如果没有新目标,根据人脸检测的框对追踪的框进行校正。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
总体而言,本公开的各种实施例可以以硬件或专用电路、软件、逻辑或其任意组合实施。一些方面可以以硬件实施,而其它一些方面可以以固件或软件实施,该固件或软件可以由控制器、微处理器或其它计算设备执行。虽然本公开的各种方面被示出和描述为框图、流程图或使用其它一些绘图表示,但是可以理解本文描述的框、设备、系统、技术或方法可以以非限制性的方式以硬件、软件、固件、专用电路或逻辑、通用硬件或控制器或其它计算设备或其一些组合实施。
此外,虽然操作以特定顺序描述,但是这不应被理解为要求这类操作以所示的顺序执行或是以顺序序列执行,或是要求所有所示的操作被执行以实现期望结果。在一些情形下,多任务或并行处理可以是有利的。类似地,虽然若干具体实现方式的细节在上面的讨论中被包含,但是这些不应被解释为对本公开的范围的任何限制,而是特征的描述仅是针对具体实施例。在分离的一些实施例中描述的某些特征也可以在单个实施例中组合地执行。相反对,在单个实施例中描述的各种特征也可以在多个实施例中分离地实施或是以任何合适的子组合的方式实施。
Claims (10)
1.一种基于深度学习的多目标追踪方法,其特征在于包括如下步骤:
通过目标检测获得第一帧的目标位置,将多个待追踪目标加入到追踪队列中,
输入下一帧图片并遍历所述追踪队列,得到该目标在下一帧中的位置,
在得到上述目标在下一帧的位置之后,通过阈值判断该目标是否离开屏幕,
若否,则每隔一固定帧调用一次目标检测,将目标检测的结果与追踪的结果计算IOU交并比,
如果目标检测的一结果和追踪的所有目标的IOU<0.1,则认为新的目标加入了屏幕,将该目标加入追踪队列中;
如果IOU>0.5,则利用目标检测的框替代追踪的框,进行位置校正;
继续对目标进行追踪。
2.根据权利要求1所述的多目标追踪方法,其特征在于,还包括以下预训练过程:
将这两张图片通过尺度变换到同一个尺度,得到类似相邻视频帧的两种图片作为训练图片,对网络进行预训练。
3.根据权利要求2所述的多目标追踪方法,其特征在于,采用ILSVRC竞赛目标检测DET的图片作为上述训练图片。
4.根据权利要求2所述的多目标追踪方法,其特征在于,还包括以下训练过程:
首先将两张图片预处理之后通过参数相同的孪生网络提取图片特征;
其次,所述孪生网络通过稠密->稀疏->稠密的卷积神经网络提取图片特征;
然后,将两个特征相减作为融合的特征,然后再将该特征通过全连接层进行回归得到目标框的位置。
5.根据权利要求1所述的多目标追踪方法,其特征在于,在卷积神经网络的特征提取过程中采用CRELU联合修正线性单元。
6.根据权利要求1所述的多目标追踪方法,其特征在于,利用基于faster-rcnn框架的目标检测技术检测所述第一帧的目标位置。
7.根据权利要求1所述的多目标追踪方法,其特征在于,所述固定帧为10。
8.根据权利要求1所述的多目标追踪方法,其特征在于,判断目标是否离开屏幕阈值条件为:
h/w>threshold1、w/h>threshold2、|x1|/W<threshold3、|W-x2|/W<threshold3、|y1|/H<threshold4、|H-y1|/H<threshold4的阈值条件中的任一一种,
其中,threshold表示阈值,h和w分别为物体的高和宽,H和W分别为帧的高和宽,(x1,y1)为目标左上角的点坐标,(x2,y2)为目标右下角的点坐标。
9.根据权利要求7所述的多目标追踪方法,其特征在于,若多目标追踪为人脸追踪,则设threshold1=threshold2=2,threshold3=threshold4=0.02。
10.一种基于深度学习的多目标追踪系统,其特征在于,包括:
训练单元,用以进行目标检测获得第一帧的目标位置,将多个待追踪目标加入到追踪队列中;
检测单元,用以对输入的下一帧图片并遍历所述追踪队列,得到该目标在下一帧中的位置;以及在目标未离开屏幕时,每隔一固定帧调用一次目标检测;
追踪单元,用以在得到上述目标在下一帧的位置之后,通过阈值判断该目标是否离开屏幕即离开屏幕指目标物体已经不在图片中了离开屏幕指目标物体已经不在图片中了;
阈值单元,用以将目标检测的结果与追踪的结果计算IOU交并比,如果目标检测的一结果和追踪的所有目标的IOU<0.1,则认为新的目标加入了屏幕,将该目标加入追踪队列中;如果IOU>0.5,则利用目标检测的框替代追踪的框,进行位置校正。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710053918.6A CN106875425A (zh) | 2017-01-22 | 2017-01-22 | 一种基于深度学习的多目标追踪系统及实现方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710053918.6A CN106875425A (zh) | 2017-01-22 | 2017-01-22 | 一种基于深度学习的多目标追踪系统及实现方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106875425A true CN106875425A (zh) | 2017-06-20 |
Family
ID=59158713
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710053918.6A Pending CN106875425A (zh) | 2017-01-22 | 2017-01-22 | 一种基于深度学习的多目标追踪系统及实现方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106875425A (zh) |
Cited By (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107274433A (zh) * | 2017-06-21 | 2017-10-20 | 吉林大学 | 基于深度学习的目标跟踪方法、装置及存储介质 |
CN107330920A (zh) * | 2017-06-28 | 2017-11-07 | 华中科技大学 | 一种基于深度学习的监控视频多目标追踪方法 |
CN107730538A (zh) * | 2017-10-11 | 2018-02-23 | 恩泊泰(天津)科技有限公司 | 一种基于图像的多目标跟踪的方法及装置 |
CN107730536A (zh) * | 2017-09-15 | 2018-02-23 | 北京飞搜科技有限公司 | 一种基于深度特征的高速相关滤波物体追踪方法 |
CN107845105A (zh) * | 2017-10-24 | 2018-03-27 | 深圳市圆周率软件科技有限责任公司 | 一种基于全景枪球联动的监控方法、智能设备及存储介质 |
CN107886120A (zh) * | 2017-11-03 | 2018-04-06 | 北京清瑞维航技术发展有限公司 | 用于目标检测跟踪的方法和装置 |
CN107993250A (zh) * | 2017-09-12 | 2018-05-04 | 北京飞搜科技有限公司 | 一种快速多目标行人追踪和分析方法及其智能装置 |
CN107992826A (zh) * | 2017-12-01 | 2018-05-04 | 广州优亿信息科技有限公司 | 一种基于深度孪生网络的人流检测方法 |
CN108090918A (zh) * | 2018-02-12 | 2018-05-29 | 天津天地伟业信息系统集成有限公司 | 一种基于深度全卷积孪生网络的实时人脸跟踪方法 |
CN108196680A (zh) * | 2018-01-25 | 2018-06-22 | 盛视科技股份有限公司 | 一种基于人体特征提取与检索的机器人视觉跟随方法 |
CN108346154A (zh) * | 2018-01-30 | 2018-07-31 | 浙江大学 | 基于Mask-RCNN神经网络的肺结节分割装置的建立方法 |
CN108416780A (zh) * | 2018-03-27 | 2018-08-17 | 福州大学 | 一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法 |
CN108520218A (zh) * | 2018-03-29 | 2018-09-11 | 深圳市芯汉感知技术有限公司 | 一种基于目标跟踪算法的舰船样本收集方法 |
CN108846358A (zh) * | 2018-06-13 | 2018-11-20 | 浙江工业大学 | 一种基于孪生网络进行特征融合的目标跟踪方法 |
CN109063574A (zh) * | 2018-07-05 | 2018-12-21 | 顺丰科技有限公司 | 一种基于深度神经网络检测的包络框的预测方法、系统及设备 |
CN109166136A (zh) * | 2018-08-27 | 2019-01-08 | 中国科学院自动化研究所 | 移动机器人基于单目视觉传感器的目标对象跟随方法 |
CN109190635A (zh) * | 2018-07-25 | 2019-01-11 | 北京飞搜科技有限公司 | 基于分类cnn的目标追踪方法、装置及电子设备 |
CN109215058A (zh) * | 2018-09-17 | 2019-01-15 | 北京云测信息技术有限公司 | 一种用于图像识别人脸跟踪的标注方法 |
CN109271927A (zh) * | 2018-09-14 | 2019-01-25 | 北京航空航天大学 | 一种空基多平台的协同监视方法 |
CN109543559A (zh) * | 2018-10-31 | 2019-03-29 | 东南大学 | 基于孪生网络和动作选择机制的目标跟踪方法及系统 |
CN110111363A (zh) * | 2019-04-28 | 2019-08-09 | 深兰科技(上海)有限公司 | 一种基于目标检测的跟踪方法及设备 |
CN110322475A (zh) * | 2019-05-23 | 2019-10-11 | 北京中科晶上科技股份有限公司 | 一种视频的稀疏检测方法 |
CN110334635A (zh) * | 2019-06-28 | 2019-10-15 | Oppo广东移动通信有限公司 | 主体追踪方法、装置、电子设备和计算机可读存储介质 |
CN110378938A (zh) * | 2019-06-24 | 2019-10-25 | 杭州电子科技大学 | 一种基于残差回归网络的单目标跟踪方法 |
CN110399823A (zh) * | 2019-07-18 | 2019-11-01 | Oppo广东移动通信有限公司 | 主体跟踪方法和装置、电子设备、计算机可读存储介质 |
CN110443824A (zh) * | 2018-05-02 | 2019-11-12 | 北京京东尚科信息技术有限公司 | 用于生成信息的方法和装置 |
CN110472594A (zh) * | 2019-08-20 | 2019-11-19 | 腾讯科技(深圳)有限公司 | 目标跟踪方法、信息插入方法及设备 |
CN110490084A (zh) * | 2019-07-24 | 2019-11-22 | 顺丰科技有限公司 | 目标物体的检测方法、装置、网络设备及存储介质 |
CN110503095A (zh) * | 2019-08-27 | 2019-11-26 | 中国人民公安大学 | 目标检测模型的定位质量评价方法、定位方法及设备 |
CN110634155A (zh) * | 2018-06-21 | 2019-12-31 | 北京京东尚科信息技术有限公司 | 一种基于深度学习的目标检测方法和装置 |
CN110634148A (zh) * | 2018-06-21 | 2019-12-31 | 北京京东尚科信息技术有限公司 | 连续帧图像中的目标提取方法和装置 |
CN110647818A (zh) * | 2019-08-27 | 2020-01-03 | 北京易华录信息技术股份有限公司 | 一种遮挡目标物体的识别方法及装置 |
CN110677585A (zh) * | 2019-09-30 | 2020-01-10 | Oppo广东移动通信有限公司 | 目标检测框的输出方法、装置、终端及存储介质 |
CN111462174A (zh) * | 2020-03-06 | 2020-07-28 | 北京百度网讯科技有限公司 | 多目标跟踪方法、装置以及电子设备 |
CN111462240A (zh) * | 2020-04-08 | 2020-07-28 | 北京理工大学 | 一种基于多单目视觉融合的目标定位方法 |
CN111508006A (zh) * | 2020-04-23 | 2020-08-07 | 南开大学 | 一种基于深度学习的运动目标同步检测、识别与跟踪方法 |
CN112085762A (zh) * | 2019-06-14 | 2020-12-15 | 福建天晴数码有限公司 | 基于曲率半径的目标位置预测方法及存储介质 |
CN112183675A (zh) * | 2020-11-10 | 2021-01-05 | 武汉工程大学 | 一种基于孪生网络的针对低分辨率目标的跟踪方法 |
WO2021022643A1 (zh) * | 2019-08-08 | 2021-02-11 | 初速度(苏州)科技有限公司 | 一种视频目标检测与跟踪方法及装置 |
CN112560651A (zh) * | 2020-12-09 | 2021-03-26 | 燕山大学 | 基于深度网络和目标分割结合的目标跟踪方法及装置 |
CN112597795A (zh) * | 2020-10-28 | 2021-04-02 | 丰颂教育科技(江苏)有限公司 | 一种实时视频流中运动模糊物体视觉跟踪定位方法 |
CN112750145A (zh) * | 2019-10-30 | 2021-05-04 | 中国电信股份有限公司 | 目标检测与跟踪的方法、装置和系统 |
WO2021208251A1 (zh) * | 2020-04-15 | 2021-10-21 | 上海摩象网络科技有限公司 | 人脸跟踪方法及人脸跟踪设备 |
CN113689462A (zh) * | 2020-05-19 | 2021-11-23 | 深圳绿米联创科技有限公司 | 目标物处理方法、装置以及电子设备 |
CN116883915A (zh) * | 2023-09-06 | 2023-10-13 | 常州星宇车灯股份有限公司 | 一种基于前后帧图像关联的目标检测方法及检测系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104036250A (zh) * | 2014-06-16 | 2014-09-10 | 上海大学 | 视频行人检测与跟踪方法 |
CN105160400A (zh) * | 2015-09-08 | 2015-12-16 | 西安交通大学 | 基于l21范数的提升卷积神经网络泛化能力的方法 |
EP3032462A1 (en) * | 2014-12-09 | 2016-06-15 | Ricoh Company, Ltd. | Method and apparatus for tracking object, and non-transitory computer-readable recording medium |
CN105898107A (zh) * | 2016-04-21 | 2016-08-24 | 北京格灵深瞳信息技术有限公司 | 一种目标物体抓拍方法及系统 |
CN106022220A (zh) * | 2016-05-09 | 2016-10-12 | 西安北升信息科技有限公司 | 一种体育视频中对参赛运动员进行多人脸跟踪的方法 |
-
2017
- 2017-01-22 CN CN201710053918.6A patent/CN106875425A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104036250A (zh) * | 2014-06-16 | 2014-09-10 | 上海大学 | 视频行人检测与跟踪方法 |
EP3032462A1 (en) * | 2014-12-09 | 2016-06-15 | Ricoh Company, Ltd. | Method and apparatus for tracking object, and non-transitory computer-readable recording medium |
CN105160400A (zh) * | 2015-09-08 | 2015-12-16 | 西安交通大学 | 基于l21范数的提升卷积神经网络泛化能力的方法 |
CN105898107A (zh) * | 2016-04-21 | 2016-08-24 | 北京格灵深瞳信息技术有限公司 | 一种目标物体抓拍方法及系统 |
CN106022220A (zh) * | 2016-05-09 | 2016-10-12 | 西安北升信息科技有限公司 | 一种体育视频中对参赛运动员进行多人脸跟踪的方法 |
Non-Patent Citations (1)
Title |
---|
毛宁等: "基于分层卷积特征的自适应目标跟踪", 《激光与光电子学进展》 * |
Cited By (66)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107274433A (zh) * | 2017-06-21 | 2017-10-20 | 吉林大学 | 基于深度学习的目标跟踪方法、装置及存储介质 |
CN107274433B (zh) * | 2017-06-21 | 2020-04-03 | 吉林大学 | 基于深度学习的目标跟踪方法、装置及存储介质 |
CN107330920B (zh) * | 2017-06-28 | 2020-01-03 | 华中科技大学 | 一种基于深度学习的监控视频多目标追踪方法 |
CN107330920A (zh) * | 2017-06-28 | 2017-11-07 | 华中科技大学 | 一种基于深度学习的监控视频多目标追踪方法 |
CN107993250A (zh) * | 2017-09-12 | 2018-05-04 | 北京飞搜科技有限公司 | 一种快速多目标行人追踪和分析方法及其智能装置 |
CN107730536A (zh) * | 2017-09-15 | 2018-02-23 | 北京飞搜科技有限公司 | 一种基于深度特征的高速相关滤波物体追踪方法 |
CN107730536B (zh) * | 2017-09-15 | 2020-05-12 | 苏州飞搜科技有限公司 | 一种基于深度特征的高速相关滤波物体追踪方法 |
CN107730538A (zh) * | 2017-10-11 | 2018-02-23 | 恩泊泰(天津)科技有限公司 | 一种基于图像的多目标跟踪的方法及装置 |
CN107845105A (zh) * | 2017-10-24 | 2018-03-27 | 深圳市圆周率软件科技有限责任公司 | 一种基于全景枪球联动的监控方法、智能设备及存储介质 |
CN107845105B (zh) * | 2017-10-24 | 2021-09-10 | 深圳市圆周率软件科技有限责任公司 | 一种基于全景枪球联动的监控方法、智能设备及存储介质 |
CN107886120A (zh) * | 2017-11-03 | 2018-04-06 | 北京清瑞维航技术发展有限公司 | 用于目标检测跟踪的方法和装置 |
CN107992826A (zh) * | 2017-12-01 | 2018-05-04 | 广州优亿信息科技有限公司 | 一种基于深度孪生网络的人流检测方法 |
CN108196680A (zh) * | 2018-01-25 | 2018-06-22 | 盛视科技股份有限公司 | 一种基于人体特征提取与检索的机器人视觉跟随方法 |
CN108196680B (zh) * | 2018-01-25 | 2021-10-08 | 盛视科技股份有限公司 | 一种基于人体特征提取与检索的机器人视觉跟随方法 |
CN108346154A (zh) * | 2018-01-30 | 2018-07-31 | 浙江大学 | 基于Mask-RCNN神经网络的肺结节分割装置的建立方法 |
CN108346154B (zh) * | 2018-01-30 | 2021-09-07 | 浙江大学 | 基于Mask-RCNN神经网络的肺结节分割装置的建立方法 |
CN108090918A (zh) * | 2018-02-12 | 2018-05-29 | 天津天地伟业信息系统集成有限公司 | 一种基于深度全卷积孪生网络的实时人脸跟踪方法 |
CN108416780B (zh) * | 2018-03-27 | 2021-08-31 | 福州大学 | 一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法 |
CN108416780A (zh) * | 2018-03-27 | 2018-08-17 | 福州大学 | 一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法 |
CN108520218A (zh) * | 2018-03-29 | 2018-09-11 | 深圳市芯汉感知技术有限公司 | 一种基于目标跟踪算法的舰船样本收集方法 |
CN110443824A (zh) * | 2018-05-02 | 2019-11-12 | 北京京东尚科信息技术有限公司 | 用于生成信息的方法和装置 |
CN108846358B (zh) * | 2018-06-13 | 2021-10-26 | 浙江工业大学 | 一种基于孪生网络进行特征融合的目标跟踪方法 |
CN108846358A (zh) * | 2018-06-13 | 2018-11-20 | 浙江工业大学 | 一种基于孪生网络进行特征融合的目标跟踪方法 |
CN110634155A (zh) * | 2018-06-21 | 2019-12-31 | 北京京东尚科信息技术有限公司 | 一种基于深度学习的目标检测方法和装置 |
CN110634148A (zh) * | 2018-06-21 | 2019-12-31 | 北京京东尚科信息技术有限公司 | 连续帧图像中的目标提取方法和装置 |
CN109063574A (zh) * | 2018-07-05 | 2018-12-21 | 顺丰科技有限公司 | 一种基于深度神经网络检测的包络框的预测方法、系统及设备 |
CN109063574B (zh) * | 2018-07-05 | 2021-04-23 | 顺丰科技有限公司 | 一种基于深度神经网络检测的包络框的预测方法、系统及设备 |
CN109190635A (zh) * | 2018-07-25 | 2019-01-11 | 北京飞搜科技有限公司 | 基于分类cnn的目标追踪方法、装置及电子设备 |
CN109166136A (zh) * | 2018-08-27 | 2019-01-08 | 中国科学院自动化研究所 | 移动机器人基于单目视觉传感器的目标对象跟随方法 |
CN109166136B (zh) * | 2018-08-27 | 2022-05-03 | 中国科学院自动化研究所 | 移动机器人基于单目视觉传感器的目标对象跟随方法 |
CN109271927B (zh) * | 2018-09-14 | 2020-03-27 | 北京航空航天大学 | 一种空基多平台的协同监视方法 |
CN109271927A (zh) * | 2018-09-14 | 2019-01-25 | 北京航空航天大学 | 一种空基多平台的协同监视方法 |
CN109215058A (zh) * | 2018-09-17 | 2019-01-15 | 北京云测信息技术有限公司 | 一种用于图像识别人脸跟踪的标注方法 |
CN109543559B (zh) * | 2018-10-31 | 2021-12-28 | 东南大学 | 基于孪生网络和动作选择机制的目标跟踪方法及系统 |
CN109543559A (zh) * | 2018-10-31 | 2019-03-29 | 东南大学 | 基于孪生网络和动作选择机制的目标跟踪方法及系统 |
CN110111363A (zh) * | 2019-04-28 | 2019-08-09 | 深兰科技(上海)有限公司 | 一种基于目标检测的跟踪方法及设备 |
CN110322475A (zh) * | 2019-05-23 | 2019-10-11 | 北京中科晶上科技股份有限公司 | 一种视频的稀疏检测方法 |
CN112085762A (zh) * | 2019-06-14 | 2020-12-15 | 福建天晴数码有限公司 | 基于曲率半径的目标位置预测方法及存储介质 |
CN112085762B (zh) * | 2019-06-14 | 2023-07-07 | 福建天晴数码有限公司 | 基于曲率半径的目标位置预测方法及存储介质 |
CN110378938A (zh) * | 2019-06-24 | 2019-10-25 | 杭州电子科技大学 | 一种基于残差回归网络的单目标跟踪方法 |
CN110334635B (zh) * | 2019-06-28 | 2021-08-31 | Oppo广东移动通信有限公司 | 主体追踪方法、装置、电子设备和计算机可读存储介质 |
CN110334635A (zh) * | 2019-06-28 | 2019-10-15 | Oppo广东移动通信有限公司 | 主体追踪方法、装置、电子设备和计算机可读存储介质 |
CN110399823A (zh) * | 2019-07-18 | 2019-11-01 | Oppo广东移动通信有限公司 | 主体跟踪方法和装置、电子设备、计算机可读存储介质 |
CN110490084A (zh) * | 2019-07-24 | 2019-11-22 | 顺丰科技有限公司 | 目标物体的检测方法、装置、网络设备及存储介质 |
CN110490084B (zh) * | 2019-07-24 | 2022-07-08 | 顺丰科技有限公司 | 目标物体的检测方法、装置、网络设备及存储介质 |
WO2021022643A1 (zh) * | 2019-08-08 | 2021-02-11 | 初速度(苏州)科技有限公司 | 一种视频目标检测与跟踪方法及装置 |
CN110472594B (zh) * | 2019-08-20 | 2022-12-06 | 腾讯科技(深圳)有限公司 | 目标跟踪方法、信息插入方法及设备 |
CN110472594A (zh) * | 2019-08-20 | 2019-11-19 | 腾讯科技(深圳)有限公司 | 目标跟踪方法、信息插入方法及设备 |
CN110503095A (zh) * | 2019-08-27 | 2019-11-26 | 中国人民公安大学 | 目标检测模型的定位质量评价方法、定位方法及设备 |
CN110647818A (zh) * | 2019-08-27 | 2020-01-03 | 北京易华录信息技术股份有限公司 | 一种遮挡目标物体的识别方法及装置 |
CN110503095B (zh) * | 2019-08-27 | 2022-06-03 | 中国人民公安大学 | 目标检测模型的定位质量评价方法、定位方法及设备 |
CN110677585A (zh) * | 2019-09-30 | 2020-01-10 | Oppo广东移动通信有限公司 | 目标检测框的输出方法、装置、终端及存储介质 |
CN112750145A (zh) * | 2019-10-30 | 2021-05-04 | 中国电信股份有限公司 | 目标检测与跟踪的方法、装置和系统 |
CN111462174B (zh) * | 2020-03-06 | 2023-10-31 | 北京百度网讯科技有限公司 | 多目标跟踪方法、装置以及电子设备 |
CN111462174A (zh) * | 2020-03-06 | 2020-07-28 | 北京百度网讯科技有限公司 | 多目标跟踪方法、装置以及电子设备 |
CN111462240A (zh) * | 2020-04-08 | 2020-07-28 | 北京理工大学 | 一种基于多单目视觉融合的目标定位方法 |
CN111462240B (zh) * | 2020-04-08 | 2023-05-30 | 北京理工大学 | 一种基于多单目视觉融合的目标定位方法 |
WO2021208251A1 (zh) * | 2020-04-15 | 2021-10-21 | 上海摩象网络科技有限公司 | 人脸跟踪方法及人脸跟踪设备 |
CN111508006A (zh) * | 2020-04-23 | 2020-08-07 | 南开大学 | 一种基于深度学习的运动目标同步检测、识别与跟踪方法 |
CN113689462A (zh) * | 2020-05-19 | 2021-11-23 | 深圳绿米联创科技有限公司 | 目标物处理方法、装置以及电子设备 |
CN112597795A (zh) * | 2020-10-28 | 2021-04-02 | 丰颂教育科技(江苏)有限公司 | 一种实时视频流中运动模糊物体视觉跟踪定位方法 |
CN112183675A (zh) * | 2020-11-10 | 2021-01-05 | 武汉工程大学 | 一种基于孪生网络的针对低分辨率目标的跟踪方法 |
CN112183675B (zh) * | 2020-11-10 | 2023-09-26 | 武汉工程大学 | 一种基于孪生网络的针对低分辨率目标的跟踪方法 |
CN112560651A (zh) * | 2020-12-09 | 2021-03-26 | 燕山大学 | 基于深度网络和目标分割结合的目标跟踪方法及装置 |
CN116883915A (zh) * | 2023-09-06 | 2023-10-13 | 常州星宇车灯股份有限公司 | 一种基于前后帧图像关联的目标检测方法及检测系统 |
CN116883915B (zh) * | 2023-09-06 | 2023-11-21 | 常州星宇车灯股份有限公司 | 一种基于前后帧图像关联的目标检测方法及检测系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106875425A (zh) | 一种基于深度学习的多目标追踪系统及实现方法 | |
CN106875424B (zh) | 一种基于机器视觉的城市环境行驶车辆行为识别方法 | |
Zhou et al. | Efficient road detection and tracking for unmanned aerial vehicle | |
Ni et al. | Visual tracking using neuromorphic asynchronous event-based cameras | |
EP2858008B1 (en) | Target detecting method and system | |
CN103514441B (zh) | 基于移动平台的人脸特征点定位跟踪方法 | |
CN109934065B (zh) | 一种用于手势识别的方法和装置 | |
CN111161313B (zh) | 一种视频流中的多目标追踪方法及装置 | |
CN105574894B (zh) | 一种运动物体特征点跟踪结果的筛选方法和系统 | |
CN110533687A (zh) | 多目标三维轨迹跟踪方法及装置 | |
CN105374049B (zh) | 一种基于稀疏光流法的多角点跟踪方法及装置 | |
CN110321937A (zh) | 一种Faster-RCNN结合卡尔曼滤波的运动人体跟踪方法 | |
CN106778767B (zh) | 基于orb和主动视觉的视觉图像特征提取及匹配方法 | |
Min et al. | Coeb-slam: A robust vslam in dynamic environments combined object detection, epipolar geometry constraint, and blur filtering | |
CN106558069A (zh) | 一种基于视频监控下的目标跟踪方法及系统 | |
Pundlik et al. | Time to collision and collision risk estimation from local scale and motion | |
CN115482523A (zh) | 轻量级多尺度注意力机制的小物体目标检测方法及系统 | |
CN113689459B (zh) | 动态环境下基于gmm结合yolo实时跟踪与建图方法 | |
CN106023256A (zh) | 面向增强现实辅助维修系统平面目标粒子滤波跟踪的状态观测方法 | |
CN113781523A (zh) | 一种足球检测跟踪方法及装置、电子设备、存储介质 | |
CN110377033B (zh) | 一种基于rgbd信息的小型足球机器人识别与追踪抓取方法 | |
Martin et al. | An evaluation of different methods for 3d-driver-body-pose estimation | |
Najeeb et al. | A survey on object detection and tracking in soccer videos | |
Xu-Wei et al. | Real-time hand tracking based on YOLOv4 model and Kalman filter | |
CN106934818B (zh) | 一种手部运动跟踪方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170620 |