CN103927762A - 一种目标车辆自动跟踪方法及装置 - Google Patents
一种目标车辆自动跟踪方法及装置 Download PDFInfo
- Publication number
- CN103927762A CN103927762A CN201310011103.3A CN201310011103A CN103927762A CN 103927762 A CN103927762 A CN 103927762A CN 201310011103 A CN201310011103 A CN 201310011103A CN 103927762 A CN103927762 A CN 103927762A
- Authority
- CN
- China
- Prior art keywords
- target
- candidate region
- information
- similarity parameter
- object module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种目标车辆自动跟踪方法及装置,用以获取目标车辆的连续跟踪信息,为车辆违章提供更多的信息依据,所述方法包括:接收当前帧图像;根据当前帧图像中包含的检测信息确定出的检测目标建立检测目标集合;针对跟踪目标集合中包含的每一跟踪目标,确定跟踪目标与检测目标集合包含的每一检测目标均不匹配时,确定跟踪目标对应的目标区域;根据所述目标框区域信息在当前帧图像上所对应的区域,确定当前候选区域;分别确定所述目标区域对应的目标模型和所述当前候选区域对应的观测模型;根据确定出的目标模型和观测模型,确定所述跟踪目标的跟踪轨迹。
Description
技术领域
本发明涉及视频监控技术领域,尤其涉及一种目标车辆自动跟踪方法及装置。
背景技术
传统的电子警察系统从实现角度,可以分为线圈电警系统和视频电警系统。线圈电警系统通过车辆触发地感线圈,摄像机得到信号脉冲从而抓拍目标。但是,线圈电警系统存在以下缺点:1)铺设线圈,需要切割路面,破坏城市面貌,增加人工成本;2)道路通常车流大,线圈容易损耗,增加了维护成本;3)多个非机动目标车辆集中运动时,容易导致线圈被触发,导致错误抓拍;4)抓拍信号存在一定的延迟,当车速较快时,容易导致抓拍位置的偏差;5)只能抓拍单帧目标,根据单帧目标只能识别出闯红灯的违章行为,而无法实现非法变道、利用拐弯车道直行、利用直行车道拐弯、超速、压线、逆行、黄牌占道、机动车占用非机动车道、违章停车等更多的违章行为。
而视频电警系统通过对每帧图像进行处理,分析视频内容,检测识别车牌,以此分析车辆违章行为,并实现抓拍。目前的视频电警系统为了整体系统的实时性,只能检测识别有限区域(通常是停车线以下位置)的车牌,只能识别闯红灯、非法变道、压线和逆行等有限的违章行为。从而,现有的视频电警系统由于只能对有限区域的车牌进行识别,使得识别结果具有一定的局限性,无法为车辆违章提供更多的信息依据。
发明内容
本发明实施例提供一种车辆目标自动跟踪方法,用以获取目标车辆的连续跟踪信息,为车辆违章提供更多的信息依据。
本发明实施例提供一种车辆目标自动跟踪方法,包括:
接收当前帧图像;
提取所述当前帧图像中的检测目标,建立检测目标集合;
针对跟踪目标集合中包含的每一跟踪目标,若所述跟踪目标与所述检测目标集合包含的每一检测目标均不匹配时,根据目标框区域信息确定所述跟踪目标在上一帧图像中对应的目标区域,所述跟踪目标集合为根据历史图像信息获取的,所述目标框区域信息包括目标框区域的中心点位置信息和尺寸信息;
将所述目标框区域信息在当前帧图像上所对应的区域作为当前候选区域,且确定所述目标区域的特征信息为所述目标区域对应的目标模型,确定所述候选区域的特征信息为所述候选区域对应的观测模型;
根据确定出的目标模型和观测模型,确定所述跟踪目标的跟踪轨迹。
本发明实施例提供一种目标车辆自动跟踪装置,包括:
接收单元,用于接收当前帧图像;
目标集合建立单元,用于提取所述当前帧图像中的检测目标,建立检测目标集合;
第一确定单元,用于针对跟踪目标集合中包含的每一跟踪目标,确定所述跟踪目标与所述检测目标集合包含的每一检测目标均不匹配时,根据目标框区域信息确定所述跟踪目标在上一帧图像中对应的目标区域,所述跟踪目标集合为根据历史图像信息获取的;
第二确定单元,用于将所述搜索区域信息在当前帧图像上所对应的区域作为当前候选区域,且确定所述目标区域的特征信息为所述目标区域对应的目标模型,确定所述候选区域的特征信息为所述候选区域对应的观测模型
第三确定单元,用于根据确定出的目标模型和观测模型,确定所述跟踪目标的跟踪轨迹。
本发明实施例提供的目标车辆自动跟踪方法及装置,若确定跟踪目标集合中的某一跟踪目标与当前建立的检测目标集合中的每一检测目标均不匹配时,根据目标框区域信息,确定该跟踪目标在上一帧图像中,该目标框区域信息对应的区域为目标区域,确定该目标框区域信息在当前帧图像中对应的区域为当前候选区域,并分别确定所述目标区域和所述候选区域对应的目标模型和观测模型,进一步地,根据确定出的目标模型和观测模型可以确定出该跟踪目标的跟踪轨迹。这样,当跟踪目标集合中的跟踪目标丢失之后,可以根据该跟踪目标在上一帧图像中的图像信息估计出该跟踪目标在之后的图像帧中的运动轨迹,从而,实现了对该跟踪目标的自动跟踪。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本发明的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明实施例中,目标车辆自动跟踪方法的实施流程示意图;
图2为本发明实施例中,跟踪目标与检测目标检测流程匹配流程示意图;
图3为本发明实施例中,目标车辆自动跟踪装置的结构示意图。
具体实施方式
为了获取目标车辆的连续跟踪信息,为车辆违章提供更多的信息依据,本发明实施例提供了一种车辆目标自动跟踪方法及装置。
以下结合说明书附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明,并且在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
为了更好地理解本发明实施例,以下首先介绍均值漂移(Meanshift)算法。MeanShift算法是一种基于核函数概率密度估计的无参快速模式匹配算法,通常将颜色直方图作为目标的描述特征,用核函数对直方图概率分布进行加权,计算目标模型和候选区域之间的相似度,通过迭代计算相似度最大值得到目标的MeanShift运动向量。
给定d维空间Rd中的n个样本点其中心位置为X0,则目标模型特征可以表示为且其中m为特征空间的最大量化级数,u为量化后的级数值,为u在目标模型中出现的概率,可以表示为:
其中,C为归一化系数,k(x)为核函数的剖面函数,h为核函数的窗宽,为目标模型上各点到中心点X0的归一化距离的平方,δ为KroneckerDelta函数,且 映射为位置的像素值对应的量化级。
相应的,设为候选区域的样本点,其中心位置为y,则候选区域的观测模型特征可以表示为 且 同样,m是最大量化级数,则在观测模型中出现的概率可以表示为:
其中,Ch为归一化系数,k(x)为核函数的剖面函数,h为核函数的窗宽,为观测模型上各点到中心点y的归一化距离的平方,δ为KroneckerDelta函数。
因此物体跟踪可以简化为寻找最优的y值,使得与最相似,与的相似性用Bhattacharrya系数来度量,即:
具体的,求最大值的过程为:以目标前一次中心点位置y0,作为本次计算的初始值,然后在y0邻域内寻找最优目标位置y1,使得最大,对在点处按泰勒展开可得:
将公式(2)代入公式(4),略去高阶项,整理可得:
其中:
由公式(5)可知,公式(5)左项值与y值无关,故对公式(5)右项进行MeanShift迭代计算就可以得到最大值,即找到最优目标位置y1。最优目标位置迭代公式如下:
其中w(xi)为观测模型中的各目标点的权重值,核函数G(x)的剖面函数g(x)=-k'(x),且G(x)=g(||x||2)。
基于上述描述。本发明实施例中,可以按顺序读取跟踪目标链中的跟踪目标信息,对每个跟踪目标进行自动跟踪,以下描述单个目标为例,对本发明实施例的实施过程进行说明。
如图1所示,为本发明实施例提供的目标车辆自动跟踪方法的实施流程示意图,包括以下步骤:
S101、接收当前帧图像;
S102、提取当前帧图像中的检测目标,建立检测目标集合;
具体实施时,可以根据预设的至少一个搜索区域信息,识别所述当前帧图像上、对应区域内的目标车辆车牌号码信息,其中,搜索区域信息包括搜索区域的位置信息和尺寸信息,识别出的每一目标车辆车牌号码为一个检测目标。这样,在接收到当前帧图像之后,将该帧图像中的检测和识别结果加入检测目标集合中,检测结果主要包括目标车辆车牌的位置信息和尺寸信息,识别结果主要包括目标车辆车牌的号码信息、颜色信息。较佳地,为了快速准确地定位出有效检测目标的初始位置,可以设置搜索区域(通常为矩形框)的尺寸,例如,在200万图像中设置为200*200像素,500万图像中设置300*400像素。在设置的搜索区域内进行检测,并提取识别结果建立检测目标集合,其中,检测目标集合包含至少一个检测目标,每一检测目标至少包含目标车辆车牌的号码信息、颜色信息;当然,还可以包括目标车辆车牌的尺寸信息和位置信息。
由此,每一检测目标可以但不限于包含以下四个属性信息:目标车辆车牌的号码信息、颜色信息、位置信息和尺寸信息。
S103、针对跟踪目标集合中包含的每一跟踪目标,若该跟踪目标与检测目标集合包含的每一检测目标均不匹配时,确定该跟踪目标对应的目标区域;
其中,跟踪目标集合为根据历史图像信息获取的。具体的,跟踪目标集合为根据之前获取的图像中提取到的检测信息建立的检测目标集合中满足条件的检测目标组成。显然,每一跟踪目标中也可以但不限于包含上述检测目标包含的四个属性信息。从而,针对每一跟踪目标,步骤S102中预设的搜索区域信息可以以该跟踪目标的位置信息为一个搜索区域的位置信息,在接收到当前帧图像时,以该跟踪目标位置信息为准,在当前帧图像中按照预设的搜索区域的尺寸信息确定搜索区域。由此可见,跟踪目标集合中包含几个跟踪目标,预设的搜索区域信息就包含几个。
具体实施时,跟踪目标对应的目标区域为该跟踪目标在上一帧图像中,根据该跟踪目标对应的目标框区域信息确定出的区域,其中,目标框区域信息可以但不限于包括目标框区域的中心点位置信息和尺寸信息。
S104、根据该目标框区域信息在当前帧图像上所对应的区域,确定当前候选区域;
S105、分别确定目标区域对应的目标模型和当前候选区域对应的观测模型;
S106、根据确定出的目标模型和观测模型,确定所述跟踪目标的跟踪轨迹。
其中,在步骤S103中,针对跟踪目标集合中的每一跟踪目标与检测目标集合中的每一检测目标,利用目标车辆车牌的号码信息作为检测目标和跟踪目标之间匹配的唯一准则,只要满足车牌号码信息中包含的每一字符内容和位置一致,则认为单个字符匹配,最后按顺序生成匹配字符子串,统计字符子串长度,具体匹配流程如图2所示,可以包括以下步骤:
S1031、针对检测目标集合中的每一个检测目标,提取该检测目标的检测信息中的车牌号码信息;
S1032、判断提取到的车牌号码信息是否为空,如果是,执行步骤S1031,否则,执行步骤S1033;
S1033、针对该检测目标,依次提取跟踪目标集合中的每一跟踪目标,判断是否有跟踪目标在其搜索范围内,在判断结果为是时,执行步骤S1034,否则执行步骤S1038;
S1034、针对该跟踪目标集合中的每一跟踪目标,统计该跟踪目标中包含的字符与检测目标中包含的字符匹配的数量;
具体的,依次提取该跟踪目标对应的车牌号码信息中包含的每一字符,并判断该字符是否与该检测目标对应的车牌号码信息中相同位置的字符内容相同,如果相同确定字符匹配成功,记录匹配成功的字符的数量;
S1035、判断匹配字符的数量是否超过预设阈值,如果是,执行步骤S1046,如果否,执行步骤S1037;
S1036、标记该跟踪目标为匹配成功状态,并执行步骤S1039;
S1037、标记该跟踪目标为匹配不成功状态,流程结束;
具体实施时,由于常规的中国车牌一般由7个字符组成,为了保证匹配的有效性和容忍一定的误差,预设的阈值可以但不限于设置为4。特别地,如果任一跟踪目标与多个检测目标产生匹配时,可以取匹配字符数量最多的检测目标为最优结果。
S1038、将该检测目标加入跟踪目标集合中,并返回执行步骤S1031;
S1039、以检测目标的检测信息更新该跟踪目标中包含的相应信息。
本发明实施例中,针对跟踪目标集合中的任一匹配不成功的跟踪目标,可以根据该跟踪目标在上一帧图像中的图像信息为初始条件,开始进行自动跟踪。由于经典的MeanShift算法只对基于颜色特征的单目标跟踪效果较好,且对目标尺度变化敏感。本发明实施例中,为了解决交通应用场景中多车辆目标的自动跟踪问题,同时进行目标框尺寸自适应,为了保证实时性,本发明实施例中只利用图像的灰度信息进行跟踪。
具体的,针对匹配不成功的跟踪目标,按照目标框区域信息,获取该跟踪目标在上一帧图像中对应的目标区域,其中,目标框区域信息包括目标框中心点信息和目标框尺寸信息,即确定根据预设的目标框中心点和尺寸在上一帧图像中确定出的区域为目标区域,截取目标区域图像。
较佳地,主流高清摄像头通常为200万或者500万像素,为了保证多目标自动跟踪的实时性,本发明实施例中,可以将原分辨率的图像缩放到原宽度的1/4,原高度的1/4作为图像处理的尺寸。特别地,由于目标区域为车牌,其尺寸过小,而MeanShift的理论基础是目标在前后两帧图像中的重叠度越高,计算出的MeanShift运动向量就越准确。因此,本发明实施例中,截取目标区域图像之前,可以将目标框区域按照一定的规则进行扩大。例如,可以将目标框按照上下左右四个邻域各扩展20个像素后所确定出的区域图像作为目标区域图像。在确定出目标区域图像之后,存储目标区域图像的特征信息作为目标模型。另外,以目标框区域信息为准,将当前帧图像上目标框区域信息确定出的区域作为当前候选区域,并存储当前候选区域图像的特征信息作为观测模型。同样,在获取候选区域图像时,也可以将候选区域按照上下左右四个邻域各扩展20个像素。
需要说明的是,本发明实施例中,图像的特征信息可以但不限于包括图像的灰度及其相应的直方图统计数据,梯度及其相应的直方图统计数据,以及利用角点、LBP(局部二值模式)、SIFT(尺度不变特征)等算子提取的图像纹理信息等。
基于上述确定出的目标模型和观测模型,取核函数为单位高斯函数:则其剖面函数为:k(x)=e-x,基于此,本发明实施例中,步骤S106中,可以按照以下步骤进行自动跟踪:
步骤1061、分别确定目标模型和观测模型对应的灰度概率密度直方图;
具体的,按照以下公式确定所述目标模型对应的灰度概率密度直方图: 其中:按照二维图像空间,k(x)=e-x;(x,y)表示目标区域上任一点的坐标;(x0,y0)表示目标区域的中心点坐标;w表示目标区域宽度的一半;h表示目标区域高度的一半;则R2表示目标区域内任一点(x,y)到当前中心点(x0,y0)的归一化距离的平方。i表示灰度量化级;具体实施时,总量化级可以但不限于为32,若总量化级为32时,则i=0,1,2,…,31,gray(x,y)表示(x,y)处灰度值量化后所处的量化级。
类似地,可以按照以下公式确定观测模型对应的灰度概率密度直方图: 其中: (x',y')表示候选区域上任一点的坐标;(x'0,y'0)表示候选区域的中心点坐标;w'表示候选区域宽度的一半;h'表示候选区域高度的一半。
步骤1062、确定观测模型与目标模型之间的相似度参数;
传统计算相似度参数公式为巴氏(Bhattacharyya)距离由于此公式每次都要进行一次乘法和开根号运算,m越大,运算越耗时,设备处理资源开销越大。本发明实施例中,为了降低设备资源开销,采用简捷有效的相似度计算公式其中ρ为归一化系数,b为量化后的灰度级,pb表示b在观测模型中出现的概率;qb表示b在目标模型中出现的概率;m为最大量化级数,例如,可以取m=32,min()函数表示进行取最小值操作。
步骤1063、判断计算出的相似度参数是否满足预设条件,如果是,结束流程,否则,执行步骤1064;
具体实施时,当相似度参数满足以下三个条件中的任一个时,确定相似度参数满足预设条件:
条件一:判断确定出的相似度参数是否大于预设值Th_1,若是,确定相似度参数满足预设条件,否则,确定相似度参数不满足预设条件,其中,Th_1值越高,表征当前均值漂移结果的可信度越大,例如,具体实施时,Th_1可以但不限于设置为0.99。
条件二:判断重新确定出的当前候选区域的中心点与上一次确定出的当前候选区域的中心点位置之间的距离小于等于预设值Th_2,若是,确定相似度参数满足预设条件,否则,确定相似度参数不满足预设条件,其中,Th_2值越小,表征当前均值漂移结果的可信度越大,例如,具体实施时,Th_2可以但不限于设置为0。重新确定当前候选区域的中心点的方法可以参见步骤4。
条件三:判断返回执行确定相似度参数的步骤的次数是否超过预设值Th_3,若是,确定相似度参数满足预设条件,否则,确定相似度参数不满足预设条件,即判断MeanShift迭代次数是否超过值Th_3,根据经典MeanShift理论,迭代次数超过了一定阈值后,对最终效果影响不大,但是会引起耗时增加,较佳地,Th_3可以但不限于设置为5。
步骤1064、重新确定所述当前候选区域的中心点位置信息,并根据重新确定出的中心点位置信息和预设的目标框区域尺寸信息重新确定当前候选区域,并返回执行步骤1061~1062。
具体实施时,可以按照以下方法重新确定所述当前候选区域的中心点位置信息:
按照以下公式确定观测模型中目标点的概率密度核权重参数:其中:g(x)=e-x;按照以下公式计算得到局部灰度概率密度极值点,即重新确定出的当前候选区域的中心点位置信息: 其中:(Mx,My)表示重新计算的当前候选区域的中心点位置信息。
经过一次MeanShift迭代计算后的中心点(Mx,My)与前次中心点(x0,y0)的欧式距离(即MeanShift的步长) 然后将新中心点(Mx,My)赋值给(x0,y0)。
具体实施时,在每进行一次迭代之后,根据MeanShift算法,需要对目标框区域信息进行修正,当前MeanShift领域所采取的较普遍的方法为按目标框±10%增量进行修正,在每次迭代过程中,多次计算,取观测模型直方图与目标模型直方图相似度参数最高(ρ最大)时为最优。此方法虽然在目标框尺寸放大时有较好效果,但是无法满足尺寸缩小时的自适应。而在电子警察应用场景中,正常车辆的运动趋势是从近景运动到远景,目标框尺寸逐渐缩小。本发明中,依据场景的特殊性,获得的图像最下边缘到停车线位置,为近端场景,目标尺寸较大,特征明显,车牌检测识别结果均较好,可不必在自动跟踪时进行尺寸自适应。
基于此,本发明实施例提供的车辆目标自动跟踪方法,在重新确定所述当前候选区域的中心点位置信息之前,还可以包括以下步骤:
根据预设的第一位置信息和重新确定出的当前候选区域的中心点位置信息,判断候选区域的中心点是否超过预设的第一位置;
在判断结果为是时,按照以下公式修正目标框区域尺寸信息: 其中:CurrSize表示修正后的目标框尺寸信息;BaseSize表示修正前的目标框尺寸信息;ScaleRatio、CurrScaleRatio和LineDist均为预设值;CurrLineDist为当前候选区域的中心点到第一位置的直线距离。
特别地,在修正目标框区域尺寸信息之后,还包括:根据预设的第二位置信息和重新确定出的当前候选区域的中心点位置信息,判断候选区域的中心点是否超过第二位置;在判断结果为是时,从根据目标集合中删除所述跟踪目标。
具体的,本发明实施例中,将要进行尺寸自适应的初始位置(即第一位置)设置为停车线,而最远位置(即第二位置)为远景的斑马线最低沿(亦是跟踪结束位置)。通常停车线到远景斑马线最低沿的直线距离为700-900像素,相应的,目标区域图像平均缩小为原尺寸的0.36,因此,本发明实施例中,取直线距离平均值LineDist=800像素,缩小最大范围为ScaleRatio=1-0.36=0.64,记当前位置的缩放率为CurrScaleRatio,当前位置到停车线的直线距离为CurrLineDist,则记目标初始尺寸为BaseSize,当前尺寸为CurrSize,则:
具体实施时,目标框中心点处于停车线以下位置,则不进行尺寸的自适应修正,只有超过了停车线位置,才根据如上公式进行修正,修正后的尺寸作为下次目标自动跟踪时的目标框尺寸。当跟踪目标超过了远景斑马线的最低沿,此时的距离已经足够满足各种违章行为的判断和抓捕,可以提前删除该自动跟踪目标。当目标左转或右转到达了视频的边缘,此时也提前删除目标。特殊的,逆行的车辆按电子警察系统整体的设置,在停车线以上位置无法识别出车牌,故无检测识别结果,向下行驶跨过停车线后,才会有车牌检测识别结果,此时若开启自动跟踪,不进行尺寸的自适应改进。
需要说明的是,以上各数据仅是本发明实施例较佳的数据示例,具体实施时,可以根据实际需要进行调整,本发明实施例对此并不做限定。
具体实施时,经过上述MeanShift迭代过程后,如果ρ值大于预设阈值Th_4,则认为MeanShift结果有效,否则,提前删除此目标。正常情况下,每个线性运动的目标独立跟踪,互不影响,ρ值均较大。但是存在目标遮挡、拐弯或掉头时或自然光线产生明暗突变时,ρ值可能会降低的比较明显。因此,为了保证目标跟踪的连续性和抑制较大偏差的均值漂移结果,本发明实施例中Th_4可以但不限于设置为0.3。
对于有效的MeanShift结果,取ρ值与预设阈值Th_5再比较,如果大于等于此阈值,则认为当前结果与真实目标位置非常接近,可以利用当前结果更新目标模型。,其中,Th_5可以但不限于设置为0.9,目标模型更新方法如下:
如果当前MeanShift结果自适应修正后的目标框尺寸小于目标模板对应的目标框尺寸时,则以目标模型中心点为基准,按MeanShift修正后的目标框尺寸进行截取相应区域作为目标区域。否则,按目标模型原尺寸进行更新。更新公式为:pixelModel(x,y)=α*pixelCurr(x,y)+(1-α)pixelModel(x,y),(x,y)为当前目标框中各点相对于更新前的目标模型对应的目标框初始点的偏移量;pixelModel(x,y)为更新后的目标模型中对应的像素点的灰度值;pixelCurr(x,y)为更新前的目标模型中对应的像素点的灰度值;α为预设值,且α∈(0,1)较佳地,为了进行快速更新,α可以但不限于设置为0.9。
如果ρ值小于Th_5,则不更新目标模板。特殊的,如车辆掉头行驶或紧邻的车辆存在互相遮挡的情况,其每帧MeanShift迭代处理后的ρ值均小于Th_5,此时从未进行目标模型更新,但是只要保证进行目标框尺寸的自适应,仍然能得到准确的自动跟踪结果。
基于同一发明构思,本发明实施例中还提供了一种目标车辆自动跟踪装置,由于上述装置解决问题的原理与目标车辆自动跟踪方法相似,因此上述装置及设备的实施可以参见方法的实施,重复之处不再赘述。
如图3所示,为本发明实施例提供的目标车辆自动跟踪装置的结构示意图,包括:
接收单元301,用于接收当前帧图像;
目标集合建立单元302,用于提取所述当前帧图像中的检测目标,建立检测目标集合;
第一确定单元303,用于针对跟踪目标集合中包含的每一跟踪目标,确定所述跟踪目标与所述检测目标集合包含的每一检测目标均不匹配时,根据目标框区域信息确定所述跟踪目标在上一帧图像中对应的目标区域,所述跟踪目标集合为根据历史图像信息获取的;
第二确定单元304,用于将所述搜索区域信息在当前帧图像上所对应的区域作为当前候选区域,且确定所述目标区域的特征信息为所述目标区域对应的目标模型,确定所述候选区域的特征信息为所述候选区域对应的观测模型;
第三确定单元305,用于根据确定出的目标模型和观测模型,确定跟踪目标的跟踪轨迹。
具体实施时,本发明实施例提供的目标车辆自动跟踪装置,还可以包括第一判断单元306和第四确定单元307,其中:
第三确定单元305,可以用于根据确定出的目标模型和观测模型,按照预设算法确定所述观测模型与所述目标模型之间的相似度参数;以及用于在第一判断单元306的判断结果为否时,根据第四确定单元307重新确定出的中心点位置信息和所述搜索区域的尺寸信息重新确定当前候选区域,再次执行确定所述相似度参数的步骤,直至所述相似度参数满足预设条件;
第一判断单元306,用于判断第三确定单元305确定出的相似度参数是否满足预设条件;
第四确定单元307,用于在第一判断单元306的判断结果为否时,重新确定所述当前候选区域的中心点位置信息。
其中,第三确定单元305可以包括:
第一确定子单元,用于分别确定所述目标模型和所述观测模型对应的灰度概率密度直方图;
第二确定子单元,用于按照以下公式确定目标模型的灰度概率密度直方图与所述观测模型的灰度概率密度直方图之间的相似度参数:其中:ρ表示归一化系数;b表示量化灰度级;pb表示b在观测模型中出现的概率;qb表示b在目标模型中出现的概率;m表示量化级数;min()表示取最小值操作。
其中:第一确定子单元,具体用于按照以下公式确定所述目标模型对应的灰度概率密度直方图: 其中:k(x)=e-x;(x,y)表示目标区域上任一点的坐标;(x0,y0)表示目标区域的中心点坐标;w表示目标区域宽度的一半;h表示目标区域高度的一半;i表示灰度量化级;gray(x,y)表示(x,y)处灰度值量化后的量化级;以及按照以下公式确定所述观测模型对应的灰度概率密度直方图: 其中: (x',y')表示候选区域上任一点的坐标;(x'0,y'0)表示候选区域的中心点坐标;w'表示候选区域宽度的一半;h'表示候选区域高度的一半。
具体实施时,第四确定单元307,包括:
第三确定子单元,用于按照以下公式确定所述观测模型中目标点的概率密度核权重参数: 其中:g(x)=e-x;
第四确定子单元,用于按照以下公式重新确定所述当前候选区域的中心点位置信息: 其中:(Mx,My)表示重新计算的当前候选区域的中心点位置信息。
具体实施时,本发明实施例提供的车辆目标自动跟踪装置,还可以包括:
扩展单元,用于在第二确定单元304确定目标区域对应的目标模型之前,将所述目标区域按照上下左右四个邻域各扩展预设数量像素。
具体实施时,本发明实施例提供的车辆目标自动跟踪装置,还可以包括:
第二判断单元,用于根据预设的第一位置信息和第四确定单元307重新确定出的当前候选区域的中心点位置信息,判断所述候选区域的中心点是否超过预设的第一位置;
修正单元,用于在所述第二判断单元的判断结果为是时,按照以下公式修正所述目标框区域尺寸信息: 其中:CurrSize表示修正后的目标框尺寸信息;BaseSize表示修正前的目标框尺寸信息;ScaleRatio为第一预设值;CurrScaleRatio为第二预设值;CurrLineDist为当前候选区域的中心点到第一位置的直线距离;LineDist为第三预设值。
具体实施时,本发明实施例提供的车辆目标自动跟踪装置,还可以包括:
第三判断单元,用于在所述修正单元在修正所述目标框区域尺寸信息之后,根据预设的第二位置信息和重新确定出的当前候选区域的中心点位置信息,判断所述候选区域的中心点是否超过第二位置;
第一删除单元,用于在第三判断单元的判断结果为是时,从所述根据目标集合中删除所述跟踪目标。
具体实施时,第一判断单元306,可以用于判断所述相似度参数是否大于第四预设值,若是,确定所述相似度参数满足预设条件,否则,确定所述相似度参数不满足预设条件;或者具体用于判断重新确定出的当前候选区域的中心点与上一次确定出的当前候选区域的中心点之间的距离小于等于第五预设值,若是,确定所述相似度参数满足预设条件,否则,确定所述相似度参数不满足预设条件;或者具体判断返回执行确定所述相似度参数的步骤的次数是否超过第六预设值,若是,确定所述相似度参数满足预设条件,否则,确定所述相似度参数不满足预设条件。
具体实施时,本发明实施例提供的车辆目标自动跟踪装置,还可以包括:
更新单元,用于若所述相似度参数大于第七预设值时,按照以下公式更新所述目标模型:pixelModel(x,y)=α*pixelCurr(x,y)+(1-α)pixelModel(x,y),其中:(x,y)为当前目标框中各点相对于更新前的目标模型对应的目标框初始点的偏移量;pixelModel(x,y)为更新后的目标模型中对应的像素点的灰度值;pixelCurr(x,y)为更新前的目标模型中对应的像素点的灰度值;α为第八预设值,所述第七预设值小于所述第四预设值。
具体实施时,本发明实施例提供的车辆目标自动跟踪装置,还可以包括:
第二删除单元,用于在第一判断单元判断判断所述相似度参数是否满足预设条件之前,若所述相似度参数小于第九预设值时,从所述跟踪目标集合中删除所述跟踪目标。
本发明实施例提供的目标车辆自动跟踪方法及装置,若确定跟踪目标集合中的某一跟踪目标与当前建立的检测目标集合中的每一检测目标均不匹配时,根据目标框区域信息,确定该跟踪目标在上一帧图像中,该目标框区域信息对应的区域为目标区域,确定该目标框区域信息在当前帧图像中对应的区域为当前候选区域,并分别确定所述目标区域和所述候选区域对应的目标模型和观测模型,进一步地,利用预设算法计算所述候选模型与所述目标模型之间的相似度参数,若得到的相似度参数不满足预设条件时,确定当前候选区域的中心点,根据确定出的中心点和目标框区域信息中包含的尺寸信息,重新确定当前候选区域,并计算所述目标模型与重新确定出的当前候选区域对应的观测模型之间的相似度参数,重复上述步骤,直至相似度参数满足预设条件。这样,当跟踪目标集合中的跟踪目标丢失之后,可以根据该跟踪目标在上一帧图像中的图像信息估计出该跟踪目标在之后的图像帧中的运动轨迹,从而,实现了对该跟踪目标的自动跟踪。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (22)
1.一种目标车辆自动跟踪方法,其特征在于,包括:
接收当前帧图像;
提取所述当前帧图像中的检测目标,建立检测目标集合;
针对跟踪目标集合中包含的每一跟踪目标,若所述跟踪目标与所述检测目标集合包含的每一检测目标均不匹配时,根据所述跟踪目标对应的目标框区域信息确定所述跟踪目标在上一帧图像中对应的目标区域,所述跟踪目标集合为根据历史图像信息获取的,所述目标框区域信息包括目标框区域的中心点位置信息和尺寸信息;
将所述目标框区域信息在当前帧图像上所对应的区域作为当前候选区域,且确定所述目标区域的特征信息为所述目标区域对应的目标模型,确定所述候选区域的特征信息为所述候选区域对应的观测模型;
根据确定出的目标模型和观测模型,确定所述跟踪目标的跟踪轨迹。
2.如权利要求1所述的方法,其特征在于,根据确定出的目标模型和观测模型,确定所述跟踪目标的跟踪轨迹,具体包括:
根据确定出的目标模型和观测模型,按照预设算法确定所述观测模型与所述目标模型之间的相似度参数;
判断所述相似度参数是否满足预设条件;
在判断结果为否时,重新确定所述当前候选区域的中心点位置信息;根据重新确定出的中心点位置信息和所述搜索区域的尺寸信息重新确定当前候选区域,并返回执行确定所述相似度参数的步骤,直至所述相似度参数满足预设条件。
3.如权利要求2所述的方法,其特征在于,根据确定出的目标模型和观测模型,按照预设算法确定所述观测模型与所述目标模型之间的相似度参数,具体包括:
分别确定所述目标模型和所述观测模型对应的灰度概率密度直方图;
按照以下公式确定目标模型的灰度概率密度直方图与所述观测模型的灰度概率密度直方图之间的相似度参数:其中:
ρ表示归一化系数;
b表示量化灰度级;
pb表示b在观测模型中出现的概率;
qb表示b在目标模型中出现的概率;
m表示量化级数;
min()表示取最小值操作。
4.如权利要求3所述的方法,其特征在于,
按照以下公式确定所述目标模型对应的灰度概率密度直方图:
k(x)=e-x;
(x,y)表示目标区域上任一点的坐标;
(x0,y0)表示目标区域的中心点坐标;
w表示目标区域宽度的一半;
h表示目标区域高度的一半;
i表示灰度量化级;
gray(x,y)表示(x,y)处灰度值量化后的量化级;
按照以下公式确定所述观测模型对应的灰度概率密度直方图:
(x',y')表示候选区域上任一点的坐标;
(x'0,y'0)表示候选区域的中心点坐标;
w'表示候选区域宽度的一半;
h'表示候选区域高度的一半。
5.如权利要求4所述的方法,其特征在于,重新确定所述当前候选区域的中心点位置信息,具体包括:
按照以下公式确定所述观测模型中目标点的概率密度核权重参数: 其中:
g(x)=e-x;
按照以下公式重新确定所述当前候选区域的中心点位置信息: 其中:
(Mx,My)表示重新计算的当前候选区域的中心点位置信息。
6.如权利要求2所述的方法,其特征在于,在确定所述目标区域对应的目标模型之前,还包括:
将所述目标区域按照上下左右四个邻域各扩展预设数量像素。
7.如权利要求2所述的方法,其特征在于,在重新确定所述当前候选区域的中心点位置信息之前,还包括:
根据预设的第一位置信息和重新确定出的当前候选区域的中心点位置信息,判断所述候选区域的中心点是否超过预设的第一位置;
在判断结果为是时,按照以下公式修正所述目标框区域尺寸信息:
CurrSize表示修正后的目标框区域尺寸信息;
BaseSize表示修正前的目标框区域尺寸信息;
ScaleRatio为第一预设值;
CurrScaleRatio为第二预设值;
CurrLineDist为当前候选区域的中心点到第一位置的直线距离;
LineDist为第三预设值。
8.如权利要求7所述的方法,其特征在于,在修正所述目标框区域尺寸信息之后,还包括:
根据预设的第二位置信息和重新确定出的当前候选区域的中心点位置信息,判断所述候选区域的中心点是否超过第二位置;
在判断结果为是时,从所述根据目标集合中删除所述跟踪目标。
9.如权利要求2~8任一权利要求所述的方法,其特征在于,按照以下方法判断所述相似度参数是否满足预设条件:
判断所述相似度参数是否大于第四预设值,若是,确定所述相似度参数满足预设条件,否则,确定所述相似度参数不满足预设条件;或者
判断重新确定出的当前候选区域的中心点与上一次确定出的当前候选区域的中心点之间的距离小于等于第五预设值,若是,确定所述相似度参数满足预设条件,否则,确定所述相似度参数不满足预设条件;或者
判断返回执行确定相似度参数的步骤的次数是否超过第六预设值,若是,确定所述相似度参数满足预设条件,否则,确定所述相似度参数不满足预设条件。
10.如权利要求9所述的方法,其特征在于,若所述相似度参数大于第七预设值时,所述第七预设值小于所述第四预设值,还包括:
按照以下公式更新所述目标模型:
pixelModel(x,y)=α*pixelCurr(x,y)+(1-α)pixelModel(x,y),其中:
(x,y)为当前目标框中各点相对于更新前的目标模型对应的目标框初始点的偏移量;
pixelModel(x,y)为更新后的目标模型中对应的像素点的灰度值;
pixelCurr(x,y)为更新前的目标模型中对应的像素点的灰度值;
α为第八预设值。
11.如权利要求2所述的方法,其特征在于,在判断所述相似度参数是否满足预设条件之前,还包括:
若所述相似度参数小于第九预设值时,从所述跟踪目标集合中删除所述跟踪目标。
12.一种目标车辆自动跟踪装置,其特征在于,包括:
接收单元,用于接收当前帧图像;
目标集合建立单元,用于提取所述当前帧图像中的检测目标,建立检测目标集合;
第一确定单元,用于针对跟踪目标集合中包含的每一跟踪目标,若所述跟踪目标与所述检测目标集合包含的每一检测目标均不匹配时,根据所述跟踪目标对应的目标框区域信息确定所述跟踪目标在上一帧图像中对应的目标区域,所述跟踪目标集合为根据历史图像信息获取的,所述目标框区域信息包括目标框区域的中心点位置信息和尺寸信息;
第二确定单元,用于将所述目标框区域信息在当前帧图像上所对应的区域作为当前候选区域,且确定所述目标区域的特征信息为所述目标区域对应的目标模型,确定所述候选区域的特征信息为所述候选区域对应的观测模型;
第三确定单元,用于根据确定出的目标模型和观测模型,确定所述跟踪目标的跟踪轨迹。
13.如权利要求12所述的装置,其特征在于,还包括第一判断单元和第四确定单元,其中:
所述第三确定单元,具体用于根据确定出的目标模型和观测模型,按照预设算法确定所述观测模型与所述目标模型之间的相似度参数;以及用于在第一判断单元的判断结果为否时,根据第四确定单元重新确定出的中心点位置信息和所述搜索区域的尺寸信息重新确定当前候选区域,再次执行确定所述相似度参数的步骤,直至所述相似度参数满足预设条件;
所述第一判断单元,用于判断所述第三确定单元确定出的相似度参数是否满足预设条件;
第四确定单元,用于在第一判断单元的判断结果为否时,重新确定所述当前候选区域的中心点位置信息。
14.如权利要求13所述的装置,其特征在于,所述第三确定单元,包括:
第一确定子单元,用于分别确定所述目标模型和所述观测模型对应的灰度概率密度直方图;
第二确定子单元,用于按照以下公式确定目标模型的灰度概率密度直方图与所述观测模型的灰度概率密度直方图之间的相似度参数:其中:
ρ表示归一化系数;
b表示量化灰度级;
pb表示b在观测模型中出现的概率;
qb表示b在目标模型中出现的概率;
m表示量化级数;
min()表示取最小值操作。
15.如权利要求14所述的装置,其特征在于,
所述第一确定子单元,具体用于按照以下公式确定所述目标模型对应的灰度概率密度直方图: 其中:k(x)=e-x;(x,y)表示目标区域上任一点的坐标;(x0,y0)表示目标区域的中心点坐标;w表示目标区域宽度的一半;h表示目标区域高度的一半;i表示灰度量化级;gray(x,y)表示(x,y)处灰度值量化后的量化级;以及按照以下公式确定所述观测模型对应的灰度概率密度直方图: 其中: (x',y')表示候选区域上任一点的坐标;(x'0,y'0)表示候选区域的中心点坐标;w'表示候选区域宽度的一半;h'表示候选区域高度的一半。
16.如权利要求15所述的装置,其特征在于,所述第四确定单元,包括:
第三确定子单元,用于按照以下公式确定所述观测模型中目标点的概率密度核权重参数: 其中:g(x)=e-x;
第四确定子单元,用于按照以下公式重新确定所述当前候选区域的中心点位置信息: 其中:(Mx,My)表示重新计算的当前候选区域的中心点位置信息。
17.如权利要求12所述的装置,其特征在于,还包括:
扩展单元,用于在所述第二确定单元确定所述目标区域对应的目标模型之前,将所述目标区域按照上下左右四个邻域各扩展预设数量像素。
18.如权利要求13所述的装置,其特征在于,还包括:
第二判断单元,用于根据预设的第一位置信息和所述第四确定单元重新确定出的当前候选区域的中心点位置信息,判断所述候选区域的中心点是否超过预设的第一位置;
修正单元,用于在所述第二判断单元的判断结果为是时,按照以下公式修正所述目标框区域的尺寸信息: 其中:CurrSize表示修正后的目标框区域尺寸信息;BaseSize表示修正前的目标框区域尺寸信息;ScaleRatio为第一预设值;CurrScaleRatio为第二预设值;CurrLineDist为当前候选区域的中心点到第一位置的直线距离;LineDist为第三预设值。
19.如权利要求18所述的装置,其特征在于,还包括:
第三判断单元,用于在所述修正单元在修正所述目标框区域的尺寸信息之后,根据预设的第二位置信息和重新确定出的当前候选区域的中心点位置信息,判断所述候选区域的中心点是否超过第二位置;
第一删除单元,用于在所述第三判断单元的判断结果为是时,从所述根据目标集合中删除所述跟踪目标。
20.如权利要求13~19任一权利要求所述的装置,其特征在于,
所述第一判断单元,具体用于判断所述相似度参数是否大于第四预设值,若是,确定所述相似度参数满足预设条件,否则,确定所述相似度参数不满足预设条件;或者具体用于判断重新确定出的当前候选区域的中心点与上一次确定出的当前候选区域的中心点之间的距离小于等于第五预设值,若是,确定所述相似度参数满足预设条件,否则,确定所述相似度参数不满足预设条件;或者具体判断返回执行确定所述相似度参数的步骤的次数是否超过第六预设值,若是,确定所述相似度参数满足预设条件,否则,确定所述相似度参数不满足预设条件。
21.如权利要求20所述的装置,其特征在于,还包括:
更新单元,用于若所述相似度参数大于第七预设值时,按照以下公式更新所述目标模型:pixelModel(x,y)=α*pixelCurr(x,y)+(1-α)pixelModel(x,y),其中:(x,y)为当前目标框中各点相对于更新前的目标模型对应的目标框初始点的偏移量;pixelModel(x,y)为更新后的目标模型中对应的像素点的灰度值;pixelCurr(x,y)为更新前的目标模型中对应的像素点的灰度值;α为第八预设值,所述第七预设值小于所述第四预设值。
22.如权利要求13所述的装置,其特征在于,还包括:
第二删除单元,用于在所述第一判断单元判断所述相似度参数是否满足预设条件之前,若所述相似度参数小于第九预设值时,从所述跟踪目标集合中删除所述跟踪目标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310011103.3A CN103927762B (zh) | 2013-01-11 | 2013-01-11 | 一种目标车辆自动跟踪方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310011103.3A CN103927762B (zh) | 2013-01-11 | 2013-01-11 | 一种目标车辆自动跟踪方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103927762A true CN103927762A (zh) | 2014-07-16 |
CN103927762B CN103927762B (zh) | 2017-03-22 |
Family
ID=51145973
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310011103.3A Active CN103927762B (zh) | 2013-01-11 | 2013-01-11 | 一种目标车辆自动跟踪方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103927762B (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104268889A (zh) * | 2014-09-30 | 2015-01-07 | 重庆大学 | 基于特征权值自校正的车辆跟踪方法 |
CN104700432A (zh) * | 2015-03-24 | 2015-06-10 | 银江股份有限公司 | 一种自适应的粘连车辆分割方法 |
CN105730336A (zh) * | 2014-12-10 | 2016-07-06 | 比亚迪股份有限公司 | 倒车辅助装置及车辆 |
CN106909934A (zh) * | 2017-01-19 | 2017-06-30 | 博康智能信息技术有限公司上海分公司 | 一种基于自适应搜索的目标跟踪方法及装置 |
CN106909935A (zh) * | 2017-01-19 | 2017-06-30 | 博康智能信息技术有限公司上海分公司 | 一种目标跟踪方法及装置 |
CN108986472A (zh) * | 2017-05-31 | 2018-12-11 | 杭州海康威视数字技术股份有限公司 | 一种掉头车辆监控方法及装置 |
CN109213134A (zh) * | 2017-07-03 | 2019-01-15 | 百度在线网络技术(北京)有限公司 | 生成自动驾驶策略的方法和装置 |
CN109389624A (zh) * | 2018-10-22 | 2019-02-26 | 中国科学院福建物质结构研究所 | 基于相似度度量的模型漂移抑制方法及其装置 |
CN109813327A (zh) * | 2019-02-01 | 2019-05-28 | 安徽中科美络信息技术有限公司 | 一种车辆行驶轨迹缺失补偿方法 |
CN110287817A (zh) * | 2019-06-05 | 2019-09-27 | 北京字节跳动网络技术有限公司 | 目标识别及目标识别模型的训练方法、装置和电子设备 |
CN110458045A (zh) * | 2019-07-22 | 2019-11-15 | 浙江大华技术股份有限公司 | 响应概率直方图的获取方法、图像处理方法以及装置 |
CN110930429A (zh) * | 2018-09-19 | 2020-03-27 | 杭州海康威视数字技术股份有限公司 | 一种目标跟踪处理方法、装置及设备、可读介质 |
CN110969097A (zh) * | 2019-11-18 | 2020-04-07 | 浙江大华技术股份有限公司 | 监控目标联动跟踪控制方法、设备及存储装置 |
CN111832549A (zh) * | 2020-06-29 | 2020-10-27 | 深圳市优必选科技股份有限公司 | 数据标注方法及装置 |
CN113361388A (zh) * | 2021-06-03 | 2021-09-07 | 北京百度网讯科技有限公司 | 图像数据修正方法、装置、电子设备及自动驾驶车辆 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1912950A (zh) * | 2006-08-25 | 2007-02-14 | 浙江工业大学 | 基于全方位视觉传感器的违章车辆监控装置 |
JP2011193198A (ja) * | 2010-03-15 | 2011-09-29 | Omron Corp | 監視カメラ端末 |
CN102567705A (zh) * | 2010-12-23 | 2012-07-11 | 北京邮电大学 | 一种检测和跟踪夜间行驶车辆的方法 |
-
2013
- 2013-01-11 CN CN201310011103.3A patent/CN103927762B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1912950A (zh) * | 2006-08-25 | 2007-02-14 | 浙江工业大学 | 基于全方位视觉传感器的违章车辆监控装置 |
JP2011193198A (ja) * | 2010-03-15 | 2011-09-29 | Omron Corp | 監視カメラ端末 |
CN102567705A (zh) * | 2010-12-23 | 2012-07-11 | 北京邮电大学 | 一种检测和跟踪夜间行驶车辆的方法 |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104268889A (zh) * | 2014-09-30 | 2015-01-07 | 重庆大学 | 基于特征权值自校正的车辆跟踪方法 |
CN105730336B (zh) * | 2014-12-10 | 2018-12-21 | 比亚迪股份有限公司 | 倒车辅助装置及车辆 |
CN105730336A (zh) * | 2014-12-10 | 2016-07-06 | 比亚迪股份有限公司 | 倒车辅助装置及车辆 |
CN104700432A (zh) * | 2015-03-24 | 2015-06-10 | 银江股份有限公司 | 一种自适应的粘连车辆分割方法 |
CN104700432B (zh) * | 2015-03-24 | 2017-11-03 | 银江股份有限公司 | 一种自适应的粘连车辆分割方法 |
CN106909934A (zh) * | 2017-01-19 | 2017-06-30 | 博康智能信息技术有限公司上海分公司 | 一种基于自适应搜索的目标跟踪方法及装置 |
CN106909935A (zh) * | 2017-01-19 | 2017-06-30 | 博康智能信息技术有限公司上海分公司 | 一种目标跟踪方法及装置 |
CN108986472A (zh) * | 2017-05-31 | 2018-12-11 | 杭州海康威视数字技术股份有限公司 | 一种掉头车辆监控方法及装置 |
CN108986472B (zh) * | 2017-05-31 | 2020-10-30 | 杭州海康威视数字技术股份有限公司 | 一种掉头车辆监控方法及装置 |
CN109213134A (zh) * | 2017-07-03 | 2019-01-15 | 百度在线网络技术(北京)有限公司 | 生成自动驾驶策略的方法和装置 |
CN110930429B (zh) * | 2018-09-19 | 2023-03-31 | 杭州海康威视数字技术股份有限公司 | 一种目标跟踪处理方法、装置及设备、可读介质 |
CN110930429A (zh) * | 2018-09-19 | 2020-03-27 | 杭州海康威视数字技术股份有限公司 | 一种目标跟踪处理方法、装置及设备、可读介质 |
CN109389624A (zh) * | 2018-10-22 | 2019-02-26 | 中国科学院福建物质结构研究所 | 基于相似度度量的模型漂移抑制方法及其装置 |
CN109389624B (zh) * | 2018-10-22 | 2022-04-19 | 中国科学院福建物质结构研究所 | 基于相似度度量的模型漂移抑制方法及其装置 |
CN109813327A (zh) * | 2019-02-01 | 2019-05-28 | 安徽中科美络信息技术有限公司 | 一种车辆行驶轨迹缺失补偿方法 |
CN110287817B (zh) * | 2019-06-05 | 2021-09-21 | 北京字节跳动网络技术有限公司 | 目标识别及目标识别模型的训练方法、装置和电子设备 |
CN110287817A (zh) * | 2019-06-05 | 2019-09-27 | 北京字节跳动网络技术有限公司 | 目标识别及目标识别模型的训练方法、装置和电子设备 |
CN110458045A (zh) * | 2019-07-22 | 2019-11-15 | 浙江大华技术股份有限公司 | 响应概率直方图的获取方法、图像处理方法以及装置 |
CN110969097A (zh) * | 2019-11-18 | 2020-04-07 | 浙江大华技术股份有限公司 | 监控目标联动跟踪控制方法、设备及存储装置 |
CN110969097B (zh) * | 2019-11-18 | 2023-05-12 | 浙江大华技术股份有限公司 | 监控目标联动跟踪控制方法、设备及存储装置 |
CN111832549A (zh) * | 2020-06-29 | 2020-10-27 | 深圳市优必选科技股份有限公司 | 数据标注方法及装置 |
CN111832549B (zh) * | 2020-06-29 | 2024-04-23 | 深圳市优必选科技股份有限公司 | 数据标注方法及装置 |
CN113361388A (zh) * | 2021-06-03 | 2021-09-07 | 北京百度网讯科技有限公司 | 图像数据修正方法、装置、电子设备及自动驾驶车辆 |
CN113361388B (zh) * | 2021-06-03 | 2023-11-24 | 北京百度网讯科技有限公司 | 图像数据修正方法、装置、电子设备及自动驾驶车辆 |
Also Published As
Publication number | Publication date |
---|---|
CN103927762B (zh) | 2017-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103927762A (zh) | 一种目标车辆自动跟踪方法及装置 | |
Aker et al. | Using deep networks for drone detection | |
EP3686779B1 (en) | Method and device for attention-based lane detection without post-processing by using lane mask and testing method and testing device using the same | |
CN103530600B (zh) | 复杂光照下的车牌识别方法及系统 | |
US20070127779A1 (en) | System and method for range measurement of a preceding vehicle | |
CN115049700A (zh) | 一种目标检测方法及装置 | |
Daigavane et al. | Road lane detection with improved canny edges using ant colony optimization | |
JPWO2008020544A1 (ja) | 車両検知装置,車両検知方法並びに車両検知プログラム | |
CN116363319B (zh) | 一种建筑物屋顶的建模方法、建模装置、设备及介质 | |
CN111435436A (zh) | 一种基于目标位置的周界防入侵方法和装置 | |
CN103871081A (zh) | 一种自适应鲁棒在线目标跟踪方法 | |
CN114219829A (zh) | 车辆跟踪方法、计算机设备及存储装置 | |
Revilloud et al. | A lane marker estimation method for improving lane detection | |
CN114332781A (zh) | 一种基于深度学习的智能车牌识别方法及系统 | |
CN104463238B (zh) | 一种车标识别方法和系统 | |
Zeng et al. | Enhancing underground visual place recognition with Shannon entropy saliency | |
CN103295003B (zh) | 一种基于多特征融合的车辆检测方法 | |
CN113836251B (zh) | 一种认知地图构建方法、装置、设备及介质 | |
CN113763412B (zh) | 图像处理方法、装置及电子设备、计算机可读存储介质 | |
CN111401143A (zh) | 一种行人跟踪系统及方法 | |
CN114820765A (zh) | 图像识别方法、装置、电子设备及计算机可读存储介质 | |
CN111428567A (zh) | 一种基于仿射多任务回归的行人跟踪系统及方法 | |
CN117671617A (zh) | 一种集装箱港口环境下的实时车道识别方法 | |
CN111144361A (zh) | 一种基于二值化cgan网络的公路车道检测方法 | |
CN107578037B (zh) | 一种基于似物性估计的道线检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |