[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN103116896B - 一种基于视觉显著性模型的自动检测跟踪方法 - Google Patents

一种基于视觉显著性模型的自动检测跟踪方法 Download PDF

Info

Publication number
CN103116896B
CN103116896B CN201310071858.2A CN201310071858A CN103116896B CN 103116896 B CN103116896 B CN 103116896B CN 201310071858 A CN201310071858 A CN 201310071858A CN 103116896 B CN103116896 B CN 103116896B
Authority
CN
China
Prior art keywords
tracking
target
tracks
model
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310071858.2A
Other languages
English (en)
Other versions
CN103116896A (zh
Inventor
徐智勇
金炫
魏宇星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Optics and Electronics of CAS
Original Assignee
Institute of Optics and Electronics of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Optics and Electronics of CAS filed Critical Institute of Optics and Electronics of CAS
Priority to CN201310071858.2A priority Critical patent/CN103116896B/zh
Publication of CN103116896A publication Critical patent/CN103116896A/zh
Application granted granted Critical
Publication of CN103116896B publication Critical patent/CN103116896B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明是一种基于视觉显著性模型的自动检测跟踪方法,用视觉显著性模型计算输入视频图像的颜色、亮度、方向显著性图,根据加权后的显著性图定义简单场景和复杂场景;检测到简单场景时,用显著性区域建立矩形框作为跟踪目标进行跟踪;检测到复杂场景时,根据权值不同对人为手动选择的跟踪框进行校正;利用跟踪学习检测算法对跟踪框进行跟踪,检测出跟踪失败;使用视觉显著性模型对失败后的每一帧图像进行检测,对显著性图中各个区域与跟踪失败前的线上模型进行直方图匹配,对相似性第一高的区域进行跟踪;对多个相似度相近的区域时,同时送入目标检测器进行检测,重复对下一帧图像目标进行跟踪检测并用直方图对比步骤直到重新检测到目标并跟踪。

Description

一种基于视觉显著性模型的自动检测跟踪方法
技术领域
本发明属于计算机视觉和生物视觉交叉技术领域,涉及一种利用视觉显著性模型对跟踪-学习-检测算法进行改进创新,实现对多类目标在简单场景自动检测跟踪,在复杂场景半自动检测跟踪的功能,并对于物体的姿态变化以及遮挡后的重新检测过程有很好的效果。
背景技术
在跟踪系统中,以往常用的跟踪方法有:帧差分法、背景建模方法、光流法等。但是它们在面对复杂背景和多种类型目标时,往往会因为光照、姿态和形状的变化,使得目标特征发生剧烈变化,从而导致跟踪失败。当出现部分遮挡和快速移动时,目标的部分特征信息丢失,使得特征失匹配,从而导致跟踪失败或者跟踪偏移。
为了提高跟踪精度,用单一的跟踪器来实现跟踪功能已经不能满足。因此跟踪-学习-检测提出一种把跟踪器、检测器和学习机融合成一体的思想来解决在线实时跟踪问题。它能够很好地解决以往跟踪方法存在的问题,但是它对于特征选择、姿态变化有着明显的不足。
发明内容
针对现有技术的不足,本发明的目的是能够对目标能够自动跟踪,并且有跟踪精度高、鲁棒性好的特性,能够满足工程上跟踪检测系统的应用,为此本发明提出一种基于视觉显著性模型的自动检测跟踪方法。
为实现本发明的目的,本发明基于视觉显著性模型的自动检测跟踪方法的技术方案包含以下步骤:
步骤S1:利用视觉显著性模型对输入的第一帧视频图像进行场景粗理解,计算图像的颜色、亮度、方向显著性图并归一化后,获得图像场景的加权显著性图,若显著性图中的一个显著性区域的权值占所有的80%以上,则定义为简单场景;若显著性图中的一个显著性区域的权值占所有的80%以下,则滤除场景中权值不到10%的显著性区域,并定义为复杂场景;
步骤S2:当程序检测到视频序列为简单场景时,直接取用显著性区域建立矩形框作为跟踪目标进行跟踪;
步骤S3:当程序检测到视频序列为复杂场景时,弹出对话框让使用者自行选择跟踪目标,然后将人为手动选择的跟踪框与各个显著性区域的距离,加入并重新计算各个显著性区域的权值,再根据权值不同对人为手动选择的跟踪框进行校正;
步骤S4:利用跟踪-学习-检测算法对跟踪框进行跟踪,当出现目标离开视野或者被遮挡时,能够检测出跟踪失败,并且在跟踪失败时及时反馈信息;当未出现目标离开视野或者未被遮挡时,继续对目标进行稳定跟踪并且实时检测跟踪是否出现失败;
步骤S5:当出现跟踪失败时,使用视觉显著性模型对失败后的每一帧图像进行检测,得到显著性图;对显著性图中的各个区域与跟踪失败前的线上模型进行直方图匹配,当直方图匹配相似性第一高的区域的相似度远大于第二高的区域时,直接对相似性第一高的区域进行跟踪;当直方图匹配有多个相似度相近的区域时,同时送入目标检测器进行检测,不断重复步骤S4直到重新检测到目标并进行跟踪。
优选实施例,对视频输入的第一帧图像进行视觉显著性模型的计算,分别计算颜色、亮度、方向显著图,归一化得到加权显著图。
优选实施例,对于简单场景,以显著性区域的中心作为跟踪框的中心,显著性区域的面积作为跟踪框的面积,达到自动选择跟踪目标,实现自动跟踪的功能。
优选实施例,以人为手动选择的跟踪框的中心位置与跟踪框大小作为两个参数带入视觉显著性模型中显著性区域权值的计算,根据计算结果将人为手动选择的跟踪框的中心位置与跟踪框大小向权值较高的显著性区域逼近,达到对人为选择的跟踪框进行校正,由于每次人为手动选择的跟踪框的中心位置和跟踪框大小不可能完全相同,这就产生了跟踪目标初始化的随机误差,而对于视频图像第一帧的显著性模型计算过程则是相同的,利用其对人为手动选择的跟踪框进行修正就实现了修正人为选择代入的随机误差,达到稳定的跟踪效果。
优选实施例,当跟踪目标被遮挡、发生剧烈形变或跟踪目标离开视场时,跟踪框内大部分跟踪点的前后项误差很大,则定义为跟踪失败。
优选实施例,在跟踪失败时,计算当前帧的显著性图,对显著性图中的各个区域建立直方图,与跟踪失败前的线上模型的直方图进行对比,找到姿态发生变化或消失后又重新出现的目标。
本发明的有益效果:本发明与传统方法相比,自从视觉显著性模型提出以来,它很快在计算机视觉领域得到了广泛地应用。由于它利用模仿人脑视觉皮层对于视场中目标处理的方法,最终计算得到感兴趣的目标,从而让计算机实现和人眼一样能够自动识别感兴趣目标的功能。本发明中的技术利用视觉显著性模型与跟踪-学习-检测相结合,提出一种双模型的自动检测跟踪算法。利用视觉显著性模型对跟踪-学习-检测跟踪算法进行改进,实现对多类目标在简单场景自动检测跟踪,在复杂场景半自动检测跟踪的功能,并对于物体的姿态变化以及遮挡后的重新检测过程有很好的效果。本方法进一步提高了跟踪精度,解决了非刚性物体的姿态,旋转对跟踪的影响,并且在使用时实现自动或者半自动跟踪。
附图说明
图1a为本发明自动检测跟踪方法的流程图。
图1b为本发明方法具体实施例流程图。
图2为本发明中更改过的计算视觉显著性模型的过程结构图。
图3为本发明中在简单场景下利用视觉显著性模型得到的感兴趣目标区域。
图4a-图4d为本发明中在简单场景下计算图3中得到的视觉显著性模型的颜色特征图、亮度特征图、方向特征图,以及加权特征图。
图5为本发明中在复杂场景下利用视觉显著性模型得到的感兴趣目标区域。
图6a-图6d为本发明中在复杂场景下计算图3中得到的视觉显著性模型的颜色特征图、亮度特征图、方向特征图,以及加权特征图。
图7a-图7c为本发明中使用跟踪-学习-检测算法中的前后项误差检测器图例。
图8为本发明中使用跟踪-学习-检测算法中的目标检测器中三个串联滤波器示意图。
图9中标号1-6为现有技术跟踪-学习-检测算法遇到姿态变化时出现跟踪失败的一些帧。
图10中标号1-6为本发明中利用视觉显著性模型计算失败后的显著性图的各个区域。
图11中标号1-6为本发明中利用视觉显著性模型计算后进行直方图对比得到的改进结果。
具体实施方式
下面结合附图对本发明的实施例作详细说明。本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于以下的实施例。
图1a和图1b示出,本实施例基于目标自动跟踪检测的实现,输入图像为一般目标视频帧序列。本实例提供了一种利用视觉显著性模型对跟踪目标实现自动或半自动选择,能够处理跟踪目标因姿态或旋转导致跟踪丢失问题并且对于跟踪失败后的重新检测算法有很好的改进。
本发明自动检测跟踪方法的步骤包括步骤S1至步骤S5,其中:
步骤S1:利用视觉显著性模型对输入的第一帧视频图像进行场景粗理解,计算图像的颜色、亮度、方向显著性图并归一化后,获得图像场景的加权显著性图,若显著性图中的一个显著性区域的权值占所有的80%以上,则定义为简单场景;若显著性图中的一个显著性区域的权值占所有的80%以下,则滤除场景中权值不到10%的显著性区域,并定义为复杂场景;
首先预处理。预处理过程我们需要对输入图像做一个鉴别,判断场景为简单场景或复杂场景。这里我们通过计算图像的加权显著性图来实现。我们使用的更改过的计算显著性视觉模型计算过程如图2,在图像中通过线性滤波器提取颜色特征、亮度特征和方向特征,通过高斯金字塔、中央周边操作算子和归一化处理后,形成并对12张颜色显著性图、6张亮度显著性图和24张方向显著性图做归一化融合,获得加权显著性图。
本发明在简单场景下计算图3中得到的视觉显著性模型的颜色特征图由图4a示出、亮度特征图由图4b示出、方向特征图由图4c示出,以及加权特征图由图4d示出。将这些特征图结合和归一化处理后,分别形成颜色、亮度、方向显著图,三个显著图融合成一张加权的显著图。比较图中不同区域的权值,假如有一个区域权值大小占到所有的80%,图3示出了本发明在简单场景下利用视觉显著性模型得到的感兴趣目标区域,我们定义为简单场景,并且只保留此显著性区域。如图5示如果有多个权值相近的显著性区域时,此场景判定为复杂场景,但是也只保留权值占所有的10%以上的区域,如图6a-图6d示出本发明中在复杂场景下利用视觉显著性模型得到的颜色显著图、亮度显著图、方向显著图和加权显著图。
图6a示出本发明中在复杂场景下计算图5中得到的视觉显著性模型的颜色特征图,图6b示出本发明中在复杂场景下计算图5中得到的亮度显著图,图6c示出本发明中在复杂场景下计算图5中得到的方向显著图,以及图6d示出本发明中在复杂场景下计算图5中得到的加权显著图。
步骤S2:简单场景的目标自动选择。当程序检测到视频序列为简单场景时,直接取用显著性区域建立矩形框作为跟踪目标进行跟踪。
步骤S3:复杂场景的目标选择校正。当程序检测到视频序列为复杂场景时,弹出对话框让使用者自行选择跟踪目标,然后将人为手动选择的跟踪框与各个显著性区域的距离,加入并重新计算各个显著性区域的权值,再根据权值不同对人为手动选择的跟踪框进行校正。
步骤S4:目标跟踪。
利用跟踪-学习-检测算法对跟踪框进行跟踪,当出现目标离开视野或者被遮挡时,能够检测出跟踪失败,并且在跟踪失败时及时反馈信息;当未出现目标离开视野或者未被遮挡时,继续对目标进行稳定跟踪并且实时检测跟踪是否出现失败;
目标跟踪分为四个部分:跟踪器,失败检测器、目标检测器和学习机。
将步骤S2或步骤S3得到的已用矩形跟踪框标定好的视频帧同时送入S41跟踪器和步骤S42目标检测器,并且将跟踪结果和检测结果实时送入步骤S43学习机进行学习,利用正确跟踪和检测结果建立步骤S44线上模型,并且更新步骤S41跟踪器和步骤S42目标检测器。与此同时,步骤S45失败检测器单独运行,并在判断跟踪失败后反馈信息。
跟踪器:跟踪-学习-检测算法中目标的跟踪使用的是光流法和图像金字塔相结合的算法,并且通过计算前后项误差的方式设立了失败检测器。
光流法和图像金字塔相结合的算法是:对视频图像建立进行不同尺度的像素抽取,得到多个不同尺度的视频图像,对每个视频图像用稀疏光流法进行跟踪,相邻尺度对比取最大得到最后跟踪结果。这种方法克服了现有稀疏光流法的三个缺点:1、过程光照不能变化;2、目标运动不能过大;3、局部运动需一致。
失败检测器:其算法是将t、t+1时刻顺序输入跟踪器,再将t+1、t时刻顺序输入跟踪器,对比两次结果得到的同一帧上同一个像素位置的跟踪结果,判断该点是否有效跟踪。当大部分点的误差都超过阈值时,判定为目标出现遮挡,或者跟踪失败,如图7a和图7b示出的本发明中使用跟踪-学习-检测算法中的前后项误差检测器图例。
图7a中的跟踪框内的点为初始跟踪点,即所有点为跟踪点,图7b中的点为计算前后项误差后,保留下来误差较小的点。可以看出,图7b中保留的点就是跟踪过程中目标物体上没有变化的点,t是时间常数,在本发明在t指代的是任意时刻t的视频帧图像,而t+1即是t时刻视频帧的下一帧图像。前后项误差在本发明中的实际含义即是将视频正序与倒序输入,进行对比,得到误差值。
图7c中给出了前后项误差的具体计算过程,分别视频帧序列向前和向后计算跟踪点,计算跟踪点的像素差作为前后项误差,It代表t时刻视频帧图像,It+1代表t时刻的下一帧视频图像,It+k代表t时刻的下k帧视频图像,Xt是t时刻正序跟踪过程中一个跟踪点的二维坐标,Xt+1是t+1时刻正序跟踪过程中一个跟踪点的二维坐标,Xt+k是t+k时刻正序跟踪过程中一个跟踪点的二维坐标,是t+k时刻倒序跟踪过程中一个跟踪点的二维坐标,是t+1时刻倒序跟踪过程中一个跟踪点的二维坐标,是t时刻倒序跟踪过程中一个跟踪点的二维坐标,t时刻前后项误差的值即为
目标检测器:实际上就是三个滤波器串联,如图8示出的本发明中使用跟踪-学习-检测(TLD)算法中的目标检测器中方差滤波器、最大后验滤波器和最近邻滤波器。如图8所示的目标检测过程,左边第一副图像是视频帧图像,图中的矩形框为扫描窗,我们采用扫描窗遍历图像,对每个扫描窗内地像素计算方差,认为方差较低的扫描窗的内容是跟踪背景,方差较高的扫描窗是目标区域,这样我们就提取出来一系列图像块,这个过程是方差滤波过程。对方差滤波得到的结果图中的特征模板提取图像特征,图中的四个方格代表四个像素,分成上下、左右两次比较大小,比较的结果分为四种情况,我们用2比特编码表示:00,01,10,11,对应着不同的后验概率,做算术平均得到大于50%的图像块,小于50%的图像块判定为图像背景区域,所谓背景是相对目标而言的,在跟踪中除了跟踪目标以外其余图像都是背景,这个过程是最大后验滤波过程。将得到的图像块与跟踪初始化过程中选择的跟踪目标(跟踪过程中为线上模型)进行最近邻滤波,图8中最右图为最近邻分类器寻找分类界面过程,图中白色点是当前图像块对应在分类界面上的点,d′是在分类界面上的点到最近黑色点的最近距离,d″是在分类界面上的点到最近红色点的最近距离,图中的问号代表求解d′和d″哪个最小,这个过程是最近邻滤波过程。
学习机:分为正负样本,正负样本两个集合不断计算类内距离,高于阈值的样本被取出,原有的样本域重新分配。这个过程通过不断纠正正负样本中的错误样本数,从而不断更新线上模型,使得跟踪过程稳定且准确。
上述几个部分在跟踪过程中同时进行,不断更新线上模型。线上模型是动态模型,随着跟踪过程的进行。
步骤S5:失败后重新检测。当出现跟踪失败时,使用视觉显著性模型对失败后的每一帧图像进行检测,得到显著性图;对显著性图中的各个区域与跟踪失败前的线上模型(线上模型是跟踪过程中根据跟踪结果实时更新的一个跟踪模板,是不断更新变化的,与利用单帧图像的视觉显著性模型不同)进行直方图匹配,当直方图匹配相似性第一高的区域的相似度远大于第二高的区域时,直接对相似性第一高的区域进行跟踪;当直方图匹配有多个相似度相近的区域时,同时送入目标检测器进行检测,不断重复步骤S4直到重新检测到目标并进行跟踪。
跟踪-学习-检测中原来的失败后的目标重新检测器直接是目标检测器,对于失败后重新检测效率低,而且当目标姿态变化时,经常导致失败检测器错误判断跟踪失败。
因此针对以上情况,我们再次使用视觉显著性模型,具体实现如下:
当失败检测器反馈信息为跟踪失败时,使用视觉显著性模型对失败后的每一帧进行检测,得到显著性图。对显著性图中的各个区域建立直方图,与跟踪失败前的线上模型的直方图进行对比。情况一、当相似性第一高的区域的相似度远大于第二高区域时,直接对相似性第一高的区域进行跟踪;情况二、当有多个相似度相近的区域时,同时送入目标检测器进行检测。不断重复以上步骤S4直到重新检测到目标并进行跟踪。
图9中1、2、3、4、5、6示出了现有技术跟踪-学习-检测算法遇到姿态变化时出现跟踪失败的一些帧,图10中1、2、3、4、5、6示出了本发明中利用模型计算失败后的显著性图的各个区域,图11中1、2、3、4、5、6示出了本发明中利用显著性模型计算后进行直方图对比得到的改进结果。对比如图9、图10、图11,图9中的图片1、2、3、4、5、6为原先跟踪-学习-检测算法处理视频的6帧视频图片,图片中没有跟踪框说明前后项误差表明跟踪出现失败,而目标还在视频中,说明这是因为目标姿态发生剧烈变化导致算法失败。蓝色的点是跟踪点,跟踪失败后停留在原处。图10中的图片1、2、3、4、5、6是针对以上出现的问题建立失败检测器的过程中的显著性模型计算的结果,黄色的区域就是显著性模型计算得到的各个显著性区域,可以看到目标是包括在显著性区域其中的。图11中的图片1、2、3、4、5、6是加入了失败检测器后进行直方图对比方法重新找到目标进行跟踪的效果,也是改进后的实际跟踪过程,红色跟踪框内的目标就是各个显著性区域之中与线上模型直方图最相近的目标,达到了解决目标发生剧烈姿态变化导致跟踪失败的问题。发现本发明中利用模型来改进跟踪-学习-检测算法后,不仅能够在前端能够很好地实现自动或者半自动选择跟踪目标,并且能够处理原来难以处理的姿态变化导致跟踪失败的问题,对跟踪效果有很好的提升。
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的包含范围之内。

Claims (6)

1.一种基于视觉显著性模型的自动检测跟踪方法,其特征包括如下具体步骤:
步骤S1:利用视觉显著性模型对输入的第一帧视频图像进行场景粗理解即是计算图像的颜色、亮度、方向显著性图并归一化后,获得图像场景的加权显著性图,若显著性图中的一个显著性区域的权值占所有的80%以上,则定义为简单场景;若显著性图中的一个显著性区域的权值占所有的80%以下,则滤除场景中权值不到10%的显著性区域,并定义为复杂场景;
步骤S2:当程序检测到视频序列为简单场景时,直接取用显著性区域建立矩形框作为跟踪目标进行跟踪;
步骤S3:当程序检测到视频序列为复杂场景时,弹出对话框让使用者自行选择跟踪目标,然后将人为手动选择的跟踪框与各个显著性区域的距离,加入并重新计算各个显著性区域的权值,再根据权值不同对人为手动选择的跟踪框进行校正;
步骤S4:利用跟踪-学习-检测算法对跟踪框进行跟踪,当出现目标离开视野或者被遮挡时,能够检测出跟踪失败,并且在跟踪失败时及时反馈信息;当未出现目标离开视野或者未被遮挡时,继续对目标进行稳定跟踪并且实时检测跟踪是否出现失败;
步骤S5:当出现跟踪失败时,使用视觉显著性模型对失败后的每一帧图像进行检测,得到显著性图;对显著性图中的各个区域与跟踪失败前的线上模型进行直方图匹配,当直方图匹配相似性第一高的区域的相似度远大于第二高的区域时,直接对相似性第一高的区域进行跟踪;当直方图匹配有多个相似度相近的区域时,同时送入目标检测器进行检测,不断重复步骤S4直到重新检测到目标并进行跟踪;所述线上模型是跟踪过程中根据跟踪结果实时更新的一个跟踪模板。
2.根据权利要求1所述的自动检测跟踪方法,其特征在于,对视频输入的第一帧图像进行视觉显著性模型的计算,分别计算颜色、亮度、方向显著图,归一化得到加权显著图。
3.根据权利要求1所述的自动检测跟踪方法,其特征在于,对于简单场景,以显著性区域的中心作为跟踪框的中心,显著性区域的面积作为跟踪框的面积,达到自动选择跟踪目标,实现自动跟踪的功能。
4.根据权利要求1所述的自动检测跟踪方法,其特征在于,以人为手动选择的跟踪框的中心位置与跟踪框大小作为两个参数带入视觉显著性模型中显著性区域权值的计算,根据计算结果将人为手动选择的跟踪框的中心位置与跟踪框大小向权值较高的显著性区域逼近,达到对人为选择的跟踪框进行校正,由于每次人为手动选择的跟踪框的中心位置和跟踪框大小不可能完全相同,这就产生了跟踪目标初始化的随机误差,而对于视频图像第一帧的显著性模型计算过程则是相同的,利用其对人为手动选择的跟踪框进行修正就实现了修正人为选择代入的随机误差,达到稳定的跟踪效果。
5.根据权利要求1所述的自动检测跟踪方法,其特征在于,当跟踪目标被遮挡、发生剧烈形变或跟踪目标离开视场时,跟踪框内大部分跟踪点的前后项误差很大,则定义为跟踪失败。
6.根据权利要求1所述的自动检测跟踪方法,其特征在于,在跟踪失败时,计算当前帧的显著性图,对显著性图中的各个区域建立直方图,与跟踪失败前的线上模型的直方图进行对比,找到姿态发生变化或消失后又重新出现的目标。
CN201310071858.2A 2013-03-07 2013-03-07 一种基于视觉显著性模型的自动检测跟踪方法 Active CN103116896B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310071858.2A CN103116896B (zh) 2013-03-07 2013-03-07 一种基于视觉显著性模型的自动检测跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310071858.2A CN103116896B (zh) 2013-03-07 2013-03-07 一种基于视觉显著性模型的自动检测跟踪方法

Publications (2)

Publication Number Publication Date
CN103116896A CN103116896A (zh) 2013-05-22
CN103116896B true CN103116896B (zh) 2015-07-15

Family

ID=48415260

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310071858.2A Active CN103116896B (zh) 2013-03-07 2013-03-07 一种基于视觉显著性模型的自动检测跟踪方法

Country Status (1)

Country Link
CN (1) CN103116896B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106875396A (zh) * 2016-12-28 2017-06-20 深圳信息职业技术学院 基于运动特性的视频显著区的提取方法和装置

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI514327B (zh) * 2013-06-26 2015-12-21 Univ Nat Taiwan Science Tech 目標偵測與追蹤方法及系統
CN103747258B (zh) * 2014-01-27 2015-02-04 中国科学技术大学 一种高性能视频编码标准的加密处理方法
CN105654454B (zh) * 2014-11-10 2018-08-10 中国船舶重工集团公司第七二三研究所 一种快速稳定的对比度跟踪方法
CN104463907A (zh) * 2014-11-13 2015-03-25 南京航空航天大学 一种基于视觉显著性特征的自适应目标跟踪方法
CN104700431B (zh) * 2015-02-10 2017-08-11 浙江工业大学 一种基于显著度的柔性对象自然轮廓跟踪方法
CN104637038B (zh) * 2015-03-11 2017-06-09 天津工业大学 一种基于加权直方图模型的改进CamShift跟踪方法
CN105825168B (zh) * 2016-02-02 2019-07-02 西北大学 一种基于s-tld的川金丝猴面部检测和追踪方法
CN105787962B (zh) * 2016-02-25 2018-10-30 哈尔滨工程大学 一种基于uuv水下回收的单目视觉跟踪方法
CN106778570B (zh) * 2016-12-05 2018-08-24 清华大学深圳研究生院 一种行人实时检测与跟踪方法
CN109213672A (zh) * 2017-07-07 2019-01-15 博彦科技股份有限公司 对话框消除方法、装置、存储介质和处理器
CN109003290A (zh) * 2017-12-11 2018-12-14 罗普特(厦门)科技集团有限公司 一种监控系统的视频跟踪方法
CN108986045A (zh) * 2018-06-30 2018-12-11 长春理工大学 一种基于稀疏表示的误差校正跟踪方法
CN110954922B (zh) * 2018-09-27 2021-08-24 千寻位置网络有限公司 Gnss动态路测的场景自动识别方法及装置
CN109584269A (zh) * 2018-10-17 2019-04-05 龙马智芯(珠海横琴)科技有限公司 一种目标跟踪方法
CN111104948A (zh) * 2018-10-26 2020-05-05 中国科学院长春光学精密机械与物理研究所 一种基于双模型的自适应融合的目标跟踪方法
CN109658440A (zh) * 2018-11-30 2019-04-19 华南理工大学 一种基于目标显著性特征的目标跟踪方法
CN109864806A (zh) * 2018-12-19 2019-06-11 江苏集萃智能制造技术研究所有限公司 基于双目视觉的动态补偿功能的穿刺机器人导航系统
CN109785661A (zh) * 2019-02-01 2019-05-21 广东工业大学 一种基于机器学习的停车引导方法
CN109887005B (zh) * 2019-02-26 2023-05-30 天津城建大学 基于视觉注意机制的tld目标跟踪方法
CN110796012B (zh) * 2019-09-29 2022-12-27 北京达佳互联信息技术有限公司 图像处理方法、装置、电子设备及可读存储介质
CN110677635B (zh) * 2019-10-07 2020-10-30 董磊 数据参数现场设置系统
CN111027505B (zh) * 2019-12-19 2022-12-23 吉林大学 一种基于显著性检测的分层多目标跟踪方法
CN111325124B (zh) * 2020-02-05 2023-05-12 上海交通大学 虚拟场景下的实时人机交互系统
CN112270657A (zh) * 2020-11-04 2021-01-26 成都寰蓉光电科技有限公司 一种基于天空背景的目标检测与跟踪算法
CN112465871B (zh) * 2020-12-07 2023-10-17 华中光电技术研究所(中国船舶重工集团公司第七一七研究所) 一种视觉跟踪算法准确性的评价方法及系统
CN112634332A (zh) * 2020-12-21 2021-04-09 合肥讯图信息科技有限公司 基于YOLOv4模型和DeepSORT模型的跟踪方法
CN113327272B (zh) * 2021-05-28 2022-11-22 北京理工大学重庆创新中心 一种基于相关滤波的鲁棒性长时跟踪方法
CN113065559B (zh) * 2021-06-03 2021-08-27 城云科技(中国)有限公司 图像比对方法、装置、电子设备及存储介质
CN113793260B (zh) * 2021-07-30 2022-07-22 武汉高德红外股份有限公司 半自动修正目标跟踪框的方法、装置及电子设备
CN113888583A (zh) * 2021-09-28 2022-01-04 河北汉光重工有限责任公司 一种视觉跟踪准确性的实时判断方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102034096A (zh) * 2010-12-08 2011-04-27 中国科学院自动化研究所 基于自顶向下运动注意机制的视频事件识别方法
CN102184557A (zh) * 2011-06-17 2011-09-14 电子科技大学 一种复杂场景的显著区域检测方法
CN102521844A (zh) * 2011-11-30 2012-06-27 湖南大学 基于视觉注意机制的改进粒子滤波目标跟踪的方法
CN102881024A (zh) * 2012-08-24 2013-01-16 南京航空航天大学 一种基于tld的视频目标跟踪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102034096A (zh) * 2010-12-08 2011-04-27 中国科学院自动化研究所 基于自顶向下运动注意机制的视频事件识别方法
CN102184557A (zh) * 2011-06-17 2011-09-14 电子科技大学 一种复杂场景的显著区域检测方法
CN102521844A (zh) * 2011-11-30 2012-06-27 湖南大学 基于视觉注意机制的改进粒子滤波目标跟踪的方法
CN102881024A (zh) * 2012-08-24 2013-01-16 南京航空航天大学 一种基于tld的视频目标跟踪方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106875396A (zh) * 2016-12-28 2017-06-20 深圳信息职业技术学院 基于运动特性的视频显著区的提取方法和装置

Also Published As

Publication number Publication date
CN103116896A (zh) 2013-05-22

Similar Documents

Publication Publication Date Title
CN103116896B (zh) 一种基于视觉显著性模型的自动检测跟踪方法
CN108830252B (zh) 一种融合全局时空特征的卷积神经网络人体动作识别方法
CN102999920B (zh) 基于最近邻分类器和均值漂移的目标跟踪方法
CN105405154B (zh) 基于颜色-结构特征的目标对象跟踪方法
CN110472467A (zh) 基于YOLO v3的针对交通枢纽关键物体的检测方法
CN105678338B (zh) 基于局部特征学习的目标跟踪方法
CN109285179A (zh) 一种基于多特征融合的运动目标跟踪方法
CN103886325B (zh) 一种分块的循环矩阵视频跟踪方法
CN107609486A (zh) 一种车辆前向防撞预警方法及系统
CN104598883A (zh) 一种多摄像机监控网络中目标再识别的方法
CN103295016A (zh) 基于深度与rgb信息和多尺度多方向等级层次特征的行为识别方法
CN104751466B (zh) 一种基于显著性的形变物体跟踪方法及其系统
Nassu et al. A vision-based approach for rail extraction and its application in a camera pan–tilt control system
CN104835182A (zh) 摄像机上实现动态目标实时跟踪的方法
CN111160291B (zh) 基于深度信息与cnn的人眼检测方法
CN107248174A (zh) 一种基于tld算法的目标跟踪方法
CN108537782A (zh) 一种基于轮廓提取的建筑物图像匹配与融合的方法
CN104123529A (zh) 人手检测方法及系统
Nassu et al. Rail extraction for driver support in railways
CN103955950B (zh) 一种利用关键点特征匹配的图像跟踪方法
CN105825233A (zh) 一种基于在线学习随机蕨分类器的行人检测方法
CN109087337A (zh) 基于分层卷积特征的长时间目标跟踪方法及系统
CN110969164A (zh) 基于深度学习端对端的低照度成像车牌识别方法及装置
CN105512600A (zh) 一种基于互信息与特征提取的车牌识别方法
CN108520529A (zh) 基于卷积神经网络的可见光和红外视频目标跟踪方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant