CN110232330B - 一种基于视频检测的行人重识别方法 - Google Patents
一种基于视频检测的行人重识别方法 Download PDFInfo
- Publication number
- CN110232330B CN110232330B CN201910434555.XA CN201910434555A CN110232330B CN 110232330 B CN110232330 B CN 110232330B CN 201910434555 A CN201910434555 A CN 201910434555A CN 110232330 B CN110232330 B CN 110232330B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- key
- video
- features
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于视频检测的行人重识别方法,其特征在于,包括如下步骤:步骤S1,利用帧间差分法获取待测视频的关键帧;步骤S2,基于检测网络提取关键帧中的关键深度特征;步骤S3,基于光流网络提取非关键帧中的非关键深度特征以及相对应的手工特征;步骤S4,根据关键深度特征、非关键深度特征以及手工特征进行相似度计算构建行人重识别模型;步骤S5,通过行人重识别模型对每个待测视频进行分析,获取目标行人在每个待测视频中的位置信息和时间信息,并进行排序;步骤S6,通过行人重识别模型对所有待测视频进行分析,获取每个待测视频中目标行人出现的概率,并进行排序;步骤S7,根据排序结果绘制目标行人在预定监控场景中出现的轨迹。
Description
技术领域
本发明涉及视频监控技术领域,尤其涉及一种基于视频检测的行人重识别方法。
背景技术
监控视频被广泛应用于地铁、机场、交通路口,成为安防的重要工具,其工作原理是对视频中重点行人目标进行检测,通过摄像头确切的GPS定位系统及出现时间点,获得该行人目标在整个场景中的出现轨迹。然而在实际应用场景中,事前预防、事后核查工作往往靠人工审查,效率低,时间长,因此实现对行人的跨镜头自动识别,进而获得每个行人对象在整个监控场景中的出现轨迹,实现跟踪是相当必要的。
行人重识别是指在多个不同的摄像头视频中,查找某个特定的行人在哪些摄像头中出现过,涉及到场景中的行人检测工作、特征提取工作,两个行人的特征相似度度量工作。然而在实际的行人重识别科研工作中,特征提取及相似性度量通常采用通过人工标注或检测算法得到的行人图片作为数据集,与行人检测独立进行,往往很难应用到实际的视频场景中(可以参考文章Mengyue Geng,Yaowei Wang,Tao Xiang,Yonghong Tian.Deeptransfer learning for person reidentification[J].arXiv preprint arXiv:1611.05244,2016.)。
与图片检测相比,视频中会存在运动模糊、摄像头失焦或是目标物体的怪异姿态、严重遮挡等现象,而基于这些现象的检测重识别不仅会造成网络的负载,更会大大降低模型的准确率,为了解决这些问题,一般以固定的步长提取视频帧作为关键帧,其他帧作为非关键帧,利用基于光流网络提取的时序信息对非关键帧的内容进行推断及像素点补充(可以参考文章:Xizhou Zhu,Yuwen Xiong,Jifeng Dai,Lu Yuan.Deep Feature Flow forVideo Recognition.arXiv:1611.07715v2,2017),但由于光流网络的不准确性及关键帧步长的不同,会在一定程度上影响下文信息的补充是否完整。
发明内容
为解决上述问题,本发明采用了如下技术方案:
本发明提供了一种基于视频检测的行人重识别方法,用于根据预定监控场景内拍摄的多个由图像帧构成的待测视频对预定监控场景内的目标行人进行识别,其特征在于,包括如下步骤:
步骤S1,读取待测视频中的图像帧,利用帧间差分法对图像帧进行计算,将图像帧中差分强度局部最大值所对应的图像帧作为待测视频的关键帧;
步骤S2,基于检测网络提取关键帧中目标行人的特征,作为关键深度特征;
步骤S3,将图像帧中其余的图像帧作为非关键帧,基于光流网络提取非关键帧中目标行人的相关特征,作为非关键深度特征以及相对应的手工特征;
步骤S4,对关键深度特征、非关键深度特征以及手工特征进行相似度计算,并根据相似度计算的结果来构建行人重识别模型。
步骤S5,通过行人重识别模型对每个待测视频进行分析,获取目标行人在每个待测视频中的位置信息和时间信息,并且对每个待测视频中的目标行人的位置信息和时间信息进行排序;
步骤S6,通过行人重识别模型对所有待测视频进行分析,获取每个待测视频中目标行人出现的概率,并根据概率的大小对待测视频进行排序;
步骤S7,根据步骤S5和步骤S6中排序的结果绘制目标行人在预定监控场景中出现的轨迹。
本发明提供了一种基于视频检测的行人重识别方法,还可以具有这样的特征,其中,步骤S1包括如下子步骤:
步骤S1-1,读取待测视频中的图像帧;
步骤S1-2,计算相邻的两个图像帧之间对应的像素点的灰度差值;
步骤S1-3,对灰度差值进行二值化计算,根据二值化计算的结果来判定像素点的坐标为前景坐标或背景坐标;
步骤S1-4,根据步骤S1-3中判定的结果获取图像帧中的运动区域;
步骤S1-5,对图像帧进行连通性分析,当图像帧中的运动区域的面积大于预定阈值时,则判定当前的图像帧为关键帧。
本发明提供了一种基于视频检测的行人重识别方法,还可以具有这样的特征,其中,步骤S3中包括如下子步骤:
步骤S3-1,判断图像帧是否为关键帧,若判断为否,则将图像帧作为非关键帧;
步骤S3-2,基于光流估计算法对非关键帧和与非关键帧相邻的上一个关键帧进行计算,获取光流图;
步骤S3-3,将关键帧的关键深度特征调整到与相对应的光流图相同的空间分辨率上进行传播;
步骤S3-4,根据传播的结果提取非关键帧中的非关键深度特征以及相对应的手工特征。
本发明提供了一种基于视频检测的行人重识别方法,还可以具有这样的特征,其中,步骤S-3中采用双线性插值算法来对关键深度特征进行传播。
本发明提供了一种基于视频检测的行人重识别方法,还可以具有这样的特征,其中,步骤S-3中采用时间注意力机制对非关键帧中的像素点的矢量偏移量进行限制。
本发明提供了一种基于视频检测的行人重识别方法,还可以具有这样的特征,其中,步骤S4包括如下子步骤:
步骤S4-1,对关键深度特征、非关键深度特征以及手工特征进行相似度计算,获取相似度矩阵;
步骤S4-2,将相似度矩阵融合损失函数进行参数学习,从而搭建行人重识别模型。
本发明提供了一种基于视频检测的行人重识别方法,还可以具有这样的特征,其中,步骤S4-2包括如下子步骤:
步骤S4-2-1,利用Softmax损失函数对相似度矩阵进行分类学习,从而去除相似度矩阵中没有行人的检测框;
步骤S4-2-2,采用余弦距离度量的方法依次计算手工特征与关键深度特征和非关键深度特征之间的距离,并根据距离的大小进行排序;
步骤S4-2-3,基于排序的结果,利用OIM损失函数以多任务的方式对相似度矩阵继续进行参数学习,从而搭建行人重识别模型。
发明作用与效果
根据本发明的基于视频检测的行人重识别方法,由于利用帧间差分法,即采用帧间融合的方式从视频的图像帧中提取出关键帧,因此能够更好地利用图像帧之间关系,有效地减轻由于模糊帧(即因为运动模糊、摄像头失焦或是目标物体的怪异姿态、严重遮挡等现象造成图像帧模糊)带来的网络负载和对准确率的负面影响。进一步地,由于采用光流网络提取非关键帧中目标行人的非关键深度特征以及手工特征,并让关键帧特征、非关键深度特征以及手工特征在相似度矩阵上点对点融合,从而对相邻的图像帧之间存在的明显的上下文信息进行补充,使得行人重识别模型的准确率更高、检测速度更快。
附图说明
图1是本发明实例中基于视频检测的行人重识别方法的实施流程图;
图2是本发明实施例基于视频检测的行人重识别方法的工作流程图;
图3是本发明实例中基于光流图的非关键帧特征提取的实施流程图;
图4是本发明实例中基于光流图的非关键帧特征提取的工作流程图;
图5是本发明实例中最终得到的行人运动轨迹示意图。
具体实施方式
为了使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,以下结合附图对本发明的基于视频检测的行人重识别方法作具体阐述。
<实施例>
本实施例中采用pytorch深度学习框架进行网络模型搭建,在模型训练中应用Mars数据集,该数据集共有6个摄像头,1261个行人和1,191,003个标注框,采用CUHK03数据集进行测试,该数据集共有2个摄像头,1360个行人。测试方法为在一个摄像头拍摄的视频中截取需要检索的行人目标,在另一个或多个摄像头拍摄的视频中对该行人目标进行重识别,根据重识别结果返回摄像头位置信息和时间信息,对单个视频的所有的检索结果进行排序,对于所有待检测视频计算对应检索目标出现的可能性,将视频进行排序。
需要说明的是,本发明中未详细阐述的部分均属于现有技术。
图1是本发明实例中基于视频检测的行人重识别方法的具体实施流程图,图2是本发明实施例基于视频检测的行人重识别方法的工作流程图。
如图1和图2所示,本实施例中的基于视频检测的行人重识别方法,用于根据预定监控场景内拍摄的多个由图像帧构成的待测视频对预定监控场景内的目标行人进行识别,包括如下步骤:
步骤S1,读取待测视频中的图像帧,利用帧间差分法对图像帧进行计算,将图像帧中差分强度局部最大值所对应的图像帧作为待测视频的关键帧,具体包括如下子步骤:
步骤S1-1,读取每个待测视频中的图像帧;
步骤S1-2,计算相邻的两个图像帧之间对应的像素点的灰度差值,假设ft(i,j)和ft-1(i,j)分别为某一图像序列的第t帧和第t-1帧,则它们的差分图像表示为:
Dt=|ft(i,j)-ft-1(i,j)|
其中,(i,j)表示离散图像坐标。
步骤S1-3,对灰度差值进行二值化计算,根据二值化计算的结果来判定像素点的坐标为前景坐标或背景坐标,当Dt大于预定阈值T则认为是前景坐标,否则为背景坐标。
步骤S1-4,根据步骤S1-3中判定的结果获取图像帧中的运动区域Rt(i,j),该运动区域表示为:
步骤S1-5,对二值化后的图像帧进行连通性分析,当图像帧中的运动区域的面积大于预定阈值时,则判定当前的图像帧为关键帧,定义为Ik。
步骤S2,基于检测网络提取关键帧中目标行人的特征,作为关键深度特征fk,本实施例所采用的检测网络为Faster-RCNN,但并仅不限于Faster-RCNN网络。
步骤S3,将图像帧中其余的图像帧作为非关键帧,基于光流网络非关键帧中目标行人的特征进行提取,从而获取特征对齐的相关特征,作为非关键深度特征以及相对应的手工特征。
图3是本发明实例中基于光流图的非关键帧特征提取的具体实施流程图,图4是本发明实例中基于光流图的非关键帧特征提取的工作流程图。
如图3和图4所示,步骤S3中的非关键帧特征提取包括如下子步骤:
步骤S3-1,判断图像帧是否为关键帧Ik,若判断为否,则将图像帧作为非关键帧Ii;
步骤S3-2,基于上述检测网络,提取与与非关键帧Ii相邻的上一个关键帧Ik中相对应的关键深度特征fk;
步骤S3-3,基于光流估计算法对非关键帧Ii和与非关键帧Ii相邻的上一个关键帧Ik进行计算,获取光流图,具体过程为:
令Mi→k为二维流场,由非关键帧与其相邻的上一个关键帧基于光流估计算法(如FlowNet,但不仅限于FlowNet网络)得到光流图F,其中Mi→k=F(Ik,Ii)。
步骤S3-4,将关键帧的关键深度特征调整到与相对应的光流图相同的空间分辨率上进行传播,传播过程中将当前的非关键帧i中的位置P投影到关键帧k中的位置p+δp,其中δp=Mi→k(p),具体包括如下两个步骤:
1)通常情况下的δp都为小数,而像素点对应坐标均为整数,因此采用双线性插值算法实现特征的传播操作,该传播的公式为:
其中,c为特征图f中的通道,p、q枚举了特征图中的所有空间位置坐标,G为二维的双线性插值的内核函数。
2)为消除因光流网络的不准确性,采用时间注意力机制进一步限制非关键帧对应特征图中像素坐标的矢量偏移量,时间注意力机制的公式如下:
其中,ft为第t帧图像经过网络(如上所述的检测网络或光流网络)后得到的特征图,e代表ft的第e个通道,p代表特征图上的每一个像素对应的坐标位置。
步骤S3-4,根据传播的结果提取非关键帧中的非关键深度特征以及相对应的手工特征。
步骤S4,对关键深度特征、非关键深度特征以及手工特征进行相似度计算,并根据相似度计算的结果来构建行人重识别模型。包括如下子步骤:
步骤S4-1,对关键深度特征、非关键深度特征以及手工特征进行相似度计算,获取相似度矩阵;
步骤S4-2,将相似度矩阵融合损失函数进行参数学习,从而搭建行人重识别模型,包括如下子步骤:
步骤S4-2-1,利用Softmax损失函数对相似度矩阵进行分类学习,从而去除相似度矩阵中没有行人的检测框;
步骤S4-2-1中softmax损失函数的具体计算过程如下:
1)筛除无行人的检测框,假设行人类别数为N,输出层为[Z1,Z2,...ZN],归一化每个行人概率为:
2)利用交叉熵作为损失函数:
其中Pi表示求出的softmax值,ti为真实值。
步骤S4-2-2,采用余弦距离度量的方法依次计算手工特征与关键深度特征和非关键深度特征之间的距离,并根据距离的大小进行排序;
步骤S4-2-3,基于排序的结果,利用OIM损失函数以多任务的方式对相似度矩阵继续进行参数学习,从而搭建行人重识别模型。
步骤S4-2-3中只考虑训练数据中的labeled identity的实例和unlabeledidentity的实例,最小化同一ID的行人目标,最大化不同ID的行人目标之间的差异性,以多任务方式对重识别网络继续进行参数学习,OIM损失函数的具体计算过程如下:
1)特征向量f被视为i类行人的特征概率表示为:
其中,L为已标注好的的行人特征列表,Q存储的已检测出但未标注的行人特征列表。v为已标注的特征向量,u代表行人检测中未标注的特征向量,T为平缓因子,用来控制概率分布的平缓程度。
2)计算损失函数:
L=Ex[log Pt]
其中,t为目标行人的分类标签。
步骤S5,通过行人重识别模型对每个待测视频进行计算,获取目标行人在每个待测视频中的位置信息和时间信息,并且对每个待测视频中的目标行人的位置信息和时间信息进行排序;
步骤S6,通过行人重识别模型对所有待测视频进行计算,获取每个待测视频中目标行人出现的概率,并根据概率的大小对待测视频进行排序;
图3是本发明实例中最终得到的行人运动轨迹示意图。
步骤S7,根据步骤S5和步骤S6中排序的结果绘制目标行人在预定监控场景中出现的轨迹,如图3所示,即为本实施例中目标行人在指定的摄像头下的运动轨迹。
实施例作用与效果
根据本实施例的基于视频检测的行人重识别方法,由于利用帧间差分法,即采用帧间融合的方式从视频的图像帧中提取出关键帧,因此能够更好地利用图像帧之间关系,有效地减轻由于模糊帧(即因为运动模糊、摄像头失焦或是目标物体的怪异姿态、严重遮挡等现象造成图像帧模糊)带来的网络负载和对准确率的负面影响。进一步地,由于采用光流网络提取非关键帧中目标行人的非关键深度特征以及手工特征,并让关键帧特征、非关键深度特征以及手工特征在相似度矩阵上点对点融合,从而对相邻的图像帧之间存在的明显的上下文信息进行补充,使得行人重识别模型的准确率更高、检测速度更快。
针对受多光源、遮挡性、噪声和透明性等原因造成的模糊的非关键帧,由于采用时间注意力机制对非关键帧中的像素点的矢量偏移量进行限制,使得通过流光网络所求得的非关键帧特征及手工特征的时序信息更准确,因此,这些时序信息所对应的非关键帧的像素点能够对相邻的上一个关键帧进行更好地补充,不仅更利于相似度矩阵的参数训练,同时也大大减轻了网络负载。
由于采用双线性插值算法来对关键深度特征进行传播,因此使得通过流光图所获取的非关键深度特征以及手工特征呈特征对齐状态,从而更有利于相似度矩阵的参数训练,进而使得行人重识别模型的分析结果更加准确。
针对实际使用时待测视频中行人ID太少及每个图像帧中仅有几个行人ID的情况,由于本实施例中利用OIM损失函数,只考虑训练数据中的labeled identity的实例和unlabeled identity的实例,最小化同一ID的行人目标,最大化不同ID的行人目标之间的差异性,通过余弦距离度量的方法,逐一计算手工特征与关键深度特征和非关键深度特征的距离,并根据距离的大小进行排序,从而有效地减少了行人重识别模型的计算量,避免了在参数学习时出现的模型无法收敛的问题。
由于本实施例中的基于视频检测的行人重识别方法是将行人检测和传统的行人重识别任务结合在一起形成end-to-end的one-stage行人重识别方法,因此,对日常场景下获取到的图像场景、视频场景下的行人重识别更具有实际价值。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术无需创造性劳动就可以根据本发明的构思做出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
Claims (7)
1.一种基于视频检测的行人重识别方法,用于根据预定监控场景内拍摄的多个由图像帧构成的待测视频对所述预定监控场景内的目标行人进行识别,其特征在于,包括如下步骤:
步骤S1,读取所述待测视频中的所述图像帧,利用帧间差分法对所述图像帧进行计算,将所述图像帧中差分强度局部最大值所对应的图像帧作为所述待测视频的关键帧;
步骤S2,基于检测网络提取所述关键帧中所述目标行人的特征,作为关键深度特征;
步骤S3,将所述图像帧中其余的图像帧作为非关键帧,基于光流网络提取所述非关键帧中所述目标行人的特征,作为非关键深度特征以及相对应的手工特征;
步骤S4,对所述关键深度特征、所述非关键深度特征以及所述手工特征进行相似度计算,并根据所述相似度计算的结果来构建所述行人重识别模型;
步骤S5,通过行人重识别模型对每个所述待测视频进行分析,获取所述目标行人在每个所述待测视频中的位置信息和时间信息,并且对每个所述待测视频中的所述目标行人的位置信息和时间信息进行排序;
步骤S6,通过所述行人重识别模型对所有所述待测视频进行分析,获取每个所述待测视频中所述目标行人出现的概率,并根据所述概率的大小对所述待测视频进行排序;
步骤S7,根据步骤S5和步骤S6中所述排序的结果绘制所述目标行人在所述预定监控场景中出现的轨迹。
2.根据权利要求1所述的基于视频检测的行人重识别方法,其特征在于:
其中,所述步骤S1包括如下子步骤:
步骤S1-1,读取所述待测视频中的所述图像帧;
步骤S1-2,计算相邻的两个所述图像帧之间对应的像素点的灰度差值;
步骤S1-3,对所述灰度差值进行二值化计算,根据所述二值化计算的结果来判定所述像素点的坐标为前景坐标或背景坐标;
步骤S1-4,根据步骤S1-3中所述判定的结果获取所述图像帧中的运动区域;
步骤S1-5,对所述图像帧进行连通性分析,当所述图像帧中的所述运动区域的面积大于预定阈值时,则判定当前的所述图像帧为所述关键帧。
3.根据权利要求1所述的基于视频检测的行人重识别方法,其特征在于:
其中,所述步骤S3中包括如下子步骤:
步骤S3-1,判断所述图像帧是否为关键帧,若判断为否,则将所述图像帧作为所述非关键帧;
步骤S3-2,基于光流估计算法对所述非关键帧和与所述非关键帧相邻的上一个所述关键帧进行计算,获取光流图;
步骤S3-3,将所述关键帧的所述关键深度特征调整到与相对应的所述光流图相同的空间分辨率上进行传播;
步骤S3-4,根据所述传播的结果提取所述非关键帧中的所述非关键深度特征以及相对应的所述手工特征。
4.根据权利要求3所述的基于视频检测的行人重识别方法,其特征在于:
其中,所述步骤S3-3中采用双线性插值算法来对所述关键深度特征进行传播。
5.根据权利要求3所述的基于视频检测的行人重识别方法,其特征在于:
其中,所述步骤S3-3中采用时间注意力机制对所述非关键帧中的像素点的矢量偏移量进行限制。
6.根据权利要求1所述的基于视频检测的行人重识别方法,其特征在于:
其中,所述步骤S4包括如下子步骤:
步骤S4-1,对所述关键深度特征、所述非关键深度特征以及所述手工特征进行相似度计算,获取相似度矩阵;
步骤S4-2,将所述相似度矩阵融合损失函数进行参数学习,从而搭建所述行人重识别模型。
7.根据权利要求6所述的基于视频检测的行人重识别方法,其特征在于:
其中,所述步骤S4-2包括如下子步骤:
步骤S4-2-1,利用Softmax损失函数对所述相似度矩阵进行分类学习,从而去除所述相似度矩阵中没有行人的检测框;
步骤S4-2-2,采用余弦距离度量的方法依次计算所述手工特征与所述关键深度特征和所述非关键深度特征之间的距离,并根据所述距离的大小进行排序;
步骤S4-2-3,基于所述排序的结果,利用OIM损失函数以多任务的方式对所述相似度矩阵继续进行参数学习,从而搭建所述行人重识别模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910434555.XA CN110232330B (zh) | 2019-05-23 | 2019-05-23 | 一种基于视频检测的行人重识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910434555.XA CN110232330B (zh) | 2019-05-23 | 2019-05-23 | 一种基于视频检测的行人重识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110232330A CN110232330A (zh) | 2019-09-13 |
CN110232330B true CN110232330B (zh) | 2020-11-06 |
Family
ID=67861545
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910434555.XA Active CN110232330B (zh) | 2019-05-23 | 2019-05-23 | 一种基于视频检测的行人重识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110232330B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111008558B (zh) * | 2019-10-30 | 2023-05-30 | 中山大学 | 结合深度学习与关系建模的图片/视频重要人物检测方法 |
CN111291633B (zh) * | 2020-01-17 | 2022-10-14 | 复旦大学 | 一种实时行人重识别方法及装置 |
CN111310728B (zh) * | 2020-03-16 | 2022-07-15 | 中国科学技术大学 | 基于监控相机和无线定位的行人重识别系统 |
CN111832457B (zh) * | 2020-07-01 | 2022-07-22 | 山东浪潮科学研究院有限公司 | 基于云边协同的陌生人入侵检测方法 |
CN111738362B (zh) * | 2020-08-03 | 2020-12-01 | 成都睿沿科技有限公司 | 对象识别方法及装置、存储介质及电子设备 |
CN112200067B (zh) * | 2020-10-09 | 2024-02-02 | 宁波职业技术学院 | 智能视频事件检测方法、系统、电子设备和存储介质 |
CN112801020B (zh) * | 2021-02-09 | 2022-10-14 | 福州大学 | 基于背景灰度化的行人再识别方法及系统 |
CN113343810B (zh) * | 2021-05-28 | 2023-03-21 | 国家计算机网络与信息安全管理中心 | 基于时序多样性与相关性的行人重识别模型训练和识别方法与装置 |
CN113743387B (zh) * | 2021-11-05 | 2022-03-22 | 中电科新型智慧城市研究院有限公司 | 视频行人重识别方法、装置、电子设备及可读存储介质 |
CN114897762B (zh) * | 2022-02-18 | 2023-04-07 | 众信方智(苏州)智能技术有限公司 | 一种煤矿工作面采煤机自动定位方法及装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107832672A (zh) * | 2017-10-12 | 2018-03-23 | 北京航空航天大学 | 一种利用姿态信息设计多损失函数的行人重识别方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103475935A (zh) * | 2013-09-06 | 2013-12-25 | 北京锐安科技有限公司 | 一种视频片段的检索方法及装置 |
CN104077605B (zh) * | 2014-07-18 | 2017-08-29 | 北京航空航天大学 | 一种基于颜色拓扑结构的行人搜索识别方法 |
-
2019
- 2019-05-23 CN CN201910434555.XA patent/CN110232330B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107832672A (zh) * | 2017-10-12 | 2018-03-23 | 北京航空航天大学 | 一种利用姿态信息设计多损失函数的行人重识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110232330A (zh) | 2019-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110232330B (zh) | 一种基于视频检测的行人重识别方法 | |
Ke et al. | Multi-dimensional traffic congestion detection based on fusion of visual features and convolutional neural network | |
CN103605983B (zh) | 一种遗留物检测和跟踪方法 | |
Sengar et al. | Motion detection using block based bi-directional optical flow method | |
CN108734109B (zh) | 一种面向图像序列的视觉目标跟踪方法及系统 | |
CN106462975A (zh) | 用于对象跟踪和经由背景跟踪进行分割的方法和装置 | |
Ali et al. | Vehicle detection and tracking in UAV imagery via YOLOv3 and Kalman filter | |
CN112381132A (zh) | 一种基于多个摄像头融合的目标物跟踪方法和系统 | |
Roy et al. | A comprehensive survey on computer vision based approaches for moving object detection | |
Yusuf et al. | Enhancing Vehicle Detection and Tracking in UAV Imagery: A Pixel Labeling and Particle Filter Approach | |
Angelo | A novel approach on object detection and tracking using adaptive background subtraction method | |
Vibha et al. | Dynamic object detection, tracking and counting in video streams for multimedia mining | |
CN114821441A (zh) | 联合ads-b信息的基于深度学习的机场场面运动目标识别方法 | |
Suganyadevi et al. | OFGM-SMED: An efficient and robust foreground object detection in compressed video sequences | |
Srilekha et al. | A novel approach for detection and tracking of vehicles using Kalman filter | |
CN113112479A (zh) | 基于关键区块提取的渐进式目标检测方法和装置 | |
Changalasetty et al. | Identification and feature extraction of moving vehicles in LabVIEW | |
Li et al. | Fast visual tracking using motion saliency in video | |
CN111667507A (zh) | 一种高速公路车辆轨迹跟踪方法 | |
CN116523959A (zh) | 一种基于人工智能的运动目标检测方法及系统 | |
CN101685538B (zh) | 对象跟踪方法和装置 | |
Nascimento et al. | Public dataset of parking lot videos for computational vision applied to surveillance | |
Manchanda et al. | Identifying moving objects in a video using modified background subtraction and optical flow method | |
Sujatha et al. | An innovative moving object detection and tracking system by using modified region growing algorithm | |
Sedghi et al. | Online vehicle detection using gated recurrent units |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |