[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN103324913B - 一种基于形状特征和轨迹分析的行人事件检测方法 - Google Patents

一种基于形状特征和轨迹分析的行人事件检测方法 Download PDF

Info

Publication number
CN103324913B
CN103324913B CN201310208226.6A CN201310208226A CN103324913B CN 103324913 B CN103324913 B CN 103324913B CN 201310208226 A CN201310208226 A CN 201310208226A CN 103324913 B CN103324913 B CN 103324913B
Authority
CN
China
Prior art keywords
point
target
threshold value
pedestrian
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310208226.6A
Other languages
English (en)
Other versions
CN103324913A (zh
Inventor
宋焕生
崔华
付洋
张骁
王国锋
李东方
李建成
张鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CHINA HIGHWAY ENGINEERING CONSULTING GROUP Co Ltd
Changan University
Original Assignee
CHINA HIGHWAY ENGINEERING CONSULTING GROUP Co Ltd
Changan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CHINA HIGHWAY ENGINEERING CONSULTING GROUP Co Ltd, Changan University filed Critical CHINA HIGHWAY ENGINEERING CONSULTING GROUP Co Ltd
Priority to CN201310208226.6A priority Critical patent/CN103324913B/zh
Publication of CN103324913A publication Critical patent/CN103324913A/zh
Application granted granted Critical
Publication of CN103324913B publication Critical patent/CN103324913B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提供了一种基于形状特征和轨迹分析的行人事件检测方法,通过使用背景差分法的目标分割获得前景目标,对同一目标的连通域采用基于块的方法标记,同时记录该连通域的外接矩形并提取其几何形状特征完成目标识别,当识别出类行人目标后提取目标的角点,利用角点位置信息对角点跟踪匹配,重复上述过程,可以得到目标的运动轨迹,对该轨迹求分段拐点,在拐点形成的每个分段内分别做线性分析,实现目标速度的求取,在此基础上分析行人事件状态信息,完成交通安全预警。本发明的检测方法适用于复杂多变的交通场景,能对监控视频范围内出现的行人准确识别、跟踪并预警,实用价值高,具有广阔的应用前景。

Description

一种基于形状特征和轨迹分析的行人事件检测方法
技术领域
本发明属于视频检测领域,具体涉及一种基于形状特征和轨迹分析的行人事件检测方法。
背景技术
随着道路交通建设的发展,行人与车辆的矛盾越来越突出,导致交通事故不断发生。行人违章事件是引起交通事故的一个重要原因,例如闯红灯、横穿马路、闯入高速公路等,因此对行人违章事件的监控成为交通监控的一个重要部分。目前的交通监控主要通过人工查看监控视频和道路巡视实现,这种方式效率低,不能做到实时监控,对资源也造成极大浪费。在智能交通领域,传统的行人检测方法主要包括温度检测、感应线圈检测、声音检测等。温度检测易受交通场景众多热源目标的干扰,造成误检。感应线圈检测灵敏度不高、安装不便、可维护性差。声音检测也因交通场景噪声很多而检测准确率不高。
近年来,基于视频的检测技术由于其检测范围大、能满足实时性、可以提供很多辅助信息等优点广泛应用。但是由于交通场景比较复杂,背景及运动目标易因光线、天气等因素发生变化,虽然有很多行人检测的方法,如基于人体参数模型的方法、基于人体局部特征的方法等能实现行人事件报警,但无法满足对环境因素良好适应性以及获取实时、准确的交通检测信息的要求。
发明内容
针对现有技术的不足和缺陷,本发明的目的在于,提供一种基于形状特征和轨迹分析的行人事件检测方法,该方法能够克服交通道路场景复杂多变的因素,对检测区域内的行人事件实现实时、准确的检测,并对其危险等级预警。
为了实现上述任务,本发明采用如下技术方案予以实现:
一种基于形状特征和轨迹分析的行人事件检测方法,该方法按照以下步骤进行:
步骤一,建立图像像素到路面实际距离的映射关系,即映射表,同时将道路图像划分为道路内和路肩两部分;
步骤二,将第1帧图像和背景图像在相同的块坐标系下都划分成多个块区域,背景的大小为W*H,划分的块大小为w*h,划分的块区域个数T为T=(W/w)*(H/h),用当前第1帧图像和背景图像对应像素相减,得到大小都为W*H的帧差图像,将帧差图像划分为T个大小都为w*h的块,记第j个块内大于灰度阈值A的像素个数为Nj,若Nj大于阈值B,则该块内所有像素值赋为255,否则赋为0,其中:
W为图像水平方向像素个数;
H为图像竖直方向像素个数;
w为块的像素宽度;
h为块的像素高度;
j=1,2,3...T;
所述的阈值A的取值为30;
所述的阈值B的取值范围为块内像素总数的0.5~0.75倍;
步骤三,以块为单位对二值化图像从左到右,从上到下依次扫描,对同一个目标的连通域标以相同的标号,同时获得该连通域的最小外接矩形,计算该外接矩形的高度Rh、宽度Rw、高宽比Ra和矩形度Rj,当Ra的值在阈值C范围内,并且Rj的值在阈值D范围内时,保留该目标,当Ra或Rj不在阈值C和D范围内时,去除该目标,其中:
所述的阈值C范围为1.5~8;
所述的阈值D范围为0.5~1;
步骤四,对第1帧图像上标记的第j个前景目标寻找最佳角点,选取该目标某像素点Pi(m,n)为中心,建立一个大小为a*a的窗口,分别计算过中心像素点Pi(m,n)的横向、纵向以及两个对角线方向上相邻像素灰度差的平方和,取其结果中的最小值gmin,若gmin大于阈值E,则该点为角点,若gmin小于等于阈值E,则该点不为角点并舍去,其中:
所述的a为窗口边长的像素宽度;
所述的阈值E的取值范围为180~220;
步骤五,将角点的位置信息以及匹配跟踪次数信息记录在一个新建的空的结构体中,目标匹配跟踪次数初始化为零;
步骤六,对第二帧、第三帧、…、第i帧图像,重复步骤二、步骤三和步骤四的方法得到当前帧中目标的角点位置,然后以前一帧记录的角点位置为依据,与当前帧中的记录的目标的角点位置做比较,则有:
当两者位置绝对值差大于阈值F,就确定当前帧中该角点所在的目标是当前帧中新的目标,再按照步骤五的方法进行处理;
当两者位置绝对值差小于等于阈值F,则用当前帧的角点位置信息替换前一帧的角点位置信息作为新的比较基准依据,匹配跟踪次数加1,其中:
i为正整数;
所述的阈值F的取值范围为1~5;
步骤七,当匹配次数大于等于阈值G时,则跟踪完毕,得到跟踪轨迹为:Track={Pi,Pi+1,...Pi+n},执行步骤八,其中:
所述的阈值G的取值范围是50~70;
步骤八,查找映射表,得到轨迹Track={Pi,Pi+1,...Pi+n}中每个角点对应的实际距离,即实际运动轨迹Track,={(si,0),(si+1,1),...,(si+n,n)},其中:
si+n表示像素点Pi+n对应的实际距离,n表示点的下标;
步骤九,由实际运动轨迹曲线首点Pi和尾点Pi+n得到经过这两点的一条直线的直线方程:y=kx+b,该轨迹上任意一点到这条直线的距离为:
d r = | k S i + r - r + b | k 2 + 1
式中:k为直线的斜率,b为截距,(x,y)表示该直线上的任意一点,(si+r,r)表示该轨迹上任意一点,dr表示(si+r,r)点到直线的距离;
对所有的dr进行排序找出最大的dmax,若大于阈值H,则该点为目标运动轨迹的拐点,保存该点(si+r,r),执行步骤十,其中:
所述的阈值H的取值为70cm;
步骤十,拐点(si+r,r)将运动轨迹曲线分段,以(s0,0)和(si+r,r)为首尾点的曲线段,以及以点(si+r,r)和(si+n,n)为首尾点的曲线段,在这两条曲线段内分别执行步骤九,继续求取各段轨迹的拐点,直到这条轨迹上所有点到直线距离dr≤H时为止,这样得到一组拐点{(si+r0,r0),(si+r1,r1),...,(si+rm,rm)};
步骤十一,拐点将运动轨迹分割成运动轨迹曲线段,对每一段运动轨迹曲线段使用最小二乘法进行线性拟合得到相关系数r,则有:
当r≥0.5时,保留该段运动轨迹曲线段;
当r<0.5时,去除该段运动轨迹曲线段;
最终得到一组运动轨迹曲线段;
步骤十二,利用经过步骤十一筛选后得到的每个运动轨迹曲线段的首点和尾点的实际距离和时间差求取分段内目标速度v,表达式为:
v = | s f - s s | NΔt
式中:
N表示一段运动轨迹曲线段中轨迹点的间隔段数;
sf表示一段运动轨迹曲线段的尾点实际距离;
ss表示一段运动轨迹曲线段的首点实际距离;
Δt表示一段运动轨迹曲线段中相邻两个轨迹点的时间间隔;
当所有分段内的速度都满足0.3m/s<v<2m/s时,即可确定该目标为行人;
步骤十三,根据目标在当前帧的坐标点Pi+n位置判断行人事件危险等级:
(1)当点Pi+n处于道路内部时,该行人事件危险等级为高;
(2)当点Pi+n处于路肩时,如果行人运动轨迹矢量的方向与道路正确行使方向夹角大于30度,则该行人事件危险等级为中;
(3)当点Pi+n处于路肩时,如果行人运动轨迹矢量的方向与道路正确行使方向夹角小于等于30度,则该行人事件危险等级为低。
本发明的基于形状特征和轨迹分析的行人事件检测方法,与现有技术相比,本方法针对交通场景监控视频视距较远以及行人姿态的多变性造成的目标分割困难的特点,结合背景差分法利用行人的几何形状特征完成目标分割和初步识别,并对目标提取稳定、单一的角点,利用匹配算法获得目标跟踪轨迹。由于行人运动的随意性,所得行人轨迹具有非线性的特点,如果直接对整段轨迹曲线线性拟合,将有较大的误差,故本发明采用分段的方法,对目标轨迹曲线寻找拐点,这些拐点能将轨迹曲线分为若干个具有线性关系的线段,然后对每个相邻拐点间的线段使用最小二乘法进行线性拟合。经过该种处理后,能够获取更加准确的目标速度信息,提高行人事件检测的准确率。此外,本发明通过计算并分析行人位置信息以及运动方向,可以实现行人事件危险等级的判断,完成提前预警功能。
附图说明
图1为第1帧图像。
图2为道路不同区域划分,白色表示道路内。
图3为基于形状特征识别出的类行人,图中白色方框为目标外接矩形。
图4为目标特征点示意图,其中白色圆点为该目标的特征角点。
图5为模版匹配搜索方法,角点所在图像中黑色圆点表示特征角点,黑点外侧小正方形为模板,待搜索图像中阴影部分为搜索区域,在搜索区域中用模板遍历搜索区域,找到使MAD值最小的匹配块,作为新的模版,其中心为新的角点。
图6为视频中目标跟踪轨迹示意图,其中白色线表示行人的特征角点在图像中的运动轨迹。
图7为目标实际运动轨迹图,每一时刻的位置用白色圆点表示,图中横坐标为时间,单位为0.04s;纵坐标为实际距离,单位为cm。
图8为对实际轨迹曲线寻找分段拐点,拐点处用灰色十字标出。
图9为行人事件危险等级预警,显示行人位置及运动方向,并判断行人事件危险等级。
以下结合附图和实施例对本发明的内容作进一步详细说明。
具体实施方式
本实施例给出一种基于形状特征和轨迹分析的行人事件检测方法,通过使用背景差分法的目标分割、基于块的连通域标记、基于几何形状特征的目标识别、角点提取,目标轨迹跟踪以及寻找轨迹分段拐点、线性分析实现目标速度得求取,在此基础上完成行人事件状态分析,完成交通安全预警。
需要说明的是,本发明的方法过程中所处理的图像是视频中的沿正时间序列的第一帧图像、第二帧图像、第三帧图像、…、第i(i为正整数)帧图像。
需要说明的是本实施例中的映射表采用发明专利“一种线性模型下的摄像机几何标定方法”(公开(公告)号:CN102222332A)中所述的摄像机几何标定方法得到。
设每一帧视频图像的大小为W*H,每个块的面积大小为w*h,其中W为每一帧视频图像水平方向的像素,H为每一帧视频图像垂直方向的像素,w为每个块区域的宽度,h为每个块区域的高度。
本实施例的方法具体采用以下步骤实现:
步骤一,建立图像像素到路面实际距离的映射关系,即映射表,同时将道路图像划分为道路内和路肩两部分;
步骤二,将第1帧图像和背景图像在相同的块坐标系下都划分成多个块区域,背景的大小为W*H,划分的块大小为w*h,划分的块区域个数T为T=(W/w)*(H/h),用当前第1帧图像和背景图像对应像素相减,得到大小都为W*H的帧差图像,将帧差图像划分为T个大小都为w*h的块,记第j个块内大于灰度阈值A的像素个数为Nj,若Nj大于阈值B,则该块内所有像素值赋为255,否则赋为0,其中:
W为图像水平方向像素个数;
H为图像竖直方向像素个数;
w为块的像素宽度;
h为块的像素高度;
j=1,2,3...T;
所述的阈值A的取值为30;
所述的阈值B的取值范围为块内像素总数的0.5~0.75倍;
步骤三,以块为单位对二值化图像从左到右,从上到下依次扫描,对同一个目标的连通域标以相同的标号,同时获得该连通域的最小外接矩形,计算该外接矩形的高度Rh、宽度Rw、高宽比Ra和矩形度Rj,当Ra的值在阈值C范围内,并且Rj的值在阈值D范围内时,保留该目标,当Ra或Rj不在阈值C和D范围内时,去除该目标,其中:
所述的阈值C范围为1.5~8;
所述的阈值D范围为0.5~1;
步骤四,对第1帧图像上标记的第j个前景目标寻找最佳角点,选取该目标某像素点Pi(m,n)为中心,建立一个大小为a*a的窗口,分别计算过中心像素点Pi(m,n)的横向、纵向以及两个对角线方向上相邻像素灰度差的平方和,取其结果中的最小值gmin,若gmin大于阈值E,则该点为角点,若gmin小于等于阈值E,则该点不为角点并舍去,其中:
所述的a为窗口边长的像素宽度;
所述的阈值E的取值范围为180~220;
步骤五,将角点的位置信息以及匹配跟踪次数信息记录在一个新建的空的结构体中,目标匹配跟踪次数初始化为零;
步骤六,对第二帧、第三帧、…、第i帧图像,重复步骤二、步骤三和步骤四的方法得到当前帧中目标的角点位置,然后以前一帧记录的角点位置为依据,与当前帧中的记录的目标的角点位置做比较,则有:
当两者位置绝对值差大于阈值F,就确定当前帧中该角点所在的目标是当前帧中新的目标,再按照步骤五的方法进行处理;
当两者位置绝对值差小于等于阈值F,则用当前帧的角点位置信息替换前一帧的角点位置信息作为新的比较基准依据,匹配跟踪次数加1,其中:
i为正整数;
所述的阈值F的取值范围为1~5;
步骤七,当匹配次数大于等于阈值G时,则跟踪完毕,得到跟踪轨迹为:Track={Pi,Pi+1,...Pi+n},执行步骤八,其中:
所述的阈值G的取值范围是50~70;
步骤八,查找映射表,得到轨迹Track={Pi,Pi+1,...Pi+n}中每个角点对应的实际距离,即实际运动轨迹Track’={(si,0),(si+1,1),...,(si+n,n)},其中:
si+n表示像素点Pi+n对应的实际距离,n表示点的下标;
步骤九,由实际运动轨迹曲线首点Pi和尾点Pi+n得到经过这两点的一条直线的直线方程:y=kx+b,该轨迹上任意一点到这条直线的距离为:
d r = | k S i + r - r + b | k 2 + 1
式中:k为直线的斜率,b为截距,(x,y)表示该直线上的任意一点,(si+r,r)表示该轨迹上任意一点,dr表示(si+r,r)点到直线的距离;
对所有的dr进行排序找出最大的dmax,若大于阈值H,则该点为目标运动轨迹的拐点,保存该点(si+r,r),执行步骤十,其中:
所述的阈值H的取值为70cm;
步骤十,拐点(si+r,r)将运动轨迹曲线分段,以(s0,0)和(si+r,r)为首尾点的曲线段,以及以点(si+r,r)和(si+n,n)为首尾点的曲线段,在这两条曲线段内分别执行步骤九,继续求取各段轨迹的拐点,直到这条轨迹上所有点到直线距离dr≤H时为止,这样得到一组拐点{(si+r0,r0),(si+r1,r1),...,(si+rm,rm)};
步骤十一,拐点将运动轨迹分割成运动轨迹曲线段,对每一段运动轨迹曲线段使用最小二乘法进行线性拟合得到相关系数r,则有:
当r≥0.5时,保留该段运动轨迹曲线段;
当r<0.5时,去除该段运动轨迹曲线段;
最终得到一组运动轨迹曲线段;
步骤十二,利用经过步骤十一筛选后得到的每个运动轨迹曲线段的首点和尾点的实际距离和时间差求取分段内目标速度v,表达式为:
v = | s f - s s | NΔt
式中:
N表示一段运动轨迹曲线段中轨迹点的间隔段数;
sf表示一段运动轨迹曲线段的尾点实际距离;
ss表示一段运动轨迹曲线段的首点实际距离;
Δt表示一段运动轨迹曲线段中相邻两个轨迹点的时间间隔;
当所有分段内的速度都满足0.3m/s<v<2m/s时,即可确定该目标为行人;
步骤十三,根据目标在当前帧的坐标点Pi+n位置判断行人事件危险等级:
(2)当点Pi+n处于道路内部时,该行人事件危险等级为高;
(2)当点Pi+n处于路肩时,如果行人运动轨迹矢量的方向与道路正确行使方向夹角大于30度,则该行人事件危险等级为中;
(3)当点Pi+n处于路肩时,如果行人运动轨迹矢量的方向与道路正确行使方向夹角小于等于30度,则该行人事件危险等级为低。
以下给出本发明的具体实施例,需要说明的是本发明并不局限于以下具体实施例,凡在本申请技术方案基础上做的等同变换均落入本发明的保护范围。
实施例:
本实施例的处理过程中视频的采样频率是25帧每秒,每帧图像大小为720×288,帧差图像进行块处理的块大小为8×6,将图像分成了90×48个块区域,进行背景差分法时的灰度阈值A为30,阈值B为36,符合行人特征的长宽比阈值C的范围为1.5~8,矩形度阈值D范围为0.5~1,选取角点的阈值E的取值为180~220,角点匹配距离的阈值F为3,角点匹配次数阈值G取50,对实际运动轨迹寻找分段拐点时的判断距离阈值H的取70cm,如图1至图9所示,使用上述方法依次从第一帧开始遵从上述方法对视频图像进行处理。
从图6可以看出图中白色线为行人运动轨迹,当视频图像运行到第51帧时角点匹配次数达到50次,故轨迹线从第1帧到第51帧截止。该轨迹的下端为行人第一次进入场景,找到的特征点位置,最上端点为在第50帧找到的特征点。
图7为目标跟踪轨迹对应的实际距离曲线图,使用步骤九和步骤十中的方法对该轨迹曲线求取拐点,结果如图8所示,拐点处用十字符号标记出来。然后采用最小二乘法对每个分段内的轨迹拟合,可求得行人的实际运动速度0.71m/s,所以可判断该目标为行人。此时根据该行人的位置和方向,判断该行人事件对交通安全造成的危险等级,实现交通安全预警。

Claims (1)

1.一种基于形状特征和轨迹分析的行人事件检测方法,其特征在于,该方法按照以下步骤进行:
步骤一,建立图像像素到路面实际距离的映射关系,即映射表,同时将道路图像划分为道路内和路肩两部分;
步骤二,将第1帧图像和背景图像在相同的块坐标系下都划分成多个块区域,背景的大小为W*H,划分的块大小为w*h,划分的块区域个数T为T=(W/w)*(H/h),用当前第1帧图像和背景图像对应像素相减,得到大小都为W*H的帧差图像,将帧差图像划分为T个大小都为w*h的块,记第j个块内大于灰度阈值A的像素个数为Nj,若Nj大于阈值B,则该块内所有像素值赋为255,否则赋为0,其中:
W为图像水平方向像素个数;
H为图像竖直方向像素个数;
w为块的像素宽度;
h为块的像素高度;
j=1,2,3...T;
所述的阈值A的取值为30;
所述的阈值B的取值范围为块内像素总数的0.5~0.75倍;
步骤三,以块为单位对二值化图像从左到右,从上到下依次扫描,对同一个目标的连通域标以相同的标号,同时获得该连通域的最小外接矩形,计算该外接矩形的高度Rh、宽度Rw、高宽比Ra和矩形度Rj,当Ra的值在阈值C范围内,并且Rj的值在阈值D范围内时,保留该目标,当Ra或Rj不在阈值C和D范围内时,去除该目标,其中:
所述的阈值C范围为1.5~8;
所述的阈值D范围为0.5~1;
步骤四,对第1帧图像上标记的第j个前景目标寻找最佳角点,选取该目标某像素点Pi(m,n)为中心,建立一个大小为a*a的窗口,分别计算过中心像素点Pi(m,n)的横向、纵向以及两个对角线方向上相邻像素灰度差的平方和,取其结果中的最小值gmin,若窗口内的某个点的gmin大于阈值E,则窗口内的该点为角点,若gmin小于等于阈值E,则该点不为角点并舍去,其中:
所述的a为窗口边长的像素宽度;
所述的阈值E的取值范围为180~220;
步骤五,将角点的位置信息以及匹配跟踪次数信息记录在一个新建的空的结构体中,目标匹配跟踪次数初始化为零;
步骤六,对第二帧、第三帧、…、第i帧图像,重复步骤二、步骤三和步骤四的方法得到当前帧中目标的角点位置,然后以前一帧记录的角点位置为依据,与当前帧中的记录的目标的角点位置做比较,则有:
当两者位置绝对值差大于阈值F,就确定当前帧中该角点所在的目标是当前帧中新的目标,再按照步骤五的方法进行处理;
当两者位置绝对值差小于等于阈值F,则用当前帧的角点位置信息替换前一帧的角点位置信息作为新的比较基准依据,匹配跟踪次数加1,其中:
i为正整数;
所述的阈值F的取值范围为1~5;
步骤七,当匹配次数大于等于阈值G时,则跟踪完毕,得到跟踪轨迹为:Track={Pi,Pi+1,...Pi+n},执行步骤八,其中:
所述的阈值G的取值范围是50~70;
步骤八,查找映射表,得到轨迹Track={Pi,Pi+1,...Pi+n}中每个角点对应的实际距离,即实际运动轨迹Track’={(si,0),(si+1,1),...,(si+n,n)},其中:
si+n表示像素点Pi+n对应的实际距离,n表示点的下标;
步骤九,由实际运动轨迹曲线首点Pi和尾点Pi+n得到经过这两点的一条直线的直线方程:y=kx+b,该轨迹上任意一点到这条直线的距离为:
d r = | kS i + r - r + b | k 2 + 1
式中:k为直线的斜率,b为截距,(x,y)表示该直线上的任意一点,(si+r,r)表示该轨迹上任意一点,dr表示(si+r,r)点到直线的距离;
对所有的dr进行排序找出最大的dmax,若大于阈值H,则实际运动轨迹曲线上的该点为目标运动轨迹的拐点,保存该点(si+r,r),执行步骤十,其中:
所述的阈值H的取值为70cm;
步骤十,拐点(si+r,r)将运动轨迹曲线分段,以(s0,0)和(si+r,r)为首尾点的曲线段,以及以点(si+r,r)和(si+n,n)为首尾点的曲线段,在这两条曲线段内分别执行步骤九,继续求取各段轨迹的拐点,直到这条轨迹上所有点到直线距离dr≤H时为止,H为阈值,所述的阈值H的取值为70cm,这样得到一组拐点{(si+r0,r0),(si+r1,r1),...,(si+rm,rm)};
步骤十一,拐点将运动轨迹分割成运动轨迹曲线段,对每一段运动轨迹曲线段使用最小二乘法进行线性拟合得到相关系数r,则有:
当r≥0.5时,保留该段运动轨迹曲线段;
当r<0.5时,去除该段运动轨迹曲线段;
最终得到一组运动轨迹曲线段;
步骤十二,利用经过步骤十一筛选后得到的每个运动轨迹曲线段的首点和尾点的实际距离和时间差求取分段内目标速度v,表达式为:
v = | s f - s s | N Δ t
式中:
N表示一段运动轨迹曲线段中轨迹点的间隔段数;
sf表示一段运动轨迹曲线段的尾点实际距离;
ss表示一段运动轨迹曲线段的首点实际距离;
Δt表示一段运动轨迹曲线段中相邻两个轨迹点的时间间隔;
当所有分段内的速度都满足0.3m/s<v<2m/s时,即可确定该目标为行人;
步骤十三,根据目标在当前帧的坐标点Pi+n位置判断行人事件危险等级:
(1)当点Pi+n处于道路内部时,该行人事件危险等级为高;
(2)当点Pi+n处于路肩时,如果行人运动轨迹矢量的方向与道路正确行使方向夹角大于30度,则该行人事件危险等级为中;
(3)当点Pi+n处于路肩时,如果行人运动轨迹矢量的方向与道路正确行使方向夹角小于等于30度,则该行人事件危险等级为低。
CN201310208226.6A 2013-05-29 2013-05-29 一种基于形状特征和轨迹分析的行人事件检测方法 Active CN103324913B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310208226.6A CN103324913B (zh) 2013-05-29 2013-05-29 一种基于形状特征和轨迹分析的行人事件检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310208226.6A CN103324913B (zh) 2013-05-29 2013-05-29 一种基于形状特征和轨迹分析的行人事件检测方法

Publications (2)

Publication Number Publication Date
CN103324913A CN103324913A (zh) 2013-09-25
CN103324913B true CN103324913B (zh) 2016-03-30

Family

ID=49193644

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310208226.6A Active CN103324913B (zh) 2013-05-29 2013-05-29 一种基于形状特征和轨迹分析的行人事件检测方法

Country Status (1)

Country Link
CN (1) CN103324913B (zh)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105469084A (zh) * 2015-11-20 2016-04-06 中国科学院苏州生物医学工程技术研究所 一种靶标中心点快速提取方法及系统
CN105741321B (zh) * 2016-01-31 2018-12-11 华南理工大学 基于跟踪点分布的视频目标运动趋势分析方法
CN105959639B (zh) * 2016-06-06 2019-06-14 南京工程学院 基于地面标定的城市街道区域中行人监控方法
CN106127826B (zh) * 2016-06-27 2019-01-22 安徽慧视金瞳科技有限公司 一种用于投影交互系统的连通域标记方法
CN106341263B (zh) * 2016-09-05 2019-06-14 南通大学 基于时间累积模型的人员状态信息检测方法
CN107330919B (zh) * 2017-06-27 2020-07-10 中国科学院成都生物研究所 花蕊运动轨迹的获取方法
CN109445587A (zh) * 2018-10-22 2019-03-08 北京顺源开华科技有限公司 运动参数确定方法及装置
CN109670419B (zh) * 2018-12-04 2023-05-23 天津津航技术物理研究所 一种基于周界安防视频监控系统的行人检测方法
CN111447562B (zh) * 2020-03-02 2021-12-24 北京梧桐车联科技有限责任公司 车辆行程轨迹分析方法及装置、计算机存储介质
CN111914699B (zh) * 2020-07-20 2023-08-08 同济大学 一种基于摄像机视频流的行人定位及轨迹获取方法
CN111811567B (zh) * 2020-07-21 2022-03-01 北京中科五极数据科技有限公司 一种基于曲线拐点比对的设备检测方法及相关装置
CN112016409B (zh) * 2020-08-11 2024-08-02 艾普工华科技(武汉)有限公司 一种基于深度学习的工步规范视觉识别判定方法及系统
CN112288975A (zh) * 2020-11-13 2021-01-29 珠海大横琴科技发展有限公司 一种事件预警的方法和装置
CN112613365B (zh) * 2020-12-11 2024-09-17 北京影谱科技股份有限公司 一种行人检测和行为分析方法、装置及计算设备
CN114758147A (zh) * 2020-12-29 2022-07-15 南宁富联富桂精密工业有限公司 人体异常姿态识别方法、装置及计算机可读存储介质
CN113392723A (zh) * 2021-05-25 2021-09-14 珠海市亿点科技有限公司 基于人工智能的无人机迫降区域筛选方法、装置及设备
CN113221926B (zh) * 2021-06-23 2022-08-02 华南师范大学 一种基于角点优化的线段提取方法
CN113537035A (zh) * 2021-07-12 2021-10-22 宁波溪棠信息科技有限公司 人体目标检测方法、装置、电子装置和存储介质
CN113705355A (zh) * 2021-07-30 2021-11-26 汕头大学 一种异常行为的实时检测方法
CN113869166A (zh) * 2021-09-18 2021-12-31 沈阳帝信人工智能产业研究院有限公司 一种变电站室外作业监测方法及装置
CN115049654B (zh) * 2022-08-15 2022-12-06 成都唐源电气股份有限公司 一种钢轨反光光条的提取方法
CN116958189B (zh) * 2023-09-20 2023-12-12 中国科学院国家空间科学中心 基于线段关联的运动点目标时空域轨迹跟踪方法
CN118364418B (zh) * 2024-06-20 2024-10-29 无锡中基电机制造有限公司 用于轴承座的耐腐性智能检测方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102509306A (zh) * 2011-10-08 2012-06-20 西安理工大学 一种基于视频的特定目标的跟踪方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102509306A (zh) * 2011-10-08 2012-06-20 西安理工大学 一种基于视频的特定目标的跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
付洋等.《一种基于视频的道路行人检测方法》.《电视技术:视频应用与工程》.2012,第36卷(第13期),正文第140-144页. *
崔华.《基于小波阈值去噪方法的一种改进方案》.《测控技术》.2005,正文第8-10页. *
郭永涛等.《视频交通监控系统中背景提取算法》.《视频技术应用与工程》.2006,(第5期),正文第91-93页. *

Also Published As

Publication number Publication date
CN103324913A (zh) 2013-09-25

Similar Documents

Publication Publication Date Title
CN103324913B (zh) 一种基于形状特征和轨迹分析的行人事件检测方法
CN103927526B (zh) 一种基于高斯差分多尺度边缘融合的车辆检测方法
CN103971380B (zh) 基于rgb-d的行人尾随检测方法
CN102693423B (zh) 一种在强光条件下车牌精确定位的方法
CN104318258B (zh) 一种基于时域模糊和卡尔曼滤波器的车道线检测方法
CN105913041B (zh) 一种基于预先标定的信号灯识别方法
CN102810250B (zh) 基于视频的多车型交通信息检测方法
CN111563469A (zh) 一种不规范停车行为识别方法及装置
CN106842231A (zh) 一种道路边界检测及跟踪方法
CN102915433B (zh) 基于字符组合的车牌定位和识别方法
CN105488454A (zh) 基于单目视觉的前方车辆检测与测距
CN104318263A (zh) 一种实时高精度人流计数方法
CN108388871B (zh) 一种基于车身回归的车辆检测方法
CN104050818A (zh) 基于目标跟踪和特征点匹配的运动车辆测速方法
CN103150550B (zh) 一种基于运动轨迹分析的道路行人事件检测方法
CN110379168A (zh) 一种基于Mask R-CNN的交通车辆信息获取方法
CN103077387B (zh) 视频中货运列车车厢自动检测方法
CN111832388B (zh) 一种车辆行驶中交通标志检测与识别方法及系统
CN105426868A (zh) 一种基于自适应感兴趣区域的车道检测方法
CN104063882A (zh) 一种基于双目的车辆视频测速方法
CN103632376A (zh) 一种两级框架的车辆部分遮挡消除方法
CN106951829A (zh) 一种基于最小生成树的视频显著对象检测方法
CN106803087A (zh) 一种车号自动识别方法及系统
CN102663778B (zh) 一种基于多视点视频的目标跟踪方法和系统
CN109272482A (zh) 一种基于序列图像的城市路口车辆排队检测系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant