CN108830246B - 一种交通环境行人多维运动特征视觉提取方法 - Google Patents
一种交通环境行人多维运动特征视觉提取方法 Download PDFInfo
- Publication number
- CN108830246B CN108830246B CN201810661219.4A CN201810661219A CN108830246B CN 108830246 B CN108830246 B CN 108830246B CN 201810661219 A CN201810661219 A CN 201810661219A CN 108830246 B CN108830246 B CN 108830246B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- image
- posture
- motion
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 10
- 238000000605 extraction Methods 0.000 title claims abstract description 8
- 230000036544 posture Effects 0.000 claims abstract description 86
- 238000001514 detection method Methods 0.000 claims abstract description 51
- 238000013528 artificial neural network Methods 0.000 claims abstract description 43
- 241000287828 Gallus gallus Species 0.000 claims description 57
- 235000013330 chicken meat Nutrition 0.000 claims description 57
- 230000006399 behavior Effects 0.000 claims description 28
- 238000000034 method Methods 0.000 claims description 21
- 244000144992 flock Species 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 12
- 238000003384 imaging method Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000012544 monitoring process Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 3
- 238000006073 displacement reaction Methods 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种交通环境行人多维运动特征视觉提取方法,包括:步骤1:构建行人运动数据库;步骤2:提取同一行人在连续图像帧中的行人检测框图像;步骤3:提取同一行人运动能量图的HOG特征;步骤4:构建基于Elman神经网络的行人运动姿势识别模型;步骤5:利用基于Elman神经网络的行人运动姿势识别模型,判断当前视频中行人姿势;步骤6:并计算获得行人在X轴和Y轴方向上的瞬时速度序列,得到行人实时速度;步骤7:根据路口环境下的三维立体场景,实时得到图像中行人的位置信息,结合行人姿势以及实时速度,获得行人的实时运动特征。该方案具有辨识准确率高、鲁棒性好的特点,且应用方便,具有较好的应用推广空间。
Description
技术领域
本发明属于交通监测领域,特别涉及一种交通环境行人多维运动特征视觉提取方法。
背景技术
近年来,随着科学技术的飞速发展,越来越多的智能方法被应用到交通方面,尤其是智能驾驶领域。交通安全是永恒的话题,在碰撞类事故中,车辆与行人之间的碰撞也占了很大的比重。对行人及时的检测和姿态辨识是现在智能交通主动保护系统中的关键所在。要实现准确的辨识,最重要的是行人运动特征提取。
行人的姿态辨识包括全局特征法和局部特征法。全局特征多采用运动历史图像的方法,即将视频序列的帧差信息累积到一帧图像中,帧差包含一定的运动信息但并未包含运动人体的形状信息,且易受噪声干扰。还有方法是提取每一帧图像中行人的静态边缘信息,帧间图像需要人为的联合,给辨识造成困难。目前行人的速度检测,多采用雷达的方法,不能与视觉图像很好的结合。
中国专利CN105957103A提出了一种基于视觉的运动特征提取方法,包括以下步骤:1.基于连续帧提取每个像素点的运动矢量;2.提取在X、Y、T方向像素值强烈变化的特征点;3.以特征点为中心,构建基于运动矢量的方向-幅值直方图的立方本特征向量;4.通过聚类算法对局部描述子形成编码向量。该专利存在以下问题:1.提取每个像素点的运动矢量时,未对像素点进行有效的筛选,数据量大,计算复杂;2.专利所应用的聚类算法容易出现局部收敛。
综上所述,急需提出一种在交通环境下行人运动特征更为准确的提取方法。
发明内容
本发明提供了一种交通环境行人多维运动特征视觉提取方法,其目的在于,对行人在道路中的行人姿势进行准确提取,为行车道路中车辆进行及时的预警,减少交通事故的发生。
一种交通环境行人多维运动特征视觉提取方法,包括以下步骤:
步骤1:构建行人运动数据库;
采集行人在深度摄像头各拍摄方向下的各种运动姿势与所处道路位置的视频,其中,所述拍摄方向包括面向镜头正前、左前、右前、侧面、正后、左后以及右后方向七个方向,所述姿势包括行走、跑步以及站立三种;
步骤2:对行人运动数据库中的视频进行图像提取,并对提取后的图像预处理,获得每帧图像的行人检测框,再提取出同一行人在连续图像帧中的行人检测框图像;
步骤3:对每一幅行人检测框图像进行灰度化处理,合成同一行人在连续图像帧中的行人检测框图像对应的灰度图像的运动能量图,并提取所述运动能量图的HOG特征;
步骤4:构建基于Elman神经网络的行人运动姿势识别模型;
将各行人在连续图像帧对应的运动能量图作为输入数据,以对应的行人的姿势作为输出数据,对Elman神经网络进行训练;
所述站立姿势输出对应为[001],行走姿势输出对应为[010],奔跑姿势输出对应为[100];
所述Elman神经网络参数设置,输入层节点数对应运动能量图像素个数x,隐藏层节点为2x+1,输出层节点为3,最大迭代次数为1500,学习率为0.001,阈值为0.00001;
步骤5:利用基于Elman神经网络的行人运动姿势识别模型,判断当前视频中行人姿势;
将当前视频按照步骤2提取同一行人在连续帧图像中的行人检测框图像,并输入基于Elman神经网络的行人运动姿势识别模型中,获得对应的姿势,进行姿势辨别;
步骤6:计算同一行人在连续帧图像中行人检测框左下角顶点的像素坐标变化序列,并计算获得行人在X轴和Y轴方向上的瞬时速度序列,得到行人实时速度;
步骤7:根据路口环境下的三维立体场景,实时得到图像中行人的位置信息,结合行人姿势以及实时速度,获得行人的实时运动特征。
路口的摄像头采用深度摄像头,建立路口环境下的三维立体场景,实时得到图像中行人的位置信息,根据实际道路情况将三维立体场景划分为人行道路和车行道路,当人进入三维立体场景中,对每一个人建立一个ID,通过连续帧图像信息判断人的运动特征。
进一步地,使用鸡群算法对基于Elman神经网络的行人运动姿势识别模型中的Elman神经网络的权值和阈值进行优化,具体步骤如下:
步骤A1:将鸡群个体位置作为Elman神经网络的权值和阈值,初始化鸡群参数;
种群规模M=[20,100],搜索空间维数为j,j的值为所需优化Elman神经网络的权值和阈值的参数个数之和,最大迭次数T=[400,1000],迭代次数为t,初始值为0,公鸡比例Pg=20%,母鸡比例Pm=70%,小鸡比例Px=10%,从母鸡中随机选择母代母鸡,比例Pd=10%;
步骤A2:设置适应度函数,并令迭代次数t=1;
依次将鸡群个体位置对应的权值和阈值代入基于Elman神经网络的行人运动姿势识别模型中,并利用鸡群个体位置确定的基于Elman神经网络的行人运动姿势识别模型确定输入的同一行人在连续帧图像中的行人检测框图像中的行人姿势,将同一行人在连续帧图像中的行人检测框图像的行人姿势检测值与对应的行人姿势实际值之差的倒数作为第一适应度函数f1(x);
适应度越大,个体越优秀;
步骤A3:构建鸡群子群;
根据所有个体适应度值进行排序,选取适应度值排前M*Pg的鸡群个体判定为公鸡,每只公鸡作为一个子群体的头领;选取适应度值排后M*Px的鸡群个体判定为小鸡;其他鸡群个体判定为母鸡;
将鸡群分为根据公鸡个数划分子群,一个子群包括一只公鸡、若干小鸡和若干母鸡,并且每个小鸡在种群随机选择一只母鸡构建母子关系;
步骤A4:鸡群个体位置更新并计算当前每个个体的适应度;
其中,为在第t次迭代中母鸡g在j维空间的位置,为在第t次迭代中母鸡g所在子群的唯一公鸡i1个体位置,为在第t次迭代中母鸡i所在子群之外的随机一只公鸡i2个体位置,rand(0,1)为随机函数,在(0,1)之间均匀随机取值,L1、L2为母鸡i被所在子群和其他子群影响的位置更新系数,L1取值范围[0.25,0.55],L2取值范围[0.15,0.35];
其中,为在第t次迭代中小鸡l在j维空间的位置,为在第t次迭代中小鸡l对应母子关系的母代母鸡gm个体位置,为在第t次迭代中小鸡所在子群中唯一公鸡个体位置,ω、α、β分别为小鸡自我更新系数[0.2,0.7],跟随母代母鸡系数[0.5,0.8],跟随公鸡系数[0.8,1.5];
步骤A5:根据适应度函数更新个体最优位置和鸡群全体个体最优位置,判断是否达到最大迭代次数,若满足则退出,否则,令t=t+1,转入步骤A3,直到满足最大迭代次数,输出最优鸡群个体位置对应的Elman神经网络的权值与阈值,得到基于Elman神经网络的行人运动姿势识别模型。
ΔWj=k|w2-w1|=k|x2×P-x1×P|,ΔLj=|f(l2)-f(l1)|,l1=(N-y1)×P,
行人目标点在前一帧图像和当前帧图像中的像素坐标分别为(x1,y1)和(x2,y2);l1和l2分别表示行人目标点在相邻两帧图像中距离显示屏Y轴边缘的距离;
k表示实际场景距离与显示屏中场景成像距离的比值,M和N分别表示显示屏中X轴和Y轴方向的总像素点的个数;P表示显示屏中每个像素点的长度,MP、NP分别为整个屏幕的X轴和Y轴的总长度;ΔWj和ΔLj分别表示行人目标点在相邻两帧图像中沿X轴和Y轴方向产生的位移;
AB表示深度摄像头到行人的距离,α表示深度摄像头到行人之间的连线和地平面之间的夹角,θ为深度摄像头到行人之间的直线与成像平面的夹角,m为帧数。
AB,α,θ的取值利用深度摄像头进行实时测量获得。
进一步地,根据行人的实时运动特征,对行车道路上的车辆进行行人行为级别预警;
所述行为级别包括安全、威胁以及危险三个级别;
所述安全行为包括行人距离车行道路一米之外处于站立姿势下,行人在人行道路上且距离车行道路一米以外沿车行道路平行方向或背向车行道路处于行走姿势下,背向车行道路处于跑步姿势;
所述威胁行为包括行人在人行道路上距离车行道路一米之内,且位于人行道路中处于站立姿势下,距离车行道路边缘一米以内处于跑步姿势下;
所述危险行为包括行人在人行道路上朝向车行道路方向或行人在车行道路中处于跑步姿势下,以及在车行道路中处于行走姿势下;
当处于威胁行为中行人的行走速度大于1.9m/s或跑步速度大于8m/s时,威胁行为升级为危险行为。
所述行为级别是指对处于交通环境中行人状态的安全状况,不同的行为级别对交通环境中行驶的车辆驾驶员进行提示,确保交通安全;
进一步地,所述行人目标点为行人检测框图像的左下角像素点。
进一步地,对行人图像帧进行预处理,并对预处理后的图像设置行人检测框、行人目标标识以及行人位置标签向量,构建行人轨迹;
所述行人检测框是行人图像帧中行人轮廓的最小外接矩形;
所述行人目标标识是所有行人图像帧中出现的不同行人的唯一标识P;
所述行人位置标签向量的表达形式为[t,x,y,a,b],t表示当前行人图像帧属于监控视频中的第t帧,x和y分别表示行人图像帧中的行人检测框的左下角的横坐标和纵坐标,a和b分别表示行人检测框长和宽;
前一帧行人图像中的行人在后一帧行人图像中的出现结果是指如果前一帧行人图像中的行人,在后一帧行人图像中出现,则该行人的跟踪结果为1,否则为0;若行人跟踪结果为1,则将后一帧行人图像中出现的对应行人位置标签向量添加至行人轨迹中。
有益效果
本发明提供了一种交通环境行人多维运动特征视觉提取方法,包括以下几个步骤:步骤1:构建行人运动数据库;步骤2:对行人运动数据库中的视频进行图像提取,并对提取后的图像预处理,获得每帧图像的行人检测框,再提取出同一行人在连续图像帧中的行人检测框图像;步骤3:对每一幅行人检测框图像进行灰度化处理,合成同一行人在连续图像帧中的行人检测框图像对应的灰度图像的运动能量图,并提取所述运动能量图的HOG特征;步骤4:构建基于Elman神经网络的行人运动姿势识别模型;步骤5:利用基于Elman神经网络的行人运动姿势识别模型,判断当前视频中行人姿势;步骤6:计算同一行人在连续帧图像中行人检测框左下角顶点的像素坐标变化序列,并计算获得行人在X轴和Y轴方向上的瞬时速度序列,得到行人实时速度;步骤7:根据路口环境下的三维立体场景,实时得到图像中行人的位置信息,结合行人姿势以及实时速度,获得行人的实时运动特征。
相对于现有技术而言,具有以下优点:
1.辨识准确率高:本发明提取的合成运动能量图的HOG特征既包含了整个图像序列的行人运动信息,又包含了行人的运动能量信息,特征具有代表性,可极大地方便行人的姿态辨识;
2.方便应用:本发明提出的行人速度计算方法直接基于视觉图像进行运算,实现了速度检测与图像识别的完美结合,方便用户的使用;
3.网络结构完整,本发明不仅实现了对图像中行人的姿态辨识还实现了行人的速度计算,网络结构完整,可极大地方便用户;
4.鲁棒性好:本发明使用神经网络,具有极强的非线性拟合能力,应对光照变化、行人遮挡等问题时具有较好的鲁棒性。
附图说明
图1为本发明所述方法的流程图;
图2为深度摄像头与行人之间的距离关系示意图。
具体实施方式
下面将结合附图和实施例对本发明做进一步地说明。
如图1所示,一种交通环境行人多维运动特征视觉提取方法,包括以下步骤:
步骤1:构建行人运动数据库;
采集行人在深度摄像头各拍摄方向下的各种运动姿势与所处道路位置的视频,其中,所述拍摄方向包括面向镜头正前、左前、右前、侧面、正后、左后以及右后方向七个方向,所述姿势包括行走、跑步以及站立三种;
步骤2:对行人运动数据库中的视频进行图像提取,并对提取后的图像预处理,获得每帧图像的行人检测框,再提取出同一行人在连续图像帧中的行人检测框图像;
步骤3:对每一幅行人检测框图像进行灰度化处理,合成同一行人在连续图像帧中的行人检测框图像对应的灰度图像的运动能量图,并提取所述运动能量图的HOG特征;
步骤4:构建基于Elman神经网络的行人运动姿势识别模型;
将各行人在连续图像帧对应的运动能量图作为输入数据,以对应的行人的姿势作为输出数据,对Elman神经网络进行训练;
所述站立姿势输出对应为[001],行走姿势输出对应为[010],奔跑姿势输出对应为[100];
所述Elman神经网络参数设置,输入层节点数对应运动能量图像素个数x,隐藏层节点为2x+1,输出层节点为3,最大迭代次数为1500,学习率为0.001,阈值为0.00001;
使用鸡群算法对基于Elman神经网络的行人运动姿势识别模型中的Elman神经网络的权值和阈值进行优化,具体步骤如下:
步骤A1:将鸡群个体位置作为Elman神经网络的权值和阈值,初始化鸡群参数;
种群规模M=[20,100],搜索空间维数为j,j的值为所需优化Elman神经网络的权值和阈值的参数个数之和,最大迭次数T=[400,1000],迭代次数为t,初始值为0,公鸡比例Pg=20%,母鸡比例Pm=70%,小鸡比例Px=10%,从母鸡中随机选择母代母鸡,比例Pd=10%;
步骤A2:设置适应度函数,并令迭代次数t=1;
依次将鸡群个体位置对应的权值和阈值代入基于Elman神经网络的行人运动姿势识别模型中,并利用鸡群个体位置确定的基于Elman神经网络的行人运动姿势识别模型确定输入的同一行人在连续帧图像中的行人检测框图像中的行人姿势,将同一行人在连续帧图像中的行人检测框图像的行人姿势检测值与对应的行人姿势实际值之差的倒数作为第一适应度函数f1(x);
适应度越大,个体越优秀;
步骤A3:构建鸡群子群;
根据所有个体适应度值进行排序,选取适应度值排前M*Pg的鸡群个体判定为公鸡,每只公鸡作为一个子群体的头领;选取适应度值排后M*Px的鸡群个体判定为小鸡;其他鸡群个体判定为母鸡;
将鸡群分为根据公鸡个数划分子群,一个子群包括一只公鸡、若干小鸡和若干母鸡,并且每个小鸡在种群随机选择一只母鸡构建母子关系;
步骤A4:鸡群个体位置更新并计算当前每个个体的适应度;
其中,为在第t次迭代中母鸡g在j维空间的位置,为在第t次迭代中母鸡g所在子群的唯一公鸡i1个体位置,为在第t次迭代中母鸡i所在子群之外的随机一只公鸡i2个体位置,rand(0,1)为随机函数,在(0,1)之间均匀随机取值,L1、L2为母鸡i被所在子群和其他子群影响的位置更新系数,L1取值范围[0.25,0.55],L2取值范围[0.15,0.35];
其中,为在第t次迭代中小鸡l在j维空间的位置,为在第t次迭代中小鸡l对应母子关系的母代母鸡gm个体位置,为在第t次迭代中小鸡所在子群中唯一公鸡个体位置,ω、α、β分别为小鸡自我更新系数[0.2,0.7],跟随母代母鸡系数[0.5,0.8],跟随公鸡系数[0.8,1.5];
步骤A5:根据适应度函数更新个体最优位置和鸡群全体个体最优位置,判断是否达到最大迭代次数,若满足则退出,否则,令t=t+1,转入步骤A3,直到满足最大迭代次数,输出最优鸡群个体位置对应的Elman神经网络的权值与阈值,得到基于Elman神经网络的行人运动姿势识别模型。
步骤5:利用基于Elman神经网络的行人运动姿势识别模型,判断当前视频中行人姿势;
将当前视频按照步骤2提取同一行人在连续帧图像中的行人检测框图像,并输入基于Elman神经网络的行人运动姿势识别模型中,获得对应的姿势,进行姿势辨别;
步骤6:计算同一行人在连续帧图像中行人检测框左下角顶点的像素坐标变化序列,并计算获得行人在X轴和Y轴方向上的瞬时速度序列,得到行人实时速度;
ΔWj=k|w2-w1|=k|x2×P-x1×P|,ΔLj=|f(l2)-f(l1)|,l1=(N-y1)×P,
行人目标点在前一帧图像和当前帧图像中的像素坐标分别为(x1,y1)和(x2,y2);l1和l2分别表示行人目标点在相邻两帧图像中距离显示屏Y轴边缘的距离;
k表示实际场景距离与显示屏中场景成像距离的比值,M和N分别表示显示屏中X轴和Y轴方向的总像素点的个数;P表示显示屏中每个像素点的长度,MP、NP分别为整个屏幕的X轴和Y轴的总长度;ΔWj和ΔLj分别表示行人目标点在相邻两帧图像中沿X轴和Y轴方向产生的位移;
如图2所示,AB表示深度摄像头到行人的距离,α表示深度摄像头到行人之间的连线和地平面之间的夹角,θ为深度摄像头到行人之间的直线与成像平面的夹角,AB,α,θ的取值利用深度摄像头进行实时测量获得,m为帧数。
步骤7:根据路口环境下的三维立体场景,实时得到图像中行人的位置信息,结合行人姿势以及实时速度,获得行人的实时运动特征。
路口的摄像头采用深度摄像头,建立路口环境下的三维立体场景,实时得到图像中行人的位置信息,根据实际道路情况将三维立体场景划分为人行道路和车行道路,当人进入三维立体场景中,对每一个人建立一个ID,通过连续帧图像信息判断人的运动特征。
根据行人的实时运动特征,对行车道路上的车辆进行行人行为级别预警;
所述行为级别包括安全、威胁以及危险三个级别;
所述安全行为包括行人距离车行道路一米之外处于站立姿势下,行人在人行道路上且距离车行道路一米以外沿车行道路平行方向或背向车行道路处于行走姿势下,背向车行道路处于跑步姿势;
所述威胁行为包括行人在人行道路上距离车行道路一米之内,且位于人行道路中处于站立姿势下,距离车行道路边缘一米以内处于跑步姿势下;
所述危险行为包括行人在人行道路上朝向车行道路方向或行人在车行道路中处于跑步姿势下,以及在车行道路中处于行走姿势下;
当处于威胁行为中行人的行走速度大于1.9m/s或跑步速度大于8m/s时,威胁行为升级为危险行为。
所述行为级别是指对处于交通环境中行人状态的安全状况,不同的行为级别对交通环境中行驶的车辆驾驶员进行提示,确保交通安全;
在本实例中,行人检测框图像的左下角像素点作为行人目标点。
对行人图像帧进行预处理,并对预处理后的图像设置行人检测框、行人目标标识以及行人位置标签向量,构建行人轨迹;
所述行人检测框是行人图像帧中行人轮廓的最小外接矩形;
所述行人目标标识是所有行人图像帧中出现的不同行人的唯一标识P;
所述行人位置标签向量的表达形式为[t,x,y,a,b],t表示当前行人图像帧属于监控视频中的第t帧,x和y分别表示行人图像帧中的行人检测框的左下角的横坐标和纵坐标,a和b分别表示行人检测框长和宽;
前一帧行人图像中的行人在后一帧行人图像中的出现结果是指如果前一帧行人图像中的行人,在后一帧行人图像中出现,则该行人的跟踪结果为1,否则为0;若行人跟踪结果为1,则将后一帧行人图像中出现的对应行人位置标签向量添加至行人轨迹中。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (6)
1.一种交通环境行人多维运动特征视觉提取方法,其特征在于,包括以下步骤:
步骤1:构建行人运动数据库;
采集行人在深度摄像头各拍摄方向下的各种运动姿势与所处道路位置的视频,其中,所述拍摄方向包括面向镜头正前、左前、右前、侧面、正后、左后以及右后方向七个方向,所述姿势包括行走、跑步以及站立三种;
步骤2:对行人运动数据库中的视频进行图像提取,并对提取后的图像预处理,获得每帧图像的行人检测框,再提取出同一行人在连续图像帧中的行人检测框图像;
步骤3:对每一幅行人检测框图像进行灰度化处理,合成同一行人在连续图像帧中的行人检测框图像对应的灰度图像的运动能量图,并提取所述运动能量图的HOG特征;
步骤4:构建基于Elman神经网络的行人运动姿势识别模型;
将各行人在连续图像帧对应的运动能量图作为输入数据,以对应的行人的姿势作为输出数据,对Elman神经网络进行训练;
所述站立姿势输出对应为[001],行走姿势输出对应为[010],奔跑姿势输出对应为[100];
所述Elman神经网络参数设置,输入层节点数对应运动能量图像素个数x,隐藏层节点为2x+1,输出层节点为3,最大迭代次数为1500,学习率为0.001,阈值为0.00001;
步骤5:利用基于Elman神经网络的行人运动姿势识别模型,判断当前视频中行人姿势;
将当前视频按照步骤2提取同一行人在连续帧图像中的行人检测框图像,并输入基于Elman神经网络的行人运动姿势识别模型中,获得对应的姿势,进行姿势辨别;
步骤6:计算同一行人在连续帧图像中行人检测框左下角顶点的像素坐标变化序列,并计算获得行人在X轴和Y轴方向上的瞬时速度序列,得到行人实时速度;
步骤7:根据路口环境下的三维立体场景,实时得到图像中行人的位置信息,结合行人姿势以及实时速度,获得行人的实时运动特征。
2.根据权利要求1所述的方法,其特征在于,使用鸡群算法对基于Elman神经网络的行人运动姿势识别模型中的Elman神经网络的权值和阈值进行优化,具体步骤如下:
步骤A1:将鸡群个体位置作为Elman神经网络的权值和阈值,初始化鸡群参数;
种群规模M=[20,100],搜索空间维数为j,j的值为所需优化Elman神经网络的权值和阈值的参数个数之和,最大迭次数T=[400,1000],迭代次数为t,初始值为0,公鸡比例Pg=20%,母鸡比例Pm=70%,小鸡比例Px=10%,从母鸡中随机选择母代母鸡,比例Pd=10%;
步骤A2:设置适应度函数,并令迭代次数t=1;
依次将鸡群个体位置对应的权值和阈值代入基于Elman神经网络的行人运动姿势识别模型中,并利用鸡群个体位置确定的基于Elman神经网络的行人运动姿势识别模型确定输入的同一行人在连续帧图像中的行人检测框图像中的行人姿势,将同一行人在连续帧图像中的行人检测框图像的行人姿势检测值与对应的行人姿势实际值之差的倒数作为第一适应度函数f1(x);
步骤A3:构建鸡群子群;
根据所有个体适应度值进行排序,选取适应度值排前M*Pg的鸡群个体判定为公鸡,每只公鸡作为一个子群体的头领;选取适应度值排后M*Px的鸡群个体判定为小鸡;其他鸡群个体判定为母鸡;
将鸡群分为根据公鸡个数划分子群,一个子群包括一只公鸡、若干小鸡和若干母鸡,并且每个小鸡在种群随机选择一只母鸡构建母子关系;
步骤A4:鸡群个体位置更新并计算当前每个个体的适应度;
其中,为在第t次迭代中母鸡g在j维空间的位置,为在第t次迭代中母鸡g所在子群的唯一公鸡i1个体位置,为在第t次迭代中母鸡i所在子群之外的随机一只公鸡i2个体位置,rand(0,1)为随机函数,在(0,1)之间均匀随机取值,L1、L2为母鸡i被所在子群和其他子群影响的位置更新系数,L1取值范围[0.25,0.55],L2取值范围[0.15,0.35];
其中,为在第t次迭代中小鸡l在j维空间的位置,为在第t次迭代中小鸡l对应母子关系的母代母鸡gm个体位置,为在第t次迭代中小鸡所在子群中唯一公鸡个体位置,ω、α、β分别为小鸡自我更新系数[0.2,0.7],跟随母代母鸡系数[0.5,0.8],跟随公鸡系数[0.8,1.5];
步骤A5:根据适应度函数更新个体最优位置和鸡群全体个体最优位置,判断是否达到最大迭代次数,若满足则退出,否则,令t=t+1,转入步骤A3,直到满足最大迭代次数,输出最优鸡群个体位置对应的Elman神经网络的权值与阈值,得到基于Elman神经网络的行人运动姿势识别模型。
行人目标点在前一帧图像和当前帧图像中的像素坐标分别为(x1,y1)和(x2,y2);l1和l2分别表示行人目标点在相邻两帧图像中距离显示屏Y轴边缘的距离;
k表示实际场景距离与显示屏中场景成像距离的比值,M和N分别表示显示屏中X轴和Y轴方向的总像素点的个数;P表示显示屏中每个像素点的长度,MP、NP分别为整个屏幕的X轴和Y轴的总长度;ΔWj和ΔLj分别表示行人目标点在相邻两帧图像中沿X轴和Y轴方向产生的位移;
AB表示深度摄像头到行人的距离,α表示深度摄像头到行人之间的连线和地平面之间的夹角,θ为深度摄像头到行人之间的直线与成像平面的夹角,m为帧数。
4.根据权利要求1-3任一项所述的方法,其特征在于,根据行人的实时运动特征,对行车道路上的车辆进行行人行为级别预警;
所述行为级别包括安全、威胁以及危险三个级别;
所述安全行为包括行人距离车行道路一米之外处于站立姿势下,行人在人行道路上且距离车行道路一米以外沿车行道路平行方向或背向车行道路处于行走姿势下,背向车行道路处于跑步姿势;
所述威胁行为包括行人在人行道路上距离车行道路一米之内,且位于人行道路中处于站立姿势下,距离车行道路边缘一米以内处于跑步姿势下;
所述危险行为包括行人在人行道路上朝向车行道路方向或行人在车行道路中处于跑步姿势下,以及在车行道路中处于行走姿势下;
当处于威胁行为中行人的行走速度大于1.9m/s或跑步速度大于8m/s时,威胁行为升级为危险行为。
5.根据权利要求4所述的方法,其特征在于,所述行人目标点为行人检测框图像的左下角像素点。
6.根据权利要求5所述的方法,其特征在于,对行人图像帧进行预处理,并对预处理后的图像设置行人检测框、行人目标标识以及行人位置标签向量,构建行人轨迹;
所述行人检测框是行人图像帧中行人轮廓的最小外接矩形;
所述行人目标标识是所有行人图像帧中出现的不同行人的唯一标识P;
所述行人位置标签向量的表达形式为[t,x,y,a,b],t表示当前行人图像帧属于监控视频中的第t帧,x和y分别表示行人图像帧中的行人检测框的左下角的横坐标和纵坐标,a和b分别表示行人检测框长和宽;
前一帧行人图像中的行人在后一帧行人图像中的出现结果是指如果前一帧行人图像中的行人,在后一帧行人图像中出现,则该行人的跟踪结果为1,否则为0;若行人跟踪结果为1,则将后一帧行人图像中出现的对应行人位置标签向量添加至行人轨迹中。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810661219.4A CN108830246B (zh) | 2018-06-25 | 2018-06-25 | 一种交通环境行人多维运动特征视觉提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810661219.4A CN108830246B (zh) | 2018-06-25 | 2018-06-25 | 一种交通环境行人多维运动特征视觉提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108830246A CN108830246A (zh) | 2018-11-16 |
CN108830246B true CN108830246B (zh) | 2022-02-15 |
Family
ID=64138303
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810661219.4A Active CN108830246B (zh) | 2018-06-25 | 2018-06-25 | 一种交通环境行人多维运动特征视觉提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108830246B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109558505A (zh) | 2018-11-21 | 2019-04-02 | 百度在线网络技术(北京)有限公司 | 视觉搜索方法、装置、计算机设备及存储介质 |
CN111265218A (zh) * | 2018-12-05 | 2020-06-12 | 阿里巴巴集团控股有限公司 | 运动姿态数据处理方法、装置和电子设备 |
CN110427800B (zh) | 2019-06-17 | 2024-09-10 | 平安科技(深圳)有限公司 | 视频物体加速检测方法、装置、服务器及存储介质 |
CN110632636B (zh) * | 2019-09-11 | 2021-10-22 | 桂林电子科技大学 | 一种基于Elman神经网络的载体姿态估计方法 |
CN111338344A (zh) * | 2020-02-28 | 2020-06-26 | 北京小马慧行科技有限公司 | 车辆的控制方法及装置、运载工具 |
CN115092091B (zh) * | 2022-07-11 | 2024-06-18 | 中国第一汽车股份有限公司 | 一种基于车联网的车辆行人保护系统及方法 |
CN116935447B (zh) * | 2023-09-19 | 2023-12-26 | 华中科技大学 | 基于自适应师生结构的无监督域行人重识别方法及系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN206033008U (zh) * | 2016-03-09 | 2017-03-22 | 秀景A.I.D 股份有限公司 | 一种自动力型手扶轨道杀菌设备 |
CN106789214A (zh) * | 2016-12-12 | 2017-05-31 | 广东工业大学 | 一种基于正余双弦算法的网络态势感知方法及装置 |
CN106875424A (zh) * | 2017-01-16 | 2017-06-20 | 西北工业大学 | 一种基于机器视觉的城市环境行驶车辆行为识别方法 |
CN107122707A (zh) * | 2017-03-17 | 2017-09-01 | 山东大学 | 基于外貌特征紧凑表示的视频行人再识别方法及系统 |
CN107126224A (zh) * | 2017-06-20 | 2017-09-05 | 中南大学 | 一种基于Kinect的轨道列车驾驶员状态的实时监测和预警方法与系统 |
CN107153800A (zh) * | 2017-05-04 | 2017-09-12 | 天津工业大学 | 一种基于改进鸡群算法的超高频射频识别定位系统的阅读器天线优化部署方案 |
CN107203753A (zh) * | 2017-05-25 | 2017-09-26 | 西安工业大学 | 一种基于模糊神经网络和图模型推理的动作识别方法 |
CN107657232A (zh) * | 2017-09-28 | 2018-02-02 | 南通大学 | 一种行人智能识别方法及其系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9821470B2 (en) * | 2014-09-17 | 2017-11-21 | Brain Corporation | Apparatus and methods for context determination using real time sensor data |
-
2018
- 2018-06-25 CN CN201810661219.4A patent/CN108830246B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN206033008U (zh) * | 2016-03-09 | 2017-03-22 | 秀景A.I.D 股份有限公司 | 一种自动力型手扶轨道杀菌设备 |
CN106789214A (zh) * | 2016-12-12 | 2017-05-31 | 广东工业大学 | 一种基于正余双弦算法的网络态势感知方法及装置 |
CN106875424A (zh) * | 2017-01-16 | 2017-06-20 | 西北工业大学 | 一种基于机器视觉的城市环境行驶车辆行为识别方法 |
CN107122707A (zh) * | 2017-03-17 | 2017-09-01 | 山东大学 | 基于外貌特征紧凑表示的视频行人再识别方法及系统 |
CN107153800A (zh) * | 2017-05-04 | 2017-09-12 | 天津工业大学 | 一种基于改进鸡群算法的超高频射频识别定位系统的阅读器天线优化部署方案 |
CN107203753A (zh) * | 2017-05-25 | 2017-09-26 | 西安工业大学 | 一种基于模糊神经网络和图模型推理的动作识别方法 |
CN107126224A (zh) * | 2017-06-20 | 2017-09-05 | 中南大学 | 一种基于Kinect的轨道列车驾驶员状态的实时监测和预警方法与系统 |
CN107657232A (zh) * | 2017-09-28 | 2018-02-02 | 南通大学 | 一种行人智能识别方法及其系统 |
Non-Patent Citations (4)
Title |
---|
Assessment of human locomotion by using an insole measurement system and artificial neural networks;KuanZhang et al;《Journal of Biomechanics》;20051130;第38卷(第11期);2276-2287 * |
Elman神经网络在区域速度场建模中的应用;聂建亮等;《大地测量与地球动力学》;20171120;第37卷(第10期);1015-1019 * |
基于行走拓扑结构分析的行人检测;左航等;《光电子.激光》;20100531;第21卷(第5期);749-753 * |
基于轮廓特征与多重分形分析的步态识别方法研究;訾春元;《中国优秀硕士学位论文全文数据库 (信息科技辑)》;20171015(第10期);I138-189 * |
Also Published As
Publication number | Publication date |
---|---|
CN108830246A (zh) | 2018-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108830246B (zh) | 一种交通环境行人多维运动特征视觉提取方法 | |
CN110244322B (zh) | 基于多源传感器的路面施工机器人环境感知系统及方法 | |
CN106875424B (zh) | 一种基于机器视觉的城市环境行驶车辆行为识别方法 | |
CN105260699B (zh) | 一种车道线数据的处理方法及装置 | |
Alvarez et al. | Combining priors, appearance, and context for road detection | |
CN110379168B (zh) | 一种基于Mask R-CNN的交通车辆信息获取方法 | |
CN102385690B (zh) | 基于视频图像的目标跟踪方法及系统 | |
CN103049751A (zh) | 一种改进的加权区域匹配高空视频行人识别方法 | |
CN108830171B (zh) | 一种基于深度学习的智能物流仓库引导线视觉检测方法 | |
CN109255298A (zh) | 一种动态背景中的安全帽检测方法与系统 | |
CN110232389A (zh) | 一种基于绿色作物特征提取不变性的立体视觉导航方法 | |
CN105404857A (zh) | 一种基于红外的夜间智能车前方行人检测方法 | |
Chao et al. | Multi-lane detection based on deep convolutional neural network | |
CN117949942B (zh) | 基于雷达数据和视频数据融合的目标跟踪方法及系统 | |
CN103871081A (zh) | 一种自适应鲁棒在线目标跟踪方法 | |
Zhang et al. | Gc-net: Gridding and clustering for traffic object detection with roadside lidar | |
CN113092807B (zh) | 基于多目标跟踪算法的城市高架道路车辆测速方法 | |
CN111797738A (zh) | 基于视频识别的多目标交通行为快速提取方法 | |
CN108805907B (zh) | 一种行人姿势多特征智能辨识方法 | |
CN106056078A (zh) | 一种基于多特征回归式集成学习的人群密度估计方法 | |
CN105335751B (zh) | 一种基于视觉图像的泊位飞机前轮定位方法 | |
CN106709432B (zh) | 基于双目立体视觉的人头检测计数方法 | |
CN108830248B (zh) | 一种行人局部特征大数据混合提取方法 | |
CN117636268A (zh) | 一种面向冰雪环境的无人机航拍自然驾驶数据集构建方法 | |
CN115690743A (zh) | 一种基于深度学习的机场停机位入侵的检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |