CN108960074B - 基于深度学习的小尺寸行人目标检测方法 - Google Patents
基于深度学习的小尺寸行人目标检测方法 Download PDFInfo
- Publication number
- CN108960074B CN108960074B CN201810577466.6A CN201810577466A CN108960074B CN 108960074 B CN108960074 B CN 108960074B CN 201810577466 A CN201810577466 A CN 201810577466A CN 108960074 B CN108960074 B CN 108960074B
- Authority
- CN
- China
- Prior art keywords
- convolution
- candidate region
- pedestrian
- layer
- vgg
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的小尺寸行人目标检测方法。主要解决现有技术对小尺寸行人目标检测效果差的问题。其实现方案是:读取行人检测数据库数据,使用VGG网络提取特征;将VGG网络不同层特征进行叠加融合,得到两种特征融合层;根据VGG网络中特征层Conv5_3和第一种特征融合层,获得候选区域的回归边界和分类概率;根据候选区域的回归边界和第二种特征融合层,得到检测结果的回归边界和分类概率;根据检测结果的回归边界和分类概率,使用损失函数对VGG网络进行训练,得到最终的精确检测结果。本发明能实现对小尺寸目标精确检测,可用于无人驾驶或辅助驾驶。
Description
技术领域
本发明属于图像处理技术领域,特别涉及一种70个像素下的小尺寸行人目标检测方法,可用于无人驾驶或辅助驾驶。
背景技术
行人检测是使用计算机视觉等方法判断图像中是否存在行人并给出在图像中的精准位置。因为其在车辆辅助驾驶和自动驾驶中的重要应用价值,行人检测已经成为当前计算机视觉和智能车辆领域最为活跃的研究课题之一。行人检测可以及时检测出车辆前方的行人以针对实际状况采取相应措施。在自动驾驶中,行人检测结合其它技术,可以在保障交通安全的同时将人从驾驶汽车的工作中解脱出来。国内外已经有很多公司开始做无人驾驶汽车的相关工作,车辆辅助驾驶技术的需求也越来越浓烈,已成为了学术界工业界共同关注的热点。
目前一些汽车生产厂商、大学和研究机构相继开始了行人检测技术的研究。比如,欧洲戴姆勒、德国大众等就发起了旨在研究行人保护方案的PROTECTOR项目,并且已经取得了初步的成效。2004-2005年的SAVE-U项目实现的目标是减少行人和车辆碰撞造成的伤亡数量和事故等级,并在危险状况下驾驶员警告和车辆自动减速试验车辆。作为无人驾驶的先驱技术之一,行人检测系统在近几年也已成为研发热点,它通常整合到碰撞预防系统当中,利用雷达摄像头和感应器来检测行人,并及时减速刹车从而减少事故伤害。沃尔沃、丰田等车企已率先推出先进的行人检测系统,而福特也推出了先进的行人检测系统,能够识别路上的行人并进行动态分析,预测他们是否会闯入驾驶路线中。除了传统汽车公司外,很多互联网公司也在研发行人检测系统,以期实现智能汽车。谷歌最新的行人检测系统只靠摄像机影像来掌握行人动向,但是优化了速度问题。行人检测在智能交通等领域越来越受到重视。
行人检测方法主要分为两大类,基于手工特征提取和基于深度学习,其中:
基于手工提取特征的方法有HOG,HOG-LBP,Haar等,主要利用从数据中提取出的相关特征训练SVM和Adaboost等分类器,其中目前最主流的是HOG+SVM,许多文献在HOG+SVM的基础上进行了优化。然而手工提取特征又称为特征工程,有着许多缺点。HOG特征对于遮挡问题效果不好,SIFT特征要求检测目标包含足够多的纹理信息,Haar特征有着计算量大、训练时间很长而且对复杂的目标的描述效果不够好的缺点。
基于深度学习方法,随着近几年深度学习理论的快速发展,取得了很大的进步,特别是检测精度比原有算法有较大的提高。大量文献表明深度学习自我学习的特征可以更好地描述检测目标的特性,避免了复杂的特征提取和数据建模过程。主流的是卷积神经网络CNN,最早用于Mnist手写数字字符数据集上。现在主流的目标检测算法是R-CNN系列,最早的R-CNN算法使用了Selective Search方法从一张图像生成约2000-3000个候选区域,然后通过卷积神经网络在候选区域提取特征并进行判断,之后出现的Fast R-CNN、Faster-RCNN算法都是R-CNN算法的提高。行人检测领域,Sermanet等人提出了Convnet模型在行人检测数据库获得了很好的效果,Tian等人通过考虑行人和场景的语义属性学习更具有表达能力的特征,Cai等人提出复杂性的级联训练,成功结合了手工提取的特征和卷积神经网络得到的特征,Zhang等人提出了一种使用RPN得到候选区域,然后通过boosted forests分类的行人检测算法。
然而,上述方法只利用了卷积网络中最高层的特征,最高层的特征由于经过多次池化,每一特征点映射到原图只能检测特定大小以上的目标,同时忽略了低层卷积特征中的图像局部方差特征,对70像素下的小尺寸行人检测效果不好。
发明内容
本发明的目的在于针对上述已有技术的不足,提出一种基于深度学习的小尺寸行人目标检测方法,以提高对70像素下小尺寸行人的检测效果。
为实现上述目的,本发明融合卷积神经网络中的多重卷积特征,在网络结构加入了反卷积层并使用了新的损失函数,其实现方案包括如下:
(1)读取行人检测数据库数据,使用VGG卷积神经网络提取行人检测数据库的卷积特征:
1a)VGG卷积神经网络拥有5组卷积层,每一组内有2~3个卷积层,同时每组尾部连接一个最大池化层用来缩小卷积层尺寸,每一个卷积层使用同样尺寸的卷积核提取卷积特征;
(2)将VGG卷积神经网络不同层提取的卷积特征进行叠加融合,得到两种卷积特征融合层:
2a)将VGG卷积神经网络中第4组第3个卷积特征层Conv4_3提取的卷积特征进行反卷积处理,再将反卷积处理的结果与VGG卷积神经网络中第3组第3个卷积特征层Conv3_3提取的卷积特征进行叠加融合,得到第一种卷积特征融合层;
2b)将VGG卷积神经网络中第3组第3个卷积特征层Conv3_3、第4组第3个卷积特征层Conv4_3和第5组第3个卷积特征层Conv5_3提取的卷积特征进行叠加融合,得到第二种卷积特征融合层;
(3)根据VGG卷积神经网络中第5组第3个卷积特征层Conv5_3和2a)得到的第一种卷积特征融合层,获得最终候选区域的回归边界和分类概率:
3a)将第一种卷积特征融合层进行全卷积处理,得到第一种候选区域的回归边界和分类概率,该候选区域是指在数据中可能有行人目标的数千个区域;
3b)将VGG卷积神经网络中第5组第3个卷积特征层Conv5_3进行全卷积处理,得到第二种候选区域的回归边界和分类概率;
3c)将两种候选区域的回归边界和分类概率融合,得到最终候选区域的回归边界和分类概率;
(4)根据最终候选区域的回归边界和第二种卷积特征融合层,得到最终检测结果的回归边界和分类概率:
4a)将最终候选区域的回归边界通过RoI池化,映射到第二种卷积特征融合层中,得到每个候选区域在第二种卷积特征融合层中对应的卷积特征;
4b)将4a)得到的卷积特征进行全卷积处理,得到最终检测结果的回归边界和分类概率;
(5)根据(4)中最终的回归边界和分类概率,使用损失函数L对(1)中VGG卷积神经网络进行训练,得到最终检测结果:
5a)设损失函数L包括表示分类概率的损失子函数Lcls和表示回归边界的损失子函数Lreg,并通过下式计算分类概率的损失子函数Lcls:
5b)计算回归边界的损失子函数Lreg,并根据Lcls和Lreg的值,得到损失函数L;
5c)通过反向传播迭代更新VGG卷积神经网络中的权值10万次,使损失函数L的值逐渐减小,得到精确的最终检测结果。
本发明具有如下优点:
第一,本发明从小尺寸行人目标的特征提取出发,构建深度卷积神经网络结构,在候选区域生成阶段使用了反卷积处理,并对VGG网络的卷积特征层进行融合处理,所以能更好的利用表征图像局部信息的低层特征,得到对小尺寸目标更敏感的候选区域;
第二,本发明通过VGG网络最高卷积层,在候选区域中加入了表征图像全局信息的高层特征,保证了候选区域对非小尺寸目标的检测效果;
第三,由于本发明重新定义了损失函数,增加了不容易分类样本在损失函数中的权重,提高了对不容易分类样本的检测效果。
附图说明
图1是本发明的实现流程图;
图2是本发明的示意图;
图3是用本发明对Celtech行人检测数据库中小尺寸行人目标的检测结果图;
图4是用本发明对Celtech行人检测数据库不限尺寸大小情况下的检测结果图。
具体实施方式
以下结合附图对本发明的内容和效果进行进一步描述。
参照图1和图2,本发明的具体实施步骤如下:
步骤1,读取行人检测数据库数据,使用VGG卷积神经网络提取行人检测数据库数据的卷积特征:
VGG卷积神经网络拥有5组卷积层,每一组内有2~3个卷积层,同时每组尾部连接一个最大池化层用来缩小卷积层尺寸,每一个卷积层使用同样尺寸的卷积核提取卷积特征。
步骤2,将VGG卷积神经网络不同卷积层提取的卷积特征进行叠加融合,得到两种卷积特征融合层:
将VGG卷积神经网络中第4组第3个卷积特征层Conv4_3提取的卷积特征进行反卷积处理,再将反卷积处理的结果与VGG卷积神经网络中第3组第3个卷积特征层Conv3_3的卷积特征进行叠加融合,得到第一种卷积特征融合层;
将VGG卷积神经网络中第3组第3个卷积特征层Conv3_3、第4组第3个卷积特征层Conv4_3和第5组第3个卷积特征层Conv5_3的卷积特征进行叠加融合,得到第二种卷积特征融合层。
步骤3,根据VGG卷积神经网络中第5组第3个卷积特征层Conv5_3和第一种卷积特征融合层,获得最终候选区域的回归边界和分类概率。
将第一种卷积特征融合层进行全卷积处理,得到第一种候选区域的回归边界和分类概率,该候选区域是指在数据中可能有行人目标的数千个区域;
将VGG卷积神经网络中第5组第3个卷积特征层Conv5_3进行全卷积处理,得到第二种候选区域的回归边界和分类概率;
将两种候选区域的回归边界和分类概率融合,得到最终候选区域的回归边界和分类概率。
步骤4,根据最终候选区域的回归边界和第二种卷积特征融合层,得到最终检测结果的回归边界和分类概率。
将最终候选区域的回归边界通过RoI池化,映射到第二种卷积特征融合层中,得到每个候选区域在第二种卷积特征融合层中对应的卷积特征;
将得到的卷积特征进行全卷积处理,得到最终检测结果的回归边界和分类概率。
步骤5,根据最终检测结果的回归边界和分类概率,使用损失函数L对VGG卷积神经网络进行训练,得到最终检测结果。
5.1)设损失函数L包括表示分类概率的损失子函数Lcls和表示回归边界的损失子函数Lreg;
5.2)通过下式计算分类概率的损失子函数Lcls:
5.3)通过下式计算回归边界的损失子函数Lreg:
5.4)根据Lcls和Lreg的值,计算损失函数L:
其中,i为候选区域的索引,pi为每个候选区域是否代表一个行人的概率,为候选区域的真实分类标签,如果候选区域中是行人,则为1,否则为0;ti为候选区域的坐标,为行人所在区域的真实坐标,Ncls和Nreg为两个数值不同的归一化系数,Ncls取值为256,Nreg取值为2400,λ为平衡系数;
5.5)通过反向传播迭代更新VGG卷积神经网络中的权值10万次,使计算出的损失函数L的值逐渐减小,得到精确的最终检测结果。
下面结合仿真实验对本发明的效果做进一步的描述。
1.仿真条件:
硬件设施上,配有搭载内存为128GB的I7-5930K处理器及4块泰坦X显卡的高性能计算机。
实验使用Celtech行人检测数据库进行评估,该Celtech行人检测数据库是目前规模较大的行人数据库,采用车载摄像头拍摄,约10个小时左右,视频的分辨率为640×480,30帧/秒。标注了约250,000帧,约137分钟,350000个矩形框,2300个行人,另外还对矩形框之间的时间对应关系及其遮挡的情况进行标注。
该Celtech行人检测数据库的数据集分为set00~set10,本发明在set00~set05数据集训练,在set06~set10数据集测试本发明训练后的效果。
仿真实验是本发明和现有的三种行人检测方法在Celtech行人检测数据库上进行的对比实验,其中第一种方法是发表在ICCV2015的卷积信道特征方法CCF,第二种方法是发表在ECCV2016的区域生成网络级联增强森林方法RPN+BF,第三种方法是发表在TPAMI2017的特征联合学习方法UDN+。
2.仿真内容:
仿真实验1:用本发明和现有的三种方法对Celtech行人检测数据库中70个像素下的小尺寸行人目标进行检测,得到MR-FPPI曲线,如图3所示,其中横坐标为丢失率MR,丢失率是正样本被错误判别为负样本的数目和全部正样本数目的比率;纵坐标为每张图像中错误正样本数目FPPI,其中错误正样本指检测结果为行人,实际上不是行人的一些样本;本实验指定FPPI的范围为[10-2,100],图中数值为本发明和现有的三种方法在该FPPI范围内的平均丢失率。从图3可见,本发明对70个像素下的小尺寸行人目标的检测结果要优于其它三种方法。仿真实验1验证了本发明对小尺寸目标有良好的效果。
仿真实验2:用本发明和现有的三种方法对Celtech行人检测数据库在不限尺寸大小情况下进行检测,得到MR-FPPI曲线,如图4所示,其中横坐标为丢失率MR,丢失率是正样本被错误判别为负样本的数目和全部正样本数目的比率;纵坐标为每张图像中错误正样本数目FPPI,其中错误正样本指检测结果为行人,实际上不是行人的一些样本。本实验指定FPPI的范围为[10-2,100],图中数值为本发明和现有的三种方法在该FPPI范围内的平均丢失率。从图4可见,本发明对不限尺寸的行人目标的检测结果要优于其它三种方法。仿真实验2验证了本发明对不限尺寸的行人目标同样有良好的效果。
上述仿真结果验证了本发明的正确性、有效性和可靠性。
Claims (3)
1.一种基于深度学习的小尺寸行人目标检测方法,包括:
(1)读取行人检测数据库数据,使用VGG卷积神经网络提取行人检测数据库数据的卷积特征:
1a)VGG卷积神经网络拥有5组卷积层,每一组内有2~3个卷积层,同时每组尾部连接一个最大池化层用来缩小卷积层尺寸,每一个卷积层使用同样尺寸的卷积核提取卷积特征;
(2)将VGG卷积神经网络不同层提取的卷积特征进行叠加融合,得到两种卷积特征融合层:
2a)将VGG卷积神经网络中第4组第3个卷积特征层Conv4_3提取的卷积特征进行反卷积处理,再将反卷积处理的结果与VGG卷积神经网络中第3组第3个卷积特征层Conv3_3提取的卷积特征进行叠加融合,得到第一种卷积特征融合层;
2b)将VGG卷积神经网络中第3组第3个卷积特征层Conv3_3、第4组第3个卷积特征层Conv4_3和第5组第3个卷积特征层Conv5_3提取的卷积特征进行叠加融合,得到第二种卷积特征融合层;
(3)根据VGG卷积神经网络中第5组第3个卷积特征层Conv5_3和2a)得到的第一种卷积特征融合层,获得最终候选区域的回归边界和分类概率:
3a)将第一种卷积特征融合层进行全卷积处理,得到第一种候选区域的回归边界和分类概率,该候选区域是指在数据中可能有行人目标的数千个区域;
3b)将VGG卷积神经网络中第5组第3个卷积特征层Conv5_3进行全卷积处理,得到第二种候选区域的回归边界和分类概率;
3c)将两种候选区域的回归边界和分类概率融合,得到最终候选区域的回归边界和分类概率;
(4)根据最终候选区域的回归边界和第二种卷积特征融合层,得到最终检测结果的回归边界和分类概率:
4a)将最终候选区域的回归边界通过RoI池化,映射到第二种卷积特征融合层中,得到每个候选区域在第二种卷积特征融合层中对应的卷积特征;
4b)将4a)得到的卷积特征进行全卷积处理,得到最终检测结果的回归边界和分类概率;
(5)根据(4)中最终检测结果的回归边界和分类概率,使用损失函数L对(1)中VGG卷积神经网络进行训练,得到最终检测结果:
5a)设损失函数L包括表示分类概率的损失子函数Lcls和表示回归边界的损失子函数Lreg,并通过下式计算分类概率的损失子函数Lcls:
5b)计算回归边界的损失子函数Lreg,并根据Lcls和Lreg的值,得到损失函数L;
5c)通过反向传播迭代更新VGG卷积神经网络中的权值10万次,使损失函数L的值逐渐减小,得到精确的最终检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810577466.6A CN108960074B (zh) | 2018-06-07 | 2018-06-07 | 基于深度学习的小尺寸行人目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810577466.6A CN108960074B (zh) | 2018-06-07 | 2018-06-07 | 基于深度学习的小尺寸行人目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108960074A CN108960074A (zh) | 2018-12-07 |
CN108960074B true CN108960074B (zh) | 2020-09-04 |
Family
ID=64493847
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810577466.6A Active CN108960074B (zh) | 2018-06-07 | 2018-06-07 | 基于深度学习的小尺寸行人目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108960074B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111523351A (zh) * | 2019-02-02 | 2020-08-11 | 北京地平线机器人技术研发有限公司 | 神经网络的训练方法、装置和电子设备 |
CN110020688B (zh) * | 2019-04-10 | 2022-12-06 | 西安电子科技大学 | 基于深度学习的遮挡行人检测方法 |
CN110147753A (zh) * | 2019-05-17 | 2019-08-20 | 电子科技大学 | 一种检测图像中小物体的方法及装置 |
CN110781744A (zh) * | 2019-09-23 | 2020-02-11 | 杭州电子科技大学 | 一种基于多层次特征融合的小尺度行人检测方法 |
CN110765886B (zh) * | 2019-09-29 | 2022-05-03 | 深圳大学 | 一种基于卷积神经网络的道路目标检测方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107256221A (zh) * | 2017-04-26 | 2017-10-17 | 苏州大学 | 基于多特征融合的视频描述方法 |
CN107341517A (zh) * | 2017-07-07 | 2017-11-10 | 哈尔滨工业大学 | 一种基于深度学习层级间特征融合的多尺度小物体检测方法 |
CN107392214A (zh) * | 2017-07-26 | 2017-11-24 | 成都快眼科技有限公司 | 一种基于全卷积分裂网络的目标检测方法 |
CN107563381A (zh) * | 2017-09-12 | 2018-01-09 | 国家新闻出版广电总局广播科学研究院 | 基于全卷积网络的多特征融合的目标检测方法 |
CN107886117A (zh) * | 2017-10-30 | 2018-04-06 | 国家新闻出版广电总局广播科学研究院 | 基于多特征提取和多任务融合的目标检测算法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10068171B2 (en) * | 2015-11-12 | 2018-09-04 | Conduent Business Services, Llc | Multi-layer fusion in a convolutional neural network for image classification |
-
2018
- 2018-06-07 CN CN201810577466.6A patent/CN108960074B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107256221A (zh) * | 2017-04-26 | 2017-10-17 | 苏州大学 | 基于多特征融合的视频描述方法 |
CN107341517A (zh) * | 2017-07-07 | 2017-11-10 | 哈尔滨工业大学 | 一种基于深度学习层级间特征融合的多尺度小物体检测方法 |
CN107392214A (zh) * | 2017-07-26 | 2017-11-24 | 成都快眼科技有限公司 | 一种基于全卷积分裂网络的目标检测方法 |
CN107563381A (zh) * | 2017-09-12 | 2018-01-09 | 国家新闻出版广电总局广播科学研究院 | 基于全卷积网络的多特征融合的目标检测方法 |
CN107886117A (zh) * | 2017-10-30 | 2018-04-06 | 国家新闻出版广电总局广播科学研究院 | 基于多特征提取和多任务融合的目标检测算法 |
Non-Patent Citations (3)
Title |
---|
《Object Detection Based on Multi-Layer》;Chu J et al;《IEEE Access》;20180312;第6卷;全文 * |
《基于卷积神经网络的人脸表情识别研究》;方圆;《中国优秀硕士学位论文全文数据库 信息科技辑》;20180415(第2018年第04期);全文 * |
《夜间模式下场景特征识别与大视场三维重建的研究》;黄珍;《中国优秀硕士学位论文全文数据库 信息科技辑》;20170515(第2018年第04期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN108960074A (zh) | 2018-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108960074B (zh) | 基于深度学习的小尺寸行人目标检测方法 | |
CN107563372B (zh) | 一种基于深度学习ssd框架的车牌定位方法 | |
CN110348384B (zh) | 一种基于特征融合的小目标车辆属性识别方法 | |
CN111460919B (zh) | 一种基于改进YOLOv3的单目视觉道路目标检测及距离估计方法 | |
CN111695514B (zh) | 一种基于深度学习的雾天下车辆检测方法 | |
Kuang et al. | Feature selection based on tensor decomposition and object proposal for night-time multiclass vehicle detection | |
Wang et al. | Probabilistic inference for occluded and multiview on-road vehicle detection | |
CN104615986A (zh) | 利用多检测器对场景变化的视频图像进行行人检测的方法 | |
CN114202743A (zh) | 自动驾驶场景下基于改进faster-RCNN的小目标检测方法 | |
CN113052159A (zh) | 一种图像识别方法、装置、设备及计算机存储介质 | |
Ketcham et al. | Recognizing the Illegal Parking Patterns of Cars on the Road in Front of the Bus Stop Using the Support Vector Machine | |
CN106845458B (zh) | 一种基于核超限学习机的快速交通标识检测方法 | |
CN116844126A (zh) | 一种基于YOLOv7改进的复杂道路场景目标检测方法 | |
Fan et al. | Covered vehicle detection in autonomous driving based on faster rcnn | |
Kim | Deep learning-based vehicle type and color classification to support safe autonomous driving | |
CN110555425A (zh) | 一种视频流实时行人检测方法 | |
Smitha et al. | Optimal feed forward neural network based automatic moving vehicle detection system in traffic surveillance system | |
CN117475142A (zh) | 面向自动驾驶基于ViT的毫米波雷达点云分割方法 | |
CN114120246B (zh) | 一种基于复杂环境的前方车辆检测算法 | |
CN116563825A (zh) | 一种基于改进的Yolov5的自动驾驶目标检测算法 | |
He et al. | A Driving Warning Method based on YOLOV3 and Neural Network | |
CN114429621A (zh) | 一种基于ufsa算法改进的车道线智能检测方法 | |
CN110334608B (zh) | 一种车载图像的实时交通限速标志识别方法 | |
CN116541715B (zh) | 目标检测方法、模型的训练方法、目标检测系统及装置 | |
Yuan et al. | Vehicle detection based on area and proportion prior with faster-RCNN |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |