CN112464812A - 一种基于车辆的凹陷类障碍物检测方法 - Google Patents
一种基于车辆的凹陷类障碍物检测方法 Download PDFInfo
- Publication number
- CN112464812A CN112464812A CN202011355147.4A CN202011355147A CN112464812A CN 112464812 A CN112464812 A CN 112464812A CN 202011355147 A CN202011355147 A CN 202011355147A CN 112464812 A CN112464812 A CN 112464812A
- Authority
- CN
- China
- Prior art keywords
- contour
- obstacle
- vehicle
- image
- concave
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 76
- 238000000034 method Methods 0.000 claims abstract description 42
- 239000011159 matrix material Substances 0.000 claims description 20
- 238000013519 translation Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 2
- 238000004422 calculation algorithm Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 7
- 230000004888 barrier function Effects 0.000 description 6
- 230000004927 fusion Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000013178 mathematical model Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 1
- 125000004432 carbon atom Chemical group C* 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于车辆的凹陷类障碍物检测方法,通过摄像设备获取车辆检测范围内的图像,同时通过激光雷达获取车辆检测范围内的点云数据;基于YOLO检测方法提取图像中凹障碍物的第一轮廓,且提取点云数据中凹障碍物的第二轮廓;对第一轮廓和第二轮廓进行标定,得到标定后凹障碍物的投影图像;计算投影图像中第一轮廓的投影和第二轮廓的投影的交并比值,当交并比值大于等于阈值时,在投影图像上生成凹障碍物的轮廓;本发明可以通过不同数据源的数据提升检测的准确性,再将得到的两个轮廓标定到同一投影图像中,结合交并比方法生成凹障碍物的最终轮廓,可以增加识别结果的准确性。
Description
技术领域
本发明属于无人车辆障碍感知技术领域,尤其涉及一种基于车辆的凹陷类障碍物检测方法。
背景技术
无人车是车辆的一种,也称为轮式移动机器人,主要依靠车内的以计算机系统为主的智能驾驶系统来实现无人驾驶的目的。如今,无人车辆在军事、民用等各个领域已经被成功应用。
无人车在移动过程中通过传感器获取的信息完成对周围环境的感知和自身的定位,并根据任务目标采取相应的路径规划和控制决策。无人车能够安全可靠的导航并行驶离不开一个良好的障碍检测系统。
在复杂的野外环境下,障碍物的种类繁多,例如有凹坑、岩石、树干、陡坡、坑洞等,这些障碍物及其周围区域对于无人车而言均为难以安全通行的,因此被定义为不可通行区域。多数障碍物的大小尺寸不一,形状各异,既有突出路面的也有低于路面的,有些还处在很多杂草或者低矮灌木丛中间,难以分辨。在目前的研究中,多以凸形障碍物为研究基准,当遇到凹陷形状的障碍物时,难以准确的识别低于路面的障碍物,导致控制决策出错。
发明内容
本发明的目的是提供一种基于车辆的凹陷类障碍物检测方法,以准确的识别凹陷类障碍物。
本发明采用以下技术方案:一种基于车辆的凹陷类障碍物检测方法,包括以下步骤:
通过摄像设备获取车辆检测范围内的图像,同时通过激光雷达获取车辆检测范围内的点云数据;
基于YOLO检测方法提取图像中凹障碍物的第一轮廓,且提取点云数据中凹障碍物的第二轮廓;
对第一轮廓和第二轮廓进行标定,得到标定后凹障碍物的投影图像;
计算投影图像中第一轮廓的投影和第二轮廓的投影的交并比值,当交并比值大于等于阈值时,在投影图像上生成凹障碍物的轮廓。
进一步地,提取点云数据中凹障碍物的第二轮廓包括:
采用线性插值方法来填充无效点,得到去除无效点后的点云数据;
计算去除无效点后的点云数据中每一行当前点与其后向的相邻点之间的距离,当该距离大于距离阈值时,将当前点标记为轮廓点;
遍历点云数据,得到正向轮廓点集,作为第二轮廓。
进一步地,得到正向轮廓点集之后还包括:
反向遍历点云数据,得到反向轮廓点集;
将正向轮廓点集和反向轮廓点集进行与运算,将与运算后的轮廓点集作为第二轮廓。
进一步地,对第一轮廓和第二轮廓进行标定包括:
获取标定板顶点在图像坐标系中的第一3D坐标及其在激光雷达坐标系中的第二3D坐标;
根据第一3D坐标和第二3D坐标生成旋转平移矩阵,通过旋转平移矩阵完成第一轮廓和第二轮廓的标定。
进一步地,在投影图像上生成凹障碍物的轮廓包括:
根据第一轮廓和第二轮廓生成轮廓并集;
选取轮廓并集中的极值点;
根据极值点生成凹障碍物的轮廓。
进一步地,当交并比值小于阈值时:
将第二轮廓作为凹障碍物的轮廓。
进一步地,第一轮廓、第二轮廓和凹障碍物的轮廓均为矩形。
本发明的另一种技术方案:一种基于车辆的凹陷类障碍物检测装置,包括:
检测模块,用于通过摄像设备获取车辆检测范围内的图像,同时通过激光雷达获取车辆检测范围内的点云数据;
提取模块,用于基于YOLO检测方法提取图像中凹障碍物的第一轮廓,且提取点云数据中凹障碍物的第二轮廓;
标定模块,用于对第一轮廓和第二轮廓进行标定,得到标定后凹障碍物的投影图像;
计算生成模块,用于计算投影图像中第一轮廓的投影和第二轮廓的投影的交并比值,当交并比值大于等于阈值时,在投影图像上生成凹障碍物的轮廓。
本发明的另一种技术方案:一种基于车辆的凹陷类障碍物检测装置,包括存储器、处理器以及存储在存储器中并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述任一种基于车辆的凹陷类障碍物检测方法。
本发明的另一种技术方案:一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现上述任一种基于车辆的凹陷类障碍物检测方法。
本发明的有益效果是:本发明通过同时获取车辆检测范围内的图像和点云数据,并分别提取图像和点云数据中凹障碍物的轮廓,可以通过不同数据源的数据提升检测的准确性,再将得到的两个轮廓标定到同一投影图像中,结合交并比方法生成凹障碍物的最终轮廓,可以增加识别结果的准确性。
附图说明
图1为本发明实施例中矩形凹坑类凹障碍物的场景示意图;
图2为本发明实施例一种基于车辆的凹陷类障碍物检测方法的流程图;
图3为本发明实施例中激光雷达每一线上的扇形激光束落在地面上的形状示意图;
图4为本发明实施例中车身左右倾斜时激光雷达单条线束扫描得到的形状示意图;
图5为本发明实施例中线型摄像机模型示意图;
图6为本发明实施例中标定装置的示意图;
图7为本发明另一实施例中一种基于车辆的凹陷类障碍物检测装置的模块示意图;
图8为本发明另一实施例中一种基于车辆的凹陷类障碍物检测装置的示意图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
无人车在野外条件下工作时会碰到各种障碍物,障碍物对无人车的安全行驶造成了极大的威胁,并在很大程度上制约了行进的速度。因此,为了实现无人车在复杂环境中的安全行驶,本发明中提出了基于地面无人车辆的凹陷类障碍物多传感器融合检测方法,使得无人车具备准确的检测、识别与定位障碍物能力,以弥补地面无人车辆中感知领域的空白,完善现有的无人车感知系统方案,使自主无人车具备复杂野外环境的通行能力,对野外作战系统的发展有一定的影响意义。
具体的,关于凹障碍物几何特征,在本发明中凹障碍物是指低于地面的障碍物。常见的凹障碍物有土坑、水坑、地洞等。在凹障碍物的形状包括圆形、椭圆形、矩形等。在本发明实施例中,凹障碍物以矩形凹坑为例,其形状如图1所示。
本发明公开了一种基于车辆的凹陷类障碍物检测方法,如图2所示,包括以下步骤:
S110、通过摄像设备获取车辆检测范围内的图像,同时通过激光雷达获取车辆检测范围内的点云数据;S120、基于YOLO检测方法提取图像中凹障碍物的第一轮廓,且提取点云数据中凹障碍物的第二轮廓;S130、对第一轮廓和第二轮廓进行标定,得到标定后凹障碍物的投影图像;S140、计算投影图像中第一轮廓的投影和第二轮廓的投影的交并比值,当交并比值大于等于阈值时,在投影图像上生成凹障碍物的轮廓。
本发明通过同时获取车辆检测范围内的图像和点云数据,并分别提取图像和点云数据中凹障碍物的轮廓,可以通过不同数据源的数据提升检测的准确性,再将得到的两个轮廓标定到同一投影图像中,结合交并比方法生成凹障碍物的最终轮廓,可以增加识别结果的准确性。
本发明采用了相机与激光雷达结合使用的方法检测凹形障碍物。首先采集凹障碍物的样本进行训练,然后设计评价标准,在这一评价标准上,使用训练出来的权重检测凹障碍物。
当采集图像时,摄像设备可以是相机、手机、摄像机等具有拍照功能的设备。摄像设备主要基于视觉的深度学习凹障碍物检测方法。目前,基于机器视觉的凹障碍物检测算法存在检测速度较慢的问题。针对该问题,本实施例采用一种基于YOLO算法的实时检测方法。YOLO检测算法的基本模型由卷积层,池化层以及全连接层组成,具有强鲁棒性以及能够快速并准确的完成凹障碍物的检测任务。
在训练过程中,采用小批量梯度下降法和冲量,因为冲量可以使得训练的过程更加收敛。基于YOLO损失函数的倒数,运用反向传播法不断更新参数,减少损失函数直至收敛。在测试过程中,计算检测边界框和参考标准框的IOU值(IOU是Intersection overUnion的简称,是一种测量在特定数据集中检测相应物体准确度的一个标准。IOU是一个简单的测量标准,只要是在输出中得出一个预测范围(bounding boxes)的任务都可以用IOU来进行测量),以此判断结果中的真正例、假正例和反假例。当IOU≥0.5,为真正例;当IOU<0.5时,为假正例。当IOU=0,则为反假例。最后,计算查准率和查全率等。
激光雷达部分,本实施例提出基于几何特征的凹障碍物检测算法。落在地面的激光雷达点与落入凹障碍物内部的激光雷达点在几何特征上呈现明显差异,具体表现为落入凹障碍物内部的激光雷达点到激光雷达的距离将会变大。根据这一几何特性,在激光雷达点云中分离出落入凹障碍物内部的激光雷达点,然后采用欧式聚类进行分割,即可得到凹障碍物的方位和大小。
本实施例中,基于激光雷达的凹障碍物检测方法具体为:
如使用的激光雷达为32线激光雷达,激光雷达安装在无人车车顶,其每个激光扫描束都采用幅向圆周扫描。在凹障碍处,单个激光扫描束返回的点云数据呈现幅向局部凸性,多个激光扫描束的返回值呈现跳变的现象,且凹障碍宽度越宽,距离返回值跳变越明显,即凹障碍区域的几何特征越显著。
具体的,激光雷达每一线上的扇形激光束落在地面上呈现为圆形,如图3所示,仅截取了车辆前方的半圆形为例。矩形PQBC为凹障碍物,在圆O的圆周上,任意一点到圆心O的距离均为dOM,即圆的半径。但是当激光束扫描到凹障碍物的时候,落入凹障碍物内的激光点将会落入其后壁上,那么此时雷达点到圆心O的距离就变成了dON,显然有dON>dOM。
基于上述模型,遍历激光雷达每一线上的点云数据,就能在点云数据中找到所有凹障碍区域的特征点。然后对于凹障碍物区域的特征点进行欧式聚类,即可得到凹障碍物的具体方位和大小。
更为具体的步骤如下:
(1)首先创建一个m×n的矩阵M来存储点云,对点云排序以便后序处理。其中,m是激光雷达的线束数目,n是由激光雷达的水平分辨率决定的,比如一个水平分辨率0.2°的激光雷达可以把[-90°90°]分成900份,那么n即为900。
对于每一个三维点pi=(x,y,z),可由公式和得到垂直角度ω和水平角度通过比较ω和激光雷达的垂直角度关系表(一般激光雷达出厂说明书中均有),可以确定每个点属于的通道数,即可确定对应的m值。而对应的n值可以通过寻找离角最近的水平角度区间确定。这样可以填满整个M矩阵。此时的M矩阵可能存在无效点,所以,采用线性插值方法来填充无效点。
(2)然后对每一行(即m)的所有相邻点计算水平距离差,即计算点云数据中每一行当前点与其后向的相邻点之间的距离,当该距离大于距离阈值e时,将当前点标记为轮廓点。如下述公式所示:
其中,Δdisj,j+1为点云数据中某一行中第j个点和第j+1个点之间的水平距离差,当该距离大于距离阈值时,将xj和yj标记为xk和yk,表示该点为轮廓点。
(3)当对所有点正向遍历一遍后,找到满足Δdisj,j+1≥e的所有点,这些都是潜在的凹障碍点。这时,组合这些潜在的障碍点创建一个二值图像B1(即正向轮廓点集),障碍单赋值1,其他点赋值0。另外,考虑到车身在路面上可能向左/右倾斜,如图4所示,导致单条线束扫到地面不是均匀的圆形,而是一个向左/右倾斜的椭圆形,这样很可能将凹坑右/左边的点均误检成凹障碍物。所以为了减小误检概率,增强检测的鲁棒性,采用了二次遍历的方法。当正向遍历完激光雷达点云数据后,再从反方向遍历一次,得到另外一个二值图像B2(即反向轮廓点集),最后,通过将B1和B2进行与运算,得到最终的二值图像B,它是表示凹陷类障碍物概率的二进制矩阵,最后,通过经典的连通域算法对属于凹障碍物的点进行聚类,得到最终的检测结果,即第二轮廓。
在本发明实施例中,由于传感器工作平台不同或提供观测信息的采样间隔、坐标系不同造成传感器自身偏差和观测误差的存在,使得多传感器在融合前需要数据配准,即多传感器数据“无误差”转换时通常需要的时空配准过程,主要包括时间配准和空间配准两部分。
针对时空配准问题,本发明提出了一种3D点对应3D点的标定算法。时间配准主要将各传感器采集到的观测信息从不同步时刻转换到同一时刻。空间配准则主要完成各传感器同一平台不同坐标系或不同平台不同坐标系下观测数据到同一平台同一坐标系的转换。在进行完相机和激光雷达的时空配准之后,相机和激光雷达的检测结果就处于同一时间和同一空间坐标系下。
时间配准:
传感器在时间上的数据融合就是传感器数据在时间上的同步,由于不同传感器的采样频率不尽相同,传感器采集到的并不一定是同一时刻的信息。本实施例从实时性的角度出发,没有采用GPS授时的方式,取而代之采用了线程同步的方式。在程序中创建雷达数据接收线程和相机数据接收线程,当每次采集当前帧图像时获取雷达当前时刻的数据。这样就将雷达数据和相机数据进行了时间上的同步。
空间配准:
摄像机数学模型描述了三维场景经变换后投影到二维图像的过程,摄像机数学模型确定后,就能知道三维场景中的某点在二维图像中的投影点的位置。下面以线性摄像机模型为例,介绍摄像机的标定。线性摄像机模型,如图5所示,在该模型中,有一个投影中心O和一个图像平面W,世界坐标系中的任意一点p在图像平面上具有对应的投影点n,n即是p和O的延伸线与图像平面W的交点。
这种透视投影关系可表示为:
内参数表示在摄像机坐标系内物点与像点之间的投影关系,可以通过张氏标定法获得。R为摄像机外部参数的旋转矩阵,T为摄像机外部参数的平移向量,两者确定了相机安装的朝向和位置,外参数表示了相机坐标系和世界坐标系的几何变换关系。
激光雷达和相机的联合标定:
激光雷达和相机作为野外自主感知最重要的两个传感器,因其各自特点,使得传感器融合,成为一种更优的检测方案。激光雷达分辨率强、测距精度高、实时性能较好,但激光雷达受障碍物材料特性、天气因素(如雨雾天气)等影响较大。摄像机提供丰富的颜色和特征信息,可以通过最先进的算法来检测感兴趣的物体,但相机中获取的二维图像没有景深信息,不能通过图像获取障碍物的三维信息。因此,本实施例中采用雷达相机联合标定方法(即lidar_camera_calibration),将激光雷达点云投影到图像平面上。
传统的激光雷达和相机的联合标定采用相机2D点和激光雷达3D点对应来实现。相机2D点坐标通过求标定板顶点坐标获得(角点关键点提取),激光雷达3D点通过拟合标定板边界直线求得顶点3D坐标。最终求解PNP问题来获得对应的坐标转移矩阵,如下式所示:
其中,f为相机焦距fx=f/dx,1/dx为x方向1毫米内像素的个数,fy=f/dy,1/dy为y方向1毫米内像素的个数,cx和cy分别为图像中心点位置的横纵坐标值,t1为激光雷达坐标系在相机坐标系下x方向的平移,t2为激光雷达坐标系在相机坐标系下y方向的平移、t3为激光雷达坐标系在相机坐标系下z方向的平移,为激光雷达坐标系相对于相机坐标系的旋转矩阵。
采用多个对应点将问题转化为雷达坐标系到相机坐标系重投影的最优化问题,求解最终的R、T,如下式所示:
但这样的处理方式依赖于高分辨率的激光雷达,否则求取的3D点坐标有很大误差,使得最终的数据融合结果不那么精确。针对这样的情况,本实施例中提出一种3D点对应3D点的标定方法,SO(3)是3*3的组阵,是实数。
实验装置如下图6所示,在标定之前,将相机和激光雷达按照预先设定的位置固定好。如果纸板的尺寸和ArUco标记的位置是已知的,那么,标定板顶点在ArUco标记坐标系下的位置可以很容易地计算出来。ArUco标记能够提供相机坐标系和雷达坐标系之间的旋转平移矩阵。
进而,标定方法具体为:获取标定板顶点在图像坐标系中的第一3D坐标及其在激光雷达坐标系中的第二3D坐标;根据第一3D坐标和第二3D坐标生成旋转平移矩阵,通过旋转平移矩阵完成第一轮廓和第二轮廓的标定。
标定板顶点在velodyne激光雷达下的3D坐标则通过直线拟合的方式获得。由于LiDAR扫描线的水平特性,如果标记物的一侧保持与地面平行,那么可以获得垂直边缘,但不一定能获得水平边缘。为了克服这个问题,将板倾斜,使其在边缘之一和接地平面之间形成一定的角度。通过这样的设置,总能在标定板的四个边缘上获得点,从而利用RANSAC(随机采用一致性算法)法将边缘点拟合成线,并求得交点。
接着,通过ICP(迭代最近邻)方法求得对应点之间的旋转平移矩阵,并将算法应用于多帧情况下用以消除噪声点带来的影响。
假设我们已经得到两组点云对,要最小化的目标函数如下式,最终可以得到相机和激光雷达之间的旋转矩阵R和平移矩阵t。
最终将激光雷达3D点投影到图像平面上。
通过上述的方法完成了多源异构传感器时间与空间上的对齐,接下来提出了基于交并集的多传感器融合方法。该方法对各传感器采集到的数据进行融合。数据融合的第一个目的是为了把雷达坐标系、摄像机坐标系、图像像素坐标系统一起来。坐标系的统一和建立有利于环境感知传感器对环境和障碍物具体距离和方位的测量,摄像机外部参数的标定可以把雷达扫描点投影到图像上,在图像坐标系上形成动态的目标区域,有利于后续结合摄像机与雷达各自的感知特点,进行障碍物区域划分,从而增强系统的鲁棒性,有效提高检测准确率,降低识别的虚警率。
目标匹配采用判断不同传感器所检测出的障碍物边界框交并比(Intersectionover Union)的方法,即计算每个矩形框面积的交集和并集的比值,比值最大且大于一定阈值的认为是同一目标,在本实施例中,设置阈值为0.5。两边界框A、B交并比的计算式为:
当得到的IOU值大于等于阈值时,则根据第一轮廓和第二轮廓生成轮廓并集,再选取该并集的极值点,最后根据选取的极值点,生成凹障碍物的轮廓。
由于传感器检测结果存在漏检、虚警等情况,因此,如果得到的IOU值小于阈值,则说明二者的匹配存在问题,出现了错误,则以激光雷达数据为准,即将第二轮廓作为凹障碍物的轮廓进行标记。退一步讲,万一激光雷达识别错误,则采用图片的第一轮廓作为凹障碍物的轮廓进行标记。
综上,因此本发明提出了一种多传感器融和算法,采取计算交并比的方法将多种传感器得到的结果进行融合,将融合后的检测结果呈现在图像上,这样可以增强系统的鲁棒性,有效提高检测准确率,降低识别的虚警率。
本发明另一实施例还公开了一种基于车辆的凹陷类障碍物检测装置,如图7所示,包括以下模块:
检测模块210,用于通过摄像设备获取车辆检测范围内的图像,同时通过激光雷达获取车辆检测范围内的点云数据;提取模块220,用于基于YOLO检测方法提取图像中凹障碍物的第一轮廓,且提取点云数据中凹障碍物的第二轮廓;标定模块230,用于对第一轮廓和第二轮廓进行标定,得到标定后凹障碍物的投影图像;计算生成模块240,用于计算投影图像中第一轮廓的投影和第二轮廓的投影的交并比值,当交并比值大于等于阈值时,在投影图像上生成凹障碍物的轮廓。
需要说明的是,上述模块之间的信息交互、执行过程等内容,由于与本发明方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将所述装置的内部结构划分成不同的功模块,以完成以上描述的全部或者部分功能。实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能模块的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。上述系统中模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本发明的另一实施例还公开了一种基于车辆的凹陷类障碍物检测装置,如图8所示,包括存储器31、处理器32以及存储在存储器31中并可在处理器32上运行的计算机程序33,处理器32执行计算机程序33时实现上述任一种基于车辆的凹陷类障碍物检测方法。
本发明的另一种技术方案:一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现上述任一种基于车辆的凹陷类障碍物检测方法。
所述计算机可读介质至少可以包括:能够将计算机程序代码携带到拍照装置/终端设备的任何实体或装置、记录介质、计算机存储器、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
Claims (10)
1.一种基于车辆的凹陷类障碍物检测方法,其特征在于,包括以下步骤:
通过摄像设备获取车辆检测范围内的图像,同时通过激光雷达获取车辆检测范围内的点云数据;
基于YOLO检测方法提取所述图像中凹障碍物的第一轮廓,且提取所述点云数据中凹障碍物的第二轮廓;
对所述第一轮廓和第二轮廓进行标定,得到标定后凹障碍物的投影图像;
计算所述投影图像中第一轮廓的投影和第二轮廓的投影的交并比值,当所述交并比值大于等于阈值时,在投影图像上生成凹障碍物的轮廓。
2.如权利要求1所述的一种基于车辆的凹陷类障碍物检测方法,其特征在于,提取所述点云数据中凹障碍物的第二轮廓包括:
采用线性插值方法来填充无效点,得到去除无效点后的点云数据;
计算去除无效点后的点云数据中每一行当前点与其后向的相邻点之间的距离,当该距离大于距离阈值时,将所述当前点标记为轮廓点;
遍历所述点云数据,得到正向轮廓点集,作为所述第二轮廓。
3.如权利要求2所述的一种基于车辆的凹陷类障碍物检测方法,其特征在于,得到正向轮廓点集之后还包括:
反向遍历所述点云数据,得到反向轮廓点集;
将所述正向轮廓点集和所述反向轮廓点集进行与运算,将与运算后的轮廓点集作为所述第二轮廓。
4.如权利要求3所述的一种基于车辆的凹陷类障碍物检测方法,其特征在于,对所述第一轮廓和第二轮廓进行标定包括:
获取标定板顶点在图像坐标系中的第一3D坐标及其在激光雷达坐标系中的第二3D坐标;
根据第一3D坐标和第二3D坐标生成旋转平移矩阵,通过所述旋转平移矩阵完成所述第一轮廓和第二轮廓的标定。
5.如权利要求4所述的一种基于车辆的凹陷类障碍物检测方法,其特征在于,在投影图像上生成凹障碍物的轮廓包括:
根据所述第一轮廓和第二轮廓生成轮廓并集;
选取所述轮廓并集中的极值点;
根据所述极值点生成凹障碍物的轮廓。
6.如权利要求2-5任一所述的一种基于车辆的凹陷类障碍物检测方法,其特征在于,当所述交并比值小于阈值时:
将所述第二轮廓作为凹障碍物的轮廓。
7.如权利要求6所述的一种基于车辆的凹陷类障碍物检测方法,其特征在于,所述第一轮廓、第二轮廓和凹障碍物的轮廓均为矩形。
8.一种基于车辆的凹陷类障碍物检测装置,其特征在于,包括:
检测模块,用于通过摄像设备获取车辆检测范围内的图像,同时通过激光雷达获取车辆检测范围内的点云数据;
提取模块,用于基于YOLO检测方法提取所述图像中凹障碍物的第一轮廓,且提取所述点云数据中凹障碍物的第二轮廓;
标定模块,用于对所述第一轮廓和第二轮廓进行标定,得到标定后凹障碍物的投影图像;
计算生成模块,用于计算所述投影图像中第一轮廓的投影和第二轮廓的投影的交并比值,当所述交并比值大于等于阈值时,在投影图像上生成凹障碍物的轮廓。
9.一种基于车辆的凹陷类障碍物检测装置,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的一种基于车辆的凹陷类障碍物检测方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一种基于车辆的凹陷类障碍物检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011355147.4A CN112464812B (zh) | 2020-11-27 | 2020-11-27 | 一种基于车辆的凹陷类障碍物检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011355147.4A CN112464812B (zh) | 2020-11-27 | 2020-11-27 | 一种基于车辆的凹陷类障碍物检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112464812A true CN112464812A (zh) | 2021-03-09 |
CN112464812B CN112464812B (zh) | 2023-11-24 |
Family
ID=74808902
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011355147.4A Active CN112464812B (zh) | 2020-11-27 | 2020-11-27 | 一种基于车辆的凹陷类障碍物检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112464812B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113147750A (zh) * | 2021-05-21 | 2021-07-23 | 清华大学 | 一种控制车辆行驶的安全决策系统及方法 |
CN113935946A (zh) * | 2021-09-08 | 2022-01-14 | 广东工业大学 | 实时检测地下障碍物的方法及装置 |
CN114044002A (zh) * | 2021-11-30 | 2022-02-15 | 成都坦途智行科技有限公司 | 一种适用于自动驾驶的低洼路面自动识别的方法 |
CN114721404A (zh) * | 2022-06-08 | 2022-07-08 | 超节点创新科技(深圳)有限公司 | 避障方法、机器人和存储介质 |
CN115546749A (zh) * | 2022-09-14 | 2022-12-30 | 武汉理工大学 | 基于摄像机和激光雷达的路面坑洼检测及清扫和避让方法 |
CN116229097A (zh) * | 2023-01-09 | 2023-06-06 | 钧捷科技(北京)有限公司 | 基于图像传感器的图像处理方法 |
CN118244299A (zh) * | 2024-05-23 | 2024-06-25 | 江苏智能无人装备产业创新中心有限公司 | 基于行驶路径的越野环境负障碍物预测系统、方法及车辆 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103645480A (zh) * | 2013-12-04 | 2014-03-19 | 北京理工大学 | 基于激光雷达和图像数据融合的地形地貌特征构建方法 |
CN104484648A (zh) * | 2014-11-27 | 2015-04-01 | 浙江工业大学 | 基于轮廓识别的机器人可变视角障碍物检测方法 |
CN106908783A (zh) * | 2017-02-23 | 2017-06-30 | 苏州大学 | 基于多传感器信息融合的障碍物检测方法 |
US10134135B1 (en) * | 2015-08-27 | 2018-11-20 | Hrl Laboratories, Llc | System and method for finding open space efficiently in three dimensions for mobile robot exploration |
CN108983248A (zh) * | 2018-06-26 | 2018-12-11 | 长安大学 | 一种基于3d激光雷达及v2x的网联车定位方法 |
CN109283538A (zh) * | 2018-07-13 | 2019-01-29 | 上海大学 | 一种基于视觉和激光传感器数据融合的海上目标大小检测方法 |
CN109934837A (zh) * | 2018-12-26 | 2019-06-25 | 江苏名通信息科技有限公司 | 一种3d植物叶片轮廓的提取方法、装置及系统 |
CN110456363A (zh) * | 2019-06-17 | 2019-11-15 | 北京理工大学 | 三维激光雷达点云和红外图像融合的目标检测及定位方法 |
CN110648394A (zh) * | 2019-09-19 | 2020-01-03 | 南京邮电大学 | 一种基于OpenGL和深度学习的三维人体建模方法 |
US20200027266A1 (en) * | 2018-07-17 | 2020-01-23 | Uti Limited Partnership | Building contour generation from point clouds |
CN111035115A (zh) * | 2020-03-13 | 2020-04-21 | 杭州蓝芯科技有限公司 | 一种基于3d视觉鞋底涂胶路径规划方法和装置 |
CN111160302A (zh) * | 2019-12-31 | 2020-05-15 | 深圳一清创新科技有限公司 | 基于自动驾驶环境的障碍物信息识别方法和装置 |
CN111191600A (zh) * | 2019-12-30 | 2020-05-22 | 深圳元戎启行科技有限公司 | 障碍物检测方法、装置、计算机设备和存储介质 |
WO2020103533A1 (zh) * | 2018-11-20 | 2020-05-28 | 中车株洲电力机车有限公司 | 一种轨道和道路障碍物检测方法 |
CN111222579A (zh) * | 2020-01-09 | 2020-06-02 | 北京百度网讯科技有限公司 | 跨相机的障碍物关联方法、装置、设备、电子系统及介质 |
CN111611853A (zh) * | 2020-04-15 | 2020-09-01 | 宁波吉利汽车研究开发有限公司 | 一种传感信息融合方法、装置及存储介质 |
-
2020
- 2020-11-27 CN CN202011355147.4A patent/CN112464812B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103645480A (zh) * | 2013-12-04 | 2014-03-19 | 北京理工大学 | 基于激光雷达和图像数据融合的地形地貌特征构建方法 |
CN104484648A (zh) * | 2014-11-27 | 2015-04-01 | 浙江工业大学 | 基于轮廓识别的机器人可变视角障碍物检测方法 |
US10134135B1 (en) * | 2015-08-27 | 2018-11-20 | Hrl Laboratories, Llc | System and method for finding open space efficiently in three dimensions for mobile robot exploration |
CN106908783A (zh) * | 2017-02-23 | 2017-06-30 | 苏州大学 | 基于多传感器信息融合的障碍物检测方法 |
CN108983248A (zh) * | 2018-06-26 | 2018-12-11 | 长安大学 | 一种基于3d激光雷达及v2x的网联车定位方法 |
CN109283538A (zh) * | 2018-07-13 | 2019-01-29 | 上海大学 | 一种基于视觉和激光传感器数据融合的海上目标大小检测方法 |
US20200027266A1 (en) * | 2018-07-17 | 2020-01-23 | Uti Limited Partnership | Building contour generation from point clouds |
WO2020103533A1 (zh) * | 2018-11-20 | 2020-05-28 | 中车株洲电力机车有限公司 | 一种轨道和道路障碍物检测方法 |
CN109934837A (zh) * | 2018-12-26 | 2019-06-25 | 江苏名通信息科技有限公司 | 一种3d植物叶片轮廓的提取方法、装置及系统 |
CN110456363A (zh) * | 2019-06-17 | 2019-11-15 | 北京理工大学 | 三维激光雷达点云和红外图像融合的目标检测及定位方法 |
CN110648394A (zh) * | 2019-09-19 | 2020-01-03 | 南京邮电大学 | 一种基于OpenGL和深度学习的三维人体建模方法 |
CN111191600A (zh) * | 2019-12-30 | 2020-05-22 | 深圳元戎启行科技有限公司 | 障碍物检测方法、装置、计算机设备和存储介质 |
CN111160302A (zh) * | 2019-12-31 | 2020-05-15 | 深圳一清创新科技有限公司 | 基于自动驾驶环境的障碍物信息识别方法和装置 |
CN111222579A (zh) * | 2020-01-09 | 2020-06-02 | 北京百度网讯科技有限公司 | 跨相机的障碍物关联方法、装置、设备、电子系统及介质 |
CN111035115A (zh) * | 2020-03-13 | 2020-04-21 | 杭州蓝芯科技有限公司 | 一种基于3d视觉鞋底涂胶路径规划方法和装置 |
CN111611853A (zh) * | 2020-04-15 | 2020-09-01 | 宁波吉利汽车研究开发有限公司 | 一种传感信息融合方法、装置及存储介质 |
Non-Patent Citations (8)
Title |
---|
MINGLEI LI 等: "Modelling of buildings from aerial LiDAR point clouds using TINs and label maps", 《ISPRS JOURNAL OF PHOTOGRAMMETRY AND REMOTE SENSING》, vol. 154, pages 127 - 138, XP085730700, DOI: 10.1016/j.isprsjprs.2019.06.003 * |
YIBING ZHAO 等: "The intelligent obstacle sensing and recognizing method based on D–S evidence theory for UGV", 《FUTURE GENERATION COMPUTER SYSTEMS》 * |
YIBING ZHAO 等: "The intelligent obstacle sensing and recognizing method based on D–S evidence theory for UGV", 《FUTURE GENERATION COMPUTER SYSTEMS》, vol. 97, 31 August 2019 (2019-08-31), pages 21 - 29 * |
余升林: "基于传感器信息融合的车辆识别与测量研究", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》 * |
余升林: "基于传感器信息融合的车辆识别与测量研究", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》, vol. 2020, no. 7, 15 July 2020 (2020-07-15), pages 2 - 4 * |
玉荣: "基于非刚性配准的复杂零件几何修复技术研究", 《中国博士学位论文全文数据库 工程科技Ⅱ辑》, vol. 2018, no. 9, pages 029 - 7 * |
苏致远 等: "基于三维激光雷达的车辆目标检测方法", 《军事交通学院学报》 * |
苏致远 等: "基于三维激光雷达的车辆目标检测方法", 《军事交通学院学报》, vol. 19, no. 1, 31 December 2017 (2017-12-31), pages 45 - 49 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113147750A (zh) * | 2021-05-21 | 2021-07-23 | 清华大学 | 一种控制车辆行驶的安全决策系统及方法 |
CN113147750B (zh) * | 2021-05-21 | 2023-12-22 | 清华大学 | 一种控制车辆行驶的安全决策系统及方法 |
CN113935946A (zh) * | 2021-09-08 | 2022-01-14 | 广东工业大学 | 实时检测地下障碍物的方法及装置 |
CN114044002A (zh) * | 2021-11-30 | 2022-02-15 | 成都坦途智行科技有限公司 | 一种适用于自动驾驶的低洼路面自动识别的方法 |
CN114721404A (zh) * | 2022-06-08 | 2022-07-08 | 超节点创新科技(深圳)有限公司 | 避障方法、机器人和存储介质 |
CN114721404B (zh) * | 2022-06-08 | 2022-09-13 | 超节点创新科技(深圳)有限公司 | 避障方法、机器人和存储介质 |
CN115546749A (zh) * | 2022-09-14 | 2022-12-30 | 武汉理工大学 | 基于摄像机和激光雷达的路面坑洼检测及清扫和避让方法 |
CN116229097A (zh) * | 2023-01-09 | 2023-06-06 | 钧捷科技(北京)有限公司 | 基于图像传感器的图像处理方法 |
CN116229097B (zh) * | 2023-01-09 | 2024-06-07 | 钧捷科技(北京)有限公司 | 基于图像传感器的图像处理方法 |
CN118244299A (zh) * | 2024-05-23 | 2024-06-25 | 江苏智能无人装备产业创新中心有限公司 | 基于行驶路径的越野环境负障碍物预测系统、方法及车辆 |
CN118244299B (zh) * | 2024-05-23 | 2024-08-16 | 江苏智能无人装备产业创新中心有限公司 | 基于行驶路径的越野环境负障碍物预测系统、方法及车辆 |
Also Published As
Publication number | Publication date |
---|---|
CN112464812B (zh) | 2023-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112464812B (zh) | 一种基于车辆的凹陷类障碍物检测方法 | |
CN111882612B (zh) | 一种基于三维激光检测车道线的车辆多尺度定位方法 | |
CN109752701B (zh) | 一种基于激光点云的道路边沿检测方法 | |
CN109961440B (zh) | 一种基于深度图的三维激光雷达点云目标分割方法 | |
CN111046776B (zh) | 基于深度相机的移动机器人行进路径障碍物检测的方法 | |
CN112346463B (zh) | 一种基于速度采样的无人车路径规划方法 | |
CN110674705B (zh) | 基于多线激光雷达的小型障碍物检测方法及装置 | |
CN110197173B (zh) | 一种基于双目视觉的路沿检测方法 | |
CN109872329A (zh) | 一种基于三维激光雷达的地面点云快速分割方法 | |
CN115049700A (zh) | 一种目标检测方法及装置 | |
CN111123242B (zh) | 一种基于激光雷达和相机的联合标定方法及计算机可读存储介质 | |
CN104574406A (zh) | 一种360度全景激光与多个视觉系统间的联合标定方法 | |
Kellner et al. | Road curb detection based on different elevation mapping techniques | |
CN114325634A (zh) | 一种基于激光雷达的高鲁棒性野外环境下可通行区域提取方法 | |
CN116452852A (zh) | 一种高精度矢量地图的自动生成方法 | |
CN116310679A (zh) | 多传感器融合目标检测方法、系统、介质、设备及终端 | |
CN113221883B (zh) | 无人机飞行导航路线实时修正方法 | |
Nedevschi | Online cross-calibration of camera and lidar | |
CN115877347A (zh) | 一种矿区障碍检测方法、系统、电子设备及可读存储介质 | |
Muresan et al. | Real-time object detection using a sparse 4-layer LIDAR | |
CN117496467A (zh) | 基于单目相机和3d lidar融合的异形车道线检测方法 | |
Deng et al. | Joint calibration of dual lidars and camera using a circular chessboard | |
EP4078087B1 (en) | Method and mobile entity for detecting feature points in an image | |
Chenchen et al. | A camera calibration method for obstacle distance measurement based on monocular vision | |
CN110488320B (zh) | 一种利用立体视觉检测车辆距离的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |