CN113313041A - 基于信息融合的前方车辆识别方法及系统 - Google Patents
基于信息融合的前方车辆识别方法及系统 Download PDFInfo
- Publication number
- CN113313041A CN113313041A CN202110635324.2A CN202110635324A CN113313041A CN 113313041 A CN113313041 A CN 113313041A CN 202110635324 A CN202110635324 A CN 202110635324A CN 113313041 A CN113313041 A CN 113313041A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- image
- millimeter wave
- roi
- wave radar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Electromagnetism (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开一种基于信息融合的前方车辆识别方法,包括:毫米波雷达将检测到的前方车辆信息输入到训练好的BP神经网络,BP神经网络输出车辆在图像中的高度;将毫米波雷达检测到的车辆坐标转化为像素坐标,以该坐标作为中心,基于车辆在图像中的高度形成车辆识别区域;扩展车辆识别区域,形成毫米波雷达的初始ROI区域,在初始ROI区域中提取车顶拟合直线;以初始ROI区域作为滑动窗,控制滑动窗以设定步长向左、向右滑动,形成一系列的候选ROI区域;获取中心点距车顶拟合直线中间点最近的候选ROI区域,将该候选ROI区域的中心作为车辆识别区域的中心,将滑动窗缩小至车辆识别区域大小。将毫米波雷达信息准确的与采集图像信息匹配,提高多传感器融合的精度。
Description
技术领域
本发明属于多传感器融合技术领域,更具体地,本发明涉及一种基于信息融合的前方车辆识别方法及系统。
背景技术
近年来随着经济增长与科技进步,汽车安全受到更多人重视,智能驾驶技术能够提升行驶的安全性,获得了广泛的关注。智能驾驶系统可以分为三部分,即感知层、决策层和执行层,其中感知技术是智能汽车获取周围信息的重要手段,在现实环境中,车辆识别是最常见的感知种类之一,能够准确、实时的识别前方车辆是智能驾驶技术的关键。
目前已经量产的智能驾驶系统中,多源传感器信息融合可以实现感知的冗余性,常用的传感器为毫米波雷达和相机,毫米波雷达可以较为准确的检测到前方车辆的位置信息,相机能够获得丰富的环境信息,因此将两种传感器进行信息融合,以实现不同传感器数据互补,从而提高识别能力。
现有技术中将毫米波雷达检测车辆的位置信息投影到相机图像像素点,并根据该像素点投影变换获得车辆在图像中的区域,但是实际工作场景下,毫米波雷达的波束反射目标信号不一定处于车辆的中心位置,并且汽车在行驶过程中,受路况和工况影响,导致雷达目标偏移,除此之外,根据相机成像原理的投影变换技术并不能精确的获得侧方车辆区域,导致毫米波雷达检测的车辆信息不能准确的映射到相机画面的环境信息中。
发明内容
本发明提供一种基于信息融合的前方车辆识别方法,旨在改善上述问题。
本发明是这样实现的,一种基于信息融合的前方车辆识别方法,所述方法具体包括如下步骤:
S1、毫米波雷达将检测到的前方车辆信息输入到训练好的BP神经网络,BP神经网络输出车辆在图像中的高度;
S2、将毫米波雷达检测到的车辆坐标转化为像素坐标系中的像素坐标,以该像素坐标作为中心,基于车辆在图像中的高度及宽度形成车辆识别区域;
S3、扩展车辆识别区域,形成毫米波雷达的初始ROI区域,在初始ROI区域中提取车顶拟合直线;
S4、以初始ROI区域作为滑动窗,控制滑动窗以设定步长向左、向右滑动,形成一系列的候选ROI区域;
S5、获取中心点距车顶拟合直线中间点最近的候选ROI区域,将该候选ROI区域的中心作为车辆识别区域的中心,将滑动窗缩小至车辆识别区域大小,即实现车辆识别区域在图像中的定位。
进一步的,车顶拟合直线的提取方法具体如下:
S31、将初始ROI区域内的图像换为灰度图像;
S32、检测灰度图像中的边缘像素点,称为图像边缘;
S33、计算所述边缘图像的全局阈值,基于全局阈值将灰度图像转换为含有背景和前景的二值图像;
S34、采用概率霍夫变换对二值图像进行直线拟合,获取车辆顶部的车顶拟合直线。
进一步的,车辆识别区域中心的获取方法具体如下:
S41、确定车顶拟合直线的两端点坐标Uleft、Uright,计算车顶拟合直中间点坐标Umid;
S42、计算各候选ROI区域的中心坐标UQ;
S43、寻找sym值最小的候选ROI区域中心,该候选ROI区域的中心即为车辆识别区域的中心,其中,sym=|UQ-Umid|。
进一步的,车辆信息包括:前方车辆的距离及相对角度。
进一步的,BP神经网络的训练方法具体如下:
S11、构建训练样本及测试样本:通过毫米波雷达采集前方车辆信息,获取不同距离、不同相对角度的前方车辆在图像中的车辆高度;
S12、基于训练样本对BP神经网络进行训练,更新神经网路中的权重参数,直至所有测试样本在BP神经网络中的预测误差小于设定阈值,BP神经网络训练完成。
本发明还提供一种基于信息融合的前方车辆识别系统,所述系统包括:
毫米波雷达及相机,相机位于毫米波雷达的上方,雷达轴心轴线与相机光心轴线垂处于直于路面的竖直平面上,与毫米波雷达及相机连接的数据处理单元;
数据处理单元上集成有BP神经网络,数据处理单元基于上述基于信息融合的前方车辆识别方法将车辆识别区域定位到相机所拍摄的图像中。
附图说明
图1为本发明实施例提供的基于信息融合的前方车辆识别方法流程图,
图2为本发明实施例提供的基于滑动窗的对称性检测示意图;
图3为本发明实施例提供的基于信息融合的前方车辆识别系统的结构示意图。
具体实施方式
下面对照附图,通过对实施例的描述,对本发明的具体实施方式作进一步详细的说明,以帮助本领域的技术人员对本发明的发明构思、技术方案有更完整、准确和深入的理解。
本发明基于神经网络预测图像中的车辆区域高度,通过滑动窗口对图像车辆区域进行对称性检测,将对称性最高的区域中心作为图像中车辆区域的中心,实现车辆区域在图像中的定位。
图1为本发明实施例提供的基于信息融合的前方车辆识别方法流程图,该方法具体如下:
步骤1:对相机进行内参标定,根据毫米波雷达与相机的位置关系标定外参,将毫米波雷达与相机进行联合标定,根据下式可以得到毫米波雷达坐标系与像素坐标系间的转换关系。
其中,(Xr,Yr,Zr)为空间点在毫米波雷达坐标系中的坐标,(Xc,Yc,Zc)为空间点相机坐标系中的坐标,(u.v)为空间点像素坐标系中的坐标,R、T分别为毫米波雷达坐标系到相机坐标系的旋转矩阵、平移矩阵,根据毫米波雷达与相机的位置关系确定,(u0,v0)为光心的像素坐标,fx、fy分别为相机水平,竖直方向上归一化焦距,单位为像素,可根据相机内参标定结果确定,Zc是指相机坐标系距地面的高度。
步骤2:构建BP神经网络,采用三层BP反向神经网络,输入层包括两个神经元,对应输入毫米波雷达识别前方车辆的距离和相对角度信息,隐含层包括8个神经元,输出层包括应该神经元,对应输出图像车辆区域的尺寸信息。
前方车辆距离是指通过毫米波雷达所在车辆与前方车辆的距离,相对角度是指毫米波雷达所在车辆与前方车辆的相对角度,即毫米波雷达的检测角度。在本发明实施例中,BP神经网络预测过程具体步骤如下:
步骤22:训练样本及测试样本的采集:通过采集n个毫米波雷达识别前方车辆的距离与角度信息和当前时刻下的相机图像,毫米波雷达采集前方车辆的距离x1与相对角度x2,其中X=(x1,x2),毫米波雷达采集前方车辆信息包括近距离、中距离、远距离和不同相对角度下车辆,对应标注车辆在相机采集图像中的高度y,其中y=(y1,y2,y3,...,yn)。
其中,wih为输入层与隐含层之间的权重,偏移量为bh;whi为隐含层与输出层之间的权重,偏移量为bj,i为输入层神经元个数;h为隐含层神经元个数;j为输出层神经元个数。
如下式,利用梯度下降法使误差E达到最小值:
如下式,对权重进行更新:
判断样本误差E是否小于误差阈值err,若所有的样本误差E均小于误差阈值err,则BP神经网络训练结束;否则,继续BP神经网络训练过程,更新参数。
步骤24:BP神经网络预测:输入毫米波雷达检测到的前方车辆距离、相对于角度,通过步骤3训练好的BP神经网络,得到输出值即为前方车辆在图像中的高度,又称图像车辆区域高度。
步骤3:根据道路交通相关法规,车辆的宽度约为高度的1.3倍,因此车辆识别区域的高度与宽度比例应为1:1.3,根据比例关系确定矩形车辆识别区域的大小,将毫米波雷达检测到的前方车辆的车辆坐标转换为像素坐标系下的像素坐标,以该像素坐标作为矩形车辆识别区域的中心点,初步确定矩形车辆识别区域在相机采集图像中的位置,假定车辆在图像的高度为H,那么宽度为1.3H,而车辆识别区域则是高度为H,宽度为1.3H的矩形区域,该矩形区域的中心即为毫米波雷达检测点在像素坐标系中的像素坐标。再将车辆识别区域的高和宽分别向外同比例扩展k倍,得到毫米波雷达的初始ROI区域,k参数的设置值,必须确保初始ROI区域中包含前方车辆图像。
步骤4:对初始ROI区域内图像进行灰度处理、Sobel边缘检测、二值分割和概率霍夫直线拟合,拟合出车顶直线。车顶直线的提取方法具体包括如下步骤:
步骤41:将初始ROI区域内图像转换为灰度图像。
步骤42:对灰度图像进行Sobel算子运算,其中Sobel算子如下所示:
其中,得到梯度大小G和梯度方向θ后,根据已设定的阈值确定图像边缘处像素点。
步骤43:对边缘检测后的图像利用最大类间方差求所述边缘检测后的图像的全局阈值,并灰度图像转换为含有背景和前景的二值图像。
步骤44:采用概率霍夫变换,通过设置累加平面为20、最小直线长度为10个像素和线段最大间隔为2个像素,拟合出二值图像中车辆的顶部轮廓直线,称为车顶拟合直线,并且得到车顶拟合直线上拟合像素的坐标。
步骤5:以初始ROI区域为滑动窗,滑动窗沿水平方向分别向左和向右平移m个像素点,并且设置滑动窗的滑动步长为n个像素点,可以生成(2×m)/n+1个候选ROI区域,如图2所示;
步骤6:获取车顶拟合直线左侧端点坐标Uleft和右侧端点坐标Uright,如图2所示,计算出车顶拟合直线的中间点坐标Umid为:
最后,可以得到车顶拟合直线中间点与各候选ROI区域中心Q的距离,此距离用来衡量车辆位置在候选ROI区域内的对称度sym,如下式:
sym=|UQ-Umid|
其中,UQ为候选ROI区域中心点Q的坐标,通过上式该对称性问题及转换为求解sym的最小值symmin,其中最小值处的候选ROI区域包含车辆轮廓对称性最优,再根据BP神经网络输出的车辆识别区域高度和宽度,创建最佳矩形车辆识别区域。该位置实现了毫米波雷达识别信息与图像信息最优匹配。
图3为本发明实施例提供的基于信息融合的前方车辆识别系统的结构示意图,为了便于说明,仅示出于本发明实施例相关的部分,该系统包括:
毫米波雷达及相机,毫米波雷达安装在车辆前方保险杠处,相机位于毫米波雷达的上方;
数据处理单元,与毫米波雷达及相机连接,数据处理单元上集成有BP神经网络,数据处理单元基于上述基于信息融合的前方车辆识别方法将车辆识别区域定位到相机所拍摄的图像中。
本发明的有益效果具体如下:
通过BP神经网络较准确的预测图像中不同角度和距离的车辆高度,通过对毫米波雷达的ROI区域使用图像处理方法,能够在不同场景下较好的拟合出车顶直线,使用滑动窗口技术,得到车辆对称性最好的车辆识别区域,通过融合图像信息减少毫米波雷达的识别误差,将毫米波雷达信息准确的与采集图像信息匹配,实现了车辆在图像中的精准定位,提高多传感器融合的精度。
上面结合附图对本发明进行了示例性描述,显然本发明具体实现并不受上述方式的限制,只要采用了本发明的方法构思和技术方案进行的各种非实质性的改进,或未经改进将本发明的构思和技术方案直接应用于其它场合的,均在本发明的保护范围之内。
Claims (6)
1.一种基于信息融合的前方车辆识别方法,其特征在于,所述方法具体包括如下步骤:
S1、毫米波雷达将检测到的前方车辆信息输入到训练好的BP神经网络,BP神经网络输出车辆在图像中的高度;
S2、将毫米波雷达检测到的车辆坐标转化为像素坐标系中的像素坐标,以该像素坐标作为中心,基于车辆在图像中的高度即宽度形成车辆识别区域;
S3、扩展车辆识别区域,形成毫米波雷达的初始ROI区域,在初始ROI区域中提取车顶拟合直线;
S4、以初始ROI区域作为滑动窗,控制滑动窗以设定步长向左、向右滑动,形成一系列的候选ROI区域;
S5、获取中心点距车顶拟合直线中间点最近的候选ROI区域,将该候选ROI区域的中心作为车辆识别区域的中心,将滑动窗缩小至车辆识别区域大小,即实现车辆识别区域在图像中的定位。
2.如权利要求1所述基于信息融合的前方车辆识别方法,其特征在于,车顶拟合直线的提取方法具体如下:
S31、将初始ROI区域内的图像换为灰度图像;
S32、检测灰度图像中的边缘像素点,称为图像边缘;
S33、计算所述边缘图像的全局阈值,基于全局阈值将灰度图像转换为含有背景和前景的二值图像;
S34、采用概率霍夫变换对二值图像进行直线拟合,获取车辆顶部的车顶拟合直线。
3.如权利要求2所述基于信息融合的前方车辆识别方法,其特征在于,车辆识别区域中心的获取方法具体如下:
S41、确定车顶拟合直线的两端点坐标Uleft、Uright,计算车顶拟合直中间点坐标Umid;
S42、计算各候选ROI区域的中心坐标UQ;
S43、寻找sym值最小的候选ROI区域中心,该候选ROI区域的中心即为车辆识别区域的中心,其中,sym=|UQ-Umid|。
4.如权利要求1所述基于信息融合的前方车辆识别方法,其特征在于,车辆信息包括:前方车辆的距离及相对角度。
5.如权利要求4所述基于信息融合的前方车辆识别方法,其特征在于,BP神经网络的训练方法具体如下:
S11、构建训练样本及测试样本:通过毫米波雷达采集前方车辆信息,获取不同距离、不同相对角度的前方车辆在图像中的车辆高度;
S12、基于训练样本对BP神经网络进行训练,更新神经网路中的权重参数,直至所有测试样本在BP神经网络中的预测误差小于设定阈值,BP神经网络训练完成。
6.一种基于信息融合的前方车辆识别系统,其特征在于,所述系统包括:
毫米波雷达及相机,相机位于毫米波雷达的上方,与毫米波雷达及相机连接的数据处理单元;
数据处理单元上集成有BP神经网络,数据处理单元基于权利要求1至5任一权利要求所述基于信息融合的前方车辆识别方法将车辆识别区域定位到相机所拍摄的图像中。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110635324.2A CN113313041B (zh) | 2021-06-08 | 2021-06-08 | 基于信息融合的前方车辆识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110635324.2A CN113313041B (zh) | 2021-06-08 | 2021-06-08 | 基于信息融合的前方车辆识别方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113313041A true CN113313041A (zh) | 2021-08-27 |
CN113313041B CN113313041B (zh) | 2022-11-15 |
Family
ID=77378026
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110635324.2A Active CN113313041B (zh) | 2021-06-08 | 2021-06-08 | 基于信息融合的前方车辆识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113313041B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114624683A (zh) * | 2022-04-07 | 2022-06-14 | 苏州知至科技有限公司 | 一种激光雷达外置旋转轴的标定方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103226833A (zh) * | 2013-05-08 | 2013-07-31 | 清华大学 | 一种基于三维激光雷达的点云数据分割方法 |
CN103324936A (zh) * | 2013-05-24 | 2013-09-25 | 北京理工大学 | 一种基于多传感器融合的车辆下边界检测方法 |
CN104392212A (zh) * | 2014-11-14 | 2015-03-04 | 北京工业大学 | 一种基于视觉的道路信息检测及前方车辆识别方法 |
CN104637059A (zh) * | 2015-02-09 | 2015-05-20 | 吉林大学 | 基于毫米波雷达和机器视觉的夜间前方车辆检测方法 |
CN105223583A (zh) * | 2015-09-10 | 2016-01-06 | 清华大学 | 一种基于三维激光雷达的目标车辆航向角计算方法 |
CN105574542A (zh) * | 2015-12-15 | 2016-05-11 | 中国北方车辆研究所 | 基于多传感器融合的多视觉特征车辆检测方法 |
CN106951879A (zh) * | 2017-03-29 | 2017-07-14 | 重庆大学 | 基于摄像头与毫米波雷达的多特征融合车辆检测方法 |
CN107609522A (zh) * | 2017-09-19 | 2018-01-19 | 东华大学 | 一种基于激光雷达和机器视觉的信息融合车辆检测系统 |
CN108037505A (zh) * | 2017-12-08 | 2018-05-15 | 吉林大学 | 一种夜间前方车辆检测方法及系统 |
CN108764108A (zh) * | 2018-05-22 | 2018-11-06 | 湖北省专用汽车研究院 | 一种基于贝叶斯统计决策的前车检测方法 |
KR102069843B1 (ko) * | 2018-08-31 | 2020-01-23 | 서강대학교 산학협력단 | 차량 추적 장치 및 방법 |
CN111368706A (zh) * | 2020-03-02 | 2020-07-03 | 南京航空航天大学 | 基于毫米波雷达和机器视觉的数据融合动态车辆检测方法 |
-
2021
- 2021-06-08 CN CN202110635324.2A patent/CN113313041B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103226833A (zh) * | 2013-05-08 | 2013-07-31 | 清华大学 | 一种基于三维激光雷达的点云数据分割方法 |
CN103324936A (zh) * | 2013-05-24 | 2013-09-25 | 北京理工大学 | 一种基于多传感器融合的车辆下边界检测方法 |
CN104392212A (zh) * | 2014-11-14 | 2015-03-04 | 北京工业大学 | 一种基于视觉的道路信息检测及前方车辆识别方法 |
CN104637059A (zh) * | 2015-02-09 | 2015-05-20 | 吉林大学 | 基于毫米波雷达和机器视觉的夜间前方车辆检测方法 |
CN105223583A (zh) * | 2015-09-10 | 2016-01-06 | 清华大学 | 一种基于三维激光雷达的目标车辆航向角计算方法 |
CN105574542A (zh) * | 2015-12-15 | 2016-05-11 | 中国北方车辆研究所 | 基于多传感器融合的多视觉特征车辆检测方法 |
CN106951879A (zh) * | 2017-03-29 | 2017-07-14 | 重庆大学 | 基于摄像头与毫米波雷达的多特征融合车辆检测方法 |
CN107609522A (zh) * | 2017-09-19 | 2018-01-19 | 东华大学 | 一种基于激光雷达和机器视觉的信息融合车辆检测系统 |
CN108037505A (zh) * | 2017-12-08 | 2018-05-15 | 吉林大学 | 一种夜间前方车辆检测方法及系统 |
CN108764108A (zh) * | 2018-05-22 | 2018-11-06 | 湖北省专用汽车研究院 | 一种基于贝叶斯统计决策的前车检测方法 |
KR102069843B1 (ko) * | 2018-08-31 | 2020-01-23 | 서강대학교 산학협력단 | 차량 추적 장치 및 방법 |
CN111368706A (zh) * | 2020-03-02 | 2020-07-03 | 南京航空航天大学 | 基于毫米波雷达和机器视觉的数据融合动态车辆检测方法 |
Non-Patent Citations (3)
Title |
---|
HEONG-TAE KIM等: "《Vehicle recognition based on radar and vision sensor fusion for automatic emergency braking》", 《2013 13TH INTERNATIONAL CONFERENCE ON CONTROL, AUTOMATION AND SYSTEMS (ICCAS 2013)》 * |
张辉等: "《车路协同系统中的车辆精确定位方法研究》", 《公路交通科技》 * |
王楠: "《基于多视觉特征融合的后方车辆检测技术研究》", 《中国博士学位论文全文数据库 信息科技辑》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114624683A (zh) * | 2022-04-07 | 2022-06-14 | 苏州知至科技有限公司 | 一种激光雷达外置旋转轴的标定方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113313041B (zh) | 2022-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110175576B (zh) | 一种结合激光点云数据的行驶车辆视觉检测方法 | |
Nieto et al. | Road environment modeling using robust perspective analysis and recursive Bayesian segmentation | |
Kim et al. | Automatic car license plate extraction using modified generalized symmetry transform and image warping | |
CN111461134A (zh) | 一种基于生成对抗网络的低分辨率车牌识别方法 | |
CN109085570A (zh) | 基于数据融合的车辆检测跟踪算法 | |
CN106096525A (zh) | 一种复合型车道识别系统及方法 | |
CN112861748B (zh) | 一种自动驾驶中的红绿灯检测系统及方法 | |
Schwarzinger et al. | Vision-based car-following: detection, tracking, and identification | |
CN104636724A (zh) | 一种基于目标一致性的车载相机快速行人车辆检测方法 | |
Rasib et al. | Pixel level segmentation based drivable road region detection and steering angle estimation method for autonomous driving on unstructured roads | |
CN112862858A (zh) | 一种基于场景运动信息的多目标跟踪方法 | |
CN114495064A (zh) | 一种基于单目深度估计的车辆周围障碍物预警方法 | |
CN107796373A (zh) | 一种基于车道平面几何模型驱动的前方车辆单目视觉的测距方法 | |
CN110733039A (zh) | 基于vfh+与视觉辅助决策的机器人自动驾驶方法 | |
CN113111707B (zh) | 一种基于卷积神经网络的前车检测与测距方法 | |
Hussain et al. | Multiple objects tracking using radar for autonomous driving | |
CN117111055A (zh) | 一种基于雷视融合的车辆状态感知方法 | |
Kumar et al. | An efficient approach for highway lane detection based on the Hough transform and Kalman filter | |
CN113313041B (zh) | 基于信息融合的前方车辆识别方法及系统 | |
CN116643291A (zh) | 一种视觉与激光雷达联合剔除动态目标的slam方法 | |
CN115497073A (zh) | 一种基于车载摄像头和激光雷达融合的障碍物相机实时检测方法 | |
Clady et al. | Cars detection and tracking with a vision sensor | |
CN113888463A (zh) | 车轮转角的检测方法、装置、电子设备及存储介质 | |
CN113221739A (zh) | 基于单目视觉的车距测量方法 | |
CN113569663B (zh) | 车辆车道偏移的测量方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |