CN114283391A - 一种融合环视图像与激光雷达的自动泊车感知方法 - Google Patents
一种融合环视图像与激光雷达的自动泊车感知方法 Download PDFInfo
- Publication number
- CN114283391A CN114283391A CN202111362215.4A CN202111362215A CN114283391A CN 114283391 A CN114283391 A CN 114283391A CN 202111362215 A CN202111362215 A CN 202111362215A CN 114283391 A CN114283391 A CN 114283391A
- Authority
- CN
- China
- Prior art keywords
- parking space
- image
- coordinates
- laser radar
- parking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
本发明涉及一种融合环视图像与激光雷达的自动泊车感知方法,该方法包括以下步骤:步骤1:通过安装在车身上的四个鱼眼摄像头获取原始图像,并对原始图像进行畸变纠正;步骤2:通过选取四个已知地面坐标的标记点,分别对畸变纠正后的原始图像进行投影变换,得到投影到地面的四张俯瞰图;步骤3:基于标记点的空间位置一致性对四张俯瞰图进行拼接,得到环视图像;步骤4:将环视图像输入车位检测模型进行车位检测,得到停车位的像素坐标;步骤5:根据停车位的像素坐标获取停车位的全局坐标,以进行自动泊车路径规划,与现有技术相比,本发明具有简化了停车位的跟踪算法、提高了路径规划的智能性和鲁棒性以及保障自动泊车过程中的安全等优点。
Description
技术领域
本发明涉及自动泊车技术领域,尤其是涉及一种融合环视图像与激光雷达的自动泊车感知方法。
背景技术
现有的自动泊车方案的感知信息来源大多基于环视图像、环视图像与毫米波雷达融合或者环视图像与超声波传感器融合,环视图像用于检测车位,检测方法包括传统视觉的方法和深度学习方法,通过毫米波雷达、超声波传感器判断目标停车位是否有车,获取障碍物的距离,且现有的自动泊车方案多采用自身车辆的运动学信息进行定位,再用定位去跟踪停车位的坐标。
只依靠环视图像的泊车方案无法感知障碍物,超声波传感器的感知距离较短,毫米波雷达的感知角度范围具有局限性,存在感知盲区,上述传感器一般用于判断车位是否有车,对于障碍物只能做到停让;另外,只依赖车辆运动状态的定位方法会造成累积误差。因此,对于自动泊车功能,现有方法对环境的感知不够全面,一方面限制了自动泊车的智能程度,另一方面也难以保证自动泊车过程中的安全性,存在较大的隐患。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种融合环视图像与激光雷达的自动泊车感知方法。
本发明的目的可以通过以下技术方案来实现:
一种融合环视图像与激光雷达的自动泊车感知方法,该方法包括以下步骤:
步骤1:通过安装在车身上的四个鱼眼摄像头获取原始图像,并对原始图像进行畸变纠正;
步骤2:通过选取四个已知地面坐标的标记点,分别对畸变纠正后的原始图像进行投影变换,得到投影到地面的四张俯瞰图;
步骤3:基于标记点的空间位置一致性对四张俯瞰图进行拼接,得到环视图像;
步骤4:将环视图像输入车位检测模型进行车位检测,得到停车位的像素坐标;
步骤5:根据停车位的像素坐标获取停车位的全局坐标,以进行自动泊车路径规划。
所述的步骤1中,四个鱼眼摄像头分别安装于车身的前方、后方、左侧和右侧,且车身左侧的鱼眼摄像头和车身右侧的鱼眼摄像头分别安装在车顶左右两侧的正中间,以提高投影变换后的环视图像的清晰度。
所述的步骤1中,对原始图像进行畸变纠正的过程具体为:
对原始图像进行畸变纠正,即进行去畸变,采用OpenCV的鱼眼摄像头模型对四个鱼眼摄像头分别进行内参标定,得到内参矩阵A和畸变系数组K,由内参矩阵A和畸变系数组K计算出图像的畸变纠正变换,并以映射形式表示畸变纠正变换的结果,根据映射形式的畸变纠正变换的结果对每一帧输入的原始图像进行重映射,得到四个鱼眼摄像头对应的图像:
K=(k1,k2,k3,k4)
其中,A为内参矩阵,fx和fy分别为x方向的焦距参数和y方向的焦距参数,cx为x方向的光轴和像素原点的偏移,cy为y方向的光轴和像素原点的偏移,K为畸变系数组,k1、k2、k3和k4均为畸变系数。
所述的步骤2中,得到投影到地面的四张俯瞰图的过程具体为:
分别在每两个鱼眼摄像头的图像视野重叠处选择两个标记点,总共八个标记点,分别为A1、A2、B1、B2、C1、C2、D1和D2,标记点的地面坐标通过实地测量得到,标记点的像素坐标在原始图像上手动选取得到,每个鱼眼摄像头的图像通过对应的四个标记点进行投影变换。
所述的步骤3中,得到环视图像的过程具体为:
由两张相邻俯瞰图的视野重叠处的标记点确定一条直线,以直线作为相邻两张俯瞰图的拼接线,并采用掩膜的方式拼接四张俯视图像,以拼接线为边界把最终的环视图像分为四部分,分别制作四个图像的掩膜,并对掩膜的边缘进行高斯模糊处理,进而使环视图像之间的接缝处过渡自然,对四张图像的色彩进行平衡,消除环境光的影响,拼接完成后得到一张600*600像素的环视图像。
所述的步骤4中,得到停车位的像素坐标的过程具体包括以下步骤:
步骤401:采用基于YOLOv3的车位检测模型进行车位检测,得到环视图像的特征图,并将环视图像的特征图划分多个网格;
步骤402:每个网格的特征图回归出对应范围内的停车位角点;
步骤403:根据停车位角点的相对位置关系推理出有效的停车位的位置,通过计算和筛选得到有效的停车位完整的四个停车位角点的像素坐标,即一个停车位对应四个停车位角点,检测到两个停车位角点,经过计算和筛选之后,再根据先验信息推理出其余两个停车位角点。
所述的步骤5中,获取停车位的全局坐标的过程具体包括以下步骤:
步骤501:采用基于环视图像与激光雷达的快速标定法进行标定,获取停车位在激光雷达坐标系下的停车位消息slots_msg_lidar,并实时感知周围环境的障碍物信息;
步骤502:采用激光雷达在点云地图上进行车辆定位,得到自车定位的全局坐标,进而形成自车定位的车辆位姿消息odometry;
步骤503:将自车定位的车辆位姿消息odometry和停车位消息slots_msg_lidar的时间戳同步,从车辆位姿消息odometry中得到激光雷达坐标系相对于全局地图的旋转平移变换矩阵,将停车位角点在激光雷达坐标系下的雷达坐标转化为在全局地图下的全局坐标,得到停车位的全局坐标;
步骤504:对于不同帧得到的停车位的全局坐标,分别计算不同帧的两个全局坐标的距离,判断距离是否小于设定的阈值,若是,则判定两者属于同一停车位,并计算同一停车位不同帧的全局坐标的平均值,将其作为最终的检测结果;
步骤505:通过激光雷达采集的雷达点云和障碍物信息实时构建障碍物栅格地图,选取检测结果中自动泊车的目标停车位,得到路径规划终点的全局位姿,进而在栅格地图上进行实时路径规划。
所述的步骤501中,采用基于环视图像与激光雷达的快速标定法进行标定的过程具体包括以下步骤:
步骤5011:在自动泊车的过程中,假设地面为水平面,忽略地面的雷达点云的高度坐标,简化为两个平面的坐标标定:
步骤5012:采用一个3*3的单应性矩阵H描述像素坐标系到激光雷达坐标系的映射关系,映射关系的表达式为:
其中,(x1,y1)为停车位角点在像素坐标系下对应的像素坐标,(x2,y2)为停车位角点在激光雷达坐标系下对应的雷达坐标,H为单应性矩阵,H11、H12、H13、H21、H22、H23、H31、H32和H33均为单应性矩阵的元素,∝表示正比关系;
步骤5013:由于转换的是齐次坐标,通过使单应性矩阵的元素H33=1进行归一化:
步骤5014:选取标定点对,分别在雷达点云和环视图像中选取标定点对,通过在地面粘贴反光贴的方式标记标定点,在RVIZ中通过显示雷达点云的反射强度找到标记点,并获得该标记点在激光雷达坐标系下的雷达坐标,通过图像处理软件获得标记点在环视图像的像素坐标;
步骤5015:根据采集到的标定点对求解环视图像平面和激光雷达地面平面之间的映射关系,即得到单应性矩阵H,并使得重投影误差最小化;
步骤5016:标定完成后,在激光雷达的线束扫描到地面的位置放置锥形桶,将雷达点云投影到环视图像上进行验证,激光雷达点云的投影与图像对应;
步骤5017:采用得到的单应性矩阵H将停车位角点的像素坐标转化为激光雷达坐标系下的雷达坐标,得到停车位的雷达坐标,并发布为停车位消息slots_msg_lidar。
所述的步骤5015中,重投影误差最小化的计算公式为:
其中,ε表示重投影误差。
所述的步骤5017中,将停车位角点的像素坐标转化为激光雷达坐标系下的雷达坐标的计算公式为:
其中,x2为停车位角点在激光雷达坐标系下的横坐标,y2为停车位角点在激光雷达坐标系下的纵坐标。
与现有技术相比,本发明具有以下优点:
1、本发明提出的一种融合环视图像与激光雷达的自动泊车感知方法,建立了环视图像和点云感知信息融合的桥梁,填补了激光雷达传感器在自动泊车应用中的技术空白,实现更智能的自动泊车功能;
2、本发明将侧面摄像头安装在车顶,提高了环视感知的视野范围;
3、本发明简化了标定的过程,是环视图像和激光雷达的感知信息融合的基础;
4、将车位标记到全局地图进行规划的方式,简化了停车位的跟踪算法,融合了激光雷达信息,对环境的感知更加全面,提高了路径规划的智能性和鲁棒性,同时也保障了自动泊车过程中的安全。
附图说明
图1为本发明的结构框架图。
图2为本发明的鱼眼摄像头安装位置示意图。
图3为本发明的环视图像拼接示意图。
图4为环视图像激光雷达标定效果图。
图5为检测结果示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。
实施例
本发明公开了一种融合环视图像与激光雷达的自动泊车感知方法,该方法包括以下步骤:
步骤1:通过安装在车上的四个鱼眼摄像头获取原始图像,并对原始图像进行畸变纠正;
步骤2:通过选取四个已知地面坐标的标记点,分别对畸变纠正后的原始图像进行投影变换,得到投影到地面的四张俯瞰图;
步骤3:基于标记点的空间位置一致性对四张俯瞰图进行拼接,得到环视图像;
步骤4:将环视图像输入车位检测模型进行车位检测,得到停车位的像素坐标;
步骤5:根据停车位的像素坐标获取停车位的全局坐标,以进行自动泊车路径规划。
如图1所示,本发明采用四个视角为190度的鱼眼摄像头获取原始图像,四个鱼眼摄像头分别安装于车身的前方、后方、左侧和右侧,且左侧鱼眼摄像头和右侧鱼眼摄像头分别安装在车顶左右两侧正中间,环视视野范围达到12×12m2,同时提高了投影变换之后的环视图像的清晰度,鱼眼摄像头的安装位置如图2所示。
在步骤1中,对鱼眼摄像头获取的原始图像进行畸变纠正,即去畸变,采用OpenCV的鱼眼摄像头模型对四个鱼眼摄像头进行标定,得到内参矩阵A和畸变系数组K,计算原始环视图像的畸变纠正变换,并以映射形式表示畸变纠正变换的结果,基于映射形式的畸变纠正变换的结果进行重映射变换,对之后每一帧输入的图像都进行相同的重映射变换,得到四张图像,以提高图像处理的速度。
K=(k1,k2,k3,k4)
其中,A为内参矩阵,fx和fy分别为x方向的焦距参数和y方向的焦距参数,cx为x方向的光轴和像素原点的偏移,cy为y方向的光轴和像素原点的偏移,K为畸变系数组,k1、k2、k3和k4均为畸变系数。
如图3所示,在步骤2中,选取已知地面坐标的四个标记点进行俯视投影变换,每个鱼眼摄像头的图像需要四个标记点进行投影变换,因此分别在每两个摄像头的图像视野重叠处选择两个标记点,总共八个标记点,分别为A1、A2、B1、B2、C1、C2、D1和D2,标记点的地面坐标通过实地测量得到,标记点的像素坐标在图像上手动选取得到。
在步骤3中,由两张相邻俯瞰图的视野重叠处的标记点确定一条直线,以直线作为相邻两张俯瞰图的拼接线,并采用掩膜的方式拼接四张俯视图像,以拼接线为边界把最终的环视图像分为四部分,分别制作四个图像的掩膜,并对掩膜的边缘进行高斯模糊处理,进而使环视图像之间的接缝处过渡自然,对四张图像的色彩进行平衡,消除环境光的影响,拼接完成后得到一张600*600像素的环视图像。
在步骤4中,采用基于YOLOv3的车位检测模型进行车位检测,得到环视图像的特征图,将环视图像的特征图划分网格,每个网格的特征图回归出对应范围内的停车位角点,再根据停车位角点的相对位置关系,推理出有效的停车位的位置,进而计算出停车位完整的四个停车位角点的像素坐标,得到停车位的像素坐标。
车位检测的输出结果为停车位的像素坐标,进行自动泊车路径规划时,需要获取停车位在全局坐标系(即全局坐标系)下的全局坐标,并实时感知周围环境的障碍物信息,采用激光雷达(激光SLAM)在点云地图上进行车辆定位,得到自车定位的全局坐标,并形成自车定位的车辆位姿消息odometry,基于激光雷达采集的雷达点云实时构建障碍物栅格地图,结合自车定位和停车位角点的全局坐标,在栅格地图上进行实时路径规划。
计算停车位在全局地图下的全局坐标:
本发明首先标定了像素坐标系和激光雷达坐标系,即环视图像2D坐标系和激光雷达3D坐标系,得到停车位角点在激光雷达3D坐标系下的雷达坐标,对于环视图像2D坐标系和激光雷达3D坐标系的标定,由于环视图像不是由相机直接获取的,不存在相机内参等参数,无法通过求解PnP(Perspective-n-Point)的方法进行标定,若将单个鱼眼相机分别与激光雷达坐标系标定,再转换到环视图像2D坐标系,则会使标定流程变得复杂繁琐,因此,本发明采用基于环视图像与激光雷达的快速标定方法进行标定,由于车位检测只需要关注环视图像中地面的图像信息,在标定的过程中只关注激光雷达扫描到地面的雷达点云,在自动泊车的过程中,假设地面为水平面,忽略地面雷达点云的高度坐标,简化为两个平面坐标的标定,因此采用一个3*3的单应性矩阵H描述像素坐标到雷达坐标的映射关系,设(x1,y1)为停车位角点在像素坐标系下对应的像素坐标,(x2,y2)为停车位角点在激光雷达坐标系下对应的雷达坐标,则有
其中,(x1,y1)为停车位角点在像素坐标系下对应的像素坐标,(x2,y2)为停车位角点在激光雷达坐标系下对应的雷达坐标,H为单应性矩阵,H11、H12、H13、H21、H22、H23、H31、H32和H33均为单应性矩阵的元素,∝表示正比关系;
由于转换的是齐次坐标,使H33=1进行归一化:
一共有8个未知数,因此求解单应性矩阵H需要8个方程,需要至少选取4组标定点对,分别在雷达点云和环视图像中选取标定点对,通过在地面粘贴反光贴的方式标记标定点,在RVIZ通过显示雷达点云的反射强度找到标记点并获得标记点在激光雷达坐标系下的雷达坐标,通过图像处理软件获得标记点在环视图像的像素坐标,采集到的标定点对用以求解环视图像平面和激光雷达地面平面之间的透视变换关系,即得到单应性矩阵H,并使得重投影误差最小化,重投影误差最小化的计算公式为:
其中,ε表示重投影误差。
如图4所示,标定完成后,在激光雷达线束扫描到地面的位置放置锥形桶,将雷达点云投影到环视图像上进行验证,激光雷达点云的投影与图像吻合度高。
采用标定过程中得到的单应性矩阵H,将停车位角点的像素坐标转化为激光雷达坐标系下的雷达坐标,得到停车位的雷达坐标,并发布为停车位消息slots_msg_lidar:
其中,x2为停车位角点在激光雷达坐标系下的横坐标,y2为停车位角点在激光雷达坐标系下的纵坐标。
获取自车定位的车辆位姿消息odometry和停车位消息slots_msg_lidar,同步两者的时间戳,从车辆位姿消息odometry中得到激光雷达坐标系相对于全局地图的旋转平移变换矩阵,将停车位角点在激光雷达坐标系下的雷达坐标转化为在全局地图下的全局坐标,得到停车位的全局坐标。
如图5所示,对于不同帧得到的停车位的全局坐标,分别计算不同帧的两个全局坐标的距离,判断距离是否小于设定的阈值,若是,则判定两者属于同一停车位,对于同一停车位不同帧得到的全局坐标,计算不同帧的全局坐标的平均值,并将其作为最终的检测结果,选取检测结果作为自动泊车的目标停车位,得到路径规划终点的全局位姿,再进行路径规划。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的工作人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种融合环视图像与激光雷达的自动泊车感知方法,其特征在于,该方法包括以下步骤:
步骤1:通过安装在车身上的四个鱼眼摄像头获取原始图像,并对原始图像进行畸变纠正;
步骤2:通过选取四个已知地面坐标的标记点,分别对畸变纠正后的原始图像进行投影变换,得到投影到地面的四张俯瞰图;
步骤3:基于标记点的空间位置一致性对四张俯瞰图进行拼接,得到环视图像;
步骤4:将环视图像输入车位检测模型进行车位检测,得到停车位的像素坐标;
步骤5:根据停车位的像素坐标获取停车位的全局坐标,以进行自动泊车路径规划。
2.根据权利要求1所述的一种融合环视图像与激光雷达的自动泊车感知方法,其特征在于,所述的步骤1中,四个鱼眼摄像头分别安装于车身的前方、后方、左侧和右侧,且车身左侧的鱼眼摄像头和车身右侧的鱼眼摄像头分别安装在车顶左右两侧的正中间,以提高投影变换后的环视图像的清晰度。
3.根据权利要求1所述的一种融合环视图像与激光雷达的自动泊车感知方法,其特征在于,所述的步骤1中,对原始图像进行畸变纠正的过程具体为:
对原始图像进行畸变纠正,即进行去畸变,采用OpenCV的鱼眼摄像头模型对四个鱼眼摄像头分别进行内参标定,得到内参矩阵A和畸变系数组K,由内参矩阵A和畸变系数组K计算出图像的畸变纠正变换,并以映射形式表示畸变纠正变换的结果,根据映射形式的畸变纠正变换的结果对每一帧输入的原始图像进行重映射,得到四个鱼眼摄像头对应的图像:
K=(k1,k2,k3,k4)
其中,A为内参矩阵,fx和fy分别为x方向的焦距参数和y方向的焦距参数,cx为x方向的光轴和像素原点的偏移,cy为y方向的光轴和像素原点的偏移,K为畸变系数组,k1、k2、k3和k4均为畸变系数。
4.根据权利要求1所述的一种融合环视图像与激光雷达的自动泊车感知方法,其特征在于,所述的步骤2中,得到投影到地面的四张俯瞰图的过程具体为:
分别在每两个鱼眼摄像头的图像视野重叠处选择两个标记点,总共八个标记点,分别为A1、A2、B1、B2、C1、C2、D1和D2,标记点的地面坐标通过实地测量得到,标记点的像素坐标在原始图像上手动选取得到,每个鱼眼摄像头的图像通过对应的四个标记点进行投影变换。
5.根据权利要求1所述的一种融合环视图像与激光雷达的自动泊车感知方法,其特征在于,所述的步骤3中,得到环视图像的过程具体为:
由两张相邻俯瞰图的视野重叠处的标记点确定一条直线,以直线作为相邻两张俯瞰图的拼接线,并采用掩膜的方式拼接四张俯视图像,以拼接线为边界把最终的环视图像分为四部分,分别制作四个图像的掩膜,并对掩膜的边缘进行高斯模糊处理,进而使环视图像之间的接缝处过渡自然,对四张图像的色彩进行平衡,消除环境光的影响,拼接完成后得到一张600*600像素的环视图像。
6.根据权利要求1所述的一种融合环视图像与激光雷达的自动泊车感知方法,其特征在于,所述的步骤4中,得到停车位的像素坐标的过程具体包括以下步骤:
步骤401:采用基于YOLOv3的车位检测模型进行车位检测,得到环视图像的特征图,并将环视图像的特征图划分多个网格;
步骤402:每个网格的特征图回归出对应范围内的停车位角点;
步骤403:根据停车位角点的相对位置关系推理出有效的停车位的位置,通过计算和筛选得到有效的停车位完整的四个停车位角点的像素坐标,即一个停车位对应四个停车位角点,检测到两个停车位角点,经过计算和筛选之后,再根据先验信息推理出其余两个停车位角点。
7.根据权利要求1所述的一种融合环视图像与激光雷达的自动泊车感知方法,其特征在于,所述的步骤5中,获取停车位的全局坐标的过程具体包括以下步骤:
步骤501:采用基于环视图像与激光雷达的快速标定法进行标定,获取停车位在激光雷达坐标系下的停车位消息slots_msg_lidar,并实时感知周围环境的障碍物信息;
步骤502:采用激光雷达在点云地图上进行车辆定位,得到自车定位的全局坐标,进而形成自车定位的车辆位姿消息odometry;
步骤503:将自车定位的车辆位姿消息odometry和停车位消息slots_msg_lidar的时间戳同步,从车辆位姿消息odometry中得到激光雷达坐标系相对于全局地图的旋转平移变换矩阵,将停车位角点在激光雷达坐标系下的雷达坐标转化为在全局地图下的全局坐标,得到停车位的全局坐标;
步骤504:对于不同帧得到的停车位的全局坐标,分别计算不同帧的两个全局坐标的距离,判断距离是否小于设定的阈值,若是,则判定两者属于同一停车位,并计算同一停车位不同帧的全局坐标的平均值,将其作为最终的检测结果;
步骤505:通过激光雷达采集的雷达点云和障碍物信息实时构建障碍物栅格地图,选取检测结果中自动泊车的目标停车位,得到路径规划终点的全局位姿,进而在栅格地图上进行实时路径规划。
8.根据权利要求7所述的一种融合环视图像与激光雷达的自动泊车感知方法,其特征在于,所述的步骤501中,采用基于环视图像与激光雷达的快速标定法进行标定的过程具体包括以下步骤:
步骤5011:在自动泊车的过程中,假设地面为水平面,忽略地面的雷达点云的高度坐标,简化为两个平面的坐标标定:
步骤5012:采用一个3*3的单应性矩阵H描述像素坐标系到激光雷达坐标系的映射关系,映射关系的表达式为:
其中,(x1,y1)为停车位角点在像素坐标系下对应的像素坐标,(x2,y2)为停车位角点在激光雷达坐标系下对应的雷达坐标,H为单应性矩阵,H11、H12、H13、H21、H22、H23、H31、H32和H33均为单应性矩阵的元素,∝表示正比关系;
步骤5013:由于转换的是齐次坐标,通过使单应性矩阵的元素H33=1进行归一化:
步骤5014:选取标定点对,分别在雷达点云和环视图像中选取标定点对,通过在地面粘贴反光贴的方式标记标定点,在RVIZ中通过显示雷达点云的反射强度找到标记点,并获得该标记点在激光雷达坐标系下的雷达坐标,通过图像处理软件获得标记点在环视图像的像素坐标;
步骤5015:根据采集到的标定点对求解环视图像平面和激光雷达地面平面之间的映射关系,即得到单应性矩阵H,并使得重投影误差最小化;
步骤5016:标定完成后,在激光雷达的线束扫描到地面的位置放置锥形桶,将雷达点云投影到环视图像上进行验证,激光雷达点云的投影与图像对应;
步骤5017:采用得到的单应性矩阵H将停车位角点的像素坐标转化为激光雷达坐标系下的雷达坐标,得到停车位的雷达坐标,并发布为停车位消息slots_msg_lidar。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111362215.4A CN114283391A (zh) | 2021-11-17 | 2021-11-17 | 一种融合环视图像与激光雷达的自动泊车感知方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111362215.4A CN114283391A (zh) | 2021-11-17 | 2021-11-17 | 一种融合环视图像与激光雷达的自动泊车感知方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114283391A true CN114283391A (zh) | 2022-04-05 |
Family
ID=80869321
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111362215.4A Pending CN114283391A (zh) | 2021-11-17 | 2021-11-17 | 一种融合环视图像与激光雷达的自动泊车感知方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114283391A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115022604A (zh) * | 2022-04-21 | 2022-09-06 | 新华智云科技有限公司 | 一种投影书以及投影书的使用方法、系统 |
CN115329932A (zh) * | 2022-08-05 | 2022-11-11 | 中国民用航空飞行学院 | 基于数字孪生的飞机着陆姿态监视方法 |
CN115661395A (zh) * | 2022-12-27 | 2023-01-31 | 安徽蔚来智驾科技有限公司 | 车位建图方法、车辆及存储介质 |
CN115965682A (zh) * | 2022-12-16 | 2023-04-14 | 镁佳(北京)科技有限公司 | 一种车辆可通行区域确定方法、装置及计算机设备 |
CN116229426A (zh) * | 2023-05-09 | 2023-06-06 | 华东交通大学 | 基于全景环视图像的无人驾驶泊车停车位检测方法 |
CN116385528A (zh) * | 2023-03-28 | 2023-07-04 | 小米汽车科技有限公司 | 标注信息的生成方法、装置、电子设备、车辆及存储介质 |
CN118097623A (zh) * | 2024-04-22 | 2024-05-28 | 纽劢科技(上海)有限公司 | 基于深度学习的自动泊车障碍物接地线的检测方法、系统 |
-
2021
- 2021-11-17 CN CN202111362215.4A patent/CN114283391A/zh active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115022604A (zh) * | 2022-04-21 | 2022-09-06 | 新华智云科技有限公司 | 一种投影书以及投影书的使用方法、系统 |
CN115329932A (zh) * | 2022-08-05 | 2022-11-11 | 中国民用航空飞行学院 | 基于数字孪生的飞机着陆姿态监视方法 |
CN115965682A (zh) * | 2022-12-16 | 2023-04-14 | 镁佳(北京)科技有限公司 | 一种车辆可通行区域确定方法、装置及计算机设备 |
CN115965682B (zh) * | 2022-12-16 | 2023-09-01 | 镁佳(北京)科技有限公司 | 一种车辆可通行区域确定方法、装置及计算机设备 |
CN115661395A (zh) * | 2022-12-27 | 2023-01-31 | 安徽蔚来智驾科技有限公司 | 车位建图方法、车辆及存储介质 |
CN115661395B (zh) * | 2022-12-27 | 2023-04-11 | 安徽蔚来智驾科技有限公司 | 车位建图方法、车辆及存储介质 |
CN116385528A (zh) * | 2023-03-28 | 2023-07-04 | 小米汽车科技有限公司 | 标注信息的生成方法、装置、电子设备、车辆及存储介质 |
CN116385528B (zh) * | 2023-03-28 | 2024-04-30 | 小米汽车科技有限公司 | 标注信息的生成方法、装置、电子设备、车辆及存储介质 |
CN116229426A (zh) * | 2023-05-09 | 2023-06-06 | 华东交通大学 | 基于全景环视图像的无人驾驶泊车停车位检测方法 |
CN118097623A (zh) * | 2024-04-22 | 2024-05-28 | 纽劢科技(上海)有限公司 | 基于深度学习的自动泊车障碍物接地线的检测方法、系统 |
CN118097623B (zh) * | 2024-04-22 | 2024-08-13 | 纽劢科技(上海)有限公司 | 基于深度学习的自动泊车障碍物接地线的检测方法、系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114283391A (zh) | 一种融合环视图像与激光雷达的自动泊车感知方法 | |
CN110136208B (zh) | 一种机器人视觉伺服系统的联合自动标定方法及装置 | |
US9858639B2 (en) | Imaging surface modeling for camera modeling and virtual view synthesis | |
KR102516326B1 (ko) | 이미지 라인들로부터의 카메라 외부 파라미터들 추정 | |
CN103065323B (zh) | 一种基于单应性变换矩阵的分段空间对准方法 | |
JP5588812B2 (ja) | 画像処理装置及びそれを用いた撮像装置 | |
JP5157067B2 (ja) | 自動走行用マップ作成装置、及び自動走行装置。 | |
US7124046B2 (en) | Method and apparatus for calibration of camera system, and method of manufacturing camera system | |
EP3783385A1 (en) | Combined point cloud generation using a stationary laser scanner and a mobile scanner | |
CN112785655A (zh) | 一种基于车道线检测的环视相机外参自动标定方法、装置、设备及计算机存储介质 | |
Yan et al. | Joint camera intrinsic and lidar-camera extrinsic calibration | |
CN112180373A (zh) | 一种多传感器融合的智能泊车系统和方法 | |
CN105445721A (zh) | 基于带特征突起v型标定物的激光雷达与摄像机联合标定方法 | |
KR102078229B1 (ko) | 카메라 영상을 이용한 스캐닝 데이터 누락 공간 보간을 위한 장치 및 방법 | |
CN110779491A (zh) | 一种水平面上目标测距的方法、装置、设备及存储介质 | |
CN112233188A (zh) | 一种基于激光雷达的车顶全景相机及其标定方法 | |
CN114413958A (zh) | 无人物流车的单目视觉测距测速方法 | |
JP6186431B2 (ja) | キャリブレーション装置、キャリブレーションシステム、及び撮像装置 | |
JP2011254128A (ja) | 平面図生成装置及び平面図生成方法 | |
CN116630444A (zh) | 一种相机与激光雷达融合校准的优化方法 | |
CN116187158A (zh) | 一种多目视觉测量系统中多相机的自动布局方法 | |
Kim et al. | Extrinsic parameter calibration of 2D radar-camera using point matching and generative optimization | |
Toepfer et al. | A unifying omnidirectional camera model and its applications | |
CN111380503B (zh) | 一种采用激光辅助标定的单目相机测距方法 | |
CN113869422A (zh) | 多相机目标匹配方法、系统、电子设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |