CN111273312B - 一种智能车辆定位与回环检测方法 - Google Patents
一种智能车辆定位与回环检测方法 Download PDFInfo
- Publication number
- CN111273312B CN111273312B CN202010040419.5A CN202010040419A CN111273312B CN 111273312 B CN111273312 B CN 111273312B CN 202010040419 A CN202010040419 A CN 202010040419A CN 111273312 B CN111273312 B CN 111273312B
- Authority
- CN
- China
- Prior art keywords
- current
- point cloud
- point
- intelligent vehicle
- cell
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 25
- 238000000034 method Methods 0.000 claims abstract description 44
- 238000011426 transformation method Methods 0.000 claims abstract description 6
- 239000011159 matrix material Substances 0.000 claims description 82
- 238000006073 displacement reaction Methods 0.000 claims description 32
- 230000009466 transformation Effects 0.000 claims description 23
- 238000004364 calculation method Methods 0.000 claims description 11
- 238000000354 decomposition reaction Methods 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 6
- 238000007476 Maximum Likelihood Methods 0.000 claims description 3
- 238000002310 reflectometry Methods 0.000 claims description 3
- 230000001960 triggered effect Effects 0.000 claims description 3
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims description 2
- 230000004888 barrier function Effects 0.000 claims description 2
- 239000006185 dispersion Substances 0.000 claims description 2
- 238000009825 accumulation Methods 0.000 abstract description 4
- 238000004422 calculation algorithm Methods 0.000 abstract description 3
- 230000007812 deficiency Effects 0.000 abstract description 2
- 230000008447 perception Effects 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4817—Constructional features, e.g. arrangements of optical elements relating to scanning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明提供了一种智能车辆定位与回环检测方法,以激光雷达测量障碍物相对于本车的位置和距离,实现对周围场景的感知,利用基于联合概率密度分布的正态分布变换方法和基于空间点拟合的迭代最近点方法分步解算智能车辆当前位置和姿态,通过基于雷达点云的闭环检测方法,在智能车辆通过重复场景时使用上一次通过时的对周围环境的观测校正当前智能车辆的位姿,避免行驶过程中定位误差的积累,本方法使用激光雷达传感器数据作为定位方法的输入,该种传感器广泛存在于智能车辆上,具有良好的可实现性;分步完成智能车辆的定位任务,对两种典型算法取长补短,同时保证智能车辆的定位精度和效率,消除行进过程中累积的误差。
Description
技术领域
本发明属于智能车辆状态估计领域,涉及一种智能车辆定位与回环检测方法,更加具体来讲,涉及一种智能车辆分步位姿估计和基于激光雷达点云的回环检测方法。
背景技术
近年来智能车辆技术飞速发展,现有框架一般将智能车辆分为感知、规划、决策和控制四个模块,解决上述问题的一个关键前提是获取智能车辆的精确定位,只有确定了车身的位置和姿态信息,才能将感知到的周车及障碍物相信息统一在同一坐标系下,进而为后续模块提供输入信息。目前智能车辆定位手段主要依赖于惯导和GPS卫星定位,然而惯导在单独使用时会由于传感器自身特性产生累计误差,且高精度惯导设备成本较高,GPS卫星定位技术易受到外部信号干扰,即使是短时间内的信号丢失也会对智能车辆行车安全构成巨大威胁。
利用智能车辆上装载的激光雷达进行实时定位是一种切实可行的方案,其面临的问题是如何在定位精度和计算效率上进行取舍,同时消除导航定位误差的累积是激光雷达定位必须解决的问题。
发明内容
本发明为了解决智能车辆定位及误差积累问题,提供了一种智能车辆定位与回环检测方法。
为解决上述技术问题,本发明是采用如下技术方案实现的:
一种智能车辆定位与回环检测方法,在全球定位系统信号不能持续稳定输入车辆定位系统时,以激光雷达数据为输入,激光雷达安装于智能车顶端,通过收发激光束测量障碍物相对于本车的位置和距离,实现对周围场景的感知,利用基于联合概率密度分布的正态分布变换方法和基于空间点拟合的迭代最近点方法分步解算智能车辆当前位置和姿态,保证车身的定位精度和效率,其特征在于,本方法具体步骤如下:
步骤一、基于正态分布变换的点云粗略配准:
激光雷达在每个工作周期内采集到周围物体反射的一系列的离散点,定义这些离散点为扫描点,扫描点包含位置信息、距离信息和反射率信息,定义所有扫描点的集群为点云,且上一时刻采集的点云定义为参考点云。
使用正太分布变换方法进行点云配准的目的是求取车辆的旋转和位移,使当前时刻采集的点云以最大的概率投影到参考点云上;首先将对当前时刻采集的点云进行网格化,用等尺寸立方体分割点云片段并计算每个立方体的概率密度函数,步骤如下:
对于此类优化问题,取负对数形式:
针对上式求解问题,在车辆坐标系下使用欧拉角旋转和向量位移的方式构建位姿变换参数车辆坐标系定义为:以车辆动力学模型中车辆质心为坐标原点,沿着车辆前进的方向为x轴的正方向,x轴沿逆时针方向旋转90度的方向为y轴,垂直于x-y平面方向为z轴的坐标系;
其中,
结合式(6)构建点云位姿最小二乘估计问题,使用高斯-牛顿非线性优化方法迭代计算使损失函数达到最小值的最优解,即完成了点云的粗略配准,这一步骤拉近了两幅点云之间的距离;
步骤二、基于迭代最近点方法的点云精细配准,以提高无人驾驶汽车的定位精度:
定义两组点云的质心分别为:
改写式(10)可得:
式中R*为待求解的旋转矩阵,进一步展开有:
上式中,定义
对式(16)进行奇异值分解可得:
W=U∑′VT (17)
式中,∑′是由奇异值组成的对角矩阵,其对角元素按照从大到小的顺序排列,U和V是正交矩阵,当W为满秩时,可以解算最优旋转矩阵:
R=UVT (18)
计算出旋转后,带入式(12)后并令即可解算出两幅点云之间的位移变换并定义旋转矩阵R为旋转的估计值Restimation、位移变换为位移的估计值即旋转的估计值Restimation=R,位移的估计值旋转的估计值Restimation和位移的估计值构成的智能车辆当前位姿的估计值Poseestimation表示为:
步骤三、建立雷达点云回环检测模型:
回环检测的定义是:载体行进过程中记录场景信息,当通过重复场景时,用当前的观测对自身状态进行校正,消除累计误差;
首先,将三维扫描点用立方体分割,每一个立方体称为一个胞元,其中胞元的位置是固定的,不断地有新的扫描点进入和离开,为了避免重复计算,给出递归形式:
式中,m为立方体中扫描点的数量,j表示对所有扫描点的索引,cμ为当前时刻胞元中扫描点的均值,m为立方体中扫描点的数量,cμ′为上一时刻胞元中扫描点的均值;c∑为当前时刻胞元中扫描点的协方差矩阵,c∑′为上一时刻胞元内扫描点的协方差矩阵,对协方差矩阵进行特征值分解:
c∑v=vΛ (22)
式中,v是协方差矩阵的特征向量,Λ是一个角矩阵,其主对角线元素为协方差矩阵特征值的降序排列,记为λ1,λ2,λ3,对每一个胞元做如下判定:
(1)若0.5≤λ1/λ2/λ3≤1.5,判定此胞元是球形;
(2)若λ1>>λ2和λ3,或λ2>>λ1和λ3,或λ3>>λ1和λ2,判定此胞元是直线形;
(3)若λ1<<λ2和λ3,或λ2<<λ1和λ3,或λ3<<λ1和λ2,判定此胞元是平面形。
通过上述判定原则,可以确定各胞元所属的形状类型,并可以计算胞元中心点相对于雷达坐标系的偏航角和俯仰角,雷达坐标系定义为以激光雷达质心为坐标原点,沿着车身前进的方向为x轴的正方向,x轴沿逆时针方向旋转90度的方向为y轴,垂直于x-y平面方向为z轴的坐标系;
设胞元中心点在雷达坐标系下的坐标为(X,Y,Z),则:
式中,θ是胞元中心点相对于激光雷达的俯仰角,ψ是胞元中心点相对于激光雷达的偏航角;使用三个45×45矩阵构建三个二维的直方图矩阵,分别为球形胞元直方图矩阵、直线形胞元直方图矩阵和平面形胞元直方图矩阵,每个直方图矩阵中的每一个元素表示对应该类型胞元在0°~180°区间内以4°划分的子区间内的数量。
具体来说,某一类型直方图矩阵可表示该类型胞元中心点相对于激光雷达的俯仰角和偏航角在如下区间时的数量:
上式中,A与B均为正整数且0≤A≤44,0≤B≤44,通过式(25)可以得到三种不同形状胞元关于俯仰角、偏航角的直方图矩阵。
设两幅点云的直方图矩阵分别为H1和H2,通过归一化互相关方法计算它们之间的相似度:
对于球形胞元,若S(H1,H2)≥0.4,则判定检测到了回环,即智能车辆当前经过重复场景;
对于线形胞元,若S(H1,H2)≥0.65,则判定检测到了回环,即智能车辆当前经过重复场景;
对于平面形胞元,若S(H1,H2)≥0.9,则判定检测到了回环,即智能车辆当前经过重复场景;
定义智能车辆上一次经过当前场景时获得的点云为Cprevious,当前时刻获得的点云为Ccurrent,具体为:
式中,N为两组点云中匹配点对的数量,将上式带入式(12)可得:
式中,w∈N代表匹配点对的索引,代表智能车辆上一次经过当前场景时获得的点云Cprevious中的扫描点,代表当前时刻获得的点云Ccurrent中的扫描点,为智能车辆上一次经过当前场景时获得的点云Cprevious的质心,为当前时刻获得的点云Ccurrent的质心,可由式(11)计算,Rcorrection代表智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的旋转,代表智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的位移;
利用式(18)可以计算出智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的旋转,令可进一步计算智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的位移,定义智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的旋转和位移为校正位姿,记作
在触发回环检测后,智能车辆的当前位姿为:
式中,Posecurrent表示智能车辆当前时刻的位姿,Poseestimation是通过步骤一、二计算得到的智能车辆当前位姿的估计值,由式(19)得到,Posecorrection为校正位姿,定义为广义加法,可对旋转和位移进行统一叠加;
利用上述过程,可使用智能车辆上一次通过当前场景时的观测信息校正智能车辆当前的位置及姿态信息,消除行驶过程中累积的定位误差。
与现有技术相比本发明的有益效果是:
1.本发明使用激光雷达传感器数据作为定位方法的输入,该种传感器广泛存在于智能车辆上,具有良好的可实现性;
2.本发明分步完成智能车辆的定位任务,对两种典型算法取长补短,同时保证智能车辆的定位精度和效率;
3.本发明提出一种基于激光雷达的回环检测方法,可以在智能车辆经过重复场景时校正当前位置和姿态,消除行进过程中累积的误差。
附图说明
下面结合附图对本发明作进一步的说明:
图1为本发明所述的一种智能车辆定位与回环检测方法的流程简图;
图2为本发明所述的智能车辆迭代最近点方法中扫描点匹配的示意图;
图3为本发明所述的激光雷达点云回环检测方法示意图。
图中:
具体实施方式
下面结合附图对本发明作详细的描述:
本发明提出一种智能车辆定位与回环检测方法,如图1所示,具体实施步骤如下:
步骤一、基于正态分布变换的点云粗略配准:
激光雷达在每个工作周期内采集到周围物体反射的一系列的离散点,定义这些离散点为扫描点,扫描点包含位置信息、距离信息和反射率信息,定义所有扫描点的集群为点云,且上一时刻采集的点云定义为参考点云。
使用正太分布变换方法进行点云配准的目的是求取车辆的旋转和位移,使当前时刻采集的点云以最大的概率投影到参考点云上;首先将对当前时刻采集的点云进行网格化,用等尺寸立方体分割点云片段并计算每个立方体的概率密度函数,步骤如下:
对于此类优化问题,取负对数形式:
针对上式求解问题,在车辆坐标系下使用欧拉角旋转和向量位移的方式构建位姿变换参数车辆坐标系定义为:以车辆动力学模型中车辆质心为坐标原点,沿着车辆前进的方向为x轴的正方向,x轴沿逆时针方向旋转90度的方向为y轴,垂直于x-y平面方向为z轴的坐标系;
其中,
结合式(6)构建点云位姿最小二乘估计问题,使用高斯-牛顿非线性优化方法迭代计算使损失函数达到最小值的最优解,即完成了点云的粗略配准,这一步骤拉近了两幅点云之间的距离;
步骤二、基于迭代最近点方法的点云精细配准,以提高无人驾驶汽车的定位精度:
由骤一可以得到一组距离被拉近的扫描点云,如图2所示,图2中两条曲线分别代表两组点云的形状,每条曲线上的空心圆代表该组点云中的扫描点,连接两个曲线上的空心圆点的直线代表两幅点云中扫描点的匹配关系。
定义两组点云的质心分别为:
改写式(9)可得:
式中R*为待求解的旋转矩阵,进一步展开有:
上式中,定义
对式(15)进行奇异值分解可得:
W=U∑′VT (47)
式中,∑′是由奇异值组成的对角矩阵,其对角元素按照从大到小的顺序排列,U和V是正交矩阵,当W为满秩时,可以解算最优旋转矩阵:
R=UVT (48)
步骤三、建立雷达点云回环检测模型:
回环检测的定义是:载体行进过程中记录场景信息,当通过重复场景时,用当前的观测对自身状态进行校正,消除累计误差;
首先,将三维扫描点用立方体分割,每一个立方体称为一个胞元,其中胞元的位置是固定的,不断地有新的扫描点进入和离开,为了避免重复计算,给出递归形式:
式中,m为立方体中扫描点的数量,j表示对所有扫描点的索引,cμ为当前时刻胞元中扫描点的均值,m为立方体中扫描点的数量,cμ′为上一时刻胞元中扫描点的均值;c∑为当前时刻胞元中扫描点的协方差矩阵,c∑′为上一时刻胞元内扫描点的协方差矩阵,对协方差矩阵进行特征值分解:
c∑v=vΛ (51)
式中,v是协方差矩阵的特征向量,Λ是一个角矩阵,其主对角线元素为协方差矩阵特征值的降序排列,记为λ1,λ2,λ3,对每一个胞元做如下判定:
(1)若0.5≤λ1/λ2/λ3≤1.5,判定此胞元是球形;
(2)若λ1>>λ2和λ3,或λ2>>λ1和λ3,或λ3>>λ1和λ2,判定此胞元是直线形;
(3)若λ1<<λ2和λ3,或λ2<<λ1和λ3,或λ3<<λ1和λ2,判定此胞元是平面形。
通过上述判定原则,可以确定各胞元所属的形状类型,并可以计算胞元中心点相对于雷达坐标系的偏航角和俯仰角,雷达坐标系定义为以激光雷达质心为坐标原点,沿着车身前进的方向为x轴的正方向,x轴沿逆时针方向旋转90度的方向为y轴,垂直于x-y平面方向为z轴的坐标系;
设胞元中心点在雷达坐标系下的坐标为(X,Y,Z),则:
式中,θ是胞元中心点相对于激光雷达的俯仰角,ψ是胞元中心点相对于激光雷达的偏航角;使用三个45×45矩阵构建三个二维的直方图矩阵,分别为球形胞元直方图矩阵、直线形胞元直方图矩阵和平面形胞元直方图矩阵,每个直方图矩阵中的每一个元素表示对应该类型胞元在0°~180°区间内以4°划分的子区间内的数量。
具体来说,某一类型直方图矩阵可表示该类型胞元中心点相对于激光雷达的俯仰角和偏航角在如下区间时的数量:
上式中,A与B均为正整数且0≤A≤44,0≤B≤44,通过式(25)可以得到三种不同形状胞元关于俯仰角、偏航角的直方图矩阵。
设两幅点云的直方图矩阵分别为H1和H2,通过归一化互相关方法计算它们之间的相似度:
对于球形胞元,若S(H1,H2)≥0.4,则判定检测到了回环,即智能车辆当前经过重复场景;
对于线形胞元,若S(H1,H2)≥0.65,则判定检测到了回环,即智能车辆当前经过重复场景;
对于平面形胞元,若S(H1,H2)≥0.9,则判定检测到了回环,即智能车辆当前经过重复场景;
定义智能车辆上一次经过当前场景时获得的点云为Cprevious,当前时刻获得的点云为Ccurrent,具体为:
式中,N为两组点云中匹配点对的数量,将上式带入式(12)可得:
式中,w∈N代表匹配点对的索引,代表智能车辆上一次经过当前场景时获得的点云Cprevious中的扫描点,代表当前时刻获得的点云Ccurrent中的扫描点,为智能车辆上一次经过当前场景时获得的点云Cprevious的质心,为当前时刻获得的点云Ccurrent的质心,可由式(11)计算,Rcorrection代表智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的旋转,代表智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的位移;
利用式(18)可以计算出智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的旋转,令可进一步计算智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的位移,定义智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的旋转和位移为校正位姿,记作
在触发回环检测后,智能车辆的当前位姿为:
式中,Posecurrent表示智能车辆当前时刻的位姿,Poseestimation是通过步骤一、二计算得到的智能车辆当前位姿的估计值,由式(19)得到,Posecorrection为校正位姿,定义为广义加法,可对旋转和位移进行统一叠加;
利用上述过程,可使用智能车辆上一次通过当前场景时的观测信息校正智能车辆当前的位置及姿态信息,消除行驶过程中累积的定位误差,如图3所示。
图3中,圆圈为智能车辆在上一次经过当前场景时构建的地图,称为先验地图,三角形为先验地图中的扫描点,称为先验点云特征,正方形为智能车辆当前得到的扫描点,称为当前点云特征,实线表示智能车辆的行驶轨迹,虚线表示回环检测算法通过比对当前直方图矩阵和先验直方图矩阵识别到智能车辆正在通过重复场景,进而触发回环检测。回环检测执行完毕后,当前智能车辆的位姿得到校正,避免了行驶过程中定位误差的积累。
Claims (1)
1.一种智能车辆定位与回环检测方法,在全球定位系统信号不能持续稳定输入车辆定位系统时,以激光雷达数据为输入,激光雷达安装于智能车顶端,通过收发激光束测量障碍物相对于本车的位置和距离,实现对周围场景的感知,利用基于联合概率密度分布的正态分布变换方法和基于空间点拟合的迭代最近点方法分步解算智能车辆当前位置和姿态,保证车身的定位精度和效率,其特征在于,本方法具体步骤如下:
步骤一、基于正态分布变换的点云粗略配准:
激光雷达在每个工作周期内采集到周围物体反射的一系列的离散点,定义这些离散点为扫描点,扫描点包含位置信息、距离信息和反射率信息,定义所有扫描点的集群为点云,且上一时刻采集的点云定义为参考点云;
使用正太分布变换方法进行点云配准的目的是求取车辆的旋转和位移,使当前时刻采集的点云以最大的概率投影到参考点云上;首先将对当前时刻采集的点云进行网格化,用等尺寸立方体分割点云片段并计算每个立方体的概率密度函数,步骤如下:
对于此类优化问题,取负对数形式:
针对上式求解问题,在车辆坐标系下使用欧拉角旋转和向量位移的方式构建位姿变换参数车辆坐标系定义为:以车辆动力学模型中车辆质心为坐标原点,沿着车辆前进的方向为x轴的正方向,x轴沿逆时针方向旋转90度的方向为y轴,垂直于x-y平面方向为z轴的坐标系;
其中,
结合式(6)构建点云位姿最小二乘估计问题,使用高斯-牛顿非线性优化方法迭代计算使损失函数达到最小值的最优解,即完成了点云的粗略配准,这一步骤拉近了两幅点云之间的距离;
步骤二、基于迭代最近点方法的点云精细配准,以提高无人驾驶汽车的定位精度:
定义两组点云的质心分别为:
改写式(10)可得:
式中R*为待求解的旋转矩阵,进一步展开有:
上式中,定义
对式(16)进行奇异值分解可得:
W=U∑′VT (17)
式中,∑′是由奇异值组成的对角矩阵,其对角元素按照从大到小的顺序排列,U和V是正交矩阵,当W为满秩时,可以解算最优旋转矩阵:
R=UVT (18)
计算出旋转后,带入式(12)后并令即可解算出两幅点云之间的位移变换并定义旋转矩阵R为旋转的估计值Restimation、位移变换为位移的估计值即旋转的估计值Restimation=R,位移的估计值旋转的估计值Restimation和位移的估计值构成的智能车辆当前位姿的估计值Poseestimation表示为:
步骤三、建立雷达点云回环检测模型:
回环检测的定义是:载体行进过程中记录场景信息,当通过重复场景时,用当前的观测对自身状态进行校正,消除累计误差;
首先,将三维扫描点用立方体分割,每一个立方体称为一个胞元,其中胞元的位置是固定的,不断地有新的扫描点进入和离开,为了避免重复计算,给出递归形式:
式中,m为立方体中扫描点的数量,j表示对所有扫描点的索引,cμ为当前时刻胞元中扫描点的均值,m为立方体中扫描点的数量,cμ′为上一时刻胞元中扫描点的均值;c∑为当前时刻胞元中扫描点的协方差矩阵,c∑′为上一时刻胞元内扫描点的协方差矩阵,对协方差矩阵进行特征值分解:
c∑v=vΛ (22)
式中,v是协方差矩阵的特征向量,Λ是一个角矩阵,其主对角线元素为协方差矩阵特征值的降序排列,记为λ1,λ2,λ3,对每一个胞元做如下判定:
(1)若0.5≤λ1/λ2/λ3≤1.5,判定此胞元是球形;
(2)若λ1>>λ2和λ3,或λ2>>λ1和λ3,或λ3>>λ1和λ2,判定此胞元是直线形;
(3)若λ1<<λ2和λ3,或λ2<<λ1和λ3,或λ3<<λ1和λ2,判定此胞元是平面形;
通过上述判定原则,可以确定各胞元所属的形状类型,并可以计算胞元中心点相对于雷达坐标系的偏航角和俯仰角,雷达坐标系定义为以激光雷达质心为坐标原点,沿着车身前进的方向为x轴的正方向,x轴沿逆时针方向旋转90度的方向为y轴,垂直于x-y平面方向为z轴的坐标系;
设胞元中心点在雷达坐标系下的坐标为(X,Y,Z),则:
式中,θ是胞元中心点相对于激光雷达的俯仰角,ψ是胞元中心点相对于激光雷达的偏航角;使用三个45×45矩阵构建三个二维的直方图矩阵,分别为球形胞元直方图矩阵、直线形胞元直方图矩阵和平面形胞元直方图矩阵,每个直方图矩阵中的每一个元素表示对应该类型胞元在0°~180°区间内以4°划分的子区间内的数量;
具体来说,某一类型直方图矩阵可表示该类型胞元中心点相对于激光雷达的俯仰角和偏航角在如下区间时的数量:
上式中,A与B均为正整数且0≤A≤44,0≤B≤44,通过式(25)可以得到三种不同形状胞元关于俯仰角、偏航角的直方图矩阵;
设两幅点云的直方图矩阵分别为H1和H2,通过归一化互相关方法计算它们之间的相似度:
对于球形胞元,若S(H1,H2)≥0.4,则判定检测到了回环,即智能车辆当前经过重复场景;
对于线形胞元,若S(H1,H2)≥0.65,则判定检测到了回环,即智能车辆当前经过重复场景;
对于平面形胞元,若S(H1,H2)≥0.9,则判定检测到了回环,即智能车辆当前经过重复场景;
定义智能车辆上一次经过当前场景时获得的点云为Cprevious,当前时刻获得的点云为Ccurrent,具体为:
式中,N为两组点云中匹配点对的数量,将上式带入式(12)可得:
式中,w∈N代表匹配点对的索引,代表智能车辆上一次经过当前场景时获得的点云Cprevious中的扫描点,代表当前时刻获得的点云Ccurrent中的扫描点,为智能车辆上一次经过当前场景时获得的点云Cprevious的质心,为当前时刻获得的点云Ccurrent的质心,可由式(11)计算,Rcorrection代表智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的旋转,代表智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的位移;
利用式(18)可以计算出智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的旋转,令可进一步计算智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的位移,定义智能车辆上一次经过当前场景时获得的点云Cprevious和当前时刻获得的点云Ccurrent之间的旋转和位移为校正位姿,记作
在触发回环检测后,智能车辆的当前位姿为:
式中,Posecurrent表示智能车辆当前时刻的位姿,Poseestimation是通过步骤一、二计算得到的智能车辆当前位姿的估计值,由式(19)得到,Posecorrection为校正位姿,定义为广义加法,可对旋转和位移进行统一叠加;
利用上述过程,可使用智能车辆上一次通过当前场景时的观测信息校正智能车辆当前的位置及姿态信息,消除行驶过程中累积的定位误差。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010040419.5A CN111273312B (zh) | 2020-01-15 | 2020-01-15 | 一种智能车辆定位与回环检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010040419.5A CN111273312B (zh) | 2020-01-15 | 2020-01-15 | 一种智能车辆定位与回环检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111273312A CN111273312A (zh) | 2020-06-12 |
CN111273312B true CN111273312B (zh) | 2023-04-07 |
Family
ID=70998961
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010040419.5A Active CN111273312B (zh) | 2020-01-15 | 2020-01-15 | 一种智能车辆定位与回环检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111273312B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113671527B (zh) * | 2021-07-23 | 2024-08-06 | 国电南瑞科技股份有限公司 | 一种提高配网带电作业机器人的精准作业方法及装置 |
CN113484875B (zh) * | 2021-07-30 | 2022-05-24 | 燕山大学 | 一种基于混合高斯排序的激光雷达点云目标分级识别方法 |
CN114001654B (zh) * | 2021-11-01 | 2024-03-26 | 北京卫星制造厂有限公司 | 工件端面位姿评价方法 |
CN114526745B (zh) * | 2022-02-18 | 2024-04-12 | 太原市威格传世汽车科技有限责任公司 | 一种紧耦合激光雷达和惯性里程计的建图方法及系统 |
CN114386293B (zh) * | 2022-03-22 | 2022-07-08 | 之江实验室 | 一种虚实合成的激光雷达点云生成方法和装置 |
CN117635896B (zh) * | 2024-01-24 | 2024-04-05 | 吉林大学 | 基于汽车车身点云运动预测的点云拼接方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103337066A (zh) * | 2013-05-27 | 2013-10-02 | 清华大学 | 3d获取系统的校准方法 |
CN109596078A (zh) * | 2019-01-28 | 2019-04-09 | 吉林大学 | 多信息融合路面谱实时测试系统和测试方法 |
CN109945856A (zh) * | 2019-02-18 | 2019-06-28 | 天津大学 | 基于惯性/雷达的无人机自主定位与建图方法 |
CN110221603A (zh) * | 2019-05-13 | 2019-09-10 | 浙江大学 | 一种基于激光雷达多帧点云融合的远距离障碍物检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7187809B2 (en) * | 2004-06-10 | 2007-03-06 | Sarnoff Corporation | Method and apparatus for aligning video to three-dimensional point clouds |
-
2020
- 2020-01-15 CN CN202010040419.5A patent/CN111273312B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103337066A (zh) * | 2013-05-27 | 2013-10-02 | 清华大学 | 3d获取系统的校准方法 |
CN109596078A (zh) * | 2019-01-28 | 2019-04-09 | 吉林大学 | 多信息融合路面谱实时测试系统和测试方法 |
CN109945856A (zh) * | 2019-02-18 | 2019-06-28 | 天津大学 | 基于惯性/雷达的无人机自主定位与建图方法 |
CN110221603A (zh) * | 2019-05-13 | 2019-09-10 | 浙江大学 | 一种基于激光雷达多帧点云融合的远距离障碍物检测方法 |
Non-Patent Citations (2)
Title |
---|
张名芳 ; 付锐 ; 石涌泉 ; 程文冬 ; .基于激光雷达的远距离运动车辆位姿估计.公路交通科技.2017,(第12期),全文. * |
王肖 ; 李克强 ; 王建强 ; 徐友春 ; .基于三维激光雷达的智能车辆目标参数辨识.汽车工程.2016,(第09期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN111273312A (zh) | 2020-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111273312B (zh) | 一种智能车辆定位与回环检测方法 | |
Palomer et al. | Inspection of an underwater structure using point‐cloud SLAM with an AUV and a laser scanner | |
CN112396664B (zh) | 一种单目摄像机与三维激光雷达联合标定及在线优化方法 | |
Hebel et al. | Simultaneous calibration of ALS systems and alignment of multiview LiDAR scans of urban areas | |
CN110703268B (zh) | 一种自主定位导航的航线规划方法和装置 | |
CN110930495A (zh) | 基于多无人机协作的icp点云地图融合方法、系统、装置及存储介质 | |
CN105573318B (zh) | 基于概率分析的环境构建方法 | |
CN111649723B (zh) | 面向复杂地形的贴近摄影三维航迹与姿态规划方法及装置 | |
Engel et al. | Deeplocalization: Landmark-based self-localization with deep neural networks | |
CN112444246B (zh) | 高精度的数字孪生场景中的激光融合定位方法 | |
CN106556395A (zh) | 一种基于四元数的单目视觉系统的导航方法 | |
CN112346463A (zh) | 一种基于速度采样的无人车路径规划方法 | |
CN112669354A (zh) | 一种基于车辆非完整约束的多相机运动状态估计方法 | |
Sun et al. | Dlo: Direct lidar odometry for 2.5 d outdoor environment | |
Kaufmann et al. | Shadow-based matching for precise and robust absolute self-localization during lunar landings | |
CN110160503B (zh) | 一种顾及高程的无人机景观匹配定位方法 | |
Wu et al. | Global localization in repetitive and ambiguous environments | |
Wang et al. | Micro aerial vehicle navigation with visual-inertial integration aided by structured light | |
CN115060268A (zh) | 一种机房融合定位方法、系统、设备及存储介质 | |
Kim et al. | Target detection and position likelihood using an aerial image sensor | |
CN118310531A (zh) | 一种由粗到细点云配准的机器人跨场景定位方法及系统 | |
CN117029870A (zh) | 一种基于路面点云的激光里程计 | |
CN115100287B (zh) | 外参标定方法及机器人 | |
Pan et al. | LiDAR-IMU Tightly-Coupled SLAM Method Based on IEKF and Loop Closure Detection | |
CN115930948A (zh) | 一种果园机器人融合定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |