[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN110243380B - 一种基于多传感器数据与角度特征识别的地图匹配方法 - Google Patents

一种基于多传感器数据与角度特征识别的地图匹配方法 Download PDF

Info

Publication number
CN110243380B
CN110243380B CN201910561050.XA CN201910561050A CN110243380B CN 110243380 B CN110243380 B CN 110243380B CN 201910561050 A CN201910561050 A CN 201910561050A CN 110243380 B CN110243380 B CN 110243380B
Authority
CN
China
Prior art keywords
angle
point
coordinate system
map
angle characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910561050.XA
Other languages
English (en)
Other versions
CN110243380A (zh
Inventor
陈建魁
曹小川
李益群
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huazhong University of Science and Technology
Original Assignee
Huazhong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huazhong University of Science and Technology filed Critical Huazhong University of Science and Technology
Priority to CN201910561050.XA priority Critical patent/CN110243380B/zh
Publication of CN110243380A publication Critical patent/CN110243380A/zh
Application granted granted Critical
Publication of CN110243380B publication Critical patent/CN110243380B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明属于移动对象的即时定位与地图构建相关领域,并公开了一种基于多传感器数据与角度特征识别的地图匹配方法,包括:通过里程计获得实时位姿信息的步骤;通过激光雷达、深度视觉相机分别获得角度特征信息的步骤;以及将不同角度特征信息融合后执行地图匹配的步骤。通过本发明,多传感器之间可相互融合,互相弥补各自误差,实现基于简单角度特征的高准确率地图元素匹配方法,实时校正里程计带来的漂移误差,提高无人小车定位的准确度。

Description

一种基于多传感器数据与角度特征识别的地图匹配方法
技术领域
本发明属于移动对象的即时定位与地图构建相关领域,更具体地,涉及一种基于多传感器数据与角度特征识别的地图匹配方法。
背景技术
随着工业自动化技术的提高和对生产效率的要求,越来越多公司的仓储物流运输都开始采用譬如无人小车之类的移动机器人来代替人工搬运以提高运输效率以及降低成本。无人小车实现库区自动搬运的前提就是要能够熟悉库区环境并且能够实现实时定位与自动导航的功能,在这种情况下,能否实现无人小车的自主定位与高精度导航是能否完成自动搬运的关键所在。
目前的无人搬运小车通常是采用激光反光板的方式实现小车的自主定位与导航。该方式通过在库区内的合适位置处安装一系列反光板或反光柱,通常反光板对于小车的运行路线应该尽量呈三角形排列。然后将反光板的位置坐标在地图上标定好,小车通过激光雷达扫描到三个或三个以上的反光板位置后,通过三点定位算法就能正确求解出小车的位置信息,通过实时求解就能够获得小车运行时的姿态信息。
虽然这种激光反光板定位方式目前已成为无人小车主流的定位与导航方式,但是这种方式也存在一些缺陷,例如后期维护成本比较高且地图一旦标定好就难以更改,因此目前主流的研究方向都趋向于无反光板式的激光导航方式。具体而言,这种导航方式通过激光雷达扫描周围环境并在定位的同时构建地图,即SLAM导航,这种导航方式成本比激光反光板的导航方式成本要低且后期不需要维护,并且对于新的障碍物生成或者环境的微小变化可以实现对地图的实时更新,因此这种方式对于无人小车来说具有更好的环境适应性。
然而,进一步的研究表明,对于这种无反光板导航的方式,由于各装置或传感器存在系统误差,加上环境的复杂性造成的随机误差使得这种SLAM导航方式的精度成为了首要需要解决的问题。对于该导航方式而言,由于累计误差或系统误差造成的环形回路不闭合以及地图变形等现象,正成为本领域目前亟需解决的技术难题所在。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种基于多传感器数据与角度特征识别的地图匹配方法,其中通过引入包括里程计、激光雷达及深度视觉相机等在内的多种测量元件并配合使用,并对角度特征的检测及融合方式等重新进行设计,相应可高准确地实现地图匹配工序,有效降低移动对象工作时间较久之后的位姿测量累计误差,同时显著改善因地图部分形变或位姿不正确而造成的定位与导航误差,并尤其适用于无人小车这类移动机器人的即时定位与地图构建应用场合。
相应地,按照本发明,提供了一种基于多传感器数据与角度特征识别的地图匹配方法,其特征在于,该方法包括下列步骤:
(i)通过里程计获得实时位姿信息的步骤
针对作为移动监测对象的无人小车,将其开始运行时的初始位置设定为预建的地图坐标系中的原点,然后使无人小车按照预定轨迹运动;
采用里程计来实时获取该无人小车的位姿信息,并记录为Xt=(xt,yt,θt),其中xt表示无人小车对应于各测量时刻t在地图坐标系中的X轴坐标值,yt表示无人小车对应于各测量时刻t在地图坐标系中的Y轴坐标值,θt表示无人小车对应于各测量时刻t在地图坐标系中的方向角;
(ii)通过激光雷达、深度视觉相机分别获得角度特征信息的步骤
当无人小车按照步骤(i)的方式运动一定时间后,开始采用激光雷达来实时采集无人小车周围的环境信息,并获得反映环境信息的多个轮廓离散点及形成离散点云;与此同时,采用深度视觉相机来实时拍摄无人小车周围的环境信息,并获取反映环境信息的多幅图像并转化为对应的像素点云;
对所述离散点云执行滤波处理,滤除掉超出误差阈值的一些点,接着对剩余的离散点进行区域分割以划分为多组点集,并采用迭代适应点算法将这多组点集进一步细分形成为对应的直线拟合点集,然后提取各个直线拟合点集中的直线特征:当该直线特征中存在交点时,则判定此处出现了第一角度特征点且予以记录;最后将由所有第一角度特征点共同构成的第一角度特征点集统一转换到地图坐标系中;与此同时,对所述像素点云执行去畸变处理,并提取各个像素点云中的第二角度特征,最后将由所有第二角度特征点共同构成的第二角度特征点集统一转换到地图坐标系中;
(iii)角度特征信息的融合及地图匹配步骤
将所述第一角度特征点集、第二角度特征点集分配不同的权值并予以相加,由此实现两种角度特征的融合;接着,将融合之后的角度特征数据与地图坐标系自身所预存的标准角度特征数据对应进行匹配与比对,其中:当所得到的结果数据小于或等于预设的匹配阈值时,则判定地图匹配成功;并基于该结果数据来反馈校正所述里程计由于累计误差导致的无人小车实时位姿信息误差。
作为进一步优选地,在步骤(i)中,所述里程计优选同时布置于该无人小车左、右驱动轮上。
作为进一步优选地,在步骤(ii)中,所述激光雷达优选布置在该无人小车顶部正上方,所述深度视觉相机优选布置在该无人小车正前方。
作为进一步优选地,在步骤(ii)中,所述多个轮廓离散点优选进行断点分割处理,并且利用迭代适应点算法进行点集分割。
作为进一步优选地,在步骤(ii)中,所述激光雷达优选只对距离雷达扫描范围10m以内的轮廓离散点进行处理,假设单次观测所取到的点的数量为n,则优选将这n个点描述为以下的形式:
D={Pi=(xi,yi)T}
其中,xi=ρicosθi,yi=ρisinθi,i=1,2,…n;此外,ρi表示第i个轮廓离散点的观测距离,θi表示第i个轮廓离散点的观测角度。
此外,所述点集分割阈值dr优选被设定为dr=2dsinΔα,其中d为相邻轮廓离散点之间的距离,Δα为所述激光雷达的扫描角度分辨率。
作为进一步优选地,在步骤(ii)中,优选采用以下公式来执行所述角度特征点集统一转换到地图坐标系的过程:
Dw={pi=(xt+xi sin θt+yicosθt,yt+yisinθt-xicosθt),θw}
其中,θw表示第一或第二角度特征的角度值大小;xt表示无人小车对应于各测量时刻t在地图坐标系中的X轴坐标值,yt表示无人小车对应于各测量时刻t在地图坐标系中的Y轴坐标值;θt表示无人小车对应于各测量时刻t的方向角,xi表示角度特征点在雷达坐标系中的X轴坐标值,yi表示角度特征点在雷达坐标系中的Y轴坐标值。
作为进一步优选地,在步骤(iii)中,优选采用以下方式来执行所述第一角度特征点集、第二角度特征点集之间的融合过程:
设第一角度特征点可表示为F1=[(x1,y1),θ1],第二角度特征点可表示为F2=[(x2,y2),θ2],其中x1,y1分别为该第一角度特征点在世界坐标系中的X轴坐标值和Y轴坐标值,θ1为该第一角度特征点的角度值;x2,y2分别为该第二角度特征点在世界坐标系中的X轴坐标值和Y轴坐标值,θ2为该第二角度特征点的角度值;则融合之后的角度特征点可表示为:
Figure BDA0002108288420000041
其中a为激光雷达精度值,b为深度相机精度值。
作为进一步优选地,在步骤(ii)中,所述多个轮廓离散点优选进行断点分割处理,并且利用迭代适应点算法进行点集分割。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,主要具备以下的技术优点:
1、本发明的地图匹配方法不需要对周围环境进行特殊改造,完全依赖自身设置的传感器即可实现定位,并基于角度特征信息作为地图的匹配元素,相应具备显著降低了计算的复杂度、便于操控、适应性强、成本低等特点;
2、本发明还专门提出了采用多传感器融合的方式来采集观测到的角度数据后进行匹配与融合,由此可显著降低单个传感器因系统误差或非系统误差引起的较大的观测误差,避免了匹配误差过大使得地图元素匹配不成功的可能性,极大提升了地图匹配的成功率;
3、本发明所提出的地图匹配方案可以继续校正因里程计累计误差较大而导致的小车位姿的不准确性,相应校正原有地图中的不正常形变或是新的元素的加入,相应尤其适用于需要大规模复杂运用的移动对象实时定位导航应用场合。
附图说明
图1是按照本发明所构建的基于多传感器数据与角度特征识别的地图匹配方法的总体工艺流程图;
图2是按照本发明的一个优选实施方式所显示的地图匹配应用具体场景图;
图3是将激光雷达观测到的角度特征信息和深度相机匹配到的角度特征信息进行融合后的角度特征示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
图1是按照本发明所构建的基于多传感器数据与角度特征识别的地图匹配方法的总体工艺流程图,图2是按照本发明的一个优选实施方式所显示的地图匹配应用具体场景图。如图1和图2所示,该方法主要包括以下操作步骤,下面将对其逐一进行具体解释说明。
首先,是通过里程计获得实时位姿信息的步骤。
针对作为移动监测对象的无人小车,将其开始运行时的初始位置设定为地图坐标系中的原点,然后使无人小车按照预定轨迹运动一定时间;
在此过程中,采用里程计来实时获取该无人小车的位姿信息,并记录为Xt=(xt,yt,θt),其中xt表示无人小车对应于各测量时刻t在地图坐标系中的X轴坐标值,yt表示无人小车对应于各测量时刻t在地图坐标系中的Y轴坐标值,θt表示无人小车对应于各测量时刻t在地图坐标系中的方向角。
将结合一个具体应用场景对以上步骤进行更为详细的示范性解释说明。
图1中实际描述了地图坐标系和小车运动到某一时刻t时小车的位姿,O(w)为地图坐标系的原点,同时也是小车的里程计开始工作的位置,其中1表示小车的左驱动轮,2表示小车的右驱动轮。3为激光雷达,布置在小车顶部的正上方,与地面平行布置。4为深度相机,布置在小车的正前方,同样与地面平行布置,由于地图是2维激光雷达平面内的二维坐标系,所以以激光雷达坐标系为传感器主坐标系,坐标系原点为O(a),深度相机在y方向δy处,z方向微小偏移δz可忽略,这样就把3维坐标系转换成与地图坐标系统一的2维坐标系,大大减小了计算难度和计算时间。
相应地,对于这种具体应用场景而言,首先可将无人小车开始运行之前的位置置于地图坐标系中的原点(0,0)位置,方向为y轴正方向,然后待小车运动一小段时间t之后,按照本发明的一个具体距离,根据里程计模型可知,左右两车轮移动距离
Figure BDA0002108288420000071
其中N为Δt时间内光电码盘输出的脉冲数,光电码盘为p线/转,车轮半径为r。假设里程计测得的左右两轮移动距离分别为ΔdL和ΔdR,两轮间距为e,则小车的位姿从Xk=(xk,yk,θk)运动到Xk=(xk+1,yk+1,θk+1)时,小车移动的距离为ΔD=(ΔdL-ΔdR)/e。现在假设uk=(ΔDk,Δθk)T,容易知道ΔDk是小车在Δt时间内所经过的弧长,而Δθk是小车运行Δt时间后位姿的方向角的差值,则小车的运动半径为
Figure BDA0002108288420000072
小车的里程计模型可以表述为Xk+1|k=f(Xk|k,uk)+wk,其中wk为过程输入噪声,服从高斯白噪声分布。因此根据此里程计模型可以推导出t时刻时小车的位姿信息为Xt=(xt,yt,θt)。但t不能太大以免里程计的累计误差太大造成各传感器观测误差太大,从而导致最终匹配失败。当然,以上的小车位姿计算过程还可根据需要,采用其他合适的数学模型来获得。
接着,是通过激光雷达、深度视觉相机分别获得角度特征信息的步骤。
在此步骤中,当无人小车运动一定时间后,开始采用激光雷达来实时采集无人小车周围的环境信息,并获得反映环境信息的多个轮廓离散点及形成点云图;与此同时,采用深度视觉相机来实时拍摄无人小车周围的环境信息,并获取反映环境信息的多幅图像并转化为点云图;
转化公式描述为:
Figure BDA0002108288420000073
其中s为尺度因数,C为相机内参,u、v是像素坐标,x、y、z是像素点的空间点位置,T为相机变换矩阵:
Figure BDA0002108288420000074
将获得的多个轮廓离散点进行滤波处理,滤除掉较远处误差较大的点,然后计算相邻两离散点之间的距离并同预设的误差阈值进行比较,
其中阈值计算公式譬如可设计为dr=2dsinΔα,d为扫描点的距离,Δ为激光雷达的扫描角度分辨率。若相邻两扫描点距离大于此阈值dr,则可以认为这两个扫描点不在同一个区域,从而将采集到的点集数据分割成多个不同的区域,然后采用迭代适应点算法(IEPF)将若干组点集进一步细分为直线拟合点集,再用最小二乘公式提取点集中的直线特征,有交点的直线特征即为第一角度特征,接着将由所有第一角度特征点共同构成的第一角度特征点集统一转换到地图坐标系中
Dw={pi=(xt+xisinθ+yicosθ,yt+yisinθ-xicosθ)T}
将点集分为若干组,接下来将滤波之后得到的数据处理,按照本发明的另一优选实施例,可以选择将相邻两扫描点距离值同计算的阈值进行对比,
与此同时,将获取的多幅图像进行去畸变处理,提取各个像素点中的第二角度特征,接着将由所有第二角度特征点共同构成的第二角度特征点集统一转换到地图坐标系中。
同样结合上面的具体应用场景来更为详细的示范性解释说明。
求取了小车的位姿信息之后,获取激光雷达采集到的点云数据并进行处理。考虑到误差的原因,按照本发明的一个实施例,可以只取距离雷达扫描范围10m内的点集进行处理,假设单次观测所取到的点集数量为n,则可将这n个点集数据描述为以下的形式:
D={Pi=(xi,yi)T}
其中,xi=ρicosθi,yi=ρisinθi,i=1,2,...,n.
上式中,ρi表示第i个观测点的观测距离,θi表示第i个观测点的观测角度。
接下来将滤波之后得到的数据处理,按照本发明的另一优选实施例,可以选择将相邻两扫描点距离值同计算的阈值进行对比,其中阈值计算公式譬如可设计为dr=2dsinΔα,d为扫描点的距离,Δα为激光雷达的扫描角度分辨率。若相邻两扫描点距离大于此阈值dr,则可以认为这两个扫描点不在同一个区域,从而将采集到的点集数据分割成多个不同的区域,然后提取出区域中的第一角度特征点集
D={pi=(xi,yi)T}
根据前面计算出的小车位姿Xt=(xt,yt,θt),由此可以将激光雷达点集数据转换到世界坐标系中为
Dw={pi=(xt+xisinθ+yicosθ,yt+yisinθ-xicosθ)T,θw}
与此同时,还需要获取深度视觉相机观测到的图像信息和深度信息并进行处理。对此操作而言,首先可对图像中的各像素进行边缘检测,检测之后对边缘特征进行提取。由于相机图像会产生一定的畸变,所以还要对图像进行去畸变处理。为了简化运算工作量,譬如可以只处理经过边缘加强过的像素点,且只需要处理2维平面上的特征像素点,所以只需要校正y位置像素,去畸变公式可选择如下:
ydistored=y(1+k1r2+k2r4+k3r6+k4r8)
其中k1、k2、k3、k4是径向畸变系数,r是像素坐标做图像中心距离。
在完成去畸变处理之后,由于深度相机不仅可获得图像的色彩信息,还可以获得图像的深度信息,因此可采用边缘像素加强、边缘像素校正、图像边缘细化等常规图像处理技术提取出像素点中的第二角度特征信息,在将其统一转换到地图坐标系中去。
作为示范性解释说明,将上述激光雷达和深度相机所获得到的转换到世界坐标系的角度特征点集还优选可采用一元线性回归的方式进行拟合各生成两条直线方程。假设转换后激光雷达点云数据集为
D1={pi=(xi,yi)T}
深度相机点云数据集为
D2={Ii=(xi,yi)T}
其中i为点集数量。则根据最小二乘法,直线拟合的斜率计算公式可表示为
Figure BDA0002108288420000101
截距的计算公式为
Figure BDA0002108288420000102
因此可以将雷达点集拟合出来的两条直线方程表示为y=β1x+γ1和y=β2x+γ2,角度顶点坐标为O1(xp,yp)角度大小
Figure BDA0002108288420000103
将深度相机点集拟合出来的两条直线方程表示为y=β3x+γ3和y=β4x+γ4,角度顶点坐标为O2(xI,yI),角度大小为
Figure BDA0002108288420000104
该过程作为一种可选的数学表征方式,有助于简化后续的两种角度特征信息的融合处理。
最后,是角度特征信息的融合及地图匹配步骤。
在此步骤中,可将所述第一角度特征点集、第二角度特征点集分配不同的权值并予以相加,由此实现两种角度特征的融合;
将融合之后的角度特征数据与地图坐标系自身所预存的标准角度特征数据对应进行匹配与比对,其中:当所得到的结果数据小于或等于预设的匹配阈值时,则判定地图匹配成功;而当所得到的结果数据大于预设的匹配阈值时,则判定地图匹配不成功,并基于该结果数据来反馈校正所述里程计由于累计误差导致的无人小车实时位姿信息误差,接着让无人小车按照预定轨迹继续运动另一段时间,并重复上述步骤(i)~(iii),直至地图匹配成功。
更具体而言,可根据角度特征距离小车的远近来为激光雷达角度特征数据和深度相机角度特征数据分配不同的权值。图3描述了激光雷达数据和深度相机数据的示意图,其中激光雷达观测的角度特征为∠A1O1B1,深度相机观测到的角度特征为∠A2O2B2。假设角度特征距离小车的距离为d,则在角度特征融合时可根据传感器的精度采取合适的权值。假设激光雷达精度值为a,深度相机的精度值为b。令融合之后的角度特征∠AOB为
DD=(pD,αD)
pD=(xD,yD)T
Figure BDA0002108288420000111
Figure BDA0002108288420000112
Figure BDA0002108288420000113
接着,将融合后的角度特征同地图坐标系中的角度特征进行匹配,实现特征关联,该具体过程可示范性解释如下:
如图3所示,观测到的角度特征为AMOMBM以及地图坐标系中的角度特征为ADODBD,角度特征数据可以分别表示为
DD=(pD,αD)
DM=(pM,αM)
式中,DD、DM分别为观测数据和地图数据中的角度特征信息;pD,αD,pM,αM分别表示观测数据、地图数据中的角度特征信息中的顶点坐标信息、角度大小信息,其中pD=(xD,yD)T,pM=(xM,yM)T。匹配误差譬如可以表述为:
δp=||pD-pM||2
δα=αDM
其中,
||δp||2<0.01d
δα<0.05αo
相应地,如果经过计算得到的匹配误差均满足上述不等式,则说明地图匹配成功,根据此信息成功完成匹配;如果匹配不成功的话则让小车继续行驶一小段时间重复以上步骤,直到匹配成功。
综上,按照本发明的地图匹配方法可总结如下:⑴将小车起始位置放置在地图坐标系的原点位置,即里程计开始工作的位置;
⑵待小车开始运动后,根据里程计所得到的距离信息以及速度信息推算出小车在t时刻时位于地图坐标系的位置以及姿态;
⑶获取激光雷达扫描到的点云数据信息并进行滤波和特征提取处理,提取出点云数据集中的角度特征信息并统一到地图坐标系下;
⑷获取深度相机观测到的图像信息以及深度信息,通过图像处理以及特征提取的方式提取出图像中的角度特征信息并根据深度信息统一到地图坐标系中;
⑸根据角度特征信息距离小车的距离远近为激光雷达数据和深度相机数据分配不同的权值,并通过分配的权值进行匹配与融合;
⑹将融合之后的角度特征信息与原地图中存在的角度特征信息进行匹配,若匹配的误差小于所设定的阈值,则匹配成功;若大于所设定的阈值,则等小车继续行驶一小段时间后重复上述匹配操作直到匹配成功。
通过以上构思,多传感器之间相互融合,互相弥补各自误差,实现基于简单角度特征的高准确率地图元素匹配方法,实现了无人小车地图匹配的高准确度。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种基于多传感器数据与角度特征识别的地图匹配方法,其特征在于,该方法包括下列步骤:
(i)通过里程计获得实时位姿信息的步骤
针对作为移动监测对象的无人小车,将其开始运行时的初始位置设定为预建的地图坐标系中的原点,然后使无人小车按照预定轨迹运动;
采用里程计来实时获取该无人小车的位姿信息,并记录为Xt=(xt,yt,θt),其中xt表示无人小车对应于各测量时刻t在地图坐标系中的X轴坐标值,yt表示无人小车对应于各测量时刻t在地图坐标系中的Y轴坐标值,θt表示无人小车对应于各测量时刻t在地图坐标系中的方向角;
(ii)通过激光雷达、深度视觉相机分别获得角度特征信息的步骤
当无人小车按照步骤(i)的方式运动一定时间后,开始采用激光雷达来实时采集无人小车周围的环境信息,并获得反映环境信息的多个轮廓离散点及形成离散点云;与此同时,采用深度视觉相机来实时拍摄无人小车周围的环境信息,并获取反映环境信息的多幅图像并转化为对应的像素点云;
对所述离散点云执行滤波处理,滤除掉超出误差阈值的一些点,接着对剩余的离散点进行区域分割以划分为多组点集,并采用迭代适应点算法将这多组点集进一步细分形成为对应的直线拟合点集,然后提取各个直线拟合点集中的直线特征:当该直线特征中存在交点时,则判定此处出现了第一角度特征点且予以记录;最后将由所有第一角度特征点共同构成的第一角度特征点集统一转换到地图坐标系中;与此同时,对所述像素点云执行去畸变处理,并提取各个像素点云中的第二角度特征,最后将由所有第二角度特征点共同构成的第二角度特征点集统一转换到地图坐标系中;
(iii)角度特征信息的融合及地图匹配步骤
根据角度特征距离小车的远近为所述第一角度特征点集、第二角度特征点集分配不同的权值并予以相加,由此实现两种角度特征的融合;接着,将融合之后的角度特征数据与地图坐标系自身所预存的标准角度特征数据对应进行匹配与比对,其中:当所得到的结果数据小于或等于预设的匹配阈值时,则判定地图匹配成功;并基于该结果数据来反馈校正所述里程计由于累计误差导致的无人小车实时位姿信息误差,其中,采用以下方式来执行所述第一角度特征点集、第二角度特征点集之间的融合过程:
设第一角度特征点可表示为F1=[(x1,y1),θ1],第二角度特征点可表示为F2=[(x2,y2),θ2],其中x1,y1分别为该第一角度特征点在世界坐标系中的X轴坐标值和Y轴坐标值,θ1为该第一角度特征点的角度值;x2,y2分别为该第二角度特征点在世界坐标系中的X轴坐标值和Y轴坐标值,θ2为该第二角度特征点的角度值;则融合之后的角度特征点可表示为:
Figure FDA0002688047000000021
其中a为激光雷达精度值,b为深度相机精度值。
2.如权利要求1所述的方法,其特征在于,在步骤(i)中,所述里程计同时布置于该无人小车左、右驱动轮上。
3.如权利要求1或2所述的方法,其特征在于,在步骤(ii)中,所述激光雷达布置在该无人小车顶部正上方,所述深度视觉相机布置在该无人小车正前方。
4.如权利要求1所述的方法,其特征在于,在步骤(ii)中,所述多个轮廓离散点进行断点分割处理,并且利用迭代适应点算法进行点集分割。
5.如权利要求1所述的方法,其特征在于,在步骤(ii)中,所述激光雷达只对距离雷达扫描范围10m以内的轮廓离散点进行处理,假设单次观测所取到的点的数量为n,则将这n个点描述为以下的形式:
D={Pi=(xi,yi)T}
其中,xi=ρicosθi,yi=ρisinθi,i=1,2,…n;此外,ρi表示第i个轮廓离散点的观测距离,θi表示第i个轮廓离散点的观测角度;
相应地,所述点集分割阈值dr被设定为dr=2dsinΔα,其中d为相邻轮廓离散点之间的距离,Δα为所述激光雷达的扫描角度分辨率。
6.如权利要求1所述的方法,其特征在于,在步骤(ii)中,采用以下公式来执行所述角度特征点集统一转换到地图坐标系的过程:
Dw={pi=(xt+xisinθt+yicosθt,yt+yisinθt-xicosθt),θw}
其中,θw表示第一或第二角度特征的角度值大小;xt表示无人小车对应于各测量时刻t在地图坐标系中的X轴坐标值,yt表示无人小车对应于各测量时刻t在地图坐标系中的Y轴坐标值;θt表示无人小车对应于各测量时刻t的方向角,xi表示角度特征点在雷达坐标系中的X轴坐标值,yi表示角度特征点在雷达坐标系中的Y轴坐标值。
7.如权利要求1所述的方法,其特征在于,所述无人小车可替换成其他形式的移动机器人。
CN201910561050.XA 2019-06-26 2019-06-26 一种基于多传感器数据与角度特征识别的地图匹配方法 Active CN110243380B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910561050.XA CN110243380B (zh) 2019-06-26 2019-06-26 一种基于多传感器数据与角度特征识别的地图匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910561050.XA CN110243380B (zh) 2019-06-26 2019-06-26 一种基于多传感器数据与角度特征识别的地图匹配方法

Publications (2)

Publication Number Publication Date
CN110243380A CN110243380A (zh) 2019-09-17
CN110243380B true CN110243380B (zh) 2020-11-24

Family

ID=67889516

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910561050.XA Active CN110243380B (zh) 2019-06-26 2019-06-26 一种基于多传感器数据与角度特征识别的地图匹配方法

Country Status (1)

Country Link
CN (1) CN110243380B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3919864A3 (en) * 2021-01-25 2022-05-11 Beijing Baidu Netcom Science Technology Co., Ltd. Method and apparatus for processing map data

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112558023B (zh) * 2019-09-25 2024-03-26 华为技术有限公司 传感器的标定方法和装置
CN110866927B (zh) * 2019-11-21 2021-07-20 哈尔滨工业大学 一种基于垂足点线特征结合的ekf-slam算法的机器人定位与构图方法
CN111398984B (zh) * 2020-03-22 2022-03-29 华南理工大学 基于扫地机器人的自适应激光雷达点云校正与定位方法
CN111862216B (zh) * 2020-07-29 2023-05-26 上海高仙自动化科技发展有限公司 计算机设备定位方法、装置、计算机设备和存储介质
CN111862217B (zh) * 2020-07-29 2023-05-26 上海高仙自动化科技发展有限公司 计算机设备定位方法、装置、计算机设备和存储介质
CN112179294A (zh) * 2020-09-21 2021-01-05 杭州星网测绘技术有限公司 一种土地校对方法、装置以及系统
CN112344966B (zh) * 2020-11-24 2023-06-16 深兰科技(上海)有限公司 一种定位失效检测方法、装置、存储介质及电子设备
CN113593023B (zh) * 2021-07-14 2024-02-02 中国科学院空天信息创新研究院 三维制图方法、装置、设备及存储介质
CN115727836B (zh) * 2022-11-23 2024-07-16 锐趣科技(北京)有限公司 一种基于激光反光板和里程计的融合定位方法及系统

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101975951A (zh) * 2010-06-09 2011-02-16 北京理工大学 一种融合距离和图像信息的野外环境障碍检测方法
US9097800B1 (en) * 2012-10-11 2015-08-04 Google Inc. Solid object detection system using laser and radar sensor fusion
CN107478214A (zh) * 2017-07-24 2017-12-15 杨华军 一种基于多传感器融合的室内定位方法及系统
CN107688184A (zh) * 2017-07-24 2018-02-13 宗晖(上海)机器人有限公司 一种定位方法以及系统
CN108051002A (zh) * 2017-12-04 2018-05-18 上海文什数据科技有限公司 基于惯性测量辅助视觉的运输车空间定位方法及系统
CN108303721A (zh) * 2018-02-12 2018-07-20 北京经纬恒润科技有限公司 一种车辆定位方法及系统
CN108489496A (zh) * 2018-04-28 2018-09-04 北京空间飞行器总体设计部 基于多源信息融合的非合作目标相对导航运动估计方法及系统
CN108917759A (zh) * 2018-04-19 2018-11-30 电子科技大学 基于多层次地图匹配的移动机器人位姿纠正算法
CN109084732A (zh) * 2018-06-29 2018-12-25 北京旷视科技有限公司 定位与导航方法、装置及处理设备
CN109099923A (zh) * 2018-08-20 2018-12-28 江苏大学 基于激光、摄像机、gps与惯导融合的道路场景表征系统及其方法
CN109857123A (zh) * 2019-03-21 2019-06-07 郑州大学 一种基于视觉感知和激光探测的室内slam地图的融合方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101975951A (zh) * 2010-06-09 2011-02-16 北京理工大学 一种融合距离和图像信息的野外环境障碍检测方法
US9097800B1 (en) * 2012-10-11 2015-08-04 Google Inc. Solid object detection system using laser and radar sensor fusion
CN107478214A (zh) * 2017-07-24 2017-12-15 杨华军 一种基于多传感器融合的室内定位方法及系统
CN107688184A (zh) * 2017-07-24 2018-02-13 宗晖(上海)机器人有限公司 一种定位方法以及系统
CN108051002A (zh) * 2017-12-04 2018-05-18 上海文什数据科技有限公司 基于惯性测量辅助视觉的运输车空间定位方法及系统
CN108303721A (zh) * 2018-02-12 2018-07-20 北京经纬恒润科技有限公司 一种车辆定位方法及系统
CN108917759A (zh) * 2018-04-19 2018-11-30 电子科技大学 基于多层次地图匹配的移动机器人位姿纠正算法
CN108489496A (zh) * 2018-04-28 2018-09-04 北京空间飞行器总体设计部 基于多源信息融合的非合作目标相对导航运动估计方法及系统
CN109084732A (zh) * 2018-06-29 2018-12-25 北京旷视科技有限公司 定位与导航方法、装置及处理设备
CN109099923A (zh) * 2018-08-20 2018-12-28 江苏大学 基于激光、摄像机、gps与惯导融合的道路场景表征系统及其方法
CN109857123A (zh) * 2019-03-21 2019-06-07 郑州大学 一种基于视觉感知和激光探测的室内slam地图的融合方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LiDAR and Camera Calibration using Motion Estimated by Sensor Fusion Odometry;Ryoichi Ishikawa1, et al;《arXiv:1804.05178v1 [cs.CV]》;20180430;第1-8页 *
基于激光测距与双目视觉信息融合的移动机器人SLAM 研究;杜钊君,吴怀宇;《计算机测量与控制》;20131231;第21卷(第1期);第180-183页 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3919864A3 (en) * 2021-01-25 2022-05-11 Beijing Baidu Netcom Science Technology Co., Ltd. Method and apparatus for processing map data
US11866064B2 (en) 2021-01-25 2024-01-09 Beijing Baidu Netcom Science Technology Co., Ltd. Method and apparatus for processing map data

Also Published As

Publication number Publication date
CN110243380A (zh) 2019-09-17

Similar Documents

Publication Publication Date Title
CN110243380B (zh) 一种基于多传感器数据与角度特征识别的地图匹配方法
CN111797734B (zh) 车辆点云数据处理方法、装置、设备和存储介质
US10916035B1 (en) Camera calibration using dense depth maps
CN109358340B (zh) 一种基于激光雷达的agv室内地图构建方法及系统
CN111381248B (zh) 一种考虑车辆颠簸的障碍物检测方法及系统
CN108415413B (zh) 一种基于圆形有用域的智能叉车局部避障路径规划方法
CN108759829B (zh) 一种智能叉车的局部避障路径规划方法
CN114004869A (zh) 一种基于3d点云配准的定位方法
CN114051628B (zh) 一种确定目标对象点云集的方法及装置
CN110749895B (zh) 一种基于激光雷达点云数据的定位方法
CN113985405A (zh) 障碍物检测方法、应用于车辆的障碍物检测设备
CN115435816B (zh) 在线双舵轮agv内外参标定方法、系统、介质及设备
CN114115263B (zh) 用于agv的自主建图方法、装置、移动机器人及介质
CN112147598A (zh) 一种基于直角墙面的激光标定方法
CN115239822A (zh) 分体式飞行车辆多模块间实时视觉识别定位方法及系统
Beinschob et al. Advances in 3d data acquisition, mapping and localization in modern large-scale warehouses
Xiong et al. Road-Model-Based road boundary extraction for high definition map via LIDAR
CN114216462B (zh) 一种agv自然导航与末端定位的控制系统及方法
CN114353799A (zh) 搭载多线激光雷达的无人驾驶平台室内快速全局定位方法
CN114442054A (zh) 一种移动机器人的传感器与底盘联合标定系统及方法
CN113554705A (zh) 一种变化场景下的激光雷达鲁棒定位方法
CN113138594B (zh) 自动驾驶方法及装置
Eraqi et al. Static free space detection with laser scanner using occupancy grid maps
CN116935344A (zh) 道路边界多边形轮廓构建方法及系统
Steinemann et al. 3D outline contours of vehicles in 3D-LIDAR-measurements for tracking extended targets

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant