CN111076733B - 一种基于视觉与激光slam的机器人室内建图方法及系统 - Google Patents
一种基于视觉与激光slam的机器人室内建图方法及系统 Download PDFInfo
- Publication number
- CN111076733B CN111076733B CN201911257094.XA CN201911257094A CN111076733B CN 111076733 B CN111076733 B CN 111076733B CN 201911257094 A CN201911257094 A CN 201911257094A CN 111076733 B CN111076733 B CN 111076733B
- Authority
- CN
- China
- Prior art keywords
- pose
- robot
- laser
- grid
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 230000009466 transformation Effects 0.000 claims abstract description 47
- 238000001514 detection method Methods 0.000 claims abstract description 18
- 238000013507 mapping Methods 0.000 claims abstract description 18
- 238000005457 optimization Methods 0.000 claims abstract description 11
- 230000000007 visual effect Effects 0.000 claims abstract description 3
- 239000011159 matrix material Substances 0.000 claims description 32
- 238000006073 displacement reaction Methods 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 8
- 238000012360 testing method Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 2
- 230000036544 posture Effects 0.000 claims 2
- 230000007547 defect Effects 0.000 abstract description 6
- 238000005286 illumination Methods 0.000 abstract description 4
- 238000010276 construction Methods 0.000 abstract 1
- 230000008569 process Effects 0.000 description 7
- 230000008901 benefit Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于视觉与激光slam的机器人室内建图方法,包括以下步骤:视觉传感器获取左视图和右视图,生成特征点点云;计算基于视觉的机器人的位姿变换估计;获得激光数据,计算基于激光的机器人位姿变换估计、更新地图栅格的置信度;采用瓦片式的建图方法,利用连续的激光点云数据生成子图;将获得的特征点与每张子图进行匹配;通过图优化更新各个子图中的机器人位姿,即可构成最终的建图结果。本发明采用视觉和激光相结合的建图方法,一方面改善了视觉算法受光照影响大的缺点,另一方面利用特征点的描述子属性检测闭环,解决了激光闭环检测成功率过低的问题,提高了闭环检测效率。
Description
技术领域
本发明涉及巡检机器人领域,具体涉及一种基于视觉与激光slam的机器人室内建图方法及系统。
背景技术
室内导航环境的好坏,直接影响机器人的各种巡检任务的完成。要完成地图的创建,首先要获取周围环境的信息,这就要用到传感器来完成。现在机器人的制图研究热点大体上集中在两种传感器上,一种是激光传感器,激光传感器具有解析度高、测距精度高、抗有源干扰能力强、探测性能好、不受光线影响,缺点是获得的信息不具备语义信息,配准精度不高,建图过程中常存在闭环检测失败的情况。另一种的视觉传感器,可以获得丰富的纹理信息,具有匹配准确的优点,但是存在受光照变化影响大的缺点。
为了克服激光传感器和视觉传感器的缺陷,本发明提出一种基于视觉与激光slam的机器人室内建图方法及系统。
发明内容
为了解决上述问题,本发明提出了一种基于视觉与激光slam的机器人室内建图方法,包括以下步骤:
视觉传感器获取左视图和右视图,生成特征点点云,具体包括:
提取左视图和右视图的特征点,
对获得的特征点进行匹配,
计算相匹配的特征点的空间坐标;
计算基于视觉的机器人的位姿变换估计,即将本时刻左视图和右视图相匹配的特征点与本时刻的上一时刻的左视图和右视图相匹配的特征点进行二次匹配,根据二次匹配的特征点的坐标变化和特征点的主方向变化获得机器人的位姿变换关系,将特征点的描述子投影到对应的地图栅格上,定义栅格的特征点描述子属性;
获得激光数据,计算基于激光的机器人位姿变换估计、更新地图栅格的置信度;
采用瓦片式的建图方法,利用连续的激光点云数据生成子图;
闭环检测,即将获得的特征点的描述子与每张子图的每个栅格对应的栅格的特征点描述子属性进行匹配;
图优化,具体包括:通过图的节点表示机器人的位姿,通过连接节点的边表示机器人位姿间的变换关系,计算各机器人位姿与经变换矩阵变换后的估计位姿之间的误差,计算带有若干条边的图的误差目标函数,通过多次迭代求得使目标函数收敛的机器人位姿,用于更新各个子图中的机器人位姿,即可构成最终的建图结果。
进一步地,所述提取左视图和右视图的特征点包括:
利用ORB算法对左右视图进行FAST角点检测,提取特征点P;
其中Y(x,y)为图像的灰度值,x,y∈[-r,r],r为邻域S的半径,p、q取0或1,则该邻域的质心位置为:
特征点P的主方向θ为:
θ=arctan(m01/m10);
生成特征点描述子:
则特征点P的邻域S内二进制测试准则可定义为:
此时可得到特征点P旋转的描述子:
k′为128、256或512,对应描述符的大小分别为16字节、32字节或64字节,根据方法的实时性、存储空间以及识别效率进行选择。
进一步地,所述对获得的特征点进行匹配具体为:
计算左右视图特征点的描述子的汉明距离D进行匹配:
其中,fL,fR分别为左视图和右视图的某个特征点的描述子;当两帧图像中存在汉明距离小于阈值的两个特征点时,则两个特征点匹配成功。
进一步地,所述计算相匹配的特征点的空间坐标具体为:
其中,(x,y,z)为特征点P在空间中的坐标,(uL,vL)为特征点P在左侧相机中的图像点坐标,(uR,vR)为右侧相机中的图像点坐标,f焦距为双目相机的焦距,d为两个相机之间的距离。
进一步地,所述采用瓦片式的建图方法,利用连续的激光点云数据生成子图具体为:
利用连续的激光点云数据生成子图,每连续Ts内数据生成一张子图,第二张子图包含上一张子图的后ts内的数据,其中t<T。
进一步地,所述图优化具体为:
机器人的位姿被表示成图中的节点,观测信息经过处理后转变为机器人之间位姿间的约束关系,并通过连接节点间的边来表示;图的每个节点取决于机器人位姿的描述,所有节点的状态方程为其中分别为全局坐标系下的机器人的位姿,边则描述了机器人位姿之间的变换关系;节点Pi和节点Pj之间观测方程可以表示为:
zj=xiTi,j
其中,xi为节点Pi相应的机器人在全局坐标系下的位姿,xj为节点Pj相应的机器人在全局坐标系下的位姿,zj为节点Pj的观测值,即xi经变换矩阵变换后的估计位姿,Ti,j为节点Pi与节点Pj之间的变换关系;
机器人位姿xj与xi经变换矩阵变换后的估计位姿zj之间存在误差e(zj,xj),计算公式为:
e(zj,xj)=xiTi,j-xj
带有若干条边的图的误差目标函数E(x)为:
其中,信息矩阵Ωk是协方差矩阵的逆,是一个对称矩阵;它的每个元素Ωi,j用作误差的系数,对e(zi,xi)、e(zj,xj)的误差相关性进行预计;
假设xk增加一个增量Δx,通过多次迭代最终求得满足目标方程E(x)的收敛值,用求得的Δx更新状态变量X,X中的各个节点的位姿即可构成最终的建图结果。
一种基于视觉与激光slam的机器人室内建图系统,包括前端和后端,系统的前端利用双目视觉传感器获取环境的左视图和右视图,通过ORB算法提取左右视图,并对左右视图的特征点进行匹配,进而求取各个特征点在空间内的坐标;对相邻时刻获得的特征点进行匹配,进而求得时刻机器人的位姿变换关系,将特征点投影到地图栅格上,定义有特征点投影的栅格地图具有描述子属性;系统的前端通过激光传感器获得环境的激光点云数据,并对激光点云数据进行去噪处理,通过求取机器人位姿初值、定义扫描窗口、求取置信度获得机器人的位姿变换估计,将激光点云投射到栅格地图上,更新各个地图栅格的置信度;系统后端对得到的地图进行闭环检测和图优化。
与现有技术相比,本发明具有以下有益效果:
采用视觉和激光相结合的建图方法,一方面改善了视觉算法受光照影响大的缺点,另一方面利用特征点的描述子属性检测闭环,解决了激光闭环检测成功率过低的问题,提高了闭环检测效率。
附图说明
图1为基于视觉与激光slam的机器人室内定位与建图流程。
图2为M16模板示意图。
具体实施方式
下面结合附图,对一种基于视觉与激光slam的移动机器人室内定位与建图方法进行详细描述。
一种基于视觉与激光slam的移动机器人室内定位与建图方法,其流程如图1所示。具体而言,基于视觉与激光slam的移动机器人室内定位与建图系统分为前端和后端,系统的前端利用双目视觉传感器获取环境的左视图和右视图,通过ORB算法提取左右视图,并对左右视图的特征点进行匹配,进而求取各个特征点在空间内的坐标;之后对相邻时刻获得的特征点进行匹配,进而求得时刻机器人的位姿变换关系,将特征点投影到地图栅格上,定义有特征点投影的栅格具有描述子属性。同时,系统的前端通过二维激光传感器获得环境的激光点云数据,并对激光点云数据进行去噪处理,并通过求取机器人位姿初值、定义扫描窗口、求取置信度等方式获得机器人的位姿变换估计,在此基础上将激光点云投射到栅格地图上,更新各个地图栅格的置信度。最后为了减小传感器的累计误差,系统后端对得到的地图进行闭环检测和图优化。
一、系统前端
1、基于ORB的特征点点云生成
(1)特征点提取:双目视传感器可同时获得环境的左视图IL和右视图IR,利用ORB(Oriented FAST and Rotated BRIEF,一种快速特征点提取和描述的算法)算法对左右视图进行FAST(Features from Accelerated Segment Test)角点检测,提取特征点,并计算特征点的主方向,生成oFAST,具体流程如下:
①首先对得到的左视图和右视图进行灰度化处理:Y=0.39×R+0.5×G+0.11×B,Y为灰度化后某像素点的灰度值,R、G、B为该像素点红、绿、蓝三个颜色分量。
②在左视图中,以像素点P为圆心,在半径向下取整为3的圆周内,有16个像素点(M10模板),如图2所示。若M16中有连续N个(9≤N≤12)点的灰度值均大于YP+t或均小于YP-t(其中YP为点P的灰度值,t为阈值),则判定点P为特征点。(以P为圆心画一个半径为3pixel的圆。圆周上如果有连续n个像素点的灰度值比P点的灰度值大或者小,则认为P为特征点。一般n设置为12。)
其中Y(x,y)为图像的灰度值,x,y∈[-r,r],r为邻域S的半径,p、q取0或1,则该邻域的质心位置为:
特征点P的主方向θ为:
θ=arctan(m01/m10)
则特征点P的邻域S内二进制测试准则可定义为:
此时可得到特征点P旋转的描述子:
k′可为128,256,或512,对应描述符的大小分别为16字节、32字节和64字节,根据算法的实时性、存储空间以及识别效率进行选择。
(3)特征点匹配:按照上述方案获得到左右视图两帧图像特征点的描述子以后,计算二者的汉明距离D进行匹配:
其中,fL,fR分别为左视图和右视图的某个特征点的描述子。当两帧图像中存在汉明距离小于阈值的两个特征点时,则两个特征点匹配成功。
特征点空间位置计算:假设特征点P在左侧相机中的图像点坐标为(uL,vL),右侧相机中的图像点坐标为(uR,vR),则特征点P在空间中的坐标(x,y,z)的计算方式如下:
其中f焦距为双目相机的焦距,d为两个相机之间的距离,求出所有的相匹配的特征点坐标,此时的特征点具有唯一的空间坐标和唯一的描述子。
2、机器人位姿变换估计
将激光数据进行处理得到激光点云数据,对激光点云数据进行过滤,即去掉激光点云数据中的各激光反射点中相应的噪点(相距较近的点和较远的点),剩余作为有效点。计算有效激光点云在激光传感器坐标系中的位姿。
(1)观测值为激光时的机器人位姿变换估计、更新地图栅格的置信度
①机器人位姿初值估计
设定获得各帧激光数据的时间点是计算位姿的时间点。假定机器人在时间点t的位姿是P(t),前一个计算位姿的时间点为t-1,相应的位姿是P(t-1),下一个计算位姿的时间点t+1,相应的的位姿是P(t+1)。通过时间点t和t-1之间的位姿差(包括位移和旋转角度)来计算机器人运动的线速度V(x,y)和角速度W。
线速度V(x,y)=(t和t-1之间的位移)/时间差
角速度W=(t和t-1之间的旋转角度)/时间差
根据最新接收的里程计数据和最新接收的惯性导航数据对预测位姿初值进行校正得到位姿的估计值pose_estimated;
②定位扫描窗口
机器人的定位扫描用位移扫描参数和角度扫描参数,位移扫描参数用于限定定位扫描窗口的位移范围,以位姿的估计值pose_estimated为中心,上下左右各偏离lcm大小的正方形。角度扫描参数用于限定定位扫描窗口的角度范围,以位姿的估计值为中心角度,上下各偏离w度的角度。
定位扫描窗口大小确定定位扫描窗口内各地图栅格上各扫描角度的位姿,作为所有可能的候选位姿possible_candidates。
④置信度估计
根据每个候选位姿对应的各个地图栅格的置信度(地图栅格的置信度值与地图构建过程相关,在定位过程中,为已经确定的值),计算每个候选位姿的置信度candidate_probability,公式如下:
根据每个候选位姿possible_candidate与位姿的估计值pose_estimated的位姿差来计算每个候选位姿对应的置信度权重candidate_weight,公式如下:
其中,x_offset是每个候选位姿与位姿的估计值pose_estimated间沿x轴的位移,y_offset是每个候选位姿与位姿的估计值pose_estimated间沿y轴的位移,transweight是位移权重,candiate.rotation是候选位姿与位姿的估计值pose_estimated间旋转角度,rotweight是旋转角度权重;
将每个候选位姿的置信度candidate_probability与置信度权重candidate_weight的乘积作为当前位姿的置信度分值,公式如下,
score=candidate_probability*candidate_weight
选择置信度分值score最高的位姿更新位姿的估计值pose_estimated,作为最优位姿估计P(t+1)。根据获得的最优位姿变换估计P(t+1)和机器人当前的位姿P(t)可求得机器人位姿变换C(包括旋转矩阵和和位移矩阵),机器人根据变换关系T移动到P(t+1)的位姿,且在此基础上将当前的点云数据投影到对应位置地图栅格当中。若其中有重复落在同一地图栅格位置的多个点,仅取其中一个点对应的地图栅格在地图坐标系中的坐标,根据激光点云的投影情况更新栅格的概率。第一帧激光点投影到地图栅格上以后,各个栅格更新后的置信度如下:
当第二帧激光数据落到二维栅格平面时,根据以下公式更新各个栅格的置信度:
各个栅格的状态更新系数为:
当第n帧激光点云数据落入二维平面栅格时,各个栅格的置信度为:
其中,Pn-1(xi,yi)为第n-1帧激光点云数据落入二维平面栅格时,坐标为(xi,yi)的栅格的置信度;
(2)观测值为特征点时的机器人位姿变换估计
假设t-1时刻根据左右视图获得的相匹配的特征点序列为S=[s1,s2,…,sg],t时刻根据左右视图获得的相匹配的特征点序列为P=[p1,p2,…,ph],将t-1时刻和t时刻的特征点序列S、P进行匹配,此时根据相匹配的特征点的坐标变化和特征点的主方向变化可以获得机器人的位姿变换关系T′,从而在此基础上将特征点的描述子投影到对应的地图栅格上,此时定义栅格的第二属性,即特征点描述子属性。此时栅格地图的置信度具有激光概率和特征点两重属性,第一重属性和第二重属性相互独立。
4、生成子图
采用瓦片式的建图方法,利用连续的激光点云数据生成子图,每连续Ts内数据生成一张子图,第二张子图包含上一张子图的后t(t<T)s内的数据。如:将第1s到40s内的数据进行配准形成子图A1,第21s到60s的数据进行配准形成子图A2,第41s到80s的数据进行配准形成子图A3,......。
二、系统后端
1、闭环检测
根据当前获得的左视图和右视图,利用ORB算法提取特征点,并计算特征点的描述子。将获得的特征点的描述子存入集合Q,Q={Q1,Q2,…,QN},假设此时已生成M张子图,将Q中每个描述子与每张子图中的每个栅格对应的第二层属性,即栅格特征点描述子进行匹配。当集合Q中的描述子与某张子图的栅格特征点描述子匹配成功率达到90%以上时,闭环检测成功。
2、图优化
图优化是通过减少轨迹中的漂移减少轨迹扭曲,在图优化的过程中,机器人的位姿被表示成图中的节点,观测信息经过处理后转变为机器人之间位姿间的约束关系,并通过连接节点间的边来表示。图的每个节点取决于机器人位姿的描述,所有节点的状态方程为 其中分别为全局坐标系下的机器人的位姿,边则描述了机器人位姿之间的变换关系节点Pi和节点Pj之间观测方程可以表示为zj=xiTi,j,即机器人经过运动Ti,j由Pi运动到Pj,其中,xi为节点Pi相应的机器人在全局坐标系下的位姿,,xj为节点Pj相应的机器人在全局坐标系下的位姿,zj为节点Pj的观测值,即xi经变换矩阵变换后的估计位姿,Ti,j为节点Pi与节点Pj之间的变换关系。
在优化过程中,每个节点都有一个估计值,那么由一条边连接的两个顶点各有一个估计值,它们与这条边的约束之间会有一个误差。也就是说,理想情况下我们有:
zj=xiTi,j
机器人位姿xj与xi经变换矩阵变换后的估计位姿zj之间存在误差e(zj,xj):
e(zj,xj)=xiTi,j-xj
由于每条边都产生了一点点误差,假设建立的是一个带有K条边的图,其目标函数可以写成:
其中,信息矩阵Ωk是协方差矩阵的逆,是一个对称矩阵。它的每个元素Ωi,j用作误差的系数,对e(zi,xi)、e(zj,xj)的误差相关性进行预计。最简单的是把Ωk设成对角矩阵,对角矩阵元素的大小表明对各元素相应误差的重视程度。采用其他协方差矩阵也可以。
xk增加一个增量Δx,误差值则从e(zk,xk)变为e(zk,xk+Δx),对误差项进行一阶展开:
Jk是e(zk,xk)关于xk的导数,矩阵形式下为雅可比阵。对于第k条边的目标函数项,进一步展开有:
E(xk+Δx)=e(zk,xk+Δx)TΩke(zk,xk+Δx)
≈[e(zk,xk)+JkΔx]TΩk[e(zk,xk)+JkΔx]
=e(zk,xk)TΩke(zk,xk)+2e(zk,xk)TΩkJkΔx+ΔxTJk TΔx
=Ck+2bkΔx+ΔxTHkΔx
将与Δx无关的项整理成常数项Ck,Δx的一次项系数整理成bk,Δx二次项系数写成Hk。
重写目标函数:
ΔE(x)=2bΔx+ΔxTHΔx
为了使ΔE(x)取得最小值,令ΔE(x)对Δx的导数为零,有
用求得的Δx更新状态变量X,通过多次迭代最终求得满足目标方程的状态变量X的收敛值,对整个运动过程中机器人位姿进行优化,X中的各个节点的位姿即可构成最终的建图结果。
本发明采用视觉和激光相结合的建图方法,一方面改善了视觉算法受光照影响大的缺点,另一方面利用特征点的描述子属性检测闭环,解决了激光闭环检测成功率过低的问题,提高了闭环检测效率。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种基于视觉与激光slam的机器人室内建图方法,其特征在于,包括以下步骤:
视觉传感器获取左视图和右视图,生成特征点点云,具体包括:
提取左视图和右视图的特征点,
对获得的特征点进行匹配,
计算相匹配的特征点的空间坐标;
计算基于视觉的机器人的位姿变换估计,即将本时刻左视图和右视图相匹配的特征点与本时刻的上一时刻的左视图和右视图相匹配的特征点进行二次匹配,根据二次匹配的特征点的坐标变化和特征点的主方向变化获得机器人的位姿变换关系,将特征点的描述子投影到对应的地图栅格上,定义栅格的特征点描述子属性;
获得激光数据,计算基于激光的机器人位姿变换估计、更新地图栅格的置信度;
采用瓦片式的建图方法,利用连续的激光点云数据生成子图;
闭环检测,即将获得的特征点的描述子与每张子图的每个栅格对应的栅格的特征点描述子属性进行匹配;
图优化,具体包括:通过图的节点表示机器人的位姿,通过连接节点的边表示机器人位姿间的变换关系,计算各机器人位姿与经变换矩阵变换后的估计位姿之间的误差,计算带有若干条边的图的误差目标函数,通过多次迭代求得使目标函数收敛的机器人位姿,用于更新各个子图中的机器人位姿,即可构成最终的建图结果;
所述提取左视图和右视图的特征点包括:
利用ORB算法对左右视图进行FAST角点检测,提取特征点P;
其中Y(x,y)为图像的灰度值,x,y∈[-r,r],r为邻域S的半径,p、q取0或1,则该邻域的质心位置为:
特征点P的主方向θ为:
θ=arctan(m01/m10);
生成特征点描述子:
则特征点P的邻域S内二进制测试准则可定义为:
其中,iθ=i1θ,…,inθ,jθ=j1θ,…,jnθ,τ表示一种二进制测试准则,Yiθ表示点iθ的灰度值,Yjθ表示点jθ的灰度值;
此时可得到特征点P旋转的描述子:
k′为128、256或512,对应描述符的大小分别为16字节、32字节或64字节,根据方法的实时性、存储空间以及识别效率进行选择;
所述获得激光数据,计算基于激光的机器人位姿变换估计、更新地图栅格的置信度,具体包括:
根据最新接收的里程计数据和最新接收的惯性导航数据对预测位姿初值进行校正得到位姿的估计值pose_estimated,所述预测位姿初值通过机器人的激光数据计算得到,
通过定位扫描窗口大小确定定位扫描窗口内各地图栅格上各扫描角度的位姿,作为所有可能的候选位姿possible_candidates,
根据每个候选位姿对应的各个地图栅格的置信度,计算每个候选位姿的置信度candidate_probability,公式如下:
根据每个候选位姿possible_candidate与位姿的估计值pose_estimated的位姿差来计算每个候选位姿对应的置信度权重candidate_weight,公式如下:
其中,x_offset是每个候选位姿与位姿的估计值pose_estimated间沿x轴的位移,y_offset是每个候选位姿与位姿的估计值pose_estimated间沿y轴的位移,transweight是位移权重,candiate.rotation是候选位姿与位姿的估计值pose_estimated间旋转角度,rotweight是旋转角度权重,
将每个候选位姿的置信度candidate_probability与置信度权重candidate_weight的乘积作为当前位姿的置信度分值,公式如下,
score=candidate_probability*candidate_weight
选择置信度分值score最高的位姿更新位姿的估计值pose_estimated,作为最优位姿估计P(t+1),其中,t表示计算机器人位姿的时间点,
根据获得的最优位姿变换估计P(t+1)和机器人当前的位姿P(t)可求得机器人位姿变换C,机器人根据变换关系T移动到P(t+1)的位姿,且在此基础上将当前的点云数据投影到对应位置地图栅格当中,若其中有重复落在同一地图栅格位置的多个点,仅取其中一个点对应的地图栅格在地图坐标系中的坐标,根据激光点云的投影情况更新栅格的概率,第一帧激光点投影到地图栅格上以后,各个栅格更新后的置信度如下:
当第二帧激光数据落到二维栅格平面时,根据以下公式更新各个栅格的置信度:
各个栅格的状态更新系数为:
当第n帧激光点云数据落入二维平面栅格时,各个栅格的置信度为:
其中,Pn-1(xi,yi)为第n-1帧激光点云数据落入二维平面栅格时,坐标为(xi,yi)的栅格的置信度,
观测值为特征点时的机器人位姿变换估计:假设t-1时刻根据左右视图获得的相匹配的特征点序列为S=[s1,s2,…,sg],t时刻根据左右视图获得的相匹配的特征点序列为P=[p1,p2,…,ph],将t-1时刻和t时刻的特征点序列S、P进行匹配,此时根据相匹配的特征点的坐标变化和特征点的主方向变化可以获得机器人的位姿变换关系T′,从而在此基础上将特征点的描述子投影到对应的地图栅格上,此时定义栅格的第二属性,即特征点描述子属性,此时栅格地图的置信度具有激光概率和特征点两重属性,第一重属性和第二重属性相互独立。
4.根据权利要求3所述的基于视觉与激光slam的机器人室内建图方法,其特征在于,所述采用瓦片式的建图方法,利用连续的激光点云数据生成子图具体为:
利用连续的激光点云数据生成子图,每连续Ts内数据生成一张子图,第二张子图包含上一张子图的后ts内的数据,其中t<T。
5.根据权利要求4所述的基于视觉与激光slam的机器人室内建图方法,其特征在于,所述图优化具体为:
机器人的位姿被表示成图中的节点,观测信息经过处理后转变为机器人之间位姿间的约束关系,并通过连接节点间的边来表示;图的每个节点取决于机器人位姿的描述,所有节点的状态方程为其中分别为全局坐标系下的机器人的位姿,边则描述了机器人位姿之间的变换关系;节点Pi和节点Pj之间观测方程可以表示为:
zj=xiTi,j
其中,xi为节点Pi相应的机器人在全局坐标系下的位姿,xj为节点Pj相应的机器人在全局坐标系下的位姿,zj为节点Pj的观测值,即xi经变换矩阵变换后的估计位姿,Ti,j为节点Pi与节点Pj之间的变换关系;
机器人位姿xj与xi经变换矩阵变换后的估计位姿zj之间存在误差e(zj,xj),计算公式为:
e(zj,xj)=xiTi,j-xj
带有若干条边的图的误差目标函数E(x)为:
其中,信息矩阵Ωk是协方差矩阵的逆,是一个对称矩阵;它的每个元素Ωi,j用作误差的系数,对e(zi,xi)、e(zj,xj)的误差相关性进行预计;
假设xk增加一个增量Δx,通过多次迭代最终求得满足目标方程E(x)的收敛值,用求得的Δx更新状态变量X,X中的各个节点的位姿即可构成最终的建图结果。
6.一种基于视觉与激光slam的机器人室内建图系统,其特征在于,所述系统基于权利要求1-5任一权利要求所述的方法实现,所述系统分为前端和后端,系统的前端利用双目视觉传感器获取环境的左视图和右视图,通过ORB算法提取左右视图,并对左右视图的特征点进行匹配,进而求取各个特征点在空间内的坐标;对相邻时刻获得的特征点进行匹配,进而求得时刻机器人的位姿变换关系,将特征点投影到地图栅格上,定义有特征点投影的栅格地图具有描述子属性;系统的前端通过激光传感器获得环境的激光点云数据,并对激光点云数据进行去噪处理,通过求取机器人位姿初值、定义扫描窗口、求取置信度获得机器人的位姿变换估计,将激光点云投射到栅格地图上,更新各个地图栅格的置信度;系统后端对得到的地图进行闭环检测和图优化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911257094.XA CN111076733B (zh) | 2019-12-10 | 2019-12-10 | 一种基于视觉与激光slam的机器人室内建图方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911257094.XA CN111076733B (zh) | 2019-12-10 | 2019-12-10 | 一种基于视觉与激光slam的机器人室内建图方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111076733A CN111076733A (zh) | 2020-04-28 |
CN111076733B true CN111076733B (zh) | 2022-06-14 |
Family
ID=70313690
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911257094.XA Active CN111076733B (zh) | 2019-12-10 | 2019-12-10 | 一种基于视觉与激光slam的机器人室内建图方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111076733B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111664843A (zh) * | 2020-05-22 | 2020-09-15 | 杭州电子科技大学 | 一种基于slam的智能仓储盘点方法 |
CN113835422B (zh) * | 2020-06-08 | 2023-09-29 | 杭州海康机器人股份有限公司 | 一种视觉地图构建方法和移动机器人 |
CN111795687B (zh) * | 2020-06-29 | 2022-08-05 | 深圳市优必选科技股份有限公司 | 一种机器人地图更新方法、装置、可读存储介质及机器人 |
CN111862162B (zh) * | 2020-07-31 | 2021-06-11 | 湖北亿咖通科技有限公司 | 回环检测方法及系统、可读存储介质、电子设备 |
CN112116656B (zh) * | 2020-08-03 | 2024-05-31 | 歌尔股份有限公司 | 同步定位与地图构建slam中的增量建图方法和装置 |
CN112102400B (zh) * | 2020-09-15 | 2022-08-02 | 上海云绅智能科技有限公司 | 基于距离的闭环检测方法、装置、电子设备和存储介质 |
CN112197773B (zh) * | 2020-09-30 | 2022-11-11 | 江苏集萃未来城市应用技术研究所有限公司 | 基于平面信息的视觉和激光定位建图方法 |
CN113126621A (zh) * | 2020-10-14 | 2021-07-16 | 中国安全生产科学研究院 | 一种地铁车厢消毒机器人自动导航方法 |
CN112325872B (zh) * | 2020-10-27 | 2022-09-30 | 上海懒书智能科技有限公司 | 一种基于多传感器耦合的移动设备的定位方法 |
CN112665575B (zh) * | 2020-11-27 | 2023-12-29 | 重庆大学 | 一种基于移动机器人的slam回环检测方法 |
CN112650255B (zh) * | 2020-12-29 | 2022-12-02 | 杭州电子科技大学 | 基于视觉与激光雷达信息融合的机器人定位导航方法 |
CN113189613B (zh) * | 2021-01-25 | 2023-01-10 | 广东工业大学 | 一种基于粒子滤波的机器人定位方法 |
CN113112478B (zh) * | 2021-04-15 | 2023-12-15 | 深圳市优必选科技股份有限公司 | 一种位姿的识别方法及终端设备 |
CN113624221B (zh) * | 2021-06-30 | 2023-11-28 | 同济人工智能研究院(苏州)有限公司 | 一种融合视觉与激光的2.5d地图构建方法 |
CN115265546B (zh) * | 2022-08-12 | 2025-01-03 | 北京金坤科创技术有限公司 | 一种无人机室内slam定位方法 |
CN115880364B (zh) * | 2023-02-09 | 2023-05-16 | 广东技术师范大学 | 基于激光点云和视觉slam的机器人位姿估计方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106793086A (zh) * | 2017-03-15 | 2017-05-31 | 河北工业大学 | 一种室内定位方法 |
CN109857123A (zh) * | 2019-03-21 | 2019-06-07 | 郑州大学 | 一种基于视觉感知和激光探测的室内slam地图的融合方法 |
CN109974712A (zh) * | 2019-04-22 | 2019-07-05 | 广东亿嘉和科技有限公司 | 一种基于图优化的变电站巡检机器人建图方法 |
CN110084272A (zh) * | 2019-03-26 | 2019-08-02 | 哈尔滨工业大学(深圳) | 一种聚类地图创建方法及基于聚类地图和位置描述子匹配的重定位方法 |
CN110196044A (zh) * | 2019-05-28 | 2019-09-03 | 广东亿嘉和科技有限公司 | 一种基于gps闭环检测的变电站巡检机器人建图方法 |
CN110361027A (zh) * | 2019-06-25 | 2019-10-22 | 马鞍山天邦开物智能商务管理有限公司 | 基于单线激光雷达与双目相机数据融合的机器人路径规划方法 |
CN110533722A (zh) * | 2019-08-30 | 2019-12-03 | 的卢技术有限公司 | 一种基于视觉词典的机器人快速重定位方法及系统 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009021068A1 (en) * | 2007-08-06 | 2009-02-12 | Trx Systems, Inc. | Locating, tracking, and/or monitoring personnel and/or assets both indoors and outdoors |
EP3371670B1 (en) * | 2015-11-02 | 2024-05-22 | Starship Technologies OÜ | Device and method for autonomous localisation |
CN105953796A (zh) * | 2016-05-23 | 2016-09-21 | 北京暴风魔镜科技有限公司 | 智能手机单目和imu融合的稳定运动跟踪方法和装置 |
CN106909877B (zh) * | 2016-12-13 | 2020-04-14 | 浙江大学 | 一种基于点线综合特征的视觉同时建图与定位方法 |
SG10201700299QA (en) * | 2017-01-13 | 2018-08-30 | Otsaw Digital Pte Ltd | Three-dimensional mapping of an environment |
CN107356252B (zh) * | 2017-06-02 | 2020-06-16 | 青岛克路德机器人有限公司 | 一种融合视觉里程计与物理里程计的室内机器人定位方法 |
AU2018326401C1 (en) * | 2017-09-04 | 2023-07-13 | Commonwealth Scientific And Industrial Research Organisation | Method and system for use in performing localisation |
CN109489660A (zh) * | 2018-10-09 | 2019-03-19 | 上海岚豹智能科技有限公司 | 机器人定位方法及设备 |
-
2019
- 2019-12-10 CN CN201911257094.XA patent/CN111076733B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106793086A (zh) * | 2017-03-15 | 2017-05-31 | 河北工业大学 | 一种室内定位方法 |
CN109857123A (zh) * | 2019-03-21 | 2019-06-07 | 郑州大学 | 一种基于视觉感知和激光探测的室内slam地图的融合方法 |
CN110084272A (zh) * | 2019-03-26 | 2019-08-02 | 哈尔滨工业大学(深圳) | 一种聚类地图创建方法及基于聚类地图和位置描述子匹配的重定位方法 |
CN109974712A (zh) * | 2019-04-22 | 2019-07-05 | 广东亿嘉和科技有限公司 | 一种基于图优化的变电站巡检机器人建图方法 |
CN110196044A (zh) * | 2019-05-28 | 2019-09-03 | 广东亿嘉和科技有限公司 | 一种基于gps闭环检测的变电站巡检机器人建图方法 |
CN110361027A (zh) * | 2019-06-25 | 2019-10-22 | 马鞍山天邦开物智能商务管理有限公司 | 基于单线激光雷达与双目相机数据融合的机器人路径规划方法 |
CN110533722A (zh) * | 2019-08-30 | 2019-12-03 | 的卢技术有限公司 | 一种基于视觉词典的机器人快速重定位方法及系统 |
Non-Patent Citations (2)
Title |
---|
"基于双三次插值的巡检机器人初始位姿优化";林欢等;《机械设计与制造工程》;20180531;第47卷(第5期);56-60 * |
"基于深度传感器的移动机器人视觉SLAM研究";李扬宇;《中国优秀硕士学位论文全文数据库 信息科技辑》;20180615(第6期);I140-264 * |
Also Published As
Publication number | Publication date |
---|---|
CN111076733A (zh) | 2020-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111076733B (zh) | 一种基于视觉与激光slam的机器人室内建图方法及系统 | |
CN111462200B (zh) | 一种跨视频行人定位追踪方法、系统及设备 | |
Park et al. | Elastic lidar fusion: Dense map-centric continuous-time slam | |
CN110223348B (zh) | 基于rgb-d相机的机器人场景自适应位姿估计方法 | |
CN105856230B (zh) | 一种可提高机器人位姿一致性的orb关键帧闭环检测slam方法 | |
CN110146099B (zh) | 一种基于深度学习的同步定位与地图构建方法 | |
CN104732518B (zh) | 一种基于智能机器人地面特征的ptam改进方法 | |
CN111462207A (zh) | 一种融合直接法与特征法的rgb-d同时定位与地图创建方法 | |
CN109186606B (zh) | 一种基于slam和图像信息的机器人构图及导航方法 | |
CN113436260A (zh) | 基于多传感器紧耦合的移动机器人位姿估计方法和系统 | |
CN112785702A (zh) | 一种基于2d激光雷达和双目相机紧耦合的slam方法 | |
CN107301654A (zh) | 一种多传感器的高精度即时定位与建图方法 | |
CN106056643B (zh) | 一种基于点云的室内动态场景slam方法及系统 | |
CN113409410A (zh) | 一种基于3d激光雷达的多特征融合igv定位与建图方法 | |
WO2019136613A1 (zh) | 机器人室内定位的方法及装置 | |
CN106153048A (zh) | 一种基于多传感器的机器人室内定位及制图系统 | |
CN110827321B (zh) | 一种基于三维信息的多相机协同的主动目标跟踪方法 | |
CN108332752B (zh) | 机器人室内定位的方法及装置 | |
CN113175929B (zh) | 一种基于upf的空间非合作目标相对位姿估计方法 | |
WO2023273169A1 (zh) | 一种融合视觉与激光的2.5d地图构建方法 | |
CN112752028A (zh) | 移动平台的位姿确定方法、装置、设备和存储介质 | |
Zhang | LILO: A novel LiDAR–IMU SLAM system with loop optimization | |
CN114413958A (zh) | 无人物流车的单目视觉测距测速方法 | |
CN116679314A (zh) | 融合点云强度的三维激光雷达同步建图与定位方法及系统 | |
CN117367427A (zh) | 一种适用于室内环境中的视觉辅助激光融合IMU的多模态slam方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |