CN112945233A - 一种全局无漂移的自主机器人同时定位与地图构建方法 - Google Patents
一种全局无漂移的自主机器人同时定位与地图构建方法 Download PDFInfo
- Publication number
- CN112945233A CN112945233A CN202110057910.3A CN202110057910A CN112945233A CN 112945233 A CN112945233 A CN 112945233A CN 202110057910 A CN202110057910 A CN 202110057910A CN 112945233 A CN112945233 A CN 112945233A
- Authority
- CN
- China
- Prior art keywords
- global
- pose
- frame
- representing
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000004927 fusion Effects 0.000 claims abstract description 13
- 238000005259 measurement Methods 0.000 claims description 58
- 230000000007 visual effect Effects 0.000 claims description 23
- 230000010354 integration Effects 0.000 claims description 19
- 230000004807 localization Effects 0.000 claims description 18
- 238000013507 mapping Methods 0.000 claims description 11
- 230000008447 perception Effects 0.000 claims description 11
- 230000001133 acceleration Effects 0.000 claims description 9
- 238000007499 fusion processing Methods 0.000 claims description 7
- 238000005457 optimization Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 4
- 238000013519 translation Methods 0.000 claims description 4
- 238000007476 Maximum Likelihood Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 abstract description 14
- 230000003252 repetitive effect Effects 0.000 abstract 1
- 230000000052 comparative effect Effects 0.000 description 20
- 238000004088 simulation Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- QBWCMBCROVPCKQ-UHFFFAOYSA-N chlorous acid Chemical compound OCl=O QBWCMBCROVPCKQ-UHFFFAOYSA-N 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000003094 perturbing effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种全局无漂移的自主机器人同时定位与地图构建方法,在局部状态估计中加入线特征更加直观的表示环境的几何结构信息,同时使用基于线性误差的直线表示方法,并通过一种局部状态和全局传感器信息融合的算法,有效解决了大尺度弱纹理场景下的精准状态估计问题,实现了局部精确和全局无漂移的位姿估计,提高了重复线特征纹理场景中的鲁棒性。
Description
技术领域
本发明涉及一种自主机器人同时定位与地图构建方法,尤其涉及一种全局无漂移的自主机器人同时定位与地图构建方法,属于机器人智能控制领域。
背景技术
同时定位与地图创建(Simultaneous Localization and Mapping,SLAM)系统是自主导航关键技术,视觉惯性融合的SLAM系统可通过其惯性测量单元(IMU)敏感到的加速度和角速度信息来改善相机因强烈光照变化等引起的问题,其在小范围内定位精度高。
然而在大尺度弱纹理场景下自主机器人状态估计技术仍然面临巨大挑战。一方面,基于特征点法的视觉惯性同时定位与地图创建(SLAM)方法在弱纹理的场景中,由于较难提取大量有效特征点使得定位精度大幅降低,纹理较差的视频或由于运动模糊等原因甚至造成系统完全失效。现有技术中还具有直接法(EngelJ,SchopsT,CremersD,et al.LSD-SLAM:Large-scale direct monocular SLAM[C].13th Euro-pean Conference onComputer Vision,Zurich,Switzerland,September 6-12,2014.),其在某种程度上缓解了特征点的依赖问题,但是稠密和半稠密的直接跟踪法计算量较大,无法在一些计算能力有限的平台上运行。
另一方面,大尺度场景用到的多源信息融合方法中,局部定位传感器(如相机、IMU、激光雷达等)未考虑全局定位的误差,全局测量(如GNSS、磁力计、气压计等)通常含有噪声且采集频率较低,在做高精度定位时无法单独使用。
由于上述原因,本发明人对现有的自主机器人状态估计系统做了深入的研究,提出了一种全局无漂移的自主机器人同时定位与地图构建方法,以期解决上述问题。
发明内容
为了克服上述问题,本发明人进行了锐意研究,设计出一种全局无漂移的自主机器人同时定位与地图构建方法,将局部定位和全局感知定位融合,实现精确的全局感知定位,
所述局部定位包括采用相机、惯性测量单元、激光雷达进行状态估计;
所述全局感知定位包括全球导航卫星系统、磁力计、气压计进行状态估计。
进一步地,将视觉惯性与全球导航卫星系统进行多源融合,所述视觉惯性包括惯性测量单元和相机。
根据本发明,该方法包括以下步骤:
S1、前端点线特征的跟踪;
S2、后端视觉惯性SLAM位姿态联合优化;
S3、与GNSS位姿融合获得全局位姿。
在步骤S1中,采用线性误差将线性特征表示为直线端点上的线性约束,从而将线特征自然地整合到基于特征点算法的线性表示中。
具体地,步骤S1包含以下子步骤:
S11、建立点线特征表示观测模型;
S12、建立IMU预积分观测模型。
根据本发明,在步骤S1中,由相机的光心和pi,k及qi,k构成的直线可以确定一个平面,其单位法向量li,k表示为:
其中,l1、l2、l3为参数系数,为待求解值,i表示相机不同帧图像,在一帧图像中通常具有多个点特征,观测到的第j个特征点的3D坐标表示为Xw,j∈R3,第k条线段端点为Pw,k、Qw,k∈R3,其在图像平面的投影坐标为 对应的齐次坐标为R3表示三维坐标、R2表示二维坐标;
相机的投影模型表示为π,齐次坐标表示为πh:
其中,Rw以及tw分别表示Tiw的旋转和平移,Tiw表示相机第i帧的位姿;w表示世界坐标系;Pw∈R3表示世界坐标系下的点坐标,O是其对应的相机坐标系下的点坐标,fx、fy和cx、cy分别为相机的焦距和主点;
在步骤S12中,离散时间为k和k+1之间的IMU预积分观测模型为:
其中,bm表示当前帧,bm+1表示下一帧;
根据本发明,在S2中,通过最小化所有测量残差的代价项之和来优化滑动窗口中的所有状态变量,从而获得优化后的位姿,可以表示为:
其中,为本体坐标系中i帧到i+1帧时刻IMU测量残差,χb为滑动窗口中所有IMU预积分的集合;与分别为点特征和线特征的重投影误差可根据式3获得,χp和χl分别为i帧观测到的点特征和线特征集合;ρ是用于抑制异常值的Cauchy鲁棒函数;eprior为滑动窗口边缘化一帧之后计算出的先验信息,在相机初始化过程中获得。
根据本发明,在S3中,将步骤S2获得的优化后的位姿与GNSS位姿融合从而获得全局位姿,融合过程可以通过下式表示:
根据本发明,在步骤S3中,将步骤S2获得的优化后的位姿与GNSS位姿融合从而获得全局位姿,融合过程可表示为:
其中,χ*表示融合后的全局位姿,S为测量值的集合,包含视觉惯性局部测量和全局测量GNSS,表示视觉惯性协方差,表示GNSS协方差,表示t时刻视觉惯性的测量值,表示t时刻视觉惯性测量模型的得到的测量值,表示t时刻GNSS的测量值,表示t时刻GNSS测量模型的得到的测量值。
本发明所具有的有益效果包括:
(1)根据本发明提供的全局无漂移的自主机器人同时定位与地图构建方法,能够使自主机器人在大尺度弱纹理场景中实现局部精准和全局无漂移的姿态估计;
(2)根据本发明提供的全局无漂移的自主机器人同时定位与地图构建方法,在局部状态估计中加入线特征,有效提升了关键帧之间相对位姿估计的准确性;
(3)根据本发明提供的全局无漂移的自主机器人同时定位与地图构建方法,将线性特征表示为直线端点上的线性约束,从而将线特征自然地整合到基于特征点算法的线性表示中,有效改善算法在重复线特征场景下的鲁棒性;
(4)根据本发明提供的全局无漂移的自主机器人同时定位与地图构建方法,实现了局部精确和全局无漂移的位姿估计。
附图说明
图1示出根据本发明一种优选实施方式的自主机器人同时定位与地图构建方法流程示意图;
图2示出一种自主机器人同时定位与地图构建方法中线特征的投影误差示意图;
图3示出一种自主机器人同时定位与地图构建方法中线特征的投影误差示意图;
图4示出一种优选实施方式的自主机器人同时定位与地图构建方法预积分过程示意图;
图5示出实验例2中仿真轨迹图;
图6示出实验例2中仿真轨迹图;
图7示出实验例2中仿真轨迹图;
图8示出实验例2中仿真轨迹图;
图9示出实验例2中仿真轨迹图;
图10示出实验例2中仿真轨迹图;
图11示出实验例3中仿真轨迹图;
图12示出实验例4中仿真轨迹图。
具体实施方式
下面通过附图和实施例对本发明进一步详细说明。通过这些说明,本发明的特点和优点将变得更为清楚明确。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在机器人状态估计中,根据使用的传感器类型不同,可以分为局部定位和全局感知定位。
局部定位是指采用相机、IMU、激光雷达等进行六自由度状态估计,然而,相机在快速移动或者光照发生剧烈变化时特征点容易跟踪丢失、IMU长时间运行会存在累计误差产生漂移、激光雷达对玻璃等物体存在反射,使得局部定位精度难以提高。
全局定位通常包含全球导航卫星系统(Global navigationsatellite system,GNSS)、磁力计、气压计等,全局感知定位的测量相对于地球框架,独立于起始点,可有效避免累计漂移的问题。然而,全局测量通常含有噪声且采集频率较低,若只有全局传感器不足以实现6自由度状态的实时估计,在做高精度定位时往往无法单独使用。
在本发明中,将局部定位和全局感知定位融合,从而实现精确的全局感知定位。
进一步地,在本发明中,将视觉惯性与全球导航卫星系统(GNSS)进行多源融合,从而提高状态估计的精度和鲁棒性。
所述视觉惯性包括惯性测量单元(IMU)和相机。
具体地,根据本发明提供的全局无漂移的自主机器人同时定位与地图构建方法,包括以下步骤将局部定位和全局感知定位融合:
S1、前端点线特征的跟踪;
S2、后端视觉惯性SLAM位姿态联合优化;
S3、与GNSS位姿融合获得全局位姿。
在步骤S1中,采用光流法对相机采集相邻图像帧之间进行前端数据关联,从而进行特征的跟踪。
所述光流法(Optical flow or optic flow)是关于视域中的物体运动检测中的概念,用来描述相对于观察者的运动所造成的观测目标、表面或边缘的运动,是一种常用的视觉识别检测方法,在本发明中不做特别赘述。
在传统的光流法进行前端数据关联中,大都基于点特征进行,例如CamposC,ElviraR,JuanJ,et al.ORB-SLAM3:An accurate open-source library for visual,visual-inertial and multi-map SLAM[J].arXiv:2007.11898(2020)中提到的方法。
然而,点特征表示的物体在较大的视角变化下不稳定,并且光照不变性较差;在弱光照下鲁棒性也较差。
在本发明中,采用线性误差将将线性特征表示为直线端点上的线性约束,从而将线特征自然地整合到基于特征点算法的线性表示中,有效改善算法在重复线特征场景下的鲁棒性。
具体地,步骤S1包含以下子步骤:
S11、建立点线特征表示观测模型;
S12、建立IMU预积分观测模型。
在步骤S11中,线特征的投影误差如图2、图3所示,其中,i表示相机不同帧图像,相机第i帧的位姿Tiw∈SE(3),SE(3)表示欧式变换;w表示世界坐标系,在一帧图像中通常具有多个点特征,观测到的第j个特征点的3D坐标表示为Xw,j∈R3,第k条线段端点为Pw,k、Qw,k∈R3,其在图像平面的投影坐标为对应的齐次坐标为Pw,k、Qw,k在图像平面对应的检测到的2D点坐标为pi,k、qi,k∈R2,对应的齐次坐标为R3表示三维坐标、R2表示二维坐标。
进一步地,在本发明中,由相机的光心和pi,k及qi,k构成的直线可以确定一个平面,其单位法向量li,k表示为:
在本发明中,相机的投影模型表示为π,齐次坐标表示为πh:
其中,Rw∈so(3)以及tw分别表示Tiw的旋转和平移;Pw∈R3表示世界坐标系下的点坐标,O是其对应的相机坐标系下的点坐标,fx、fy和cx、cy分别为相机的焦距和主点。
进一步地,在式3中,线特征重投影误差对相机位姿扰动的雅可比矩阵为:
其中,ξ为Tiw的李代数表示形式,[]∧为反对称矩阵,可以表示为:
进一步地,线性特征重投影误差对线段端点Pi,k,Qi,k的雅可比矩阵为:
其中,Riw世界坐标系到相机坐标系的旋转,tiw表示世界坐标系到相机坐标系的平移。
在步骤S12中,利用惯性测量数据优化视觉测量的尺度因子,并对齐两个传感器的位姿估计结果,实现视觉惯性联合位姿校准。
进一步地,IMU的状态传递方程可以表示为:
IMU的状态传递依赖于第i帧的旋转、位置和速度,在传统的算法中,每次机器人调整位姿,均需重新迭代更新第i帧的速度和旋转,并需要根据每次迭代后的值重新进行积分,使得该传递策略非常耗时。
在本发明中,将优化变量从第i帧到第i+1帧的IMU预积分项中分离出来:
由于IMU测量值通常含有噪声,且采用离散时间形式采集,考虑噪声并在离散时间条件下,根据式(10)可以获得离散时间为k和k+1之间的IMU预积分观测模型:
其中,bm表示当前帧,bm+1表示下一帧;
进一步地,
预积分的过程如图4所示,在本发明中,由于偏置更新较小,可以将预积分近似为:
IMU的测量残差为:
其中,[]xyz是以四元数形式表示的旋转误差的实部;
在S2中,通过最小化所有测量残差的代价项之和来优化滑动窗口中的所有状态变量,从而获得优化后的位姿,可以表示为:
其中,为本体坐标系中i帧到i+1帧时刻IMU测量残差,可根据式14获得,χb为滑动窗口中所有IMU预积分的集合,可根据式11获得;与分别为点特征和线特征的重投影误差可根据式3获得,χp和χl分别为i帧观测到的点特征和线特征集合;ρ是用于抑制异常值的Cauchy鲁棒函数;eprior为滑动窗口边缘化一帧之后计算出的先验信息,在相机初始化过程中获得,具体获得方式本领域技术人员可根据经验设置,例如文献MascaroR,TeixeiraL,HinamannT,et al.GOMSF:Graph-optimization based multi-sensor fusionfor ro-bust uav pose estimation[C].IEEE International Con-ference on Roboticsand Automation.Brisbane,Aus-tralia,May 21-25,2018.中提到的方法,在本发明中不做特别赘述。
在S3中,将步骤S2获得的优化后的位姿与GNSS位姿融合从而获得全局位姿。
进一步度,融合过程可以通过下式表示:
进一步地,测量值的不确定度符合高斯分布,式16可表示为:
由于视觉惯性局部估计在小范围内是精确的,因此可以利用两帧之间的相对姿态。考虑到两个连续帧t-1和帧t,可获得视觉惯性因子:
其中,和分别表示局部估计在连续帧t-1和帧t的位姿,为位置和旋转状态的四元数差值,式18中,等式右侧首行为两姿态的相对位置误差,第二行表示两姿态的相对旋转误差,表示t时刻视觉惯性的测量值、表示t时刻视觉惯性测量模型的得到的测量值、xt-1为t-1时刻的全局位姿、为视觉惯性局部帧中t-1时刻的旋转、视觉惯性局部估计中t时刻位置、为全局帧t-1时刻旋转的逆、全局帧t时刻位置、全局帧t时刻旋转。
根据式18~19,可将式17表示为:
实施例
实施例1
进行仿真实验,选用EuRoC数据集作为实验数据。EuRoC数据集是由苏黎世联邦理工采集的MAV(Micro Aerial Vehicle微型飞行器)视觉惯性数据集。数据集包括立体图像(Aptina MT9V034全局快门,单色WVGA,相机频率20FPS),并同步IMU(ADIS 16448,200Hz)数据以及精准的地面真实状态(动作捕捉系统VICON,激光追踪器LeicaMS50),数据集中提供了所有外部和内部参数,在仿真实验中,只使用左摄像头的图像。
仿真实验按照如下步骤进行:
S1、前端点线特征的跟踪;
S2、后端视觉惯性SLAM位姿态联合优化;
S3、与GNSS位姿融合获得全局位姿。
在步骤S1中,建立的点线特征表示观测模型为:
建立的IMU预积分观测模型为:
IMU的测量残差为:
在步骤S2中,通过最小化所有测量残差的代价项之和来优化滑动窗口中的所有状态变量,从而获得优化后的位姿,可以表示为:
其中,为本体坐标系中i到i+1时刻IMU测量残差,可根据式14获得,χb为滑动窗口中所有IMU预积分的集合,可根据式11获得;与分别为点特征和线特征的重投影误差可根据式3获得,χp和χl分别为i帧观测到的点特征和线特征集合;ρ是用于抑制异常值的Cauchy鲁棒函数,eprior为滑动窗口边缘化一帧之后计算出的先验信息,在相机初始化过程中获得。
在步骤S3中,将步骤S2获得的优化后的位姿与GNSS位姿融合从而获得全局位姿,融合过程可表示为:
实施例2
重复实施例1,区别在于,选用KITTI数据集作为实验数据。KITTI数据集由德国卡尔斯鲁厄理工学院和丰田美国技术研究院联合记录,是目前最大的自动驾驶场景下的计算机视觉算法评测数据集,KITTI包含市区、乡村和高速公路等场景采集的真实图像数据,有各种程度的遮挡与截断,其中采用的传感器包含立体图像(相机型号:PointGrey Flea 2,单色1382×512,相机频率为10PFS)和GPS,地面真实状态由惯性导航系统(OXTS RT 3003)提供。
对比例1
采用与实施例1相同的数据集,采用Leutenegger S,Lynen S,Bosse M,etal.Keyframe-based visual-inertial odometryusing nonlinear opti-mization[J].International Journal of Robotics Re-search,2014,34(3):314-334.中的OKVIS方法进行仿真。
对比例2
采用与实施例1相同的数据集,采用QinT,LiP L,ShenS J.VINS-Mono:A robustandversatile monocular visual-inertial state estimator[J].IEEE Transactionson Robotics,2018,34(4):1004-1020.中的VINS-mono方法进行仿真。
对比例3
采用与实施例1相同的数据集,采用HeYJ,ZhaoJ,GuoY,et al.PL-VIO:Tightly-coupled monocular visual-inertial odometry using point and line features[J].Sensors,2018,18(4):1159.中的PL-VIO方法进行仿真。
对比例4
采用与实施例2相同的数据集,采用Qin T,Cao SH Z,Pan J,etal.A generaloptimiza-tion-based framework for local odometry estimation with multiplesensors[J].arXiv:1901.03638(2019).中的VINS-Fusion方法进行仿真。
实验例1
对比实施例1、对比例1~3在EuRoC数据集11个序列估计的轨迹和真实轨迹的均方根误差如表一所示。
表一EuRoC数据集上位移(单位:米)与旋转(单位:度)均方根误差RMSE比较
通过表一可明显看出,实施例1中均方根误差明显低于基于点特征的VIO算法OKVIS(对比例1)与VINS-Mono(对比例2);而与同样是点线特征提取的PL-VIO(对比例3)相对比,PL-VIO在V1_02_medium数据集运行时,出现追踪失败导致严重漂移没有得到最终轨迹,而实施例1中无漂移现象,表明实施例1具有更好的鲁棒性。
另外,实施例1在快速运动、特征稀疏的数据集V2_03上仍能够保持0.2m左右的高精度定位,精度相比对比例3提升了19%左右,较未添加线特征和全局定位的对比例2提升39%左右。且实施例1中获得的定位误差以及旋转误差的波动更小,定位估计具有更好的一致性,实现了好的一致性,实现了弱纹理环境下鲁棒、精准的定位。
实验例2
对比实施例1与对比例3仿真的轨迹值,结果如图5~10所示,真实轨迹中颜色由蓝色到红色,表示误差逐渐增大,即蓝色处误差小,红色处误差大,其中,图5、图7、图9为对比例3在MH_04_difficult、MH_03_medium、V1_03_difficult三个序列上的轨迹;图6、图8、图10是实施例1在MH_04_difficult、MH_03_medium、V1_03_difficult三个序列上的轨迹。
从图上可以看出:当摄像机快速旋转时,实施例1比对比例3产生的误差更小。
实验例3
对比实施例1与对比例1~3在EuRoC数据集MH_04上的测试结果轨迹对比图如图11所示。
从图上可以发现,实施例1的定位轨迹能够更准确地接近真实轨迹,定位误差小于对比例1~3,表明实施例1的定位更准确。
实验例4
实施例2与对比例4上位移(单位:米)均方根误差RMSE结果如表二所示。
表二上位移(单位:米)均方根误差RMSE比较
从表二可以看出,实施例2获得的误差均小于对比例4,表明大尺度场景下同样融合GNSS的前提下添加线特征可有效提高估计轨迹的精度。
图12示出了数据序列10_03_drive_0027中实施例2与对比例4轨迹对比,可以看出实施例2的轨迹更加贴合真值,尤其在拐角处实施例4的轨迹与真值相差较大,实施例2在大尺度运行场景下更加鲁棒,定位精度更高。
以上结合了优选的实施方式对本发明进行了说明,不过这些实施方式仅是范例性的,仅起到说明性的作用。在此基础上,可以对本发明进行多种替换和改进,这些均落入本发明的保护范围内。
Claims (10)
1.一种全局无漂移的自主机器人同时定位与地图构建方法,其特征在于,
将局部定位和全局感知定位融合,实现精确的全局感知定位,
所述局部定位包括采用相机、惯性测量单元、激光雷达进行状态估计;
所述全局感知定位包括全球导航卫星系统、磁力计、气压计进行状态估计。
2.根据权利要求1所述的全局无漂移的自主机器人同时定位与地图构建方法,其特征在于,
将视觉惯性与全球导航卫星系统进行多源融合,所述视觉惯性包括惯性测量单元和相机。
3.根据权利要求1所述的全局无漂移的自主机器人同时定位与地图构建方法,其特征在于,
该方法包括以下步骤:
S1、前端点线特征的跟踪;
S2、后端视觉惯性SLAM位姿态联合优化;
S3、与GNSS位姿融合获得全局位姿。
4.根据权利要求1所述的全局无漂移的自主机器人同时定位与地图构建方法,其特征在于,
在步骤S1中,采用线性误差将线性特征表示为直线端点上的线性约束,从而将线特征自然地整合到基于特征点算法的线性表示中。
5.根据权利要求1所述的全局无漂移的自主机器人同时定位与地图构建方法,其特征在于,
步骤S1包含以下子步骤:
S11、建立点线特征表示观测模型;
S12、建立IMU预积分观测模型。
6.根据权利要求1所述的全局无漂移的自主机器人同时定位与地图构建方法,其特征在于,
在步骤S1中,由相机的光心和pi,k及qi,k构成的直线可以确定一个平面,其单位法向量li,k表示为:
其中,l1、l2、l3为参数系数,为待求解值,i表示相机不同帧图像,在一帧图像中通常具有多个点特征,观测到的第j个特征点的3D坐标表示为Xw,j∈R3,第k条线段端点为Pw,k、Qw,k∈R3,其在图像平面的投影坐标为 对应的齐次坐标为 R3表示三维坐标、R2表示二维坐标;
相机的投影模型表示为π,齐次坐标表示为πh:
其中,Rw以及tw分别表示Tiw的旋转和平移,Tiw表示相机第i帧的位姿;w表示世界坐标系;Pw∈R3表示世界坐标系下的点坐标,O是其对应的相机坐标系下的点坐标,fx、fy和cx、cy分别为相机的焦距和主点;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110057910.3A CN112945233B (zh) | 2021-01-15 | 2021-01-15 | 一种全局无漂移的自主机器人同时定位与地图构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110057910.3A CN112945233B (zh) | 2021-01-15 | 2021-01-15 | 一种全局无漂移的自主机器人同时定位与地图构建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112945233A true CN112945233A (zh) | 2021-06-11 |
CN112945233B CN112945233B (zh) | 2024-02-20 |
Family
ID=76235412
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110057910.3A Active CN112945233B (zh) | 2021-01-15 | 2021-01-15 | 一种全局无漂移的自主机器人同时定位与地图构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112945233B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113532431A (zh) * | 2021-07-15 | 2021-10-22 | 贵州电网有限责任公司 | 一种用于电力巡检与作业的视觉惯性slam方法 |
CN113721260A (zh) * | 2021-08-26 | 2021-11-30 | 南京邮电大学 | 一种激光雷达、双目相机和惯导的在线联合标定方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109579840A (zh) * | 2018-10-25 | 2019-04-05 | 中国科学院上海微系统与信息技术研究所 | 一种点线特征融合的紧耦合双目视觉惯性slam方法 |
CN110060277A (zh) * | 2019-04-30 | 2019-07-26 | 哈尔滨理工大学 | 一种多特征融合的视觉slam方法 |
CN110490085A (zh) * | 2019-07-24 | 2019-11-22 | 西北工业大学 | 点线特征视觉slam系统的快速位姿估计算法 |
CN111595334A (zh) * | 2020-04-30 | 2020-08-28 | 东南大学 | 基于视觉点线特征与imu紧耦合的室内自主定位方法 |
US20200349730A1 (en) * | 2018-04-26 | 2020-11-05 | Tencent Technology (Shenzhen) Company Limited | Simultaneous localization and mapping method, computer device, and storage medium |
-
2021
- 2021-01-15 CN CN202110057910.3A patent/CN112945233B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200349730A1 (en) * | 2018-04-26 | 2020-11-05 | Tencent Technology (Shenzhen) Company Limited | Simultaneous localization and mapping method, computer device, and storage medium |
CN109579840A (zh) * | 2018-10-25 | 2019-04-05 | 中国科学院上海微系统与信息技术研究所 | 一种点线特征融合的紧耦合双目视觉惯性slam方法 |
CN110060277A (zh) * | 2019-04-30 | 2019-07-26 | 哈尔滨理工大学 | 一种多特征融合的视觉slam方法 |
CN110490085A (zh) * | 2019-07-24 | 2019-11-22 | 西北工业大学 | 点线特征视觉slam系统的快速位姿估计算法 |
CN111595334A (zh) * | 2020-04-30 | 2020-08-28 | 东南大学 | 基于视觉点线特征与imu紧耦合的室内自主定位方法 |
Non-Patent Citations (2)
Title |
---|
TONG QIN等: "A General Optimization-based Framework for Global Pose Estimation with Multiple Sensors", 《ARXIV:1901.03642V1》, pages 1 - 7 * |
朱叶青 等: "大尺度弱纹理场景下多源信息融合SLAM算法", 《宇航学报》, vol. 42, no. 10, pages 1271 - 1282 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113532431A (zh) * | 2021-07-15 | 2021-10-22 | 贵州电网有限责任公司 | 一种用于电力巡检与作业的视觉惯性slam方法 |
CN113721260A (zh) * | 2021-08-26 | 2021-11-30 | 南京邮电大学 | 一种激光雷达、双目相机和惯导的在线联合标定方法 |
CN113721260B (zh) * | 2021-08-26 | 2023-12-12 | 南京邮电大学 | 一种激光雷达、双目相机和惯导的在线联合标定方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112945233B (zh) | 2024-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Heng et al. | Project autovision: Localization and 3d scene perception for an autonomous vehicle with a multi-camera system | |
CN112634451B (zh) | 一种融合多传感器的室外大场景三维建图方法 | |
CN110070615B (zh) | 一种基于多相机协同的全景视觉slam方法 | |
CN106681353B (zh) | 基于双目视觉与光流融合的无人机避障方法及系统 | |
CN112556719B (zh) | 一种基于cnn-ekf的视觉惯性里程计实现方法 | |
CN105865454B (zh) | 一种基于实时在线地图生成的无人机导航方法 | |
CN112734765B (zh) | 基于实例分割与多传感器融合的移动机器人定位方法、系统及介质 | |
Liu et al. | Direct visual odometry for a fisheye-stereo camera | |
CN111932674B (zh) | 一种线激光视觉惯性系统的优化方法 | |
CN205426175U (zh) | 一种融合车载多传感器的slam装置 | |
CN114964276B (zh) | 一种融合惯导的动态视觉slam方法 | |
CN116619358A (zh) | 一种矿山自主探测机器人自适应定位优化与建图方法 | |
CN110887486B (zh) | 一种基于激光线辅助的无人机视觉导航定位方法 | |
CN116878501A (zh) | 一种基于多传感器融合的高精度定位与建图系统及方法 | |
CN116907469A (zh) | 多模态数据联合优化的同步定位及建图方法及系统 | |
CN117333406A (zh) | 一种煤矿井下多源传感器数据动态加权融合slam方法 | |
Zhu et al. | PairCon-SLAM: Distributed, online, and real-time RGBD-SLAM in large scenarios | |
CN112945233A (zh) | 一种全局无漂移的自主机器人同时定位与地图构建方法 | |
Lu et al. | Vision-based localization methods under GPS-denied conditions | |
CN113763470B (zh) | 点线特征融合的rgbd视觉惯性同时定位与地图构建 | |
Feng et al. | Improved monocular visual-inertial odometry with point and line features using adaptive line feature extraction | |
Sizintsev et al. | Long-range augmented reality with dynamic occlusion rendering | |
Zhao et al. | A review of visual SLAM for dynamic objects | |
CN116182855A (zh) | 一种弱光强环境下仿复眼偏振视觉无人机组合导航方法 | |
CN116824433A (zh) | 基于自监督神经网络的视觉-惯导-雷达融合自定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |