CN110706279B - 基于全局地图与多传感器信息融合的全程位姿估计方法 - Google Patents
基于全局地图与多传感器信息融合的全程位姿估计方法 Download PDFInfo
- Publication number
- CN110706279B CN110706279B CN201910923232.7A CN201910923232A CN110706279B CN 110706279 B CN110706279 B CN 110706279B CN 201910923232 A CN201910923232 A CN 201910923232A CN 110706279 B CN110706279 B CN 110706279B
- Authority
- CN
- China
- Prior art keywords
- aerial vehicle
- unmanned aerial
- coordinate system
- global
- vio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 230000004927 fusion Effects 0.000 title claims abstract description 21
- 238000005259 measurement Methods 0.000 claims abstract description 56
- 230000000007 visual effect Effects 0.000 claims abstract description 13
- 238000005457 optimization Methods 0.000 claims abstract description 11
- 238000006243 chemical reaction Methods 0.000 claims abstract description 9
- 230000009466 transformation Effects 0.000 claims description 28
- 239000011159 matrix material Substances 0.000 claims description 24
- 238000001914 filtration Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 238000010408 sweeping Methods 0.000 description 2
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002904 solvent Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Navigation (AREA)
Abstract
本发明提出一种基于全局地图与多传感器信息融合的全程位姿估计方法,涉及导航领域。该方法首先搭建包含各传感器的无人机系统;对传感器进行标定,获得每个传感器对应参数,并对无人机系统进行初始化;利用各传感器获得载体无人机当前所处位姿的量测信息,并利用视觉惯性里程计VIO系统的图像信息构造并维护局部地图;构建基于因子图的多传感器信息融合框架,利用因子图优化得到无人机系统对应VIO系统每一当前帧的最优状态变量,并更新当前帧下局部坐标系和全局坐标系间的转换关系,将局部地图转换为全局地图。本发明能够利用全局优化的方式将无人机搭载的所有传感器的量测和全局地图信息进行融合,提升无人机系统位姿估计的准确性和可靠性。
Description
技术领域
本发明涉及导航领域,具体涉及一种基于全局地图与多传感器信息融合的全程位姿估计方法。
背景技术
在自动驾驶、搜救、侦查等领域,对无人系统的需求日益提升,而无人系统的定位问题是其中的基础。目前,存在很多采用相机和激光雷达等传感器进行无人系统的局部位姿估计的技术,并且其中也有和IMU(惯性测量单元)结合形成的组合导航系统,它们在局部区域内可以实现对无人系统精确的位姿估计。例如,慕尼黑工业大学于2014年提出的LSD-SLAM(基于直接法的大范围单目即时定位和地图构建方法)基于直接法实现大规模环境下的位姿确定和地图构建;苏黎世联邦理工学院于2015年提出的ROVIO(鲁棒的视觉惯性里程计)算法,是一种基于卡尔曼滤波算法的单目视觉惯性里程计。但是上述的方式在实际应用中仍然存在一些缺陷,一是没有固定的全局参考,即在相同环境下,从不同的起点出发也可能得到不同的位姿估计结果,不利于之后的重复利用;二是缺少全局度量,局部估计随着时间推移容易产生漂移,使得长时间、大区域的局部估计不够准确。
GPS、磁强计和气压计等传感器不依赖于局部参考系,可以得到系统的全局测量,这些测量是不存在漂移的。但是由于传感器的特性,上述传感器的测量结果是存在噪声的,不能用于精确的控制和导航。例如GPS的测量精度在米级,并且测量频率较低且不连续。因此考虑不同传感器的特点,将传感器信息进行融合的结果会有更好的效果和性能。
而在一些较为恶劣的环境中,例如GPS工作时断时续,磁场或气压不够稳定等条件下,利用已存在的全局地图信息可以结合其他所有传感器的量测结果可以提供更为精确的全局位姿估计。
目前,常用的多传感器信息融合方法采用滤波方式。2013年,苏黎世联邦理工学院自动化系统实验室提出了一种基于扩展卡尔曼滤波算法的多传感器融合框架;2014年,香港科技大学也提出了一种基于无迹卡尔曼滤波的多传感器融合方法。但滤波算法需要相对较为准确的初始值预测,以及滤波算法对时间同步较为敏感,迟到的测量量会使得整个结果不够准确,而采用基于优化的方法会得到更有效准确的结果。2018年,香港科技大学提出一种多传感器融合框架,采用VINS-MONO(一种鲁棒通用的单目视觉惯性状态估计器)的输出和GPS、磁强计等传感器的输出进行融合,利用因子图优化的方式得到无人系统的位姿估计结果,但是该方法在整个过程中没有考虑全局坐标系和局部坐标系之间的对齐问题,并且在某些传感器失效的情况下,结果的准确性并不够可靠。
发明内容
本发明的目的是为克服已有技术的不足之处,提出一种基于全局地图与多传感器信息融合的全程位姿估计方法。本发明能够利用全局优化的方式将无人机搭载的所有传感器的量测和全局地图信息进行融合,而全局地图的存在可以在其他传感器失效的情况下对无人机系统载体进行位姿估计,提升无人机系统位姿估计的准确性和可靠性。
本发明提出一种基于全局地图与多传感器信息融合的全程位姿估计方法,其特征在于,包括以下步骤:
1)搭建包含各传感器的无人机系统;具体方法为:选定一台无人机,在无人机上分别搭载各传感器,包括:视觉惯性里程计VIO系统、GPS、磁强计和气压计;其中,所述VIO系统包含相机和惯性测量单元IMU,相机镜头方向与无人机前进方向一致;
2)在步骤1)搭建完毕的无人机系统中,对各传感器进行标定,分别获得每个传感器对应的参数,包括:相机的内外参矩阵,IMU的内参数和测量噪声,相机坐标系和IMU坐标系之间的相对位姿关系,磁强计噪声和气压计噪声;
标定完成后,对无人机系统进行初始化,包括:对各传感器信息输出的时间对齐,确定各传感器坐标系和载体无人机坐标系之间的位姿关系,确定无人机系统初始状态下的基帧变换矩阵;其中,全局坐标系为东北天ENU坐标系,局部坐标系为VIO系统第一帧图像所对应的相机位姿,VIO系统的本体坐标系即为无人机系统的本体坐标系;
3)利用各传感器获得载体无人机当前所处位姿的量测信息,并利用VIO系统得到的图像信息构造并维护局部地图;
选用局部坐标系下的无人机系统的状态变量为:
其中,χl为局部坐标系下的无人机系统状态变量,n为VIO系统的滑动窗口的大小,χt为载体无人机在VIO系统第t帧图像时对应的状态变量,为无人机在VIO系统第t帧图像时的位置,为无人机在VIO系统第t帧图像时的速度,为无人机在VIO系统第t帧图像时的姿态,上标l表示状态变量为相对于局部坐标系所得,ba为IMU中加速度计的噪声,bg为IMU中陀螺仪的噪声;
最终对VIO系统在局部坐标系下的位姿估计,即无人机系统在局部坐标系下的位姿估计,为如下非线性最小二乘问题:
其中,rB和rC分别代表惯性测量的误差和视觉测量的误差,WB为惯性测量的协方差,WC为视觉测量的协方差;对该非线性最小二乘问题求解,得到VIO系统在局部坐标系中6自由度位姿实时估计,将四元数转换为旋转矩阵则VIO系统的位姿估计表示为
4)构建基于因子图的多传感器信息融合框架,利用因子图优化得到无人机对应VIO系统当前帧的最优状态变量;具体步骤如下:
4-1)将VIO系统第t帧图像记为当前帧,选择全局坐标系下无人机系统状态变量为在全局坐标系下对应VIO系统第t帧图像的无人机位姿,其中表示VIO系统第t帧图像下无人机在全局坐标系下的位置,表示VIO系统第t帧图像下无人机在全局坐标系下的姿态,上标w表示相对于全局坐标系;
4-2)以状态变量xt为因子图变量节点,以无人机系统上搭载的各传感器获得的测量信息和由全局地图获得无人机的位姿信息为因子图因子节点,构建多传感器信息融合框架;
4-3)在所有传感器测量均为独立,且噪声满足高斯分布的条件下,将无人机系统在全局坐标系下的状态估计问题描述为:
4-4)构建因子图因子节点表达式;
4-4-1)GPS因子:
VIO系统第t帧图像对应的在全局坐标系下的GPS量测为:
则VIO系统第t帧图像对应的GPS因子表示为:
4-4-2)磁强计因子:
4-4-3)气压计因子:
其中,h代表气压计;
4-4-4)全局地图因子:
全局地图因子为将特征点像素坐标与全局地图点云中对应的3D点按照当前估计的位姿进行投影所得到的位置相比较得到的误差,称为重投影误差,具体表达式为:
当t=1时,基帧变换矩阵为步骤2)得到的的无人机系统初始状态下的基帧变换矩阵;
4-5)将因子图因子节点表达式代入式(1)进行求解,得到无人机系统对应VIO系统第t帧图像的最优状态变量,输出在当前帧下对无人机系统的全局位姿估计结果wTt;
5)进行基帧变换,得到当前帧下局部坐标系和全局坐标系之间的转换关系,将局部地图转换为全局地图;
根据步骤4)的结果得到VIO系统第t帧图像下无人机系统在全局坐标系下的位姿wTt,利用VIO系统得到无人机系统在局部坐标系下的位姿lTt,则第t帧时基帧变换描述为:
wTt l=wTt·(lTt)-1
6)当相机获取第t+1帧图像时,令t=t+1,将该图像作为新的当前帧,然后重新返回步骤3)。
本发明的特点及有益效果:
本发明提出的基于全局地图与多传感器信息融合的全程位姿估计方法,能够利用全局优化的方式将传感器测量量和全局地图信息进行融合,保证无人机系统精确的全局位姿估计。在某些传感器(比如GPS)信号较差甚至失效的条件下,全局地图依然能够为无人机系统提供准确的全局位姿。在极端环境或需要频繁往复观测的环境下,比如扫地机器人反复清扫或是战场上强干扰等环境下,系统具有较高的精度和鲁棒性。
附图说明
图1是本发明方法的总体流程图;
图2是本发明一个实施例的因子图示例图;
图3是本发明一个实施例的包含全部变量节点的因子图示例图;
图4是本发明的工作原理图。
具体实施方式
本发明提出一种基于全局地图与多传感器信息融合的全程位姿估计方法,下面结合附图和具体实施例对本发明的技术方案做进一步的说明。
本发明提出一种基于全局地图与多传感器信息融合的全程位姿估计方法,整体流程如图1所示,包括以下步骤:
1)搭建包含各传感器的无人机系统,具体方法为:选定一台无人机(可采用常规型号),在无人机上分别搭载各传感器,包括:VIO(视觉惯性里程计)系统、GPS、磁强计和气压计;其中,所述VIO系统包含相机和IMU(惯性测量单元),相机镜头方向与无人机前进方向一致,VIO系统、GPS磁强计、气压计均可以集成在无人机的飞控板上。所述VIO系统、GPS、磁强计和气压计均可采用常规型号部件,VIO系统、GPS、磁强计和气压计的重量总和不超过无人机的额定载荷;
2)在步骤1)搭建完毕的无人机系统中,对各传感器进行标定,分别获得每个传感器对应的参数。包括:相机的内外参矩阵,IMU的内参数和测量噪声,相机坐标系和IMU坐标系之间的相对位姿关系,磁强计和气压计的噪声。其中,相机、IMU、GPS等已有成熟的标定方法,比如相机的张正友标定法、IMU的误差分析标定法等。
标定完成后,对无人机系统进行初始化,包括:对各传感器信息输出的时间对齐,确定各传感器坐标系和载体(即无人机)坐标系之间的位姿关系,确定无人机系统初始状态下的基帧变换矩阵(局部坐标系和全局坐标系之间的变换矩阵);
具体地,考虑载体为无人机,各传感器已经通过标定获得各项参数,全局坐标系为ENU(东北天)坐标系,局部坐标系为VIO系统第一帧图像所对应的相机位姿,且认为VIO系统的本体坐标系即为无人机系统的本体坐标系。
3)利用各传感器获得载体当前所处位姿的量测信息,并利用VIO系统得到的图像信息构造并维护局部地图;
具体地,目前已存在成熟的VIO系统可以为载体提供无人机的局部位姿和局部地图。采用苏黎世联邦理工学院提出的OKVIS(基于关键帧的视觉惯性同步定位和建图方法),选用局部坐标系下的状态变量为:
其中,χl为局部坐标系下的无人机系统状态变量,n为VIO系统的滑动窗口的大小,χt为载体(无人机)在VIO系统第t帧图像时对应的状态变量,为为载体在VIO系统第t帧图像时的位置,为为载体在VIO系统第t帧图像时的速度,为为载体在VIO系统第t帧图像时的姿态,上标l表示状态变量为相对于局部坐标系所得,ba为IMU中加速度计的噪声,bg为IMU中陀螺仪的噪声。一般来说,IMU第一次测量所得的相机位姿被设定为局部坐标系。在相机帧中观测到特征之后,以表示特征点i在局部坐标系中的三维坐标,m为路标点(路标点即为二维特征点转化为三维形式的点)的个数。最终对VIO系统在局部坐标系下的位姿估计,即无人机系统在局部坐标系下的位姿估计,可以看做如下非线性最小二乘问题:
其中,rB和rC分别代表惯性测量的误差和视觉测量的误差,WB为惯性测量的协方差,WC为视觉测量的协方差。对该非线性最小二乘问题求解,得到VIO系统在局部坐标系中6自由度位姿实时估计,将四元数转换为旋转矩阵那么VIO系统的位姿估计可以表示为并且VIO系统可以实现局部地图的构造和维护。
4)构建基于因子图的多传感器信息融合框架,利用因子图优化得到无人机对应VIO系统当前帧的最优状态变量;
具体地,本实施例中因子图构建示例图如图2所示。图中,xt为变量节点,表示无人机系统在全局坐标系下的状态变量;GPS、磁强计、气压计的量测信息以及根据全局地图得到的量测信息为因子节点,因子节点和变量节点之间有边相连,从而可构建基于因子图的多传感器信息融合框架。图3所示即为本发明实施例中由全部变量节点构成的因子图示例图。
具体步骤如下:
4-1)将VIO系统第t帧图像记为当前帧,选择全局坐标系下无人机系统状态变量为在全局坐标系下对应VIO系统第t帧图像的载体位姿,其中表示VIO系统第t帧图像下无人机在全局坐标系下的位置,表示VIO系统第t帧图像下无人机在全局坐标系下的姿态,上标w表示相对于全局坐标系;
4-2)以状态变量xt为因子图变量节点,以无人机系统上搭载的各传感器获得的测量信息和由全局地图获得无人机的位姿信息为因子图因子节点,构建多传感器信息融合框架;
4-3)在所有传感器测量均为独立,且噪声满足高斯分布的条件下,将无人机系统在全局坐标系下的状态估计问题描述为:
4-4)构建因子图因子节点表达式;
具体地,在步骤4-5)中,各因子图因子节点表达式如下:
4-4-1)GPS因子:
以使用ENU坐标为例,得到VIO系统第t帧图像对应的在ENU全局坐标系下的GPS量测为:
则VIO系统第t帧图像对应的GPS因子可以表示为:
4-4-2)磁强计因子:
4-4-3)气压计因子:
其中,h代表气压计。
4-4-4)全局地图因子:
全局地图因子为将特征点像素坐标与全局地图点云中对应的3D点按照当前估计的位姿进行投影所得到的位置相比较得到的误差,称为重投影误差,具体表达式为:
具体地,由经过基帧变换矩阵变换得到,在步骤2)中,利用VIO系统得到的图像信息构造并维护局部地图,其中局部地图的三维点坐标即为利用上一个周期(即VIO系统第t-1帧图像下)步骤5)所求得的基帧变换矩阵可以将局部地图转换为全局地图,即式中和为和分别对应的齐次坐标。
当t=1时,基帧变换矩阵为步骤2)得到的的无人机系统初始状态下的基帧变换矩阵。
4-5)将因子图因子节点表达式代入式(1),进行求解,即可求得无人机系统对应VIO系统第t帧图像的最优状态变量,即输出在当前帧下对无人机系统的全局位姿估计结果。
具体地,采用Google Ceres Solver库对此因子优化问题进行求解,得到当前帧对应的无人机系统最优位姿估计结果。
5)进行基帧变换,得到当前帧下局部坐标系和全局坐标系之间的转换关系,将局部地图转换为全局地图;
具体地,根据步骤4)的结果,可以得到VIO系统第t帧图像下无人机系统在全局坐标系下的位姿wTt,利用VIO系统得到无人机系统在局部坐标系下的位姿lTt,则第t帧时基帧变换可以描述为:
wTt l=wTt·(lTt)-1
利用上述关系即可将当前帧下局部地图转换为全局地图。
6)当相机获取新的一帧图像(t+1帧)时,将该新的图像作为新的当前帧(第t帧),然后重新返回步骤3);当t大于n时,保留状态变量xt与其之前的n-1个状态变量共同作为滑动窗口中的状态变量,并按照先后顺序重新对保留的n个状态变量更新下标为1到n,此时有t=n,同理在步骤3)中也应为保留状态变量χt与其之前的n-1个状态变量共同作为滑动窗口中的状态变量,并按照先后顺序重新对保留的n个状态变量更新下标为1到n。
本发明的整体工作原理如图4所示,各传感器和通过全局地图获得的量测信息分别输入至主要VIO系统和全局位姿估计器,VIO系统输出局部地图和局部位姿,全局位姿估计器输出全局位姿,也是所需求的系统输出,利用全局位姿和局部位姿求得基帧变换矩阵,将局部地图转换为全局地图服务于下一帧的无人机系统的全局位姿估计。
根据本发明提出的基于全局地图与多传感器信息融合的全程位姿估计方法,能够利用全局优化的方式将所有传感器的测量量进行融合,而全局地图的存在可以在其他传感器失效的情况下对载体进行位姿估计,提升位姿估计的准确性和可靠性。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (1)
1.一种基于全局地图与多传感器信息融合的全程位姿估计方法,其特征在于,包括以下步骤:
1)搭建包含各传感器的无人机系统;具体方法为:选定一台无人机,在无人机上分别搭载各传感器,包括:视觉惯性里程计VIO系统、GPS、磁强计和气压计;其中,所述VIO系统包含相机和惯性测量单元IMU,相机镜头方向与无人机前进方向一致;
2)在步骤1)搭建完毕的无人机系统中,对各传感器进行标定,分别获得每个传感器对应的参数,包括:相机的内外参矩阵,IMU的内参数和测量噪声,相机坐标系和IMU坐标系之间的相对位姿关系,磁强计噪声和气压计噪声;
标定完成后,对无人机系统进行初始化,包括:对各传感器信息输出的时间对齐,确定各传感器坐标系和载体无人机坐标系之间的位姿关系,确定无人机系统初始状态下的基帧变换矩阵;其中,全局坐标系为东北天ENU坐标系,局部坐标系为VIO系统第一帧图像所对应的相机位姿,VIO系统的本体坐标系即为无人机系统的本体坐标系;
3)利用各传感器获得载体无人机当前所处位姿的量测信息,并利用VIO系统得到的图像信息构造并维护局部地图;
选用局部坐标系下的无人机系统的状态变量为:
其中,χl为局部坐标系下的无人机系统状态变量,n为VIO系统的滑动窗口的大小,χt为载体无人机在VIO系统第t帧图像时对应的状态变量,为无人机在VIO系统第t帧图像时的位置,为无人机在VIO系统第t帧图像时的速度,为无人机在VIO系统第t帧图像时的姿态,上标l表示状态变量为相对于局部坐标系所得,ba为IMU中加速度计的噪声,bg为IMU中陀螺仪的噪声;
最终对VIO系统在局部坐标系下的位姿估计,即无人机系统在局部坐标系下的位姿估计,为如下非线性最小二乘问题:
其中,rB和rC分别代表惯性测量的误差和视觉测量的误差,WB为惯性测量的协方差,WC为视觉测量的协方差;对该非线性最小二乘问题求解,得到VIO系统在局部坐标系中6自由度位姿实时估计,将四元数转换为旋转矩阵则VIO系统的位姿估计表示为
4)构建基于因子图的多传感器信息融合框架,利用因子图优化得到无人机对应VIO系统当前帧的最优状态变量;具体步骤如下:
4-1)将VIO系统第t帧图像记为当前帧,选择全局坐标系下无人机系统状态变量为在全局坐标系下对应VIO系统第t帧图像的无人机位姿,其中表示VIO系统第t帧图像下无人机在全局坐标系下的位置,表示VIO系统第t帧图像下无人机在全局坐标系下的姿态,上标w表示相对于全局坐标系;
4-2)以状态变量xt为因子图变量节点,以无人机系统上搭载的各传感器获得的测量信息和由全局地图获得无人机的位姿信息为因子图因子节点,构建多传感器信息融合框架;
4-3)在所有传感器测量均为独立,且噪声满足高斯分布的条件下,将无人机系统在全局坐标系下的状态估计问题描述为:
4-4)构建因子图因子节点表达式;
4-4-1)GPS因子:
VIO系统第t帧图像对应的在全局坐标系下的GPS量测为:
则VIO系统第t帧图像对应的GPS因子表示为:
4-4-2)磁强计因子:
4-4-3)气压计因子:
其中,h代表气压计;
4-4-4)全局地图因子:
全局地图因子为将特征点像素坐标与全局地图点云中对应的3D点按照当前估计的位姿进行投影所得到的位置相比较得到的误差,称为重投影误差,具体表达式为:
当t=1时,基帧变换矩阵为步骤2)得到的的无人机系统初始状态下的基帧变换矩阵;
4-5)将因子图因子节点表达式代入式(1)进行求解,得到无人机系统对应VIO系统第t帧图像的最优状态变量,输出在当前帧下对无人机系统的全局位姿估计结果wTt;
5)进行基帧变换,得到当前帧下局部坐标系和全局坐标系之间的转换关系,将局部地图转换为全局地图;
根据步骤4)的结果得到VIO系统第t帧图像下无人机系统在全局坐标系下的位姿wTt,利用VIO系统得到无人机系统在局部坐标系下的位姿lTt,则第t帧时基帧变换描述为:
wTt l=wTt·(lTt)-1
6)当相机获取第t+1帧图像时,令t=t+1,将该图像作为新的当前帧,然后重新返回步骤3)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910923232.7A CN110706279B (zh) | 2019-09-27 | 2019-09-27 | 基于全局地图与多传感器信息融合的全程位姿估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910923232.7A CN110706279B (zh) | 2019-09-27 | 2019-09-27 | 基于全局地图与多传感器信息融合的全程位姿估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110706279A CN110706279A (zh) | 2020-01-17 |
CN110706279B true CN110706279B (zh) | 2021-09-07 |
Family
ID=69198211
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910923232.7A Active CN110706279B (zh) | 2019-09-27 | 2019-09-27 | 基于全局地图与多传感器信息融合的全程位姿估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110706279B (zh) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111258313B (zh) * | 2020-01-20 | 2022-06-07 | 深圳市普渡科技有限公司 | 多传感器融合slam系统及机器人 |
CN111272192A (zh) * | 2020-02-11 | 2020-06-12 | 清华大学 | 用于滑移转向机器人的联合位姿确定方法及装置 |
CN111366153B (zh) * | 2020-03-19 | 2022-03-15 | 浙江大学 | 一种激光雷达与imu紧耦合的定位方法 |
CN111707275B (zh) * | 2020-05-12 | 2022-04-29 | 驭势科技(北京)有限公司 | 一种定位方法、装置、电子设备及计算机可读存储介质 |
CN111797688A (zh) * | 2020-06-02 | 2020-10-20 | 武汉大学 | 一种基于光流和语义分割的视觉slam方法 |
CN111805535B (zh) * | 2020-06-11 | 2022-06-07 | 浙江大华技术股份有限公司 | 一种定位导航方法、装置以及计算机存储介质 |
CN113819914B (zh) * | 2020-06-19 | 2024-06-07 | 北京图森未来科技有限公司 | 一种地图构建方法及装置 |
CN114255275A (zh) * | 2020-09-14 | 2022-03-29 | 华为技术有限公司 | 一种构建地图的方法及计算设备 |
CN112304307B (zh) * | 2020-09-15 | 2024-09-06 | 浙江大华技术股份有限公司 | 一种基于多传感器融合的定位方法、装置和存储介质 |
CN114322996B (zh) * | 2020-09-30 | 2024-03-19 | 阿里巴巴集团控股有限公司 | 一种多传感器融合定位系统的位姿优化方法和装置 |
CN112268559B (zh) * | 2020-10-22 | 2023-03-28 | 中国人民解放军战略支援部队信息工程大学 | 复杂环境下融合slam技术的移动测量方法 |
CN112305576A (zh) * | 2020-10-31 | 2021-02-02 | 中环曼普科技(南京)有限公司 | 一种多传感器融合的slam算法及其系统 |
CN112577494B (zh) * | 2020-11-13 | 2022-11-18 | 上海航天控制技术研究所 | 一种适用于月球车的slam方法、电子设备及存储介质 |
CN112097768B (zh) * | 2020-11-17 | 2021-03-02 | 深圳市优必选科技股份有限公司 | 机器人位姿的确定方法、装置、机器人及存储介质 |
CN112446905B (zh) * | 2021-01-29 | 2021-05-11 | 中国科学院自动化研究所 | 基于多自由度传感关联的三维实时全景监控方法 |
CN112914731A (zh) * | 2021-03-08 | 2021-06-08 | 上海交通大学 | 基于增强现实的介入机器人无接触遥操系统及标定方法 |
CN113204039B (zh) * | 2021-05-07 | 2024-07-16 | 深圳亿嘉和科技研发有限公司 | 一种应用于机器人的rtk-gnss外参标定方法 |
CN113340295B (zh) * | 2021-06-16 | 2021-12-21 | 广东工业大学 | 一种多个测距传感器的无人艇近岸实时定位与建图方法 |
CN114088104B (zh) * | 2021-07-23 | 2023-09-29 | 武汉理工大学 | 一种自动驾驶场景下的地图生成方法 |
CN113776543B (zh) * | 2021-07-27 | 2023-11-28 | 武汉中海庭数据技术有限公司 | 一种车辆融合定位方法、系统、电子设备及存储介质 |
CN113587934B (zh) * | 2021-07-30 | 2024-03-19 | 深圳市普渡科技有限公司 | 一种机器人、室内定位方法、装置和可读存储介质 |
CN113628284B (zh) * | 2021-08-10 | 2023-11-17 | 深圳市人工智能与机器人研究院 | 位姿标定数据集生成方法、装置、系统、电子设备及介质 |
CN113625774B (zh) * | 2021-09-10 | 2023-07-21 | 天津大学 | 局部地图匹配与端到端测距多无人机协同定位系统和方法 |
CN114001733B (zh) * | 2021-10-28 | 2024-03-15 | 浙江大学 | 一种基于地图的一致性高效视觉惯性定位算法 |
CN114543794B (zh) * | 2021-12-29 | 2024-07-30 | 西北工业大学 | 一种视觉惯性里程计与间断性rtk融合的绝对定位方法 |
CN114322994B (zh) * | 2022-03-10 | 2022-07-01 | 之江实验室 | 一种基于离线全局优化的多点云地图融合方法和装置 |
CN114648584B (zh) * | 2022-05-23 | 2022-08-30 | 北京理工大学前沿技术研究院 | 一种用于多源融合定位的鲁棒性控制方法和系统 |
CN115711616B (zh) * | 2022-06-09 | 2024-08-30 | 同济大学 | 一种室内室外穿越无人机的平顺定位方法及装置 |
CN117629204A (zh) * | 2022-08-16 | 2024-03-01 | 北京三快在线科技有限公司 | 定位方法和设备 |
CN115200591B (zh) * | 2022-09-16 | 2022-12-09 | 毫末智行科技有限公司 | 一种位姿确定方法、装置、整车控制器及可读存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105783913A (zh) * | 2016-03-08 | 2016-07-20 | 中山大学 | 一种融合车载多传感器的slam装置及其控制方法 |
US9870624B1 (en) * | 2017-01-13 | 2018-01-16 | Otsaw Digital Pte. Ltd. | Three-dimensional mapping of an environment |
CN107687850A (zh) * | 2017-07-26 | 2018-02-13 | 哈尔滨工业大学深圳研究生院 | 一种基于视觉和惯性测量单元的无人飞行器位姿估计方法 |
CN110274588A (zh) * | 2019-06-19 | 2019-09-24 | 南京航空航天大学 | 基于无人机集群信息的双层嵌套因子图多源融合导航方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050234679A1 (en) * | 2004-02-13 | 2005-10-20 | Evolution Robotics, Inc. | Sequential selective integration of sensor data |
-
2019
- 2019-09-27 CN CN201910923232.7A patent/CN110706279B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105783913A (zh) * | 2016-03-08 | 2016-07-20 | 中山大学 | 一种融合车载多传感器的slam装置及其控制方法 |
US9870624B1 (en) * | 2017-01-13 | 2018-01-16 | Otsaw Digital Pte. Ltd. | Three-dimensional mapping of an environment |
CN107687850A (zh) * | 2017-07-26 | 2018-02-13 | 哈尔滨工业大学深圳研究生院 | 一种基于视觉和惯性测量单元的无人飞行器位姿估计方法 |
CN110274588A (zh) * | 2019-06-19 | 2019-09-24 | 南京航空航天大学 | 基于无人机集群信息的双层嵌套因子图多源融合导航方法 |
Non-Patent Citations (2)
Title |
---|
Relative pose estimation of underwater robot by fusing inertial sensors and optical image;Jinwoo Choi等;《 2014 11th International Conference on Ubiquitous Robots and Ambient Intelligence (URAI)》;20150512;204-208 * |
基于椭圆特征的无人机自主着陆位姿估计方法;李斐等;《第三十二届中国控制会议》;20130726;3805-3810 * |
Also Published As
Publication number | Publication date |
---|---|
CN110706279A (zh) | 2020-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110706279B (zh) | 基于全局地图与多传感器信息融合的全程位姿估计方法 | |
CN110243358B (zh) | 多源融合的无人车室内外定位方法及系统 | |
CN105698765B (zh) | 双imu单目视觉组合测量非惯性系下目标物位姿方法 | |
CN109522832B (zh) | 基于点云片段匹配约束和轨迹漂移优化的回环检测方法 | |
CN114323033B (zh) | 基于车道线和特征点的定位方法、设备及自动驾驶车辆 | |
CN111025366B (zh) | 基于ins及gnss的网格slam的导航系统及方法 | |
CN109631894A (zh) | 一种基于滑动窗口的单目视觉惯性紧耦合方法 | |
CN113933818A (zh) | 激光雷达外参的标定的方法、设备、存储介质及程序产品 | |
Mercado et al. | Gps/ins/optic flow data fusion for position and velocity estimation | |
CN110187375A (zh) | 一种基于slam定位结果提高定位精度的方法及装置 | |
CN117739972B (zh) | 一种无全球卫星定位系统的无人机进近阶段定位方法 | |
Chen et al. | An optimal selection of sensors in multi-sensor fusion navigation with factor graph | |
CN112147599B (zh) | 基于样条函数的3d激光雷达和惯性传感器外参标定方法 | |
CN114690229A (zh) | 一种融合gps的移动机器人视觉惯性导航方法 | |
CN114915913A (zh) | 一种基于滑窗因子图的uwb-imu组合室内定位方法 | |
Liu et al. | 3D LiDAR aided GNSS real-time kinematic positioning via coarse-to-fine batch optimization for high accuracy mapping in dense urban canyons | |
CN117710476A (zh) | 基于单目视觉的无人机位姿估计与稠密建图方法 | |
Zhong et al. | Trajectory Smoothing Using GNSS/PDR Integration Via Factor Graph Optimization in Urban Canyons | |
CN104655132A (zh) | 一种基于加速度计的机体弹性变形角估计方法 | |
CN115290090A (zh) | 基于多传感器信息融合的slam地图构建方法 | |
CN117268404B (zh) | 一种利用多传感器融合的无人机室内外自主导航方法 | |
Luo et al. | An imu/visual odometry integrated navigation method based on measurement model optimization | |
CN117346768B (zh) | 同时适用于室内外的多传感器融合感知定位方法 | |
CN115856974B (zh) | 一种基于不变滤波的gnss、ins和视觉紧组合导航定位方法 | |
CN116380057B (zh) | 一种gnss拒止环境下无人机自主着陆定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |