CN110243358A - 多源融合的无人车室内外定位方法及系统 - Google Patents
多源融合的无人车室内外定位方法及系统 Download PDFInfo
- Publication number
- CN110243358A CN110243358A CN201910353912.XA CN201910353912A CN110243358A CN 110243358 A CN110243358 A CN 110243358A CN 201910353912 A CN201910353912 A CN 201910353912A CN 110243358 A CN110243358 A CN 110243358A
- Authority
- CN
- China
- Prior art keywords
- unmanned vehicle
- gps
- world
- coordinate
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C22/00—Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/45—Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/45—Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
- G01S19/47—Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being an inertial measurement, e.g. tightly coupled inertial
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
- Navigation (AREA)
Abstract
本发明公开了一种多源融合的无人车室内外定位方法及系统,其中系统包括感知层和决策层,感知层包括多个传感器;决策层包括视觉里程计系统、激光里程计系统、IMU里程计系统、两个多源融合系统。本发明选取IMU信息提供一个较好的初始位姿以及重力方向,弥补了视觉里程计的尺度问题以及尺度漂移的固有缺陷;采用激光雷达的高精度信息与视觉里程计融合,降低了运动估计误差,提高系统鲁棒性;加入GPS绝对位置校正,进一步降低系统的累计误差。本方法能根据车辆真实的运动轨迹生成准确的定位信息,定位精度高,能实现室内外的无缝切换,增强了车辆在室内外环境定位的稳定性,鲁棒性强,适用于大场景的无人驾驶汽车的室内外定位。
Description
技术领域
本发明涉及无人驾驶车定位领域,具体涉及一种多源数据融合的无人车定位方法及系统。
背景技术
随着传感器、计算机信息、人工智能等技术的飞速发展,无人车技术的研究越来越受到国内外专家学者的重视。无人车通过传感器获取外部环境信息和自身状态信息,依据这些信息实现自主运动并完成一定的作业任务。而自主定位是无人车智能导航和环境探索研究的基础,由于单一传感器难以获取系统所需的全部信息,多传感器的信息融合就成为无人车实现自主定位的关键。
目前的技术来说,单独一种或者两种传感器的定位精度和稳定性很难满足要求,采用视觉或者激光里程计的方法较为成熟,但是在室外环境,高速运动和弱光照环境下其稳定性以及精确度有致命的缺点,并且二者在较大场景下都具有较高的累计误差;利用IMU来获取车辆的瞬时位移增量来推算出车辆的轨迹,然后来辅助GPS定位,具有较大的累积误差,且同一地点,不同的天气情况产生的误差相差很大,而且来自太空卫星的定位信号容易受到遮挡,比如隧道、高架桥、大树、高楼等等都会遮挡住卫星定位系统的信号,一旦卫星定位系统的信号被遮挡很容易产生很大的误差甚至无法定位。
发明内容
本发明的目的在于,提供一种通过利用不同传感器之间的优势互补性,然后使用某一种数据融合算法来实现高精度、高稳定的定位的多源融合的无人车室内外定位方法。
本发明解决其技术问题所采用的技术方案是:
提供一种多源融合的无人车室内外定位方法,其特征在于,包括以下步骤:
S1:通过多传感器采集无人车当前的环境信息,包括摄像头采集的图像信息,激光雷达采集的三维点云信息,IMU采集的三轴加速度信息,以及GPS采集的经纬度信息;
S2:获取采集的环境信息,通过视觉里程计系统计算无人车的位姿变换通过激光里程计系统计算无人车的位姿变换通过IMU里程计系统计算无人车的位姿变换位姿变换中的六个量分别表示无人车的三轴坐标和三轴姿态,通过GPS置信度系统计算无人车的绝对位置(xworld,yworld,zworld)以及置信度Qgps;
S3:通过实时工作的第一多源融合系统,不间断的将IMU里程计系统,视觉里程计系统以及激光里程计系统估算的位置信息使用扩展卡尔曼滤波方法进行融合,得到准确的odom->car之间的坐标变换计算的坐标变换为odom->car,其中odom为三个里程计融合之后的坐标系,car为无人车的坐标系;
步骤4:在得到准确的GPS绝对位置信息时,通过间歇性工作的第二多源融合系统,将S3中得到的无人车当前位置L1和S2中GPS置信度系统得到的绝对位置使用粒子滤波方法进行融合,计算的坐标变换为world->odom,发布无人车的累积误差补偿值为最终world->car之间的坐标变换为无人车的准确位姿,world为世界坐标系。
接上述技术方案,激光里程计系统根据激光雷达采集的点云数据计算无人车的位姿变换具体为:
(1)将当前帧数据根据初始位姿投影到参考帧坐标系;
(2)对当前帧的点,在前一帧中找到最近的两个点,计算旋转矩阵Rl和平移向量tl;
(3)对点云进行坐标转换,计算误差,剔除离群点;
(4)计算误差函数的迭代增量,不断迭代,直至误差小于设定的最终的阈值;
(5)输出计算得到的旋转矩阵Rl和平移向量tl,得到无人车的位姿变换
接上述技术方案,视觉里程计系统根据摄像头采集的视频流输入计算无人车的位姿变换具体为:
(1)获取摄像头t和t+1时刻的图像I和I+1,以及摄像头的内部参数,并对采集到的两帧图像I和I+1进行去畸变处理;
(2)通过FAST算法对图像I进行特征检测,通过KLT算法跟踪这些特征到图像I+1中,如果跟踪特征全部丢失或特征数小于某个阈值,则重新进行特征检测;
(3)通过RANSAC算法来估计两幅图像的本质矩阵;
(4)通过计算的本质矩阵来估计两帧图像间的旋转矩阵R和平移向量t;
(5)对尺度信息进行估计,确定最终的旋转矩阵Rc和平移向量tc,得到无人车的位姿变换
接上述技术方案,IMU里程计系统根据IMU采集的三轴加速度信息计算无人车的位姿变换具体为:
(1)获取IMU采集的六个状态量,其中I表示IMU坐标系,G表示参考坐标系;IMU的姿态由旋转量和平移量GpI表示;旋转量为将任意向量从G坐标映射到I坐标的旋转量,用单位四元数表示;平移量GpI为IMU在G坐标系下的三维位置;GVI表示IMU在G坐标系下的平移速度;另外两个量bg和ba表示陀螺仪和加速度计的偏差bias。
(2)对线加速度进行两次积分得到位移,对角加速度两次积分得到方向变化,5由此推算出目标的位姿变化。
式中fb和分别为线加速度测量值和角速度测量值,表示速度变化量,Δθk表示方向变化量,由此得到无人车的位姿变换
接上述技术方案,GPS置信度系统根据GPS采集的经纬度信息计算无人车的绝对位置(xworld,yworld,zworld)以及置信度Qgps,具体为:
(1)采集当前能接收到的GPS卫星数量nGPS,对GPS置信度Qgps进行计算:
其中
LGPS为
其中δGPS设置为4,以区别好的和不好的测量,a为常量1。
(2)如果Qgps接近0那么就认为此次测量信息误差较大,直接结束计算;如果Qgps接近1那么就认为此次测量信息准确,执行下一步操作;其将GPS的经纬度坐标转换为UTM坐标,然后再转换为机器人的世界坐标,原理如下:
其中θ和分别表示侧倾,俯仰和偏航,c和s分别表示余弦和正弦函数,xUTM0,yUTM0和zUTM0是采集到的第一个GPS位置的UTM坐标,在后续的任一时刻t,系统都会按照式(1)将GPS测量值转换为无人车的世界坐标(xworld,yworld,zworld)。
接上述技术方案,第一多源融合系统具体工作过程为:
(1)建立系统的预测模型Xk和观测模型Zk
Xk=f(Xk-1)+Wk-1
Zk=h(Xk)+Vk
其中Xk是无人车在k时刻的系统状态向量,包括位姿、速度,f是非线性状态的转换函数,Wk-1是过程噪声,呈正态分布,Zk是在k时刻的测量量,h是非线性转换函数,包含有无人车的3D位置和3D方向,旋转角都是用欧拉角表示;
(2)根据视觉里程计系统计算的位姿变换IMU里程计系统计算的位姿变换对当前状态进行预测:
其中f是系统运动学模型,F是f的雅可比矩阵,估计误差P矩阵是通过F映射然后再加上过程误差矩阵Q得到;
(3)根据激光里程计系统计算的位姿变换对预测结果进行校正:
利用测量协方差矩阵R和计算出卡尔曼増益K,然后利用卡尔曼増益K更新状态向量和协方差矩阵,其中Xk融合出的odom->car之间的坐标变换
接上述技术方案,第二多源融合系统具体工作过程为:
(1)采集两个信息,一个是经过GPS置信度系统转换过的位置信息(xworld,yworld,zworld)及其置信度Qgps,一个是第一多源融合系统发布的先验位置信息如果能够采集到GPS置信度系统信息就工作,否则不工作;
(2)随机生成一个粒子群,给予每个粒子给予三个特征——x,y,z轴坐标,如果是第一次运行则随机赋值,如果不是第一次运行则给上一时刻的估计值用矩阵存储N个粒子信息,其为N行3列的矩阵;在一个区域上生成服从均匀分布的粒子或服从高斯分布的粒子,另设一个矩阵用于存储粒子的权重;
(3)预测下一个状态的粒子,按照采集到的第一多源融合系统发布的先验位置信息作为运动模型,计算粒子运动的下一真实位置;
(4)更新,使用测量得到的GPS转换过的位置信息(xworld,yworld,zworld)来修正每个粒子的权值,保证与真实位置越接近的粒子获得的权值越大;
(5)重采样,预测正确概率越大的粒子给予的权重越大复制一部分权重高的粒子,同时去掉一部分权重低的粒子;
(6)计算估计,系统状态变量估计值通过粒子群的加权平均值的方法计算出最终的位置
本发明还提供了一种多源融合的无人车室内外定位系统,包括:
感知层,包括摄像头、激光雷达、IMU、GPS,该感知层用于采集无人车当前的环境信息,包括摄像头采集的图像信息,激光雷达采集的三维点云信息,IMU采集的三轴加速度信息,以及GPS采集的经纬度信息;
决策层,包括视觉里程计系统、激光里程计系统、IMU里程计系统、第一多源融合系统和第二多源融合系统;
该决策层用于获取采集的环境信息,通过视觉里程计系统计算无人车的位姿变换通过激光里程计系统计算无人车的位姿变换通过IMU里程计系统计算无人车的位姿变换位姿变换中的六个量分别表示无人车的三轴坐标和三轴姿态,通过GPS置信度系统计算无人车的绝对位置(xworld,yworld,zworld)以及置信度Qgps;
通过实时工作的第一多源融合系统,不间断的将IMU里程计系统,视觉里程计系统以及激光里程计系统估算的位置信息使用扩展卡尔曼滤波方法进行融合,得到准确的odom->car之间的坐标变换计算的坐标变换为odom->car,其中odom为三个里程计融合之后的坐标系,car为无人车的坐标系;
在得到准确的GPS绝对位置信息时,通过间歇性工作的第二多源融合系统,将S3中得到的无人车当前位置L1和S2中GPS置信度系统得到的绝对位置使用粒子滤波方法进行融合,计算的坐标变换为world->odom,发布无人车的累积误差补偿值为最终world->car之间的坐标变换为无人车的准确位姿,world为世界坐标系。
本发明产生的有益效果是:本发明选取IMU信息提供一个较好的初始位姿以及重力方向,弥补了视觉里程计的尺度问题以及尺度漂移的固有缺陷;采用激光雷达的高精度信息与视觉里程计融合,降低了运动估计误差,提高系统鲁棒性;加入GPS绝对位置校正,进一步降低系统的累计误差。本方法能根据车辆真实的运动轨迹生成准确的定位信息,定位精度高,能实现室内外的无缝切换,增强了车辆在室内外环境定位的稳定性,鲁棒性强,适用于大场景的无人驾驶汽车的室内外定位。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明实施例多源融合的无人车室内外定位系统框图;
图2是本发明实施例两个多源信息融合系统的融合示意图;
图3是本发明实施例激光里程计系统工作原理图;
图4是本发明实施例视觉里程计系统工作原理图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
如图1所示,本发明的多源融合的无人车室内外定位系统包括感知层和决策层。感知层主要包括多个传感器器,主要包括激光雷达、摄像头、IMU和GPS,通过这些传感器采集无人车当前的环境信息。决策层包括视觉里程计系统、激光里程计系统、IMU里程计系统、多源融合系统1和多源融合系统2。
本发明在感知层对每个传感器设计了单独的位姿估计系统。由于GPS工作频率较低、容易产生跳变,而且激光里程计和视觉里程计系统虽然能够实时工作、在大场景下累积误差严重,所以本发明设计了三个坐标系:world、odom、car,实现对无人车位姿的实时发布,解决了单一传感器不能实时工作和累积误差的问题。其中odom->car之间的坐标变换由所设计的实时工作的多源信息融合系统1发布,world->odom之间的坐标变换由所设计的间歇工作的多源信息融合系统2发布,用来对累积误差进行修正,最终world->car之间的坐标变换为无人车的准确位姿。
如图1、2所示,整个系统的工作流程主要分为四步:
步骤一:通过多传感器采集无人车当前的环境信息,包括摄像头采集的图像信息,激光雷达采集的三维点云信息,IMU采集的三轴加速度信息,以及GPS采集的经纬度信息;
步骤二:将采集的环境信息传递给决策层,通过视觉里程计系统计算无人车的位姿变换这六个量分别表示无人车的三轴坐标和三轴姿态,通过激光里程计系统计算无人车的位姿变换通过IMU里程计系统计算无人车的位姿变换通过GPS置信度系统计算无人车的绝对位置(xworld,yworld,zworld)以及置信度Qgps;
步骤三:通过多源融合系统1,该系统实时工作,不间断的将IMU里程计系统,视觉里程计系统以及激光里程计系统估算的位置信息使用扩展卡尔曼滤波方法进行融合,得到准确的odom->car之间的坐标变换计算的坐标变换为odom->car,其中odom为三个里程计融合之后的坐标系,car为无人车的坐标系;
步骤4:通过多源融合系统2,该系统间歇性工作,只有在得到准确的GPS绝对位置信息时才会工作,将步骤三中得到的无人车当前位置L1和GPS置信度系统得到的绝对位置使用粒子滤波方法进行融合,进一步得到无人车的准确位置,弥补里程计系统的累计误差,计算的坐标变换为world->odom,发布无人车的累积误差补偿值为最终world->car之间的坐标变换为无人车的准确位姿,world为世界坐标系。
如图3所示,本专利所设计的激光里程计系统工作原理为:
采集当前帧与前一帧的点云数据;
(1)将当前帧数据根据初始位姿投影到参考帧坐标系;
(2)对当前帧的点,在前一帧中找到最近的两个点,计算旋转矩阵Rl和平移向量tl;
(3)对点云进行坐标转换,计算误差,剔除离群点;
(4)计算误差函数的迭代增量,不断迭代,直至误差小于我们设定的最终的阈值;
(5)输出计算得到的旋转矩阵Rl和平移向量tl,得到无人车的位姿变换
如图4所示,本专利所设计的视觉里程计系统工作原理为:
采集摄像头的视频流输入,在相机t和t+1时刻获得的图像I和I+1,以及相机的内参
(1)对采集到的两帧图片I和I+1进行去畸变处理;
(2)通过FAST算法对图像I进行特征检测,通过KLT算法跟踪这些特征到图像I+1中,如果跟踪特征全部丢失或特征数小于某个阈值,则重新进行特征检测;
(3)通过RANSAC算法来估计两幅图像的本质矩阵;
(4)通过计算的本质矩阵来估计两帧图像间的旋转矩阵R和平移向量t;
(5)对尺度信息进行估计,确定最终的旋转矩阵Rc和平移向量tc,得到无人车的位姿变换
本专利所设计的IMU里程计系统工作原理为:
(1)对六个状态量进行采集其中I表示IMU坐标系,G表示参考坐标系。IMU的姿态由旋转量和平移量GpI表示。前者为将任意向量从G坐标映射到I坐标的旋转量,用单位四元数表示;后者为IMU在G坐标系下的三维位置。GVI表示IMU在G坐标系下的平移速度。另外两个量bg和ba表示陀螺仪(角速度计)和加速度计的偏差bias。
(2)对线加速度进行两次积分可以得到位移,对角加速度两次积分可以得到方向变化,由此可以推算出目标的位姿变化。
式中fb和分别为线加速度测量值和角速度测量值,表示速度变化量,Δθk表示方向变化量。由此得到无人车的位姿变换
本专利所设计的GPS置信度系统工作原理为:
(1)采集当前能接收到的GPS卫星数量nGPS,对Qgps(GPS置信度)进行计算:
其中
LGPS为
其中δGPS设置为4以区别好的和不好的测量,a为常量1;这些值是我们判定GPS质量好坏的标准,以及最终赋予GPS提供的定位信息的权重,也就是置信度。
(2)如果Qgps接近0那么就认为此次测量信息误差较大,直接结束计算;如果Qgps接近1那么就认为此次测量信息准确,执行下一步操作。其将GPS的经纬度坐标转换为UTM坐标,然后再转换为机器人的世界坐标,原理如下:
其中θ和分别表示侧倾,俯仰和偏航。c和s分别表示余弦和正弦函数,xUTM0,yUTM0和zUTM0是采集到的第一个GPS位置的UTM坐标。在后续的任一时刻t,系统都会按照式(1)将GPS测量值转换为无人车的世界坐标(xworld,yworld,zworld)。
本专利所设计的多源融合系统1工作原理为:
(1)首先建立系统的预测模型Xk和观测模型Zk。
Xk=f(Xk-1)+Wk-1
Zk=h(Xk)+Vk
其中Xk是无人车在k时刻的系统状态向量,包括位姿,速度等,f是非线性状态的转换函数,Wk-1是过程噪声,这里假设它是正态分布的。Zk是在k时刻的测量量,h是非线性转换函数:包含有无人车的3D位置和3D方向。旋转角都是用欧拉角表示。
(2)根据视觉里程计系统计算的位姿变换IMU里程计系统计算的位姿变换对当前状态进行预测:
其中f是系统运动学模型,F是f的雅可比矩阵,估计误差P矩阵是通过F映射然后再加上过程误差矩阵Q而得来的。
(3)根据激光里程计系统计算的位姿变换对预测结果进行校正:
利用测量协方差矩阵R和计算出卡尔曼増益K,然后利用K可以更新状态向量和协方差矩阵。其中Xk融合出的odom->car之间的坐标变换
本专利所设计的多源融合系统2工作原理为:
(1)采集两个信息,一个是经过GPS置信度系统转换过的位置信息(xworld,yworld,zworld)及其置信度Qgps,一个是多源融合系统1发布的先验位置信息如果能够采集到GPS置信度系统信息就工作,否则不工作。
(2)随机生成一个粒子群,给予每个粒子给予三个特征——x,y,z轴坐标,如果是第一次运行则随机赋值,如果不是第一次运行则给上一时刻的估计值用矩阵存储N个粒子信息,其为N行3列的矩阵。在一个区域上生成服从均匀分布的粒子或服从高斯分布(正态分布)的粒子,另设一个矩阵用于存储粒子的权重
(3)预测下一个状态的粒子,按照我们采集到的多源融合系统1发布的先验位置信息作为运动模型,计算粒子运动的下一真实位置。
(4)更新,使用测量得到的GPS转换过的位置信息(xworld,yworld,zworld)来修正每个粒子的权值,保证与真实位置越接近的粒子获得的权值越大。
(5)重采样,预测正确概率越大的粒子给予的权重越大复制一部分权重高的粒子,同时去掉一部分权重低的粒子。
(6)计算估计,系统状态变量估计值通过粒子群的加权平均值的方法计算出最终的位置
本发明选取IMU信息提供一个较好的初始位姿以及重力方向,弥补了视觉里程计的尺度问题以及尺度漂移的固有缺陷;采用激光雷达的高精度信息与视觉里程计融合,降低了运动估计误差,提高系统鲁棒性;加入GPS绝对位置校正,进一步降低系统的累计误差。本方法能根据车辆真实的运动轨迹生成准确的定位信息,定位精度高,能实现室内外的无缝切换,增强了车辆在室内外环境定位的稳定性,鲁棒性强,适用于大场景的无人驾驶汽车的室内外定位。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。
Claims (8)
1.一种多源融合的无人车室内外定位方法,其特征在于,包括以下步骤:
S1:通过多传感器采集无人车当前的环境信息,包括摄像头采集的图像信息,激光雷达采集的三维点云信息,IMU采集的三轴加速度信息,以及GPS采集的经纬度信息;
S2:获取采集的环境信息,通过视觉里程计系统计算无人车的位姿变换通过激光里程计系统计算无人车的位姿变换通过IMU里程计系统计算无人车的位姿变换位姿变换中的六个量分别表示无人车的三轴坐标和三轴姿态,通过GPS置信度系统计算无人车的绝对位置(xworld,yworld,zworld)以及置信度Qgps;
S3:通过实时工作的第一多源融合系统,不间断的将IMU里程计系统,视觉里程计系统以及激光里程计系统估算的位置信息使用扩展卡尔曼滤波方法进行融合,得到准确的odom->car之间的坐标变换计算的坐标变换为odom->car,其中odom为三个里程计融合之后的坐标系,car为无人车的坐标系;
步骤4:在得到准确的GPS绝对位置信息时,通过间歇性工作的第二多源融合系统,将S3中得到的无人车当前位置L1和S2中GPS置信度系统得到的绝对位置使用粒子滤波方法进行融合,计算的坐标变换为world->odom,发布无人车的累积误差补偿值为最终world->car之间的坐标变换为无人车的准确位姿,world为世界坐标系。
2.根据权利要求1所述的多源融合的无人车室内外定位方法,其特征在于,激光里程计系统根据激光雷达采集的点云数据计算无人车的位姿变换具体为:
(1)将当前帧数据根据初始位姿投影到参考帧坐标系;
(2)对当前帧的点,在前一帧中找到最近的两个点,计算旋转矩阵Rl和平移向量tl;
(3)对点云进行坐标转换,计算误差,剔除离群点;
(4)计算误差函数的迭代增量,不断迭代,直至误差小于设定的最终的阈值;
(5)输出计算得到的旋转矩阵Rl和平移向量tl,得到无人车的位姿变换
3.根据权利要求1所述的多源融合的无人车室内外定位方法,其特征在于,视觉里程计系统根据摄像头采集的视频流输入计算无人车的位姿变换具体为:
(1)获取摄像头t和t+1时刻的图像I和I+1,以及摄像头的内部参数,并对采集到的两帧图像I和I+1进行去畸变处理;
(2)通过FAST算法对图像I进行特征检测,通过KLT算法跟踪这些特征到图像I+1中,如果跟踪特征全部丢失或特征数小于某个阈值,则重新进行特征检测;
(3)通过RANSAC算法来估计两幅图像的本质矩阵;
(4)通过计算的本质矩阵来估计两帧图像间的旋转矩阵R和平移向量t;
(5)对尺度信息进行估计,确定最终的旋转矩阵Rc和平移向量tc,得到无人车的位姿变换
4.根据权利要求1所述的多源融合的无人车室内外定位方法,其特征在于,IMU里程计系统根据IMU采集的三轴加速度信息计算无人车的位姿变换具体为:
(1)获取IMU采集的六个状态量,
其中I表示IMU坐标系,G表示参考坐标系;IMU的姿态由旋转量和平移量GpI表示;旋转量为将任意向量从G坐标映射到I坐标的旋转量,用单位四元数表示;平移量GpI为IMU在G坐标系下的三维位置;GVI表示IMU在G坐标系下的平移速度;另外两个量bg和ba表示陀螺仪和加速度计的偏差bias。
(2)对线加速度进行两次积分得到位移,对角加速度两次积分得到方向变化,由此推算出目标的位姿变化。
式中fb和分别为线加速度测量值和角速度测量值,表示速度变化量,Δθk表示方向变化量,由此得到无人车的位姿变换
5.根据权利要求1所述的多源融合的无人车室内外定位方法,其特征在于,GPS置信度系统根据GPS采集的经纬度信息计算无人车的绝对位置(xworld,yworld,zworld)以及置信度Qgps,具体为:
(1)采集当前能接收到的GPS卫星数量nGPS,对GPS置信度Qgps进行计算:
lk=lk-1+LGPS+a
其中
LGPS为
其中δGPS设置为4,以区别好的和不好的测量,a为常量1。
(2)如果Qgps接近0那么就认为此次测量信息误差较大,直接结束计算;
如果Qgps接近1那么就认为此次测量信息准确,执行下一步操作;其将GPS的经纬度坐标转换为UTM坐标,然后再转换为机器人的世界坐标,原理如下:
其中θ和分别表示侧倾,俯仰和偏航,c和s分别表示余弦和正弦函数,xUTM0,yUTM0和zUTM0是采集到的第一个GPS位置的UTM坐标,在后续的任一时刻t,系统都会按照式(1)将GPS测量值转换为无人车的世界坐标(xworld,yworld,zworld)。
6.根据权利要求1所述的多源融合的无人车室内外定位方法,其特征在于,第一多源融合系统具体工作过程为:
(1)建立系统的预测模型Xk和观测模型Zk
Xk=f(Xk-1)+Wk-1
Zk=h(Xk)+Vk
其中Xk是无人车在k时刻的系统状态向量,包括位姿、速度,f是非线性状态的转换函数,Wk-1是过程噪声,呈正态分布,Zk是在k时刻的测量量,h是非线性转换函数,包含有无人车的3D位置和3D方向,旋转角都是用欧拉角表示;
(2)根据视觉里程计系统计算的位姿变换IMU里程计系统计算的位姿变换对当前状态进行预测:
其中f是系统运动学模型,F是f的雅可比矩阵,估计误差P矩阵是通过F映射然后再加上过程误差矩阵Q得到;
(3)根据激光里程计系统计算的位姿变换对预测结果进行校正:
利用测量协方差矩阵R和计算出卡尔曼増益K,然后利用卡尔曼増益K更新状态向量和协方差矩阵,其中Xk融合出的odom->car之间的坐标变换
7.根据权利要求1所述的多源融合的无人车室内外定位方法,其特征在于,第二多源融合系统具体工作过程为:
(1)采集两个信息,一个是经过GPS置信度系统转换过的位置信息(xworld,yworld,zworld)及其置信度Qgps,一个是第一多源融合系统发布的先验位置信息如果能够采集到GPS置信度系统信息就工作,否则不工作;
(2)随机生成一个粒子群,给予每个粒子给予三个特征——x,y,z轴坐标,如果是第一次运行则随机赋值,如果不是第一次运行则给上一时刻的估计值用矩阵存储N个粒子信息,其为N行3列的矩阵;在一个区域上生成服从均匀分布的粒子或服从高斯分布的粒子,另设一个矩阵用于存储粒子的权重;
(3)预测下一个状态的粒子,按照采集到的第一多源融合系统发布的先验位置信息作为运动模型,计算粒子运动的下一真实位置;
(4)更新,使用测量得到的GPS转换过的位置信息(xworld,yworld,zworld)来修正每个粒子的权值,保证与真实位置越接近的粒子获得的权值越大;
(5)重采样,预测正确概率越大的粒子给予的权重越大复制一部分权重高的粒子,同时去掉一部分权重低的粒子;
(6)计算估计,系统状态变量估计值通过粒子群的加权平均值的方法计算出最终的位置
8.一种多源融合的无人车室内外定位系统,其特征在于,包括:
感知层,包括摄像头、激光雷达、IMU、GPS,该感知层用于采集无人车当前的环境信息,包括摄像头采集的图像信息,激光雷达采集的三维点云信息,IMU采集的三轴加速度信息,以及GPS采集的经纬度信息;
决策层,包括视觉里程计系统、激光里程计系统、IMU里程计系统、第一多源融合系统和第二多源融合系统;
该决策层用于获取采集的环境信息,通过视觉里程计系统计算无人车的位姿变换通过激光里程计系统计算无人车的位姿变换通过IMU里程计系统计算无人车的位姿变换位姿变换中的六个量分别表示无人车的三轴坐标和三轴姿态,通过GPS置信度系统计算无人车的绝对位置(xworld,yworld,zworld)以及置信度Qgps;
通过实时工作的第一多源融合系统,不间断的将IMU里程计系统,视觉里程计系统以及激光里程计系统估算的位置信息使用扩展卡尔曼滤波方法进行融合,得到准确的odom->car之间的坐标变换计算的坐标变换为odom->car,其中odom为三个里程计融合之后的坐标系,car为无人车的坐标系;
在得到准确的GPS绝对位置信息时,通过间歇性工作的第二多源融合系统,将S3中得到的无人车当前位置L1和S2中GPS置信度系统得到的绝对位置使用粒子滤波方法进行融合,计算的坐标变换为world->odom,发布无人车的累积误差补偿值为最终world->car之间的坐标变换为无人车的准确位姿,world为世界坐标系。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910353912.XA CN110243358B (zh) | 2019-04-29 | 2019-04-29 | 多源融合的无人车室内外定位方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910353912.XA CN110243358B (zh) | 2019-04-29 | 2019-04-29 | 多源融合的无人车室内外定位方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110243358A true CN110243358A (zh) | 2019-09-17 |
CN110243358B CN110243358B (zh) | 2023-01-03 |
Family
ID=67883475
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910353912.XA Active CN110243358B (zh) | 2019-04-29 | 2019-04-29 | 多源融合的无人车室内外定位方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110243358B (zh) |
Cited By (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110888125A (zh) * | 2019-12-05 | 2020-03-17 | 奥特酷智能科技(南京)有限公司 | 一种基于毫米波雷达的自动驾驶车辆定位方法 |
CN111044036A (zh) * | 2019-12-12 | 2020-04-21 | 浙江大学 | 基于粒子滤波的远程定位方法 |
CN111060099A (zh) * | 2019-11-29 | 2020-04-24 | 畅加风行(苏州)智能科技有限公司 | 一种无人驾驶汽车实时定位方法 |
CN111079079A (zh) * | 2019-11-29 | 2020-04-28 | 北京百度网讯科技有限公司 | 数据修正方法、装置、电子设备及计算机可读存储介质 |
CN111121768A (zh) * | 2019-12-23 | 2020-05-08 | 深圳市优必选科技股份有限公司 | 一种机器人位姿估计方法、装置、可读存储介质及机器人 |
CN111174782A (zh) * | 2019-12-31 | 2020-05-19 | 智车优行科技(上海)有限公司 | 位姿估计方法、装置、电子设备及计算机可读存储介质 |
CN111192303A (zh) * | 2020-04-09 | 2020-05-22 | 北京三快在线科技有限公司 | 一种点云数据处理方法及装置 |
CN111522043A (zh) * | 2020-04-30 | 2020-08-11 | 北京联合大学 | 一种无人车激光雷达快速重新匹配定位方法 |
CN111595333A (zh) * | 2020-04-26 | 2020-08-28 | 武汉理工大学 | 视觉惯性激光数据融合的模块化无人车定位方法及系统 |
CN111696159A (zh) * | 2020-06-15 | 2020-09-22 | 湖北亿咖通科技有限公司 | 激光里程计的特征存储方法、电子设备和存储介质 |
CN111707272A (zh) * | 2020-06-28 | 2020-09-25 | 湖南大学 | 一种地下车库自动驾驶激光定位系统 |
CN111721298A (zh) * | 2020-06-24 | 2020-09-29 | 重庆赛迪奇智人工智能科技有限公司 | 一种slam室外大场景精准定位方法 |
CN111811502A (zh) * | 2020-07-10 | 2020-10-23 | 北京航空航天大学 | 一种运动载体多源信息融合导航方法及系统 |
CN111964673A (zh) * | 2020-08-25 | 2020-11-20 | 一汽解放汽车有限公司 | 一种无人车定位系统 |
CN112014849A (zh) * | 2020-07-15 | 2020-12-01 | 广东工业大学 | 一种基于传感器信息融合的无人车定位修正方法 |
CN112050809A (zh) * | 2020-10-08 | 2020-12-08 | 吉林大学 | 轮式里程计与陀螺仪信息融合的无人车定向定位方法 |
CN112083433A (zh) * | 2020-07-21 | 2020-12-15 | 浙江工业大学 | 一种应用于两轮移动机器人的激光雷达除畸变方法 |
CN112129297A (zh) * | 2020-09-25 | 2020-12-25 | 重庆大学 | 一种多传感器信息融合的自适应校正室内定位方法 |
CN112132895A (zh) * | 2020-09-10 | 2020-12-25 | 湖北亿咖通科技有限公司 | 基于图像的位置确定方法、电子设备及存储介质 |
CN112230211A (zh) * | 2020-10-15 | 2021-01-15 | 长城汽车股份有限公司 | 车辆定位方法、装置、存储介质及车辆 |
CN112254729A (zh) * | 2020-10-09 | 2021-01-22 | 北京理工大学 | 一种基于多传感器融合的移动机器人定位方法 |
CN112284388A (zh) * | 2020-09-25 | 2021-01-29 | 北京理工大学 | 一种无人机多源信息融合导航方法 |
CN112344933A (zh) * | 2020-08-21 | 2021-02-09 | 北京京东乾石科技有限公司 | 一种信息生成的方法、装置和存储介质 |
CN112346084A (zh) * | 2020-10-26 | 2021-02-09 | 上海感探号信息科技有限公司 | 一种汽车定位方法、系统、电子设备及存储介质 |
CN112446422A (zh) * | 2020-11-10 | 2021-03-05 | 济南浪潮高新科技投资发展有限公司 | 用于机器人区域定位的多传感器数据融合方法及系统 |
CN112652001A (zh) * | 2020-11-13 | 2021-04-13 | 山东交通学院 | 基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统 |
CN112712107A (zh) * | 2020-12-10 | 2021-04-27 | 浙江大学 | 一种基于优化的视觉和激光slam融合定位方法 |
CN112711055A (zh) * | 2020-12-08 | 2021-04-27 | 重庆邮电大学 | 一种基于边缘计算的室内外无缝定位系统及方法 |
CN112729289A (zh) * | 2020-12-23 | 2021-04-30 | 联通物联网有限责任公司 | 应用于自动导引车的定位方法、装置、设备和存储介质 |
WO2021097983A1 (zh) * | 2019-11-21 | 2021-05-27 | 广州文远知行科技有限公司 | 定位的方法、装置、设备及存储介质 |
CN112964276A (zh) * | 2021-02-09 | 2021-06-15 | 中国科学院深圳先进技术研究院 | 一种基于激光和视觉融合的在线标定方法 |
CN113029137A (zh) * | 2021-04-01 | 2021-06-25 | 清华大学 | 一种多源信息自适应融合定位方法及系统 |
CN113252033A (zh) * | 2021-06-29 | 2021-08-13 | 长沙海格北斗信息技术有限公司 | 基于多传感器融合的定位方法、定位系统及机器人 |
CN113359167A (zh) * | 2021-04-16 | 2021-09-07 | 电子科技大学 | 一种通过惯性测量参数将gps与激光雷达融合定位的方法 |
CN113503872A (zh) * | 2021-06-03 | 2021-10-15 | 浙江工业大学 | 一种基于相机与消费级imu融合的低速无人车定位方法 |
CN113721248A (zh) * | 2021-08-30 | 2021-11-30 | 浙江吉利控股集团有限公司 | 一种基于多源异构传感器的融合定位方法及系统 |
CN113758491A (zh) * | 2021-08-05 | 2021-12-07 | 重庆长安汽车股份有限公司 | 基于多传感器融合无人车的相对定位方法、系统及车辆 |
CN113759384A (zh) * | 2020-09-22 | 2021-12-07 | 北京京东乾石科技有限公司 | 一种传感器位姿转换关系确定方法、装置、设备和介质 |
CN113790728A (zh) * | 2021-09-29 | 2021-12-14 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于视觉里程计的松耦合多传感器融合定位算法 |
CN113819905A (zh) * | 2020-06-19 | 2021-12-21 | 北京图森未来科技有限公司 | 一种基于多传感器融合的里程计方法及装置 |
CN113920186A (zh) * | 2021-10-13 | 2022-01-11 | 中国电子科技集团公司第五十四研究所 | 一种低空无人机多源融合定位方法 |
WO2022007385A1 (zh) * | 2020-07-09 | 2022-01-13 | 上海思岚科技有限公司 | 一种激光、视觉定位融合的方法及设备 |
CN113932820A (zh) * | 2020-06-29 | 2022-01-14 | 杭州海康威视数字技术股份有限公司 | 对象检测的方法和装置 |
CN114067458A (zh) * | 2020-08-05 | 2022-02-18 | 蘑菇车联信息科技有限公司 | Gps信息优化方法、装置、行车记录仪以及存储介质 |
CN114088104A (zh) * | 2021-07-23 | 2022-02-25 | 武汉理工大学 | 一种自动驾驶场景下的地图生成方法 |
CN114440881A (zh) * | 2022-01-29 | 2022-05-06 | 海南大学 | 一种融合多源传感器信息的无人车定位方法 |
CN114518108A (zh) * | 2020-11-18 | 2022-05-20 | 郑州宇通客车股份有限公司 | 一种定位地图构建方法及装置 |
CN114608568A (zh) * | 2022-02-22 | 2022-06-10 | 北京理工大学 | 一种基于多传感器信息即时融合定位方法 |
CN115077517A (zh) * | 2022-05-27 | 2022-09-20 | 浙江工业大学 | 一种基于立体相机与imu融合的低速无人车定位方法及系统 |
CN116660923A (zh) * | 2023-08-01 | 2023-08-29 | 齐鲁空天信息研究院 | 一种融合视觉和激光雷达的无人农机机库定位方法和系统 |
CN116912310A (zh) * | 2023-07-13 | 2023-10-20 | 深圳云天励飞技术股份有限公司 | 相机位姿估计方法、装置、计算机设备及介质 |
WO2023240805A1 (zh) * | 2022-06-13 | 2023-12-21 | 之江实验室 | 一种基于滤波校正的网联车超速预警方法及系统 |
CN117406259A (zh) * | 2023-12-14 | 2024-01-16 | 江西北斗云智慧科技有限公司 | 一种基于北斗的智慧工地车辆定位方法及系统 |
CN117690194A (zh) * | 2023-12-08 | 2024-03-12 | 北京虹湾威鹏信息技术有限公司 | 一种多源ai生物多样性观测的方法和采集系统 |
WO2024131758A1 (zh) * | 2022-12-23 | 2024-06-27 | 维沃移动通信有限公司 | 感知融合方法、装置及通信设备 |
CN118362133A (zh) * | 2024-06-20 | 2024-07-19 | 速度科技股份有限公司 | VPS和ARFoundation位姿融合定位的方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120290146A1 (en) * | 2010-07-15 | 2012-11-15 | Dedes George C | GPS/IMU/Video/Radar absolute/relative positioning communication/computation sensor platform for automotive safety applications |
CN106780699A (zh) * | 2017-01-09 | 2017-05-31 | 东南大学 | 一种基于sins/gps和里程计辅助的视觉slam方法 |
CN107229063A (zh) * | 2017-06-26 | 2017-10-03 | 奇瑞汽车股份有限公司 | 一种基于gnss和视觉里程计融合的无人驾驶汽车导航定位精度矫正方法 |
US20180025632A1 (en) * | 2014-12-15 | 2018-01-25 | Intelligent Technologies International, Inc. | Mapping Techniques Using Probe Vehicles |
WO2018140701A1 (en) * | 2017-01-27 | 2018-08-02 | Kaarta, Inc. | Laser scanner with real-time, online ego-motion estimation |
CN108827315A (zh) * | 2018-08-17 | 2018-11-16 | 华南理工大学 | 基于流形预积分的视觉惯性里程计位姿估计方法及装置 |
CN109029433A (zh) * | 2018-06-28 | 2018-12-18 | 东南大学 | 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法 |
-
2019
- 2019-04-29 CN CN201910353912.XA patent/CN110243358B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120290146A1 (en) * | 2010-07-15 | 2012-11-15 | Dedes George C | GPS/IMU/Video/Radar absolute/relative positioning communication/computation sensor platform for automotive safety applications |
US20180025632A1 (en) * | 2014-12-15 | 2018-01-25 | Intelligent Technologies International, Inc. | Mapping Techniques Using Probe Vehicles |
CN106780699A (zh) * | 2017-01-09 | 2017-05-31 | 东南大学 | 一种基于sins/gps和里程计辅助的视觉slam方法 |
WO2018140701A1 (en) * | 2017-01-27 | 2018-08-02 | Kaarta, Inc. | Laser scanner with real-time, online ego-motion estimation |
CN107229063A (zh) * | 2017-06-26 | 2017-10-03 | 奇瑞汽车股份有限公司 | 一种基于gnss和视觉里程计融合的无人驾驶汽车导航定位精度矫正方法 |
CN109029433A (zh) * | 2018-06-28 | 2018-12-18 | 东南大学 | 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法 |
CN108827315A (zh) * | 2018-08-17 | 2018-11-16 | 华南理工大学 | 基于流形预积分的视觉惯性里程计位姿估计方法及装置 |
Cited By (84)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021097983A1 (zh) * | 2019-11-21 | 2021-05-27 | 广州文远知行科技有限公司 | 定位的方法、装置、设备及存储介质 |
CN111060099A (zh) * | 2019-11-29 | 2020-04-24 | 畅加风行(苏州)智能科技有限公司 | 一种无人驾驶汽车实时定位方法 |
CN111079079A (zh) * | 2019-11-29 | 2020-04-28 | 北京百度网讯科技有限公司 | 数据修正方法、装置、电子设备及计算机可读存储介质 |
CN111079079B (zh) * | 2019-11-29 | 2023-12-26 | 北京百度网讯科技有限公司 | 数据修正方法、装置、电子设备及计算机可读存储介质 |
CN111060099B (zh) * | 2019-11-29 | 2023-08-04 | 畅加风行(苏州)智能科技有限公司 | 一种无人驾驶汽车实时定位方法 |
CN110888125A (zh) * | 2019-12-05 | 2020-03-17 | 奥特酷智能科技(南京)有限公司 | 一种基于毫米波雷达的自动驾驶车辆定位方法 |
CN110888125B (zh) * | 2019-12-05 | 2020-06-19 | 奥特酷智能科技(南京)有限公司 | 一种基于毫米波雷达的自动驾驶车辆定位方法 |
CN111044036A (zh) * | 2019-12-12 | 2020-04-21 | 浙江大学 | 基于粒子滤波的远程定位方法 |
CN111121768A (zh) * | 2019-12-23 | 2020-05-08 | 深圳市优必选科技股份有限公司 | 一种机器人位姿估计方法、装置、可读存储介质及机器人 |
CN111174782A (zh) * | 2019-12-31 | 2020-05-19 | 智车优行科技(上海)有限公司 | 位姿估计方法、装置、电子设备及计算机可读存储介质 |
CN111174782B (zh) * | 2019-12-31 | 2021-09-17 | 智车优行科技(上海)有限公司 | 位姿估计方法、装置、电子设备及计算机可读存储介质 |
CN111192303A (zh) * | 2020-04-09 | 2020-05-22 | 北京三快在线科技有限公司 | 一种点云数据处理方法及装置 |
CN111595333A (zh) * | 2020-04-26 | 2020-08-28 | 武汉理工大学 | 视觉惯性激光数据融合的模块化无人车定位方法及系统 |
CN111522043B (zh) * | 2020-04-30 | 2023-07-25 | 北京联合大学 | 一种无人车激光雷达快速重新匹配定位方法 |
CN111522043A (zh) * | 2020-04-30 | 2020-08-11 | 北京联合大学 | 一种无人车激光雷达快速重新匹配定位方法 |
CN111696159A (zh) * | 2020-06-15 | 2020-09-22 | 湖北亿咖通科技有限公司 | 激光里程计的特征存储方法、电子设备和存储介质 |
CN113819905A (zh) * | 2020-06-19 | 2021-12-21 | 北京图森未来科技有限公司 | 一种基于多传感器融合的里程计方法及装置 |
CN111721298A (zh) * | 2020-06-24 | 2020-09-29 | 重庆赛迪奇智人工智能科技有限公司 | 一种slam室外大场景精准定位方法 |
CN111707272A (zh) * | 2020-06-28 | 2020-09-25 | 湖南大学 | 一种地下车库自动驾驶激光定位系统 |
CN113932820A (zh) * | 2020-06-29 | 2022-01-14 | 杭州海康威视数字技术股份有限公司 | 对象检测的方法和装置 |
WO2022007385A1 (zh) * | 2020-07-09 | 2022-01-13 | 上海思岚科技有限公司 | 一种激光、视觉定位融合的方法及设备 |
CN111811502A (zh) * | 2020-07-10 | 2020-10-23 | 北京航空航天大学 | 一种运动载体多源信息融合导航方法及系统 |
CN112014849B (zh) * | 2020-07-15 | 2023-10-20 | 广东工业大学 | 一种基于传感器信息融合的无人车定位修正方法 |
CN112014849A (zh) * | 2020-07-15 | 2020-12-01 | 广东工业大学 | 一种基于传感器信息融合的无人车定位修正方法 |
CN112083433A (zh) * | 2020-07-21 | 2020-12-15 | 浙江工业大学 | 一种应用于两轮移动机器人的激光雷达除畸变方法 |
CN112083433B (zh) * | 2020-07-21 | 2023-06-13 | 浙江工业大学 | 一种应用于两轮移动机器人的激光雷达除畸变方法 |
CN114067458B (zh) * | 2020-08-05 | 2024-10-01 | 蘑菇车联信息科技有限公司 | Gps信息优化方法、装置、行车记录仪以及存储介质 |
CN114067458A (zh) * | 2020-08-05 | 2022-02-18 | 蘑菇车联信息科技有限公司 | Gps信息优化方法、装置、行车记录仪以及存储介质 |
CN112344933B (zh) * | 2020-08-21 | 2023-04-07 | 北京京东乾石科技有限公司 | 一种信息生成的方法、装置和存储介质 |
CN112344933A (zh) * | 2020-08-21 | 2021-02-09 | 北京京东乾石科技有限公司 | 一种信息生成的方法、装置和存储介质 |
CN111964673A (zh) * | 2020-08-25 | 2020-11-20 | 一汽解放汽车有限公司 | 一种无人车定位系统 |
CN112132895B (zh) * | 2020-09-10 | 2021-07-20 | 湖北亿咖通科技有限公司 | 基于图像的位置确定方法、电子设备及存储介质 |
CN112132895A (zh) * | 2020-09-10 | 2020-12-25 | 湖北亿咖通科技有限公司 | 基于图像的位置确定方法、电子设备及存储介质 |
CN113759384B (zh) * | 2020-09-22 | 2024-04-05 | 北京京东乾石科技有限公司 | 一种传感器位姿转换关系确定方法、装置、设备和介质 |
CN113759384A (zh) * | 2020-09-22 | 2021-12-07 | 北京京东乾石科技有限公司 | 一种传感器位姿转换关系确定方法、装置、设备和介质 |
CN112284388B (zh) * | 2020-09-25 | 2024-01-30 | 北京理工大学 | 一种无人机多源信息融合导航方法 |
CN112129297B (zh) * | 2020-09-25 | 2024-04-30 | 重庆大学 | 一种多传感器信息融合的自适应校正室内定位方法 |
CN112284388A (zh) * | 2020-09-25 | 2021-01-29 | 北京理工大学 | 一种无人机多源信息融合导航方法 |
CN112129297A (zh) * | 2020-09-25 | 2020-12-25 | 重庆大学 | 一种多传感器信息融合的自适应校正室内定位方法 |
CN112050809A (zh) * | 2020-10-08 | 2020-12-08 | 吉林大学 | 轮式里程计与陀螺仪信息融合的无人车定向定位方法 |
CN112050809B (zh) * | 2020-10-08 | 2022-06-17 | 吉林大学 | 轮式里程计与陀螺仪信息融合的无人车定向定位方法 |
CN112254729A (zh) * | 2020-10-09 | 2021-01-22 | 北京理工大学 | 一种基于多传感器融合的移动机器人定位方法 |
CN112230211A (zh) * | 2020-10-15 | 2021-01-15 | 长城汽车股份有限公司 | 车辆定位方法、装置、存储介质及车辆 |
CN112346084A (zh) * | 2020-10-26 | 2021-02-09 | 上海感探号信息科技有限公司 | 一种汽车定位方法、系统、电子设备及存储介质 |
CN112446422A (zh) * | 2020-11-10 | 2021-03-05 | 济南浪潮高新科技投资发展有限公司 | 用于机器人区域定位的多传感器数据融合方法及系统 |
CN112652001A (zh) * | 2020-11-13 | 2021-04-13 | 山东交通学院 | 基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统 |
CN114518108B (zh) * | 2020-11-18 | 2023-09-08 | 宇通客车股份有限公司 | 一种定位地图构建方法及装置 |
CN114518108A (zh) * | 2020-11-18 | 2022-05-20 | 郑州宇通客车股份有限公司 | 一种定位地图构建方法及装置 |
CN112711055B (zh) * | 2020-12-08 | 2024-03-19 | 重庆邮电大学 | 一种基于边缘计算的室内外无缝定位系统及方法 |
CN112711055A (zh) * | 2020-12-08 | 2021-04-27 | 重庆邮电大学 | 一种基于边缘计算的室内外无缝定位系统及方法 |
CN112712107A (zh) * | 2020-12-10 | 2021-04-27 | 浙江大学 | 一种基于优化的视觉和激光slam融合定位方法 |
CN112712107B (zh) * | 2020-12-10 | 2022-06-28 | 浙江大学 | 一种基于优化的视觉和激光slam融合定位方法 |
CN112729289B (zh) * | 2020-12-23 | 2024-02-27 | 联通物联网有限责任公司 | 应用于自动导引车的定位方法、装置、设备和存储介质 |
CN112729289A (zh) * | 2020-12-23 | 2021-04-30 | 联通物联网有限责任公司 | 应用于自动导引车的定位方法、装置、设备和存储介质 |
CN112964276A (zh) * | 2021-02-09 | 2021-06-15 | 中国科学院深圳先进技术研究院 | 一种基于激光和视觉融合的在线标定方法 |
CN113029137A (zh) * | 2021-04-01 | 2021-06-25 | 清华大学 | 一种多源信息自适应融合定位方法及系统 |
CN113359167A (zh) * | 2021-04-16 | 2021-09-07 | 电子科技大学 | 一种通过惯性测量参数将gps与激光雷达融合定位的方法 |
CN113503872B (zh) * | 2021-06-03 | 2024-04-12 | 浙江工业大学 | 一种基于相机与消费级imu融合的低速无人车定位方法 |
CN113503872A (zh) * | 2021-06-03 | 2021-10-15 | 浙江工业大学 | 一种基于相机与消费级imu融合的低速无人车定位方法 |
CN113252033A (zh) * | 2021-06-29 | 2021-08-13 | 长沙海格北斗信息技术有限公司 | 基于多传感器融合的定位方法、定位系统及机器人 |
CN113252033B (zh) * | 2021-06-29 | 2021-10-15 | 长沙海格北斗信息技术有限公司 | 基于多传感器融合的定位方法、定位系统及机器人 |
CN114088104B (zh) * | 2021-07-23 | 2023-09-29 | 武汉理工大学 | 一种自动驾驶场景下的地图生成方法 |
CN114088104A (zh) * | 2021-07-23 | 2022-02-25 | 武汉理工大学 | 一种自动驾驶场景下的地图生成方法 |
CN113758491B (zh) * | 2021-08-05 | 2024-02-23 | 重庆长安汽车股份有限公司 | 基于多传感器融合无人车的相对定位方法、系统及车辆 |
CN113758491A (zh) * | 2021-08-05 | 2021-12-07 | 重庆长安汽车股份有限公司 | 基于多传感器融合无人车的相对定位方法、系统及车辆 |
CN113721248A (zh) * | 2021-08-30 | 2021-11-30 | 浙江吉利控股集团有限公司 | 一种基于多源异构传感器的融合定位方法及系统 |
CN113721248B (zh) * | 2021-08-30 | 2024-05-14 | 浙江吉利控股集团有限公司 | 一种基于多源异构传感器的融合定位方法及系统 |
CN113790728A (zh) * | 2021-09-29 | 2021-12-14 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于视觉里程计的松耦合多传感器融合定位算法 |
CN113920186A (zh) * | 2021-10-13 | 2022-01-11 | 中国电子科技集团公司第五十四研究所 | 一种低空无人机多源融合定位方法 |
CN114440881A (zh) * | 2022-01-29 | 2022-05-06 | 海南大学 | 一种融合多源传感器信息的无人车定位方法 |
CN114440881B (zh) * | 2022-01-29 | 2023-05-30 | 海南大学 | 一种融合多源传感器信息的无人车定位方法 |
CN114608568A (zh) * | 2022-02-22 | 2022-06-10 | 北京理工大学 | 一种基于多传感器信息即时融合定位方法 |
CN114608568B (zh) * | 2022-02-22 | 2024-05-03 | 北京理工大学 | 一种基于多传感器信息即时融合定位方法 |
CN115077517A (zh) * | 2022-05-27 | 2022-09-20 | 浙江工业大学 | 一种基于立体相机与imu融合的低速无人车定位方法及系统 |
WO2023240805A1 (zh) * | 2022-06-13 | 2023-12-21 | 之江实验室 | 一种基于滤波校正的网联车超速预警方法及系统 |
WO2024131758A1 (zh) * | 2022-12-23 | 2024-06-27 | 维沃移动通信有限公司 | 感知融合方法、装置及通信设备 |
CN116912310A (zh) * | 2023-07-13 | 2023-10-20 | 深圳云天励飞技术股份有限公司 | 相机位姿估计方法、装置、计算机设备及介质 |
CN116660923B (zh) * | 2023-08-01 | 2023-09-29 | 齐鲁空天信息研究院 | 一种融合视觉和激光雷达的无人农机机库定位方法和系统 |
CN116660923A (zh) * | 2023-08-01 | 2023-08-29 | 齐鲁空天信息研究院 | 一种融合视觉和激光雷达的无人农机机库定位方法和系统 |
CN117690194A (zh) * | 2023-12-08 | 2024-03-12 | 北京虹湾威鹏信息技术有限公司 | 一种多源ai生物多样性观测的方法和采集系统 |
CN117690194B (zh) * | 2023-12-08 | 2024-06-07 | 北京虹湾威鹏信息技术有限公司 | 一种多源ai生物多样性观测的方法和采集系统 |
CN117406259B (zh) * | 2023-12-14 | 2024-03-22 | 江西北斗云智慧科技有限公司 | 一种基于北斗的智慧工地车辆定位方法及系统 |
CN117406259A (zh) * | 2023-12-14 | 2024-01-16 | 江西北斗云智慧科技有限公司 | 一种基于北斗的智慧工地车辆定位方法及系统 |
CN118362133A (zh) * | 2024-06-20 | 2024-07-19 | 速度科技股份有限公司 | VPS和ARFoundation位姿融合定位的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110243358B (zh) | 2023-01-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110243358A (zh) | 多源融合的无人车室内外定位方法及系统 | |
CN108375370B (zh) | 一种面向智能巡防无人机的复合导航系统 | |
CN109341706B (zh) | 一种面向无人驾驶汽车的多特征融合地图的制作方法 | |
CN110706279B (zh) | 基于全局地图与多传感器信息融合的全程位姿估计方法 | |
CN111156998B (zh) | 一种基于rgb-d相机与imu信息融合的移动机器人定位方法 | |
CN106017463B (zh) | 一种基于定位传感装置的飞行器定位方法 | |
CN110044354A (zh) | 一种双目视觉室内定位与建图方法及装置 | |
CN112254729B (zh) | 一种基于多传感器融合的移动机器人定位方法 | |
CN111426320B (zh) | 一种基于图像匹配/惯导/里程计的车辆自主导航方法 | |
CN110361010A (zh) | 一种基于占据栅格地图且结合imu的移动机器人定位方法 | |
CN115574816B (zh) | 仿生视觉多源信息智能感知无人平台 | |
CN107831776A (zh) | 基于九轴惯性传感器的无人机自主返航方法 | |
CN110412596A (zh) | 一种基于图像信息和激光点云的机器人定位方法 | |
CN110533719A (zh) | 基于环境视觉特征点识别技术的增强现实定位方法及装置 | |
CN114019552A (zh) | 一种基于贝叶斯多传感器误差约束的定位置信度优化方法 | |
CN115272596A (zh) | 一种面向单调无纹理大场景的多传感器融合slam方法 | |
CN111025366A (zh) | 基于ins及gnss的网格slam的导航系统及方法 | |
CN113674412A (zh) | 基于位姿融合优化的室内地图构建方法、系统及存储介质 | |
CN113405560A (zh) | 车辆定位和路径规划统一建模方法 | |
Wu et al. | AFLI-Calib: Robust LiDAR-IMU extrinsic self-calibration based on adaptive frame length LiDAR odometry | |
CN115049910A (zh) | 一种基于双目视觉里程计的足式机器人建图与导航方法 | |
CN112945233A (zh) | 一种全局无漂移的自主机器人同时定位与地图构建方法 | |
CN113403942B (zh) | 一种基于标签辅助的桥梁检测无人机视觉导航方法 | |
Ready et al. | Inertially aided visual odometry for miniature air vehicles in gps-denied environments | |
CN114326765A (zh) | 一种用于无人机视觉着陆的地标跟踪控制系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |