CN111239761B - 一种用于室内实时建立二维地图的方法 - Google Patents
一种用于室内实时建立二维地图的方法 Download PDFInfo
- Publication number
- CN111239761B CN111239761B CN202010067700.8A CN202010067700A CN111239761B CN 111239761 B CN111239761 B CN 111239761B CN 202010067700 A CN202010067700 A CN 202010067700A CN 111239761 B CN111239761 B CN 111239761B
- Authority
- CN
- China
- Prior art keywords
- depth
- depth camera
- image sequence
- value
- grid
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/18—Stabilised platforms, e.g. by gyroscope
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种用于室内实时建立二维地图的方法,通过设定栅格地图模板及栅格尺寸,以图像采集点为中心建立坐标系实时采集室内环境图像并建立室内环境图像的深度图像序列;根据当前深度摄像头所在位置获取下一预测位置的深度图像序列并提取特征向量;特征提取不需要对采集的深度信息作复杂的变换处理,直接采用深度信息作为特征用以匹配,减少特征提取的计算量,并且深度特征不会明显受到环境光照变化的影响;根据当前位置采集的图像深度信息坐标变换后更新栅格地图模板,采用匹配策略,不仅考虑了匹配程度最大的位置,还考虑了其他匹配程度相对较大的位置,采用取平均的方式以得到相对准确的估计,本发明计算方法简单,准确度高。
Description
技术领域
本发明属于实时构建二维地图技术,具体涉及一种用于室内实时建立二维地图的方法。
背景技术
实时构建二维地图技术广泛应用于室内机器人定位导航,资源勘探,灾难救急等等方面。现有构建地图的方法可以分为静态方式和动态方式。静态方式利用传感器进行一轮的扫描定位便能完成地图构建,但缺点是无法适用于动态未知环境的地图构建。此外,应用环境的多变性也对静态处理算法的实时性提出了挑战。
现有的动态地图构建算法中,基于视觉传感器获取信息构建地图是一类主要方法。根据使用的传感器的种类和数量,可以分为基于单目摄像头、立体摄像头、RGB-D摄像头的方法等。相关研究主要有Davison提出的基于扩展卡尔曼滤波的单目SLAM。该算法使用扩展卡尔曼滤波跟踪特征点实现定位与地图构建,并设计了实时系统MonoSLAM。各种基于卡尔曼滤波的SLAM算法都是基于机器人的运动学模型,将轨迹分解为许多微小的弧段,其共同的缺点是必须对运动和预测采用高斯噪声假设。基于双目摄像头的算法有直接稀疏里程计算方法,它利用非线性优化算法,通过最小化由直接图像对齐得到的光度误差来估计相机的位姿和像素深度,缺点在于光度误差直接根据像素强度计算,因而对帧间光照变化较为敏感。
此外,还有基于激光雷达的地图构建方法。激光雷达测量速度快,测距精度高,量程大,在地图构建中具有广泛的应用。激光雷达地图构建最早使用帧到帧的匹配来估计激光雷达的相对位姿,但是帧到帧的匹配方式会产生累积误差。针对这一问题,章洋等提出基于粒子滤波和特征匹配的全局融合定位算法,用线段检测算法提取栅格地图特征,缺点在于需要计算各个像素的梯度幅值和方向,并提取边缘拟合为矩形作为特征,对于算法的运算能力要求较高。
发明内容
本发明的目的在于提供一种用于室内实时建立二维地图的方法,以克服现有技术的不足。
为达到上述目的,本发明采用如下技术方案:
一种用于室内实时建立二维地图的方法,包括以下步骤:
步骤1),设定栅格地图模板及栅格尺寸;
步骤2),确定图像采集点坐标及图像采集点运动位置,以图像采集点为中心建立坐标系,实时采集室内环境图像并建立室内环境图像的深度图像序列;
步骤3),对获取的深度图像序列进行数据预处理,取深度图像序列中与深度摄像头等高数据的中值的深度图像序列,并将该深度图像序列坐标变换到当前深度摄像头的坐标;
步骤4)、根据当前深度摄像头所在位置获取下一预测位置的深度图像序列,并提取下一预测位置的深度图像序列的特征向量;
步骤5)、将提取的下一预测位置的深度图像序列的特征向量与下一预测位置真实特征向量比较求解相似度,获取相似度满足阈值条件的当前位置深度图像序列,即确定当前位置;
步骤6)、根据当前位置采集的图像深度信息坐标变换后更新栅格地图模板,从而实现二维地图的建立。
进一步的,栅格地图模板通过矩阵存储地图信息,每个栅格占用概率和观测占用次数初始化为0,根据待测室内区域,建立可见区域大小的栅格地图模板,首先根据当前位姿初步更新可见区域占用概率不为0的栅格。
进一步的,采用全向机器人搭载深度摄像头获取室内环境图像,深度摄像头通过全向机器人在室内运动,每个位置由深度摄像头搭载的全向机器人的陀螺仪和码盘获取深度摄像头的位姿,通过粒子滤波特征匹配的方式二步校正深度摄像头的当前位置。
进一步的,采用深度摄像头获取环境的深度图像序列512×424,通过最邻近法进行数据预处理,取深度图像序列512×424中间的6行与摄像头等高位置数据的中值,得到1×512的深度图像序列;
将经过数据预处理的深度图像序列的图像坐标系转换为当前图像采集点即深度摄像头的坐标系;坐标系变换如图2所示,转换公式如下;
y=h
u为图像上点的位置,h为图像深度值,(x,y)为当前深度摄像头坐标系下的点;W为图像宽度。
进一步的,已知深度摄像头当前所在的第n个位置Xn=(xn,yn,θn),根据全向机器人上的陀螺仪和码盘得到相对位置变化ΔXn=(Δxn,Δyn,Δθn),则可得到机器人第n+1个位置在采用粒子滤波方法预测全向机器人运动的下一个位置,在位置周围均匀分布p个粒子,每个粒子代表一个可能的位置,为每个粒子赋相同的权值ω;
深度摄像头每次转动的角度很为-25°~+25°;深度摄像头水平方向视角为±35°,以深度摄像头当前朝向为中心,每间隔1°寻找该方向上距深度摄像头欧式距离最近的点,将该点到深度摄像头的欧式距离作为一个特征,由此在±60°的方向上可以生成120维特征向量。
将下一预测位置每个粒子处生成的120维特征向量Vi 120与下一预测位置真实特征向量进行比较计算匹配程度Similarity;
对第i个粒子120维特征向量第m+k个值与第n+1个位置70维特征向量第k个值计算差值,若差值小于设定阈值则认为匹配,若差值大于设定阈值则认为完全不匹配,取多个粒子匹配程度平均值作为相似度的衡量,并取使得相似度最大的m值,得到两特征向量匹配程度。
进一步的,将p个粒子各自的横向位置x、纵向位置y、与坐标原点夹角θ和各自的权值ω分别归一化,并记为取其中对应ω=1的向量Wmax以及与Wmax欧式距离小于设定阈值的所有向量取它们的平均值作为深度摄像头第n+1个位置;
在中选择较大的k个值所对应栅格,根据陀螺仪和码盘得到深度摄像头第n+2个位置根据上述同样的方式更新权值选择使相似度最大的值,追溯到第n+1个位置则为深度摄像头第n+1个真实位置,此时得到第n+1个真实位置。
进一步的,根据得到的深度摄像头在第n+1个位置(xn+1,yn+1,θn+1),对第n+1个位置的点进行坐标变换,更新全局地图坐标变换:
进一步的,若获取的深度图像序列为第一帧,则以第一帧深度图像的特征向量更新栅格地图模板,若获取的深度图像序列不是第一帧,则通过数据采集,特征匹配的方式实时更新二维地图。
取栅格占用概率最大值。
与现有技术相比,本发明具有以下有益的技术效果:
本发明一种用于室内实时建立二维地图的方法,通过设定栅格地图模板及栅格尺寸,以图像采集点为中心建立坐标系实时采集室内环境图像并建立室内环境图像的深度图像序列;对获取的深度图像序列进行数据预处理,取深度图像序列中与深度摄像头等高数据的中值的深度图像序列,并将该深度图像序列坐标变换到当前深度摄像头的坐标;根据当前深度摄像头所在位置获取下一预测位置的深度图像序列,并提取下一预测位置的深度图像序列的特征向量;特征提取不需要对采集的深度信息作复杂的变换处理,如线段检测需对边缘进行检测提取,直接采用深度信息作为特征用以匹配,减少特征提取的计算量,并且深度特征不会明显受到环境光照变化的影响;根据当前位置采集的图像深度信息坐标变换后更新栅格地图模板,采用匹配策略,不仅考虑了匹配程度最大的位置,还考虑了其他匹配程度相对较大的位置,采用取平均的方式以得到相对准确的估计,本发明计算方法简单,准确度高。
进一步的,通过二次校正的方式克服了帧到帧匹配方式中出现的累积误差问题。
进一步的,利用全向机器人的码盘和陀螺仪对下一步位置进行估计,避免了在卡尔曼滤波方法中需要建立机器人的运动学模型和不必要的高斯噪声假设,并且缩小了搜索空间的范围,从而加快了算法的处理速度并提高了准确性。
附图说明
图1为本发明系统流程图。
图2为栅格化地图样图。
图3为坐标变换图。
图4为特征对比匹配示意图。
图5为一步矫正示意图。
图6为二步矫正示意图。
具体实施方式
下面结合附图对本发明做进一步详细描述:
如图1所示,一种用于室内实时建立二维地图的方法,包括以下步骤:
步骤1),设定栅格地图模板及栅格尺寸;
栅格地图模板通过矩阵存储地图信息,每个栅格占用概率和观测占用次数初始化为0;具体如图2所示;栅格地图模板栅格化用以存储地图的信息,每个栅格存储两个信息,根据栅格地图模板中各格栅内目标物(即障碍物)出现的次数与栅格的占用概率更新栅格地图模板信息:
根据待测室内区域,建立可见区域大小的栅格地图模板,首先根据当前位姿初步更新可见区域占用概率不为0的栅格;
步骤2),确定图像采集点坐标及图像采集点运动位置,以图像采集点为中心建立坐标系,实时采集室内环境图像并建立室内环境图像的深度图像序列;
具体的,采用全向机器人搭载深度摄像头获取室内环境图像,深度摄像头通过全向机器人在室内运动,每个位置由深度摄像头搭载的全向机器人的陀螺仪和码盘获取深度摄像头的位姿,通过粒子滤波特征匹配的方式二步校正深度摄像头的当前位置。
将深度摄像头搭载在全向机器人上,利用全向机器人上的码盘和陀螺仪得到全向机器人的位移与转角,实现全向机器人的定位,即可实现深度摄像头图像采集点的定位;
步骤3),对获取的深度图像序列进行数据预处理,取深度图像序列中与深度摄像头等高数据的中值的深度图像序列,并将该深度图像序列坐标变换到当前深度摄像头的坐标,如图3所示;
具体的:采用深度摄像头获取环境的深度图像序列512×424,通过最邻近法进行数据预处理,取深度图像序列512×424中间的6行与摄像头等高位置数据的中值,得到1×512的深度图像序列;
将经过数据预处理的深度图像序列的图像坐标系转换为当前图像采集点即深度摄像头的坐标系;坐标系变换如图4所示,转换公式如下;
y=h
u为图像上点的位置,h为图像深度值,(x,y)为当前深度摄像头坐标系下的点;W为图像宽度;
步骤4)、根据当前深度摄像头所在位置获取下一预测位置的深度图像序列,并提取下一预测位置的深度图像序列的特征向量;
每个粒子处的特征提取:
深度摄像头每次转动的角度很为-25°~+25°;深度摄像头水平方向视角为±35°,以深度摄像头当前朝向为中心,每间隔1°寻找该方向上距深度摄像头欧式距离最近的点,将该点到深度摄像头的欧式距离作为一个特征,由此在±60°的方向上可以生成120维特征向量;
步骤5)、将提取的下一预测位置的深度图像序列的特征向量与下一预测位置真实特征向量比较求解相似度,获取相似度满足阈值条件的当前位置深度图像序列,即确定当前位置;具体特征对比匹配如图3所示;
相似度的计算:
将下一预测位置每个粒子处生成的120维向量Vi 120与下一预测位置真实特征向量进行比较计算匹配程度Similarity,本申请中真实观测特征向量采用70维特征向量V70;
对第i个粒子120维特征向量第m+k个值与第n+1个位置70维特征向量第k个值计算差值,若差值大于设定阈值则认为完全不匹配,取多个粒子匹配程度平均值作为相似度的衡量,并取使得相似度最大的m值,得到两特征向量匹配程度。
对下一预测位置进行二步矫正:
如图5所示,一步矫正:
将p个粒子各自的横向位置x、纵向位置y、与坐标原点夹角θ和各自的权值ω分别归一化,并记为取其中对应ω=1的向量Wmax以及与Wmax欧式距离小于设定阈值的所有向量取它们的平均值作为深度摄像头第n+1个位置;
如图6所示,二步矫正:
在中选择较大的k个值所对应栅格,根据陀螺仪和码盘得到深度摄像头第n+2个位置根据上述同样的方式更新权值选择使相似度最大的值,追溯到第n+1个位置则为深度摄像头第n+1个真实位置,此时得到第n+1个真实位置。
步骤6)、根据当前位置采集的图像深度信息坐标变换后更新栅格地图模板,从而实现二维地图的建立。
具体的,根据得到的深度摄像头在第n+1个位置(xn+1,yn+1,θn+1),对第n+1个位置的点进行坐标变换,更新全局地图坐标变换:
若获取的深度图像序列为第一帧,则以第一帧深度图像的特征向量更新栅格地图模板,若获取的深度图像序列不是第一帧,则通过数据采集,特征匹配的方式实时更新二维地图。
取栅格占用概率最大值。
环境深度序列数据的采集与预处理,用以得到当前位置的有效深度信息,并提取特征向量;机器人位置的粒子滤波二步校正,通过在码盘和陀螺仪预测的位置邻域内进行粒子滤波,得到k个匹配程度较大的位置,在这k个位置上类似作粒子滤波,得到下一步特征匹配程度最大的位置回溯到上一步即为当前位置;以数据采集,数据更新的顺序实时更新二维地图。
Claims (7)
1.一种用于室内实时建立二维地图的方法,其特征在于,包括以下步骤:
步骤1),设定栅格地图模板及栅格尺寸;
步骤2),确定图像采集点坐标及图像采集点运动位置,以图像采集点为中心建立坐标系,实时采集室内环境图像并建立室内环境图像的深度图像序列;
步骤3),对获取的深度图像序列进行数据预处理,取深度图像序列中与深度摄像头等高数据的中值的深度图像序列,并将该深度图像序列坐标变换到当前深度摄像头的坐标;
步骤4)、根据当前深度摄像头所在位置获取下一预测位置的深度图像序列,并提取下一预测位置的深度图像序列的特征向量;
步骤5)、将提取的下一预测位置的深度图像序列的特征向量与下一预测位置真实特征向量比较求解相似度,获取相似度满足阈值条件的当前位置深度图像序列,即确定当前位置;
步骤6)、根据当前位置采集的图像深度信息坐标变换后更新栅格地图模板,从而实现二维地图的建立;
具体的,已知深度摄像头当前所在的第n个位置Xn=(xn,yn,θn),根据全向机器人上的陀螺仪和码盘得到相对位置变化ΔXn=(Δxn,Δyn,Δθn),则可得到机器人第n+1个位置在采用粒子滤波方法预测全向机器人运动的下一个位置,在位置周围均匀分布p个粒子,每个粒子代表一个可能的位置,为每个粒子赋相同的权值ω;
深度摄像头每次转动的角度为-25°~+25°;深度摄像头水平方向视角为±35°,以深度摄像头当前朝向为中心,每间隔1°寻找该方向上距深度摄像头欧式距离最近的点,将该点到深度摄像头的欧式距离作为一个特征,由此在±60°的方向上可以生成120维特征向量;
对第i个粒子120维特征向量第m+k个值与第n+1个位置70维特征向量第k个值计算差值,若差值小于设定阈值则认为匹配,若差值大于设定阈值则认为完全不匹配,取多个粒子匹配程度平均值作为相似度的衡量,并取使得相似度最大的m值,得到两特征向量匹配程度。
2.根据权利要求1所述的一种用于室内实时建立二维地图的方法,其特征在于,栅格地图模板通过矩阵存储地图信息,每个栅格占用概率和观测占用次数初始化为0,根据待测室内区域,建立可见区域大小的栅格地图模板,首先根据当前位姿初步更新可见区域占用概率不为0的栅格。
3.根据权利要求1所述的一种用于室内实时建立二维地图的方法,其特征在于,采用全向机器人搭载深度摄像头获取室内环境图像,深度摄像头通过全向机器人在室内运动,每个位置由深度摄像头搭载的全向机器人的陀螺仪和码盘获取深度摄像头的位姿,通过粒子滤波特征匹配的方式二步校正深度摄像头的当前位置。
6.根据权利要求1所述的一种用于室内实时建立二维地图的方法,其特征在于,若获取的深度图像序列为第一帧,则以第一帧深度图像的特征向量更新栅格地图模板,若获取的深度图像序列不是第一帧,则通过数据采集,特征匹配的方式实时更新二维地图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010067700.8A CN111239761B (zh) | 2020-01-20 | 2020-01-20 | 一种用于室内实时建立二维地图的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010067700.8A CN111239761B (zh) | 2020-01-20 | 2020-01-20 | 一种用于室内实时建立二维地图的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111239761A CN111239761A (zh) | 2020-06-05 |
CN111239761B true CN111239761B (zh) | 2021-12-28 |
Family
ID=70879791
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010067700.8A Active CN111239761B (zh) | 2020-01-20 | 2020-01-20 | 一种用于室内实时建立二维地图的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111239761B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111683203B (zh) * | 2020-06-12 | 2021-11-09 | 达闼机器人有限公司 | 栅格地图生成方法、装置及计算机可读存储介质 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9037396B2 (en) * | 2013-05-23 | 2015-05-19 | Irobot Corporation | Simultaneous localization and mapping for a mobile robot |
CN106940704B (zh) * | 2016-11-25 | 2019-12-20 | 北京儒博科技有限公司 | 一种基于栅格地图的定位方法及装置 |
CN107167144A (zh) * | 2017-07-07 | 2017-09-15 | 武汉科技大学 | 一种基于视觉的移动机器人室内环境识别定位方法 |
CN107369183A (zh) * | 2017-07-17 | 2017-11-21 | 广东工业大学 | 面向mar的基于图优化slam的跟踪注册方法及系统 |
CN108406731B (zh) * | 2018-06-06 | 2023-06-13 | 珠海一微半导体股份有限公司 | 一种基于深度视觉的定位装置、方法及机器人 |
CN114847803B (zh) * | 2018-10-29 | 2024-04-16 | 北京石头创新科技有限公司 | 机器人的定位方法及装置、电子设备、存储介质 |
CN110243370A (zh) * | 2019-05-16 | 2019-09-17 | 西安理工大学 | 一种基于深度学习的室内环境三维语义地图构建方法 |
CN110132284B (zh) * | 2019-05-30 | 2022-12-09 | 东北大学 | 一种基于深度信息的全局定位方法 |
CN110335316B (zh) * | 2019-06-28 | 2023-04-18 | Oppo广东移动通信有限公司 | 基于深度信息的位姿确定方法、装置、介质与电子设备 |
-
2020
- 2020-01-20 CN CN202010067700.8A patent/CN111239761B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111239761A (zh) | 2020-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111337941B (zh) | 一种基于稀疏激光雷达数据的动态障碍物追踪方法 | |
CN109684921B (zh) | 一种基于三维激光雷达的道路边界检测与跟踪方法 | |
Zhao et al. | A robust laser-inertial odometry and mapping method for large-scale highway environments | |
CN108647646B (zh) | 基于低线束雷达的低矮障碍物的优化检测方法及装置 | |
CN103064086B (zh) | 一种基于深度信息的车辆跟踪方法 | |
CN112014857A (zh) | 用于智能巡检的三维激光雷达定位导航方法及巡检机器人 | |
CN111461023A (zh) | 基于三维激光雷达的四足机器人自主跟随领航员的方法 | |
CN113506318B (zh) | 一种车载边缘场景下的三维目标感知方法 | |
Qian et al. | Robust visual-lidar simultaneous localization and mapping system for UAV | |
Zhang et al. | Multiple vehicle-like target tracking based on the velodyne lidar | |
CN113947636B (zh) | 一种基于深度学习的激光slam定位系统及方法 | |
CN114998276B (zh) | 一种基于三维点云的机器人动态障碍物实时检测方法 | |
CN114549549B (zh) | 一种动态环境下基于实例分割的动态目标建模跟踪方法 | |
Cao et al. | Accurate localization of autonomous vehicles based on pattern matching and graph-based optimization in urban environments | |
CN113985435A (zh) | 一种融合多激光雷达的建图方法及系统 | |
CN116879870B (zh) | 一种适用于低线束3d激光雷达的动态障碍物去除方法 | |
CN114792338A (zh) | 基于先验三维激光雷达点云地图的视觉融合定位方法 | |
CN116468786B (zh) | 一种面向动态环境的基于点线联合的语义slam方法 | |
CN113554705B (zh) | 一种变化场景下的激光雷达鲁棒定位方法 | |
Li et al. | FARFusion: A Practical Roadside Radar-Camera Fusion System for Far-Range Perception | |
CN114264297B (zh) | Uwb和视觉slam融合算法的定位建图方法及系统 | |
CN111239761B (zh) | 一种用于室内实时建立二维地图的方法 | |
CN113971697A (zh) | 一种空地协同车辆定位定向方法 | |
CN117419719A (zh) | 一种融合imu的三维激光雷达定位与建图方法 | |
Pan et al. | LiDAR-IMU Tightly-Coupled SLAM Method Based on IEKF and Loop Closure Detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |