CN114140527B - 一种基于语义分割的动态环境双目视觉slam方法 - Google Patents
一种基于语义分割的动态环境双目视觉slam方法 Download PDFInfo
- Publication number
- CN114140527B CN114140527B CN202111373890.7A CN202111373890A CN114140527B CN 114140527 B CN114140527 B CN 114140527B CN 202111373890 A CN202111373890 A CN 202111373890A CN 114140527 B CN114140527 B CN 114140527B
- Authority
- CN
- China
- Prior art keywords
- dynamic
- binocular
- feature points
- semantic
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 230000011218 segmentation Effects 0.000 title claims abstract description 22
- 230000003068 static effect Effects 0.000 claims abstract description 42
- 238000013135 deep learning Methods 0.000 claims abstract description 8
- 230000033001 locomotion Effects 0.000 claims description 28
- 238000010276 construction Methods 0.000 abstract description 3
- 238000013507 mapping Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3841—Data obtained from two or more sources, e.g. probe vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于语义分割的动态环境双目视觉SLAM方法,包括如下步骤:获取物体的语义掩膜,所述语义掩膜通过深度学习网络生成;采用双目相机获取多帧连续的双目图像;提取每帧双目图像上的特征点,匹配相邻帧双目图像上的特征点;剔除位于语义掩膜上的特征点,并根据剩余的特征点计算相机位姿;基于所述相机位姿分离所述双目图像上的动态物体和静态物体;基于分离后的静态物体重新计算相机位姿;基于更新后的相机位姿以及位于所述静态物体上的特征点构建静态地图。本发明使用双目相机,将经过语义信息分割后的图像作为引导,能够识别场景中的动态、静态物体,并实现地图的构建,本方法运算简单、成本低,且能够应用于大多数实际场景中。
Description
技术领域
本发明涉及视觉空间定位技术领域,尤其涉及一种基于语义分割的动态环境双目视觉SLAM方法。
背景技术
随着计算机技术和人工智能的发展,智能自主移动机器人成为机器人领域的一个重要研究方向和研究热点。随着移动机器人逐渐智能化,移动机器人对自身的定位以及环境地图的要求越来越高。目前,智能移动机器人在已知环境中完成自身定位和地图构建已经有了一些实用的应用,但是在未知环境中仍有很多挑战。在这样的环境中完成定位和地图构建的技术被称为SLAM(Simultaneous Localization and Mapping),即同步定位和地图构建,SLAM的目标是使机器人能够在未知环境的移动过程中,完成自身定位和增量式地图构建。
传统的SLAM算法主要依赖于稳定性较好的距离传感器,如激光雷达。然而激光雷达获得的距离数据非常稀疏,这就造成SLAM构建得到的环境地图仅包含极少量的路标点。这个地图仅能被用来提高机器人的定位精度,而无法用于路径规划等机器人导航的其它领域。此外激光雷达高昂的价格、较大的体积重量以及耗电量限制了其在某些领域的应用。相机虽然能在一定程度上克服激光雷达在价格、体积、质量以及耗电量上的劣势,同时相机能够获取丰富的信息,但是相机也存在一些问题,例如对光线变化敏感,运算复杂度高等。目前还有多传感器融合的SLAM算法,虽然能够有效缓解单一传感器自身不足带来的问题,但是也进一步增加了成本和算法的复杂程度。
现有的视觉SLAM算法大多基于环境静态假设,即场景是静态的,不存在相对运动的物体。但是在实际室外场景中大量存在行人、车辆等动态物体,从而限制了基于上述假设的SLAM系统在实际场景中运用。针对动态环境下视觉SLAM算法的定位精度和稳定性下降的问题,现有的算法使用了一些基于概率统计或者几何约束的算法,减少了动态物体对视觉SLAM算法精度和稳定性的影响。例如当场景中存在少量动态物体时,可以使用RANSAC(Random Sample Consensus)等概率算法来剔除动态物体。但是当场景中出现大量动态物体时,上述算法将无法正常区分动态物体。而另一些算法使用光流法来区分动态物体,在存在大量动态物体的场景中,使用光流法确实能够区分动态物体,但是由于计算稠密光流的过程较为耗时,会降低SLAM算法的执行效率。
因此,如何提供一种运算简单、成本低,且能够应用于多数实际场景中的基于语义分割的动态环境双目视觉SLAM方法是本领域技术人员亟待解决的一个技术问题。
发明内容
本发明提供一种基于语义分割的动态环境双目视觉SLAM方法,以解决上述技术问题。
为解决上述技术问题,本发明提供一种基于语义分割的动态环境双目视觉SLAM方法,包括如下步骤:
获取物体的语义掩膜,所述语义掩膜通过深度学习网络生成;
采用双目相机获取多帧连续的双目图像;
提取每帧所述双目图像上的特征点,匹配相邻帧双目图像上的特征点;
剔除位于所述语义掩膜上的特征点,并根据剩余的特征点计算相机位姿;
基于所述相机位姿分离所述双目图像上的动态物体和静态物体;
基于分离后的动态物体估计动态物体的运动参数;
基于分离后的静态物体重新计算相机位姿;
基于更新后的相机位姿以及位于所述静态物体上的特征点构建静态地图。
较佳地,用于生成所述语义掩膜的深度学习网络为Mask R-CNN模型。
较佳地,所述提取每帧所述双目图像上的特征点,匹配相邻帧双目图像上的特征点的方法包括:
采用ORB方法提取所述特征点;
获取每个特征点分别在各帧双目图像上的描述子,计算一个特征点在位于相邻两帧双目图像上的两个描述子之间的汉明距离,汉明距离最小的两个特征点组成一组匹配的特征点。
较佳地,判断所述特征点是否位于所述语义掩膜上的方法包括:所述语义掩膜至少包括物体的边框,所述特征点的坐标位于所述边框范围内,则该特征点位于该语义掩膜上。
较佳地,所述根据剩余的特征点计算相机位姿的方法包括:采用PnP算法求解所述相机位姿。
较佳地,所述基于所述相机位姿分离所述双目图像上的动态物体和静态物体;基于分离后的动态物体估计动态物体的运动参数的方法包括:
分离动态物体:基于所述相机位姿,和相邻帧双目图像与所述语义掩膜的位置关系,计算该语义掩膜对应的物体的运动概率,若所述运动概率大于第一阈值,则判断该语义掩膜对应的物体为动态物体;
动态物体匹配:针对所述动态物体,计算该动态物体对应的语义掩膜在相邻帧双目图像的hu矩、中心点欧氏距离以及直方图分布,基于所述hu矩、中心点欧氏距离和直方图分布计算相邻帧双目图像中所述动态物体匹配的概率,若概率大于第二阈值,则相邻帧双目图像中的两个动态物体为同一物体;以及
动态物体运动估计:通过所述动态物体匹配完成连续帧之间动态物体的关联,通过PnP算法估计所述动态物体的运动参数。
较佳地,所述分离动态物体的步骤包括:
基于所述相机位姿,计算上一帧的语义掩膜在当前帧对应的位置;
利用视差图计算投影以后所述语义掩膜上所有特征点的三维坐标,所述视差图通过所述双目图像计算所得;
计算上一帧与当前帧对应特征点在x,y,z三个方向上的误差,其中误差的最大值作为该特征点的误差值;
将所述误差值转换为与该特征点所在的语义掩膜对应的物体的运动概率,基于所述运动概率判断与该语义掩膜对应的物体是否为动态物体。
较佳地,所述基于分离后的静态物体重新计算相机位姿的方法包括:剔除位于所述动态物体对应的语义掩膜上的特征点,根据剩余的特征点,采用PnP算法更新所述相机位姿。
较佳地,所述基于更新后的相机位姿以及位于所述静态物体上的特征点构建静态地图的方法包括:
基于更新后的相机位姿和位于所述静态物体上的特征点确定多个关键帧;
匹配多个所述关键帧上的特征点,剔除不匹配的特征点;
检验匹配后的特征点是否满足对极几何约束,剔除不满足的特征点;
检查剩余特征点正向景深、视差、反投影误差和尺度是否一致,剔除不一致的特征点,基于剩余特征点生成地图点;
基于所述地图点构建所述静态地图。
较佳地,在构建所述静态地图前,还包括对生成的地图点通过光束法平差进行优化的步骤。
与现有技术相比,本发明提供的基于语义分割的动态环境双目视觉SLAM方法使用双目相机,将经过语义信息分割后的图像作为引导,能够识别场景中的动态、静态物体,并实现地图的构建,本方法运算简单、成本低,且能够应用于大多数实际场景中。
附图说明
图1为本发明一具体实施方式中基于语义分割的动态环境双目视觉SLAM方法的流程示意图;
图2为本发明一具体实施方式中分离动态物体的流程示意图。
具体实施方式
为了更详尽的表述上述发明的技术方案,以下列举出具体的实施例来证明技术效果;需要强调的是,这些实施例用于说明本发明而不限于限制本发明的范围。
本发明提供的基于语义分割的动态环境双目视觉SLAM方法,如图1所示,包括如下步骤:
获取物体的语义掩膜,所述语义掩膜通过深度学习网络生成,本实施例中,用于生成所述语义掩膜的深度学习网络为Mask R-CNN模型,从而实现高质量的语义分割。
采用双目相机获取多帧连续的双目图像,从所述双目图像中可以获取二维图像像素点的第三维深度信息,当然,关于所述双目相机的内参以及外参,主要包括:相机焦距f、相机光心(u,v)、相机镜头径向畸变系数kc1和kc2等,上述参数可通过张正友标定法标定获得。
提取每帧所述双目图像上的特征点,匹配相邻帧双目图像上的特征点。具体方法包括:
采用ORB(英文全称:Oriented Fast and Rotated Brief)方法提取所述特征点;
获取每个特征点分别在各帧双目图像上的描述子,计算一个特征点在位于相邻两帧双目图像上的两个描述子之间的汉明距离,汉明距离最小的两个特征点组成一组匹配的特征点。
剔除位于所述语义掩膜上的特征点,并根据剩余的特征点计算相机位姿。判断所述特征点是否位于所述语义掩膜上的方法包括:所述语义掩膜至少包括物体的边框,所述特征点的坐标位于所述边框范围内,则该特征点位于该语义掩膜上;若不位于所述边框范围内,则该特征点不位于该语义掩膜上。所述根据剩余的特征点计算相机位姿的方法包括:采用PnP(英文全称Perspective-n-Point)算法求解所述相机位姿,构建重投影误差并优化如下式(1)所示:
通过最小化重投影误差,得到最优解,即为所需的相机位姿。
基于所述相机位姿分离所述双目图像上的动态物体和静态物体,具体方法包括:
分离动态物体:基于所述相机位姿,和相邻帧双目图像与所述语义掩膜的位置关系,计算该语义掩膜对应的物体的运动概率,若所述运动概率大于第一阈值,则判断该语义掩膜对应的物体为动态物体。具体步骤如图2所示,包括:
基于所述相机位姿,计算上一帧的语义掩膜在当前帧对应的位置;
利用视差图计算投影以后所述语义掩膜上所有特征点的三维坐标,所述视差图通过所述双目图像计算所得,具体可以采用ELAS(英文全称:Efficient Large Scale StereoMatching)算法计算视差图;
计算上一帧与当前帧对应特征点在x,y,z三个方向上的误差,其中误差的最大值作为该特征点的误差值;
将所述误差值转换为与该特征点所在的语义掩膜对应的物体的运动概率,基于所述运动概率判断与该语义掩膜对应的物体是否为动态物体。
由相机成像原理可知,三维坐标系和像素(二维)坐标系之间转换关系以及深度和视差转换为:
记t-1帧第j个语义掩膜在像素坐标系上的坐标集合为通过公式(2)和公式(3),得到该时刻该语义掩膜的三维坐标集合
通过公式(4)得到运动过后三维点集合
通过公式(3)得到转换到像素坐标系下的集合然后利用和视差图通过公式(2)和公式(3)计算得到
记为中第i个点,为第i个点,计算两点之间误差Δi为:
则该特征点对应的物体的误差为:
计算的运动概率S(Δj)即为:
动态物体匹配:针对所述动态物体,计算该动态物体对应的语义掩膜在相邻帧双目图像的hu矩(即图像矩)、中心点欧氏距离以及直方图分布,基于所述hu矩、中心点欧氏距离和直方图分布计算相邻帧双目图像中所述动态物体匹配的概率,若概率大于第二阈值,则相邻帧双目图像中的两个动态物体为同一物体。具体地,图像的hu矩是一种具有平移、旋转和尺度不变性的图像特征。
图像的普通矩计算公式如下:
计算hu矩需要计算中心距,首先计算质心坐标:
然后构造中心矩:
接着对中心距进行归一化:
通过中心矩构造hu矩,hu矩具有7个不变矩,具体公式如下:
Φ1=η20+η02
Φ3=(η20-3η12)2+3(η21-η03)2
Φ4=(η30+η12)2+(η21+η03)2
Φ5=(η30+3η12)(η30+η12)[(η30+η12)2-3(η21+η03)2+(3η21-η03)(η21+η03)[3(η30+η12)2-(η21+η03)2
Φ6=(η20-η02)[(η30+η12)2-(η21+η03)2]+4η11(η30+η12)(η21+η03)
Φ7=(3η21-η03)(η30+η12)[(η30+η12)2-3(η21+η03)2]+]+(3η12-η30)(η21+η03)[3(η30+η12)2-(η21+η03)2] (12)
记为第t-1帧的j个语义掩膜的hu矩,两个语义掩膜之间hu矩的距离为:
计算每个语义掩膜的中心位置,然后计算前后帧之间各个语义掩膜的中心点位置的欧氏距离,记为:
计算该语义掩膜的直方图分布,然后归一化,记为然后计算前后帧不同语义掩膜的Kl散度(英文全称:Kullback–Leibler divergence,又称相对熵:relativeentropy)。
联合hu矩、欧氏距离和直方图,估计匹配概率:
基于分离后的动态物体估计动态物体的运动参数的方法包括:动态物体运动估计:通过所述动态物体匹配完成连续帧之间动态物体的关联,通过PnP算法估计所述动态物体的运动参数。
基于分离后的静态物体重新计算相机位姿,具体的方法包括:剔除位于所述动态物体对应的语义掩膜上的特征点,根据剩余的特征点,采用PnP算法更新所述相机位姿,具体计算方法可参考前述首次计算相机位姿的方法。
基于更新后的相机位姿以及位于所述静态物体上的特征点构建静态地图,具体方法包括:
基于更新后的相机位姿和位于所述静态物体上的特征点确定多个关键帧;
匹配多个所述关键帧上的特征点,然后将匹配到的特征点进行三角化,对于没有匹配上的点,再与其他关键帧中未被匹配的特征点进行匹配,直至找到全部的匹配的特征点,剔除不匹配的特征点;
检验匹配后的特征点是否满足对极几何约束,剔除不满足的特征点;
检查剩余特征点正向景深、视差、反投影误差和尺度是否一致,剔除不一致的特征点,基于剩余特征点生成地图点;
基于所述地图点构建所述静态地图。
较佳地,在构建所述静态地图前,还包括对生成的地图点通过光束法平差(BA,英文全称:bundle adjustment)进行优化的步骤。
上述方法通过对双目图像的处理,识别出双目图像中存在的动态物体,并且估算出相机位姿以及动态物体的位姿,构建环境地图,满足移动机器人对三维地图的需求。
综上所述,本发明提供的基于语义分割的动态环境双目视觉SLAM方法,包括如下步骤:获取物体的语义掩膜,所述语义掩膜通过深度学习网络生成;采用双目相机获取多帧连续的双目图像;提取每帧所述双目图像上的特征点,匹配相邻帧双目图像上的特征点;剔除位于所述语义掩膜上的特征点,并根据剩余的特征点计算相机位姿;基于所述相机位姿分离所述双目图像上的动态物体和静态物体;基于分离后的动态物体估计动态物体的运动参数;基于分离后的静态物体重新计算相机位姿;基于更新后的相机位姿以及位于所述静态物体上的特征点构建静态地图。本发明使用双目相机,将经过语义信息分割后的图像作为引导,能够识别场景中的动态、静态物体,并实现地图的构建,本方法运算简单、成本低,且能够应用于大多数实际场景中。
显然,本领域的技术人员可以对发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包括这些改动和变型在内。
Claims (7)
1.一种基于语义分割的动态环境双目视觉SLAM方法,其特征在于,包括如下步骤:
获取物体的语义掩膜,所述语义掩膜通过深度学习网络生成;
采用双目相机获取多帧连续的双目图像;
提取每帧所述双目图像上的特征点,匹配相邻帧双目图像上的特征点;
剔除位于所述语义掩膜上的特征点,并根据剩余的特征点计算相机位姿;
基于所述相机位姿分离所述双目图像上的动态物体和静态物体;
基于分离后的动态物体估计动态物体的运动参数;
基于分离后的静态物体重新计算相机位姿;
基于更新后的相机位姿以及位于所述静态物体上的特征点构建静态地图;
所述基于所述相机位姿分离所述双目图像上的动态物体和静态物体;基于分离后的动态物体估计动态物体的运动参数的方法包括:
分离动态物体:基于所述相机位姿,和相邻帧双目图像与所述语义掩膜的位置关系,计算该语义掩膜对应的物体的运动概率,若所述运动概率大于第一阈值,则判断该语义掩膜对应的物体为动态物体;
动态物体匹配:针对所述动态物体,计算该动态物体对应的语义掩膜在相邻帧双目图像的hu矩、中心点欧氏距离以及直方图分布,基于所述hu矩、中心点欧氏距离和直方图分布计算相邻帧双目图像中所述动态物体匹配的概率,若概率大于第二阈值,则相邻帧双目图像中的两个动态物体为同一物体;以及
动态物体运动估计:通过所述动态物体匹配完成连续帧之间动态物体的关联,通过PnP算法估计所述动态物体的运动参数;
所述基于分离后的静态物体重新计算相机位姿的方法包括:剔除位于所述动态物体对应的语义掩膜上的特征点,根据剩余的特征点,采用PnP算法更新所述相机位姿;
所述基于更新后的相机位姿以及位于所述静态物体上的特征点构建静态地图的方法包括:
基于更新后的相机位姿和位于所述静态物体上的特征点确定多个关键帧;
匹配多个所述关键帧上的特征点,剔除不匹配的特征点;
检验匹配后的特征点是否满足对极几何约束,剔除不满足的特征点;
检查剩余特征点正向景深、视差、反投影误差和尺度是否一致,剔除不一致的特征点,基于剩余特征点生成地图点;
基于所述地图点构建所述静态地图。
2.如权利要求1所述的基于语义分割的动态环境双目视觉SLAM方法,其特征在于,用于生成所述语义掩膜的深度学习网络为Mask R-CNN模型。
3.如权利要求1所述的基于语义分割的动态环境双目视觉SLAM方法,其特征在于,所述提取每帧所述双目图像上的特征点,匹配相邻帧双目图像上的特征点的方法包括:
采用ORB方法提取所述特征点;
获取每个特征点分别在各帧双目图像上的描述子,计算一个特征点在位于相邻两帧双目图像上的两个描述子之间的汉明距离,汉明距离最小的两个特征点组成一组匹配的特征点。
4.如权利要求1所述的基于语义分割的动态环境双目视觉SLAM方法,其特征在于,判断所述特征点是否位于所述语义掩膜上的方法包括:所述语义掩膜至少包括物体的边框,所述特征点的坐标位于所述边框范围内,则该特征点位于该语义掩膜上。
5.如权利要求1所述的基于语义分割的动态环境双目视觉SLAM方法,其特征在于,所述根据剩余的特征点计算相机位姿的方法包括:采用PnP算法求解所述相机位姿。
6.如权利要求1所述的基于语义分割的动态环境双目视觉SLAM方法,其特征在于,所述分离动态物体的步骤包括:
基于所述相机位姿,计算上一帧的语义掩膜在当前帧对应的位置;
利用视差图计算投影以后所述语义掩膜上所有特征点的三维坐标,所述视差图通过所述双目图像计算所得;
计算上一帧与当前帧对应特征点在x,y,z三个方向上的误差,其中误差的最大值作为该特征点的误差值;
将所述误差值转换为与该特征点所在的语义掩膜对应的物体的运动概率,基于所述运动概率判断与该语义掩膜对应的物体是否为动态物体。
7.如权利要求1所述的基于语义分割的动态环境双目视觉SLAM方法,其特征在于,在构建所述静态地图前,还包括对生成的地图点通过光束法平差进行优化的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111373890.7A CN114140527B (zh) | 2021-11-19 | 2021-11-19 | 一种基于语义分割的动态环境双目视觉slam方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111373890.7A CN114140527B (zh) | 2021-11-19 | 2021-11-19 | 一种基于语义分割的动态环境双目视觉slam方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114140527A CN114140527A (zh) | 2022-03-04 |
CN114140527B true CN114140527B (zh) | 2024-09-10 |
Family
ID=80390414
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111373890.7A Active CN114140527B (zh) | 2021-11-19 | 2021-11-19 | 一种基于语义分割的动态环境双目视觉slam方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114140527B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115049949B (zh) * | 2022-04-29 | 2024-09-24 | 哈尔滨工程大学 | 一种基于双目视觉的物体表达方法 |
CN116524026B (zh) * | 2023-05-08 | 2023-10-27 | 哈尔滨理工大学 | 一种基于频域和语义的动态视觉slam方法 |
CN116883586B (zh) * | 2023-06-14 | 2024-08-23 | 重庆大学 | 一种基于双目相机的地形语义地图构建方法、系统及产品 |
CN116958265A (zh) * | 2023-09-19 | 2023-10-27 | 交通运输部天津水运工程科学研究所 | 一种基于双目视觉的船舶位姿测量方法及系统 |
CN117788730B (zh) * | 2023-12-08 | 2024-10-15 | 中交机电工程局有限公司 | 一种语义点云地图构建方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110349213B (zh) * | 2019-06-28 | 2023-12-12 | Oppo广东移动通信有限公司 | 基于深度信息的位姿确定方法、装置、介质与电子设备 |
CN113516664B (zh) * | 2021-09-02 | 2024-07-26 | 长春工业大学 | 一种基于语义分割动态点的视觉slam方法 |
-
2021
- 2021-11-19 CN CN202111373890.7A patent/CN114140527B/zh active Active
Non-Patent Citations (1)
Title |
---|
基于几何⁃语义联合约束的动态环境视觉SLAM 算法;沈晔湖等;数据采集与处理;20220531;第37卷(第3期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114140527A (zh) | 2022-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114140527B (zh) | 一种基于语义分割的动态环境双目视觉slam方法 | |
CN111462135B (zh) | 基于视觉slam与二维语义分割的语义建图方法 | |
CN112785702B (zh) | 一种基于2d激光雷达和双目相机紧耦合的slam方法 | |
CN110097553B (zh) | 基于即时定位建图与三维语义分割的语义建图系统 | |
CN110070615B (zh) | 一种基于多相机协同的全景视觉slam方法 | |
CN109345588B (zh) | 一种基于Tag的六自由度姿态估计方法 | |
CN110827395B (zh) | 一种适用于动态环境的即时定位与地图构建方法 | |
CN110688905B (zh) | 一种基于关键帧的三维物体检测与跟踪方法 | |
CN108537844B (zh) | 一种融合几何信息的视觉slam回环检测方法 | |
US20220051425A1 (en) | Scale-aware monocular localization and mapping | |
JP6782903B2 (ja) | 自己運動推定システム、自己運動推定システムの制御方法及びプログラム | |
CN111882602B (zh) | 基于orb特征点和gms匹配过滤器的视觉里程计实现方法 | |
CN112419497A (zh) | 基于单目视觉的特征法与直接法相融合的slam方法 | |
Shi et al. | An improved lightweight deep neural network with knowledge distillation for local feature extraction and visual localization using images and LiDAR point clouds | |
CN110070578B (zh) | 一种回环检测方法 | |
CN114549542A (zh) | 视觉语义分割方法、装置及设备 | |
CN111899345B (zh) | 一种基于2d视觉图像的三维重建方法 | |
CN116468786B (zh) | 一种面向动态环境的基于点线联合的语义slam方法 | |
CN117974786A (zh) | 一种基于多视觉动态环境重建和测量方法及系统 | |
Gan et al. | A dynamic detection method to improve SLAM performance | |
CN114648639B (zh) | 一种目标车辆的检测方法、系统及装置 | |
CN117409386A (zh) | 一种基于激光视觉融合的垃圾定位方法 | |
CN115880428A (zh) | 一种基于三维技术的动物检测数据处理方法、装置及设备 | |
CN114419259A (zh) | 一种基于物理模型成像仿真的视觉定位方法及系统 | |
Zhou et al. | 2D Grid map for navigation based on LCSD-SLAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |