CN111738085B - 实现自动驾驶同时定位与建图的系统构建方法及装置 - Google Patents
实现自动驾驶同时定位与建图的系统构建方法及装置 Download PDFInfo
- Publication number
- CN111738085B CN111738085B CN202010441208.2A CN202010441208A CN111738085B CN 111738085 B CN111738085 B CN 111738085B CN 202010441208 A CN202010441208 A CN 202010441208A CN 111738085 B CN111738085 B CN 111738085B
- Authority
- CN
- China
- Prior art keywords
- mapping
- automatic driving
- algorithm
- map
- system construction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013507 mapping Methods 0.000 title claims abstract description 31
- 238000010276 construction Methods 0.000 title claims abstract description 21
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 38
- 238000001514 detection method Methods 0.000 claims abstract description 36
- 238000000034 method Methods 0.000 claims abstract description 30
- 238000000605 extraction Methods 0.000 claims abstract description 13
- 238000004364 calculation method Methods 0.000 claims abstract description 10
- 230000006870 function Effects 0.000 claims description 19
- 238000005457 optimization Methods 0.000 claims description 13
- 238000013135 deep learning Methods 0.000 claims description 12
- 230000004807 localization Effects 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 9
- 229920006395 saturated elastomer Polymers 0.000 claims description 5
- 238000012549 training Methods 0.000 claims description 5
- 238000012216 screening Methods 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 230000001629 suppression Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/42—Document-oriented image-based pattern recognition based on the type of document
- G06V30/422—Technical drawings; Geographical maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了种实现自动驾驶同时定位与建图的系统构建方法及装置,方法包括以下步骤:获取图像数据后,采用所述目标检测线程检测所述图像数据中的动态物体;采用特征提取算法提取所述图像数据的特征点,所述特征提取算法与所述目标检测线程采取并行计算方式;根据所述动态物体的检测结果和所述特征点的提取结果,获取并剔除包含所述动态物体的特征点,以及根据预设的匹配算法完成不包含所述动态物体特征点的匹配;根据相邻帧的特征点匹配获取相机的初始位姿,通过追踪局部地图优化所述相机的位姿,完成所述相机的定位。本发明具有高的跟踪轨迹精度,和快速的计算速度,满足自动驾驶车辆在动态环境下的同时定位与建图,可广泛应用于自动驾驶领域。
Description
技术领域
本发明涉及自动驾驶领域,尤其涉及一种实现自动驾驶同时定位与建图的系统构建方法及装置。
背景技术
同时定位与建图(Simultaneous localization and mapping,SLAM)是自动驾驶研究技术中的核心问题之一,高鲁棒性、高精度、实时性的SLAM,对自动驾驶等领域有重要的应用价值。
目前,国内外学者对自动驾驶领域的SLAM技术的研究主要还是基于静态环境且计算效率不高。目前,一些系统能够为单目视觉SLAM地图提供真实的尺度信息,减少视觉定位过程中不稳定因素的影响,提高系统在视觉特征缺失等情况下的稳定性。然而动态场景下,该系统跟踪精度极低甚至跟踪失败;同时,由于该系统计算效率低,在车辆速度较快时,系统将无法运行。
受限于计算平台的性能和功耗,如何在有限的资源条件下实现实时运行,一直是一个难以解决的问题。同时,传统的SLAM是建立在静态环境下,不考虑环境物体的运动,而实际环境中,人的走动、车辆的来往都会造成环境动态变化,从而使SLAM系统建立的地图无法保持长时间的一致性,基于视觉的特征也会因为物体的运动而变得不稳定。因此,如何在有限资源的条件下构建高鲁棒性、高精度、实时性的SLAM是智能驾驶领域急需解决的问题。
名词解释:
DG-SLAM:基于深度学习和GPU并行计算的SLAM,即SLAM Based on Deep Learningand GPU Parallel Computing的缩写。
发明内容
为了解决上述技术问题之一,本发明的目的是提供一种实现自动驾驶同时定位与建图的系统构建方法及装置。
本发明所采用的技术方案是:
一种实现自动驾驶同时定位与建图的系统构建方法,所述系统包括目标检测线程、追踪线程和局部建图线程三个并行线程,所述追踪线程包括以下步骤:
获取图像数据后,采用所述目标检测线程检测所述图像数据中的动态物体;
采用特征提取算法提取所述图像数据的特征点,所述特征提取算法与所述目标检测线程采取并行计算方式;
根据所述动态物体的检测结果和所述特征点的提取结果,获取并剔除包含所述动态物体的特征点,以及根据预设的匹配算法完成不包含所述动态物体特征点的匹配;
根据相邻帧的特征点匹配获取相机的初始位姿,通过追踪局部地图优化所述相机的位姿,完成所述相机的定位;
其中,在追踪局部地图过程中,采用饱和核函数作用于计算特征点投影匹配的最小化误差项的二范数平方和。
进一步,所述采用饱和核函数作用于计算特征点投影匹配的最小化误差项的二范数平方和的公式为:
其中,fi(x)为点集P在像素坐标系下的坐标与当前帧特征点的坐标的残差,S为鲁棒饱和核函数,记||fi(x)||2=e,则:
式中,δ为残差的阈值。
进一步,所述通过追踪局部地图优化所述相机的位姿,包括:
根据所述初始位姿计算以所述相机为中心的当前帧的空间;
并行采用三种标准筛选所述空间中的地图点,并计算获得与当前帧进行投影匹配的点集P;
其中,所述点集P由世界坐标系投影到像素坐标系与当前帧的特征点进行投影匹配,且采用光束平差法进行最小二乘优化。
进一步,所述并行采用三种标准筛选所述空间中的地图点,包括:
基于第一标准,筛选选出位于所述空间中的局部地图点集S;
基于第二标准,计算当前视图射线v和地图云点平均视图方向n的夹角,若v·n<cos(60°),则舍弃所述地图云点,得到点集T;
基于第三标准,计算地图云点到相机中心的距离d,若所述距离d不在地图云点的尺度不变区间,则舍弃所述地图云点,得到点集W。
进一步,所述目标检测线程包括目标检测模型,所述目标检测模型为基于深度学习的算法,通过该算法对目标物体进行学习获得基于深度学习的目标检测模型。
进一步,所述基于深度学习的算法为SSD算法,该算法以VGG-16作为基础网络,基于前馈卷积神经网络,在不同尺度的特征图上分别检测,然后运用非极大值抑制算法消除冗余的重复框得到最后的检测框。
进一步,所述目标检测模型由Tensorflow深度学习框架训练获得。
进一步,所述局部建图线程基于ORB-SLAM建立。
进一步,所述阈值δ取值为35.89。
本发明所采用的另一技术方案是:
一种实现自动驾驶同时定位与建图的系统构建装置,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现上所述方法。
本发明的有益效果是:本发明具有较高的跟踪轨迹精度,以及更快的计算速度,满足自动驾驶车辆在动态环境下的同时定位与建图。
附图说明
图1是本发明实施例的一种实现自动驾驶高效同时定位与建图的DG-SLAM系统构建方法的整体流程图。
图2是本发明实施例的基于SSD模型的流程图;
图3是本发明实施例的基于GPU并行计算模型的流程图;
图4为本发明实施例SSD算法在KITTI数据集上的检测效果图;
图5为本发明实施例方法构建的系统与ORB-SLAM系统在KITTI数据集上测试精度对比效果图;
图6为本发明实施例方法构建的系统与ORB-SLAM系统在KITTI数据集上测试实时性对比效果图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,需要理解的是,涉及到方位描述,例如上、下、前、后、左、右等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
在本发明的描述中,若干的含义是一个或者多个,多个的含义是两个以上,大于、小于、超过等理解为不包括本数,以上、以下、以内等理解为包括本数。如果有描述到第一、第二只是用于区分技术特征为目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量或者隐含指明所指示的技术特征的先后关系。
本发明的描述中,除非另有明确的限定,设置、安装、连接等词语应做广义理解,所属技术领域技术人员可以结合技术方案的具体内容合理确定上述词语在本发明中的具体含义。
参照图1,本实施例提供了一种实现自动驾驶高效同时定位与建图的DG-SLAM系统构建方法,该系统由目标检测线程、追踪线程和局部建图三个并行线程组成,其中追踪线程包括但不限于以下步骤:
步骤一:在追踪线程中数据关联部分使用基于检测速度较快和检测精度较高SSD的目标检测算法模型检测动态物体,如图2所示,该算法以VGG-16作为基础网络,基于前馈卷积神经网络,在不同尺度的特征图上分别检测,然后运用非极大值抑制算法消除冗余的重复框得到最后的检测框。该算法模型通过使用Tensorflow深度学习框架训练KITTI数据集得到。为了更好测试本算法效果,本实施例将KITTI数据集划分为vehicle,pedestrian,cyclist和background四类组成。在8000张带标签图片中,6400张作为训练集,800张作为训练验证集,800张作为测试集,得到本文系统中的目标检测模型。在本系统中,首先给定图像数据,使用基于SSD的目标检测算法模型检测动态物体(如行人和车辆),并行使用特征点提取算法提取图像数据特征点,然后结合动态目标检测结果和特征点提取结果,剔除动态目标特征点,最后根据特征点的匹配算法完成特征点的匹配。
步骤二:如图3所示,追踪线程定位地图点选择时,根据匹配的特征点获取初始位姿,根据初始位姿计算以相机为中心当前帧的空间I,并行采用三种标准筛选地图点:checking1(即第一标准):筛选选出位于空间I中的局部地图点集S;checking2(即第二标准):计算当前视图射线v和地图云点平均视图方向n的夹角,如果v·n<cos(60°),则舍弃该点,得到点集T;checking3(即第三标准):计算地图云点到相机中心的距离d,如果它不在地图云点的尺度不变区间,则舍弃所述地图云点,得到点集W。并行的将关键帧图像投影到局部地图,搜索与当前帧共视的关键帧,通过式:
S∩T∩W=P
计算得到与当前帧进行投影匹配局部地图点集P;点集P由世界坐标系投影到像素坐标系与当前帧的特征点进行投影匹配,使用光束平差法进行最小二乘优化。
步骤三:在追踪线程中的位姿优化时使用Saturated核函数作用于最小化误差项的二范数平方和:
式中,fi(x)为点集P在像素坐标系下的坐标与当前帧特征点的坐标的残差,S为鲁棒饱和核函数,记||fi(x)||2=e,则:
式中,δ为残差的阈值,本实施例δ取值为35.89,当残差小于35.89时,函数增长为一次性,当残差超过35.89时,函数值取δ2,相当于限制了梯度的最大值,可以有效的处理异常点,保证系统具有较高的鲁棒性。本实施例每次优化过程循环4次,前两次优化调用了鲁棒核,防止误差值太过发散,更主要的原因是抑制错误匹配对的影响;后两次关闭了鲁棒核,认为前两次的优化基本上抑制了错误匹配的影响,每次优化迭代10次;每次优化结束后,根据预设误差阈值判断每一个特征点是内点还是外点;优化结束后,根据判断条件,将所有匹配的外点全部删除,统计内点(观测次数大于0)数量;若内点数量大于10,则认为跟踪成功,否则跟踪失败。在姿态优化的过程中,通过最小化误差项的二范数平方和作为目标函数,为了避免当误差很大时二范数增长得太快,就需要核函数来保证每条边的误差不会掩盖掉其它的边。具体操作为,将原先误差的二范数度量替换成一个增长没有那么快的函数,同时保证光滑性质以便于求导。针对常用的非线性Huber鲁棒核函数的非线性函数不适用于GPU并行处理的缺点,本发明中利用饱和线性函数为线性方程的特性,在不影响误差优化效果的同时适应了GPU并行计算加速。本实施例将追踪线程定位部分中每次位姿优化的结果作为位姿初始值,循环步骤二和步骤三不断优化,获得最新位姿值,直至优化结果满足设定阈值。
本实施例在数据关联算法中耦合基于深度学习的数据关联方法,引进基于SSD的目标检测算法检测环境中的动态物体,在特征点匹配前剔除动态特征点,从而减少特征点误匹配的情况。该实施例具体工作流程为:给定图像数据输入,首先使用SSD的目标检测算法检测动态物体(如行人和车辆等),图4为该算法在KITTI数据集上检测效果图,该算法与特征点的提取算法采取并行计算的方式,结合动态物体检测结果和特征点提取结果,剔除动态物体特征点,进而完成特征点的匹配;随后由帧间匹配获得相机初始位姿,通过追踪局部地图优化相机位姿,在追踪局部地图过程中,将当前帧映射到空间区域,计算局部地图空间点是否在当前帧的视野范围内,由于此步不依赖于当前帧2D数据,可以通过构建并行计算模型完成待优化特征点的选择;为了避免当误差很大时二范数增长得太快,就需要核函数来保证每条边的误差不会掩盖掉其它的边,因此在完成特征点的选择和匹配后,本实施例使用核函数作用于最小化误差项的二范数平方和并行计算特征点重投影误差,完成相机位姿的定位。
本实施例在KITTI 01上进行测试,同时与ORB-SLAM系统对比,如图5中,RMSE(RootMean Square Error)为系统测试的均方根误差,非常适合评价SLAM系统的精度性能,由图可知,本实施例较ORB-SLAM定位精度有显著提升。如图6所示,ORB-SLAM在运行的平均帧率约为25帧每秒,且运行时间时间不稳定;本实施例的SLAM算法的运行帧率平均超过125帧每秒,比ORB-SLAM快5倍以上,且运行时间稳定,因此本实施例实现了高鲁棒性、高精度、实时性的SLAM。
本实施例还提供了一种实现自动驾驶同时定位与建图的系统构建装置,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现上所述方法。
本实施例的一种实现自动驾驶同时定位与建图的系统构建装置,可执行本发明方法实施例所提供的一种实现自动驾驶高效同时定位与建图的DG-SLAM系统构建方法,可执行方法实施例的任意组合实施步骤,具备该方法相应的功能和有益效果。
可以理解的是,上文中所公开方法中的全部或某些步骤、系统可以被实施为软件、固件、硬件及其适当的组合。某些物理组件或所有物理组件可以被实施为由处理器,如中央处理器、数字信号处理器或微处理器执行的软件,或者被实施为硬件,或者被实施为集成电路,如专用集成电路。这样的软件可以分布在计算机可读介质上,计算机可读介质可以包括计算机存储介质(或非暂时性介质)和通信介质(或暂时性介质)。如本领域普通技术人员公知的,术语计算机存储介质包括在用于存储信息(诸如计算机可读指令、数据结构、程序模块或其他数据)的任何方法或技术中实施的易失性和非易失性、可移除和不可移除介质。计算机存储介质包括但不限于RAM、ROM、EEPROM、闪存或其他存储器技术、CD-ROM、数字多功能盘(DVD)或其他光盘存储、磁盒、磁带、磁盘存储或其他磁存储装置、或者可以用于存储期望的信息并且可以被计算机访问的任何其他的介质。此外,本领域普通技术人员公知的是,通信介质通常包含计算机可读指令、数据结构、程序模块或者诸如载波或其他传输机制之类的调制数据信号中的其他数据,并且可包括任何信息递送介质。
上面结合附图对本发明实施例作了详细说明,但是本发明不限于上述实施例,在所述技术领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。
Claims (9)
1.一种实现自动驾驶同时定位与建图的系统构建方法,其特征在于,所述系统包括目标检测线程、追踪线程和局部建图线程三个并行线程,所述追踪线程包括以下步骤:
获取图像数据后,采用所述目标检测线程检测所述图像数据中的动态物体;采用特征提取算法提取所述图像数据的特征点,所述特征提取算法与所述目标检测线程采取并行计算方式;
根据所述动态物体的检测结果和所述特征点的提取结果,获取并剔除包含所述动态物体的特征点,以及根据预设的匹配算法完成不包含所述动态物体特征点的匹配;
根据相邻帧的特征点匹配获取相机的初始位姿,通过追踪局部地图优化所述相机的位姿,完成所述相机的定位;
其中,在追踪局部地图过程中,采用饱和核函数作用于计算特征点投影匹配的最小化误差项的二范数平方和;
所述采用饱和核函数作用于计算特征点投影匹配的最小化误差项的二范数平方和的公式为:
其中,fi(x)为点集P在像素坐标系下的坐标与当前帧特征点的坐标的残差,S为鲁棒饱和核函数,记||fi(x)||2=e,则:
式中,δ为残差的阈值。
2.根据权利要求1所述的一种实现自动驾驶同时定位与建图的系统构建方法,
其特征在于,所述通过追踪局部地图优化所述相机的位姿,包括:
根据所述初始位姿计算以相机为中心的当前帧的空间;
并行采用三种标准筛选所述空间中的地图点,并计算获得与当前帧进行投影匹配的点集P;
其中,所述点集P由世界坐标系投影到像素坐标系与当前帧的特征点进行投影匹配,且采用光束平差法进行最小二乘优化。
3.根据权利要求2所述的一种实现自动驾驶同时定位与建图的系统构建方法,
其特征在于,所述并行采用三种标准筛选所述空间中的地图点,包括:
基于第一标准,筛选选出位于所述空间中的局部地图点集S;
基于第二标准,计算当前视图射线v和地图云点平均视图方向n的夹角,若v·n<cos(60°),则舍弃所述地图云点,得到点集T;
基于第三标准,计算地图云点到相机中心的距离d,若所述距离d不在地图云点的尺度不变区间,则舍弃所述地图云点,得到点集W。
4.根据权利要求1所述的一种实现自动驾驶同时定位与建图的系统构建方法,其特征在于,所述目标检测线程包括目标检测模型,所述目标检测模型为基于深度学习的算法,通过该算法对目标物体进行学习获得基于深度学习的目标检测模型。
5.根据权利要求4所述的一种实现自动驾驶同时定位与建图的系统构建方法,其特征在于,所述基于深度学习的算法为SSD算法,该算法以VGG-16作为基础网络,基于前馈卷积神经网络,在不同尺度的特征图上分别检测,然后运用非极大值抑制算法消除冗余的重复框得到最后的检测框。
6.根据权利要求4所述的一种实现自动驾驶同时定位与建图的系统构建方法,其特征在于,所述目标检测模型由Tensorflow深度学习框架训练获得。
7.根据权利要求1所述的一种实现自动驾驶同时定位与建图的系统构建方法,其特征在于,所述局部建图线程基于ORB-SLAM建立。
8.根据权利要求1所述的一种实现自动驾驶同时定位与建图的系统构建方法,其特征在于,所述阈值δ取值为35.89。
9.一种实现自动驾驶同时定位与建图的系统构建装置,其特征在于,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现权利要求1-8任一项所述的一种实现自动驾驶同时定位与建图的系统构建方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010441208.2A CN111738085B (zh) | 2020-05-22 | 2020-05-22 | 实现自动驾驶同时定位与建图的系统构建方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010441208.2A CN111738085B (zh) | 2020-05-22 | 2020-05-22 | 实现自动驾驶同时定位与建图的系统构建方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111738085A CN111738085A (zh) | 2020-10-02 |
CN111738085B true CN111738085B (zh) | 2023-10-24 |
Family
ID=72647642
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010441208.2A Active CN111738085B (zh) | 2020-05-22 | 2020-05-22 | 实现自动驾驶同时定位与建图的系统构建方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111738085B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114445490A (zh) * | 2020-10-31 | 2022-05-06 | 华为技术有限公司 | 一种位姿确定方法及其相关设备 |
CN114283199B (zh) * | 2021-12-29 | 2024-06-11 | 北京航空航天大学 | 一种面向动态场景的点线融合语义slam方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109631855A (zh) * | 2019-01-25 | 2019-04-16 | 西安电子科技大学 | 基于orb-slam的高精度车辆定位方法 |
CN109781092A (zh) * | 2019-01-19 | 2019-05-21 | 北京化工大学 | 一种危险化工事故中移动机器人定位与建图方法 |
CN109934862A (zh) * | 2019-02-22 | 2019-06-25 | 上海大学 | 一种点线特征结合的双目视觉slam方法 |
CN110378345A (zh) * | 2019-06-04 | 2019-10-25 | 广东工业大学 | 基于yolact实例分割模型的动态场景slam方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3494447B1 (en) * | 2016-08-04 | 2021-05-19 | Reification Inc. | Methods for simultaneous localization and mapping (slam) and related apparatus and systems |
-
2020
- 2020-05-22 CN CN202010441208.2A patent/CN111738085B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109781092A (zh) * | 2019-01-19 | 2019-05-21 | 北京化工大学 | 一种危险化工事故中移动机器人定位与建图方法 |
CN109631855A (zh) * | 2019-01-25 | 2019-04-16 | 西安电子科技大学 | 基于orb-slam的高精度车辆定位方法 |
CN109934862A (zh) * | 2019-02-22 | 2019-06-25 | 上海大学 | 一种点线特征结合的双目视觉slam方法 |
CN110378345A (zh) * | 2019-06-04 | 2019-10-25 | 广东工业大学 | 基于yolact实例分割模型的动态场景slam方法 |
Non-Patent Citations (3)
Title |
---|
Raúl Mur-Artal et al..ORB-SLAM: A Versatile and Accurate Monocular SLAM System.IEEE Transactions on Robotics.2015,第31卷(第5期),第1152-1153页. * |
张威.基于物体语义信息的室内视觉SLAM研究.中国优秀硕士学位论文全文数据库 信息科技辑.2019,第2019卷(第2019期),第三章,正文第45页. * |
禹鑫燚 等.SLAM过程中的机器人位姿估计优化算法研究.高技术通讯.2018,第28卷(第8期),第713页. * |
Also Published As
Publication number | Publication date |
---|---|
CN111738085A (zh) | 2020-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102320649B1 (ko) | 얼굴 이미지 품질을 결정하는 방법과 장치, 전자 기기 및 컴퓨터 저장 매체 | |
CN111724439B (zh) | 一种动态场景下的视觉定位方法及装置 | |
CN105405154B (zh) | 基于颜色-结构特征的目标对象跟踪方法 | |
US20200074646A1 (en) | Method for obtaining image tracking points and device and storage medium thereof | |
CN111460926A (zh) | 一种融合多目标跟踪线索的视频行人检测方法 | |
CN109974743B (zh) | 一种基于gms特征匹配及滑动窗口位姿图优化的视觉里程计 | |
CN108805016B (zh) | 一种头肩区域检测方法及装置 | |
CN109086724B (zh) | 一种加速的人脸检测方法及存储介质 | |
CN112509044A (zh) | 一种基于点线特征融合的双目视觉slam方法 | |
CN113689503B (zh) | 目标对象的姿态检测方法、装置、设备及存储介质 | |
CN105374049B (zh) | 一种基于稀疏光流法的多角点跟踪方法及装置 | |
CN107403451B (zh) | 自适应二值特征单目视觉里程计方法及计算机、机器人 | |
CN111738085B (zh) | 实现自动驾驶同时定位与建图的系统构建方法及装置 | |
CN110378942A (zh) | 基于双目相机的障碍物标识方法、系统、设备和存储介质 | |
CN110544268B (zh) | 一种基于结构光及SiamMask网络的多目标跟踪方法 | |
CN115797736A (zh) | 目标检测模型的训练和目标检测方法、装置、设备和介质 | |
CN109902675B (zh) | 物体的位姿获取方法、场景重构的方法和装置 | |
CN104168444A (zh) | 一种跟踪球机的目标跟踪方法及跟踪球机 | |
CN107452019B (zh) | 一种基于模型切换的目标检测方法、装置、系统及存储介质 | |
CN114463603B (zh) | 图像检测模型的训练方法、装置、电子设备及存储介质 | |
CN114419102B (zh) | 一种基于帧差时序运动信息的多目标跟踪检测方法 | |
US11699303B2 (en) | System and method of acquiring coordinates of pupil center point | |
CN115049731A (zh) | 一种基于双目摄像头的视觉建图和定位方法 | |
CN114674826A (zh) | 基于布匹的视觉检测方法及检测系统 | |
US20160261853A1 (en) | Constructing a user's face model using particle filters |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |