CN111982127A - LightWeight-3D避障方法 - Google Patents
LightWeight-3D避障方法 Download PDFInfo
- Publication number
- CN111982127A CN111982127A CN202010896119.7A CN202010896119A CN111982127A CN 111982127 A CN111982127 A CN 111982127A CN 202010896119 A CN202010896119 A CN 202010896119A CN 111982127 A CN111982127 A CN 111982127A
- Authority
- CN
- China
- Prior art keywords
- global
- dimensional map
- real
- obstacle
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000001514 detection method Methods 0.000 claims abstract description 37
- 238000013527 convolutional neural network Methods 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 claims description 2
- 238000011897 real-time detection Methods 0.000 abstract description 7
- 238000013528 artificial neural network Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 5
- 238000013439 planning Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000013523 data management Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001172 regenerating effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明涉及机器人定位避障技术领域,具体涉及一种LightWeight‑3D避障方法,包括步骤:S1、获取机器人行进的起点位置和终点位置以及全局三维地图;S2、通过回归算法实时采集机器人前方的图像数据和点云数据,并实时获取障碍物的目标信息和位置信息;S3、采用增强追踪算法探测3D障碍物;S4、在全局三维地图上生成路径点,并采用碰撞检测获取最优路径;S5、获取机器人的实时位置,并实时更新全局三维地图得到实时三维地图;S6、在行进过程中对下一路径点进行碰撞检测,判断是否会发生碰撞:若会发生碰撞,返回S4并以实时位置为起点位置;若不会发生碰撞,则继续行进。本发明解决了现有的3D检测算法不稳定、延迟明显、实时检测性和可靠性差的技术问题。
Description
技术领域
本发明涉及机器人定位避障技术领域,具体涉及一种LightWeight-3D避障方法。
背景技术
目前,机器人领域中普遍使用二维障碍物检测(2D检测)算法,虽然说2D检测算法成熟、可靠,但是也存在短板。比如说,检测范围局限于激光仪器安装位置,只能检测到激光仪器安装水平面范围里的障碍物,若物体低于仪器安装高度则无法被检测到;由于检测范围是仪器安装的水平面,对于位于水平面之上的障碍物,也即悬挂、浮空障碍物无法检测到。“Light Weight”,也即轻量级神经网络,也称微型神经网络,是指需要参数的数量较少和计算代价较小的神经网络模型。由于微型神经网络计算开销小,微型神经网络模型可以部署在计算资源有限的设备上,如智能手机、平板电脑或其他嵌入式设备,通常从网络结构优化和网络裁剪两个角度构建微型神经网络。
考虑到用2D检测算法的这些短板,基于传统的聚类或当代的神经网络算法的三维障碍物检测(3D检测)算法也逐渐开始得到应用。比如,文件CN106949893A公开了一种三维避障的室内机器人导航方法,包括:采集机器人的三维模型、起点位置和终点位置,全局三维地图并进行全局路径规划,生成一系列全局路径点,在每一全局路径点处进行三维障碍物碰撞检测,得到最优的全局路径规划;机器人按最优的全局路径规划行进,在行进过程中对下一全局路径点进行三维障碍物碰撞检测,若会发生碰撞,则以实时三维地图为全局三维地图,以实时位置为起点位置重新进行全局路径规划,若不会发生碰撞,则继续行进直至达到终点位置,实现了机器人的自主导航与三维避障。
目前已知的3D检测算法,基本都采用聚类或神经网络算法,而聚类和神经网络都需要大量干净的数据才能发挥出其性能,无法有效处理带噪音、混乱以及小量数据,从而导致算法不稳定、延迟明显、实时检测性和可靠性差。
发明内容
本发明提供一种LightWeight-3D避障方法,解决了现有的3D检测算法不稳定、延迟明显、实时检测性和可靠性差的技术问题。
本发明提供的基础方案为:LightWeight-3D避障方法,包括步骤:
S1、获取机器人行进的起点位置和终点位置,以及包含起点位置和终点位置的全局三维地图;
S2、通过回归算法实时采集机器人前方的图像数据和点云数据,并根据图像数据实时获取障碍物的目标信息和位置信息;
S3、在目标信息和位置信息的基础上,采用增强追踪算法探测3D障碍物;
S4、在全局三维地图上生成路径点,并采用碰撞检测获取最优路径;
S5、获取机器人的实时位置,并实时更新全局三维地图得到实时三维地图;
S6、在行进过程中对下一路径点进行碰撞检测,判断是否会发生碰撞:若会发生碰撞,则以实时三维地图作为全局三维地图,返回S4并以机器人实时位置为起点位置;若不会发生碰撞,则继续行进直至达到终点位置。
本发明的工作原理及优点在于:获取了起点位置、终点位置以及全局三维地图后,通过回归算法实时采集机器人前方的图像数据和点云数据,实现对图像数据和点云数据进行精确分类以降低混乱度,从而提高了算法的稳定性和可靠性。在目标信息和位置信息的基础上,采用增强追踪算法探测3D障碍物,以高效、准确地反馈障碍信息,提高了最优的全局路径的获取速度,从而减小了延迟、提高了实时检测性。通过在所有全局路径点处进行碰撞检测,得到以各个全局路径点为起点的最优的全局路径,这样保证了在每个全局路径点出发时行进的都是最优的路径,避免了误差的累积,既提高了算法运行的速度,又可保证在避障的过程中具有良好的实时检测性和可靠性。
本发明公开一种LightWeight-3D避障方法,也即轻量级避障方法,通过回归算法实时采集机器人前方的图像数据和点云数据,采用增强追踪算法探测3D障碍物,解决了现有的3D检测算法不稳定、延迟明显、实时检测性和可靠性差的技术问题。
进一步,S2中改进数据结构和记录方式后保存图像数据和点云数据。
有益效果在于:通过这样的方式,可以提高数据管理的效率。
进一步,S2中获取目标信息具体为:训练轻量化卷积神经网络;将图像数据实时传输到训练好的轻量化卷积神经网络进行目标识别。
有益效果在于:通过这样的方式,采用轻量化卷积神经网络降低了对存储的要求,减少了计算量、提高了运算速度。
进一步,S2中获取定位信息具体为:训练定位模型;将目标信息及点云数据输入到训练好的目标定位模型进行目标定位,得到障碍物相对于机器人的位置信息。
有益效果在于:通过这样的方式,在目标信息的基础上能够快速、准确地得到障碍物相对于机器人的位置信息。
进一步,S2中轻量化卷积神经网络包括:特征网络,用于获取输入的图像数据中不同维度的特征图;提取网络,用于提取特征图中的信息,并通过提取的信息预测障碍物的类别。
有益效果在于:通过这样的方式,先得到障碍物的不同维度的特征图,可提高障碍物类别预测的准确性。
进一步,S3中采用KCF追踪算法探测3D障碍物。
有益效果在于:通过这样的方式,可以降低运算量,提高运算速度,使算法满足实时性要求。
进一步,S4中获取最优路径具体步骤为:
A1、根据起点位置和终点位置在全局三维地图上生成路径点;
A2、在每个路径点处进行三维障碍物碰撞检测,判断是否发生碰撞:若每个路径点均不发生碰撞,则这些路径点组成的路径即为最优路径;若有路径点发生碰撞,则返回A1并重新生成路径点。
有益效果在于:通过这样的方式,若发生碰撞就会根据起点位置、终点位置和全局三维地图重新进行路径规划,直到可以避开障碍物为止,从而便于高效、准确地得到最优路径。
进一步,A2中判断是否发生碰撞具体步骤如下:
B1、利用机器人的三维模型构建模型二叉树结构,利用全局三维地图构建全局二叉树结构;
B2、计算全局路径点处,模型二叉树结构的球体和全局二叉树结构的球体之间的球心距离为第一距离;
B3、计算模型二叉树结构和全局二叉树结构之间的距离为第二距离;
B4、判断第一距离与第二距离的大小关系:若第一距离小于第二距离,判定会发生碰撞;反之,若第一距离大于、等于第二距离,判定不会发生碰撞。
有益效果在于:若第一距离小于第二距离,说明机器人的三维模型和全局三维地图相交,从而会发生碰撞;反之,说明机器人的三维模型和全局三维地图没有相交,从而会不发生碰撞,通过这样的方式判断准确、可靠。
进一步,进行三维障碍物碰撞检测之前,将机器人的三维模型划分成二维模型,对二维模型进行二维障碍物碰撞检测。
有益效果在于:通过这样的方式进行预先判断,可以提高判断的效率。
进一步,S5中实时更新全局三维地图得到实时三维地图具体步骤包括:
C1、获取机器人的实时位置;
C2、获取实时位置和下一路径点的局部三维地图;
C3、利用局部三维地图更新全局三维地图得到实时三维地图。
有益效果在于:通过这样的方式实时更新全局三维地图,有利于及时对路径进行修正,从而提高避障的效果。
附图说明
图1为本发明LightWeight-3D避障方法实施例的流程图。
具体实施方式
下面通过具体实施方式进一步详细的说明:
实施例1
本发明LightWeight-3D避障方法实施例基本如附图1所示,包括步骤:
S1、获取机器人行进的起点位置和终点位置,以及包含起点位置和终点位置的全局三维地图;
S2、通过回归算法实时采集机器人前方的图像数据和点云数据,并根据图像数据实时获取障碍物的目标信息和位置信息;
S3、在目标信息和位置信息的基础上,采用增强追踪算法探测3D障碍物;
S4、在全局三维地图上生成路径点,并采用碰撞检测获取最优路径;
S5、获取机器人的实时位置,并实时更新全局三维地图得到实时三维地图;
S6、在行进过程中对下一路径点进行碰撞检测,判断是否会发生碰撞:若会发生碰撞,则以实时三维地图作为全局三维地图,返回S4并以机器人实时位置为起点位置;若不会发生碰撞,则继续行进直至达到终点位置。
具体实施过程如下:
S1、获取机器人行进的起点位置和终点位置,以及包含起点位置和终点位置的全局三维地图。
先根据任务安排确定机器人需要行进的起点位置和终点位置,然后通过地图软件获取含起点位置和终点位置的全局三维地图。
S2、通过回归算法实时采集机器人前方的图像数据和点云数据,并根据图像数据实时获取障碍物的目标信息和位置信息。
当机器人位于起始位置时,实时采集机器人前方的图像数据和点云数据,采集的具体方式为回归算法,便于对数据进行精确分类以降低混乱度。采集完毕,改进数据结构和记录方式后,保存图像数据和点云数据。
为了降低对存储的要求、减少计算量,采用轻量化卷积神经网络获取目标信息,轻量化卷积神经网络包括特征网络和提取网络。首先,对轻量化卷积神经网络进行训练,得到训练好的轻量化卷积神经网络;然后,将图像数据实时传输到训练好的轻量化卷积神经网络中;接着,特征网络获取输入的图像数据中不同维度的特征图;最后由提取网络提取特征图中的信息,比如形状、大小、尺寸、颜色等,并通过提取的信息预测障碍物的类别。通过这样的方式,可提高障碍物类别预测的准确性。
为了在目标信息的基础上能够快速、准确地得到障碍物相对于机器人的位置信息,首先需要对定位模型进行训练;训练完毕后,将目标信息及点云数据输入到训练好的定位模型进行目标定位,即可得到障碍物相对于机器人的位置信息。
S3、在目标信息和位置信息的基础上,采用增强追踪算法探测3D障碍物。
在获得障碍物的基本信息以及障碍物相对于机器人的位置信息后,采用KCF追踪算法对障碍物进行追踪探测,通过这样的方式,可以降低运算量,提高运算速度,使算法满足实时性要求。
S4、在全局三维地图上生成路径点,并采用碰撞检测获取最优路径。
本实施例中,根据初始位置、终点位置和全局三维地图进行路径规划,生成一系列路径点,采用A*算法或者ARA*算法对机器人进行路径规划,从而得到最优路径。具体而言:
第一步,根据起点位置和终点位置在全局三维地图上生成路径点。也即,确定出在全局三维地图上,介于起点位置和终点位置之间,机器人可能会发生碰撞的位置点。
第二步,在每个路径点处进行三维障碍物碰撞检测,判断是否发生碰撞。
判断每个路径点是否发生碰撞具体步骤为:第一步,利用机器人的三维模型构建模型二叉树结构,利用全局三维地图构建全局二叉树结构;第二步,计算全局路径点处,模型二叉树结构的球体和全局二叉树结构的球体之间的球心距离为第一距离;第三步,计算模型二叉树结构和全局二叉树结构之间的距离为第二距离;第四步,判断第一距离与第二距离的大小关系:若第一距离小于第二距离,说明机器人的三维模型和全局三维地图相交,故而判定会发生碰撞;反之,若第一距离大于、等于第二距离,说明机器人的三维模型和全局三维地图没有相交,故而判定不会发生碰撞。通过这样的方式,可对每个路径点进行快速、准确、可靠的判断。
若每个路径点均不发生碰撞,则这些路径点组成的路径即为最优路径;若有路径点发生碰撞,则重新根据起点位置和终点位置在全局三维地图上生成路径点,并对重新生成的每个路径点进行三维障碍物碰撞检测。通过这样的方式,若发生碰撞就会根据起点位置、终点位置和全局三维地图重新进行路径规划,直到可以避开障碍物为止,从而可以高效、准确地得到最优路径。
S5、获取机器人的实时位置,并实时更新全局三维地图得到实时三维地图。
为了及时对路径进行修正,提高避障的效果,需要实时更新全局三维地图,具体而言:第一步,获取机器人的实时位置;第二步,获取实时位置和下一路径点的局部三维地图;第三步,利用局部三维地图更新全局三维地图得到实时三维地图。
S6、在行进过程中对下一路径点进行碰撞检测,判断是否会发生碰撞。
具体而言:若会发生碰撞,则以实时三维地图作为全局三维地图,在新的全局三维地图上重新生成路径点,并采用碰撞检测重新获取最优路径;若不会发生碰撞,则继续行进直至达到终点位置。通过在所有全局路径点处进行碰撞检测,得到以各个全局路径点为起点的最优的全局路径,这样保证了在每个全局路径点出发时行进的都是最优的路径,避免了误差的累积,既提高了算法运行的速度,又可保证在避障的过程中具有良好的实时检测性和可靠性。
实施例2
与实施例1不同之处仅在于,进行三维障碍物碰撞检测之前,将机器人的三维模型划分成二维模型,对二维模型进行二维障碍物碰撞检测。
实施例3
与实施例2不同之处仅在于,在运动造成相机的聚焦突然模糊,或者动态目标由近到远而导致在画面中所占区域变小时,进行前置判断,确定相机的聚焦突然模糊或者动态目标在画面中所占区域变小是由于镜头的运动造成的还是由于所拍摄的物体的运动造成的。具体而言,预先设置参考物,判断是相机还是所拍摄的物体与参照物之间存在相对运动:若相机与参照物之间存在相对运动,说明相机的聚焦突然模糊或者动态目标在画面中所占区域变小是由于镜头的运动造成的,这时就调整相机的静止姿态,使其保持不动;反之,若所拍摄的物体与参照物之间存在相对运动,说明相机的聚焦突然模糊或者动态目标在画面中所占区域变小是由于所拍摄的物体的运动造成的,这时就调整相机的运动姿态,使其随着所拍摄物体一起运动,并同时保持着与所拍摄物体的相对位置不变。
以上所述的仅是本发明的实施例,方案中公知的具体结构及特性等常识在此未作过多描述,所属领域普通技术人员知晓申请日或者优先权日之前发明所属技术领域所有的普通技术知识,能够获知该领域中所有的现有技术,并且具有应用该日期之前常规实验手段的能力,所属领域普通技术人员可以在本申请给出的启示下,结合自身能力完善并实施本方案,一些典型的公知结构或者公知方法不应当成为所属领域普通技术人员实施本申请的障碍。应当指出,对于本领域的技术人员来说,在不脱离本发明结构的前提下,还可以作出若干变形和改进,这些也应该视为本发明的保护范围,这些都不会影响本发明实施的效果和专利的实用性。本申请要求的保护范围应当以其权利要求的内容为准,说明书中的具体实施方式等记载可以用于解释权利要求的内容。
Claims (10)
1.LightWeight-3D避障方法,其特征在于,包括步骤:
S1、获取机器人行进的起点位置和终点位置,以及包含起点位置和终点位置的全局三维地图;
S2、通过回归算法实时采集机器人前方的图像数据和点云数据,并根据图像数据实时获取障碍物的目标信息和位置信息;
S3、在目标信息和位置信息的基础上,采用增强追踪算法探测3D障碍物;
S4、在全局三维地图上生成路径点,并采用碰撞检测获取最优路径;
S5、获取机器人的实时位置,并实时更新全局三维地图得到实时三维地图;
S6、在行进过程中对下一路径点进行碰撞检测,判断是否会发生碰撞:若会发生碰撞,则以实时三维地图作为全局三维地图,返回S4并以机器人实时位置为起点位置;若不会发生碰撞,则继续行进直至达到终点位置。
2.如权利要求1所述的LightWeight-3D避障方法,其特征在于,S2中改进数据结构和记录方式后保存图像数据和点云数据。
3.如权利要求2所述的LightWeight-3D避障方法,其特征在于,S2中获取目标信息具体为:训练轻量化卷积神经网络;将图像数据实时传输到训练好的轻量化卷积神经网络进行目标识别。
4.如权利要求3所述的LightWeight-3D避障方法,其特征在于,S2中获取定位信息具体为:训练定位模型;将目标信息及点云数据输入到训练好的目标定位模型进行目标定位,得到障碍物相对于机器人的位置信息。
5.如权利要求4所述的LightWeight-3D避障方法,其特征在于,S2中轻量化卷积神经网络包括:特征网络,用于获取输入的图像数据中不同维度的特征图;提取网络,用于提取特征图中的信息,并通过提取的信息预测障碍物的类别。
6.如权利要求5所述的LightWeight-3D避障方法,其特征在于,S3中采用KCF追踪算法探测3D障碍物。
7.如权利要求6所述的LightWeight-3D避障方法,其特征在于,S4中获取最优路径具体步骤为:
A1、根据起点位置和终点位置在全局三维地图上生成路径点;
A2、在每个路径点处进行三维障碍物碰撞检测,判断是否发生碰撞:若每个路径点均不发生碰撞,则这些路径点组成的路径即为最优路径;若有路径点发生碰撞,则返回A1并重新生成路径点。
8.如权利要求7所述的LightWeight-3D避障方法,其特征在于,A2中判断是否发生碰撞具体步骤如下:
B1、利用机器人的三维模型构建模型二叉树结构,利用全局三维地图构建全局二叉树结构;
B2、计算全局路径点处,模型二叉树结构的球体和全局二叉树结构的球体之间的球心距离为第一距离;
B3、计算模型二叉树结构和全局二叉树结构之间的距离为第二距离;
B4、判断第一距离与第二距离的大小关系:若第一距离小于第二距离,判定会发生碰撞;反之,若第一距离大于、等于第二距离,判定不会发生碰撞。
9.如权利要求8所述的LightWeight-3D避障方法,其特征在于,进行三维障碍物碰撞检测之前,将机器人的三维模型划分成二维模型,对二维模型进行二维障碍物碰撞检测。
10.如权利要求9所述的LightWeight-3D避障方法,其特征在于,S5中实时更新全局三维地图得到实时三维地图具体步骤包括:
C1、获取机器人的实时位置;
C2、获取实时位置和下一路径点的局部三维地图;
C3、利用局部三维地图更新全局三维地图得到实时三维地图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010896119.7A CN111982127A (zh) | 2020-08-31 | 2020-08-31 | LightWeight-3D避障方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010896119.7A CN111982127A (zh) | 2020-08-31 | 2020-08-31 | LightWeight-3D避障方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111982127A true CN111982127A (zh) | 2020-11-24 |
Family
ID=73440518
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010896119.7A Pending CN111982127A (zh) | 2020-08-31 | 2020-08-31 | LightWeight-3D避障方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111982127A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112596542A (zh) * | 2020-12-11 | 2021-04-02 | 广州极飞科技有限公司 | 数据处理方法和装置、电子设备及存储介质 |
CN112731929A (zh) * | 2020-12-23 | 2021-04-30 | 浙江大学 | 一种基于阿克曼模型的移动机器人避障路径规划方法 |
CN113110466A (zh) * | 2021-04-22 | 2021-07-13 | 深圳市井智高科机器人有限公司 | 一种用于agv机器人的高灵敏度避障系统及方法 |
CN113237688A (zh) * | 2021-07-09 | 2021-08-10 | 深圳市普渡科技有限公司 | 机器人、机器人避障性能测试方法、装置及可读存储介质 |
CN114299039A (zh) * | 2021-12-30 | 2022-04-08 | 广西大学 | 一种机器人及其碰撞检测装置和方法 |
CN114347031A (zh) * | 2022-01-18 | 2022-04-15 | 广东省智能机器人研究院 | 一种考虑时变时滞的移动机械臂避碰控制方法及装置 |
WO2024212587A1 (zh) * | 2023-04-12 | 2024-10-17 | 珠海格力智能装备有限公司 | 移动机器人的控制方法及装置、移动机器人 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100324769A1 (en) * | 2007-02-13 | 2010-12-23 | Yutaka Takaoka | Environment map generating method and mobile robot (as amended) |
JP2011134207A (ja) * | 2009-12-25 | 2011-07-07 | Konica Minolta Holdings Inc | 運転記録装置および地図作成システム |
CN106949893A (zh) * | 2017-03-24 | 2017-07-14 | 华中科技大学 | 一种三维避障的室内机器人导航方法和系统 |
CN109034018A (zh) * | 2018-07-12 | 2018-12-18 | 北京航空航天大学 | 一种基于双目视觉的低空小型无人机障碍物感知方法 |
CN109579848A (zh) * | 2018-12-27 | 2019-04-05 | 武汉大学 | 一种保持全局路径下机器人的中间规划方法 |
CN109917818A (zh) * | 2019-01-31 | 2019-06-21 | 天津大学 | 基于地面机器人的协同搜索围堵方法 |
CN110032949A (zh) * | 2019-03-22 | 2019-07-19 | 北京理工大学 | 一种基于轻量化卷积神经网络的目标检测与定位方法 |
CN110244756A (zh) * | 2019-04-29 | 2019-09-17 | 福州大学 | 无人机快速追踪协同避障方法 |
CN110825108A (zh) * | 2019-11-11 | 2020-02-21 | 浙江理工大学 | 一种在同一空域内多架跟踪无人机的协同防碰撞方法 |
CN111353512A (zh) * | 2018-12-20 | 2020-06-30 | 长沙智能驾驶研究院有限公司 | 障碍物分类方法、装置、存储介质和计算机设备 |
-
2020
- 2020-08-31 CN CN202010896119.7A patent/CN111982127A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100324769A1 (en) * | 2007-02-13 | 2010-12-23 | Yutaka Takaoka | Environment map generating method and mobile robot (as amended) |
JP2011134207A (ja) * | 2009-12-25 | 2011-07-07 | Konica Minolta Holdings Inc | 運転記録装置および地図作成システム |
CN106949893A (zh) * | 2017-03-24 | 2017-07-14 | 华中科技大学 | 一种三维避障的室内机器人导航方法和系统 |
CN109034018A (zh) * | 2018-07-12 | 2018-12-18 | 北京航空航天大学 | 一种基于双目视觉的低空小型无人机障碍物感知方法 |
CN111353512A (zh) * | 2018-12-20 | 2020-06-30 | 长沙智能驾驶研究院有限公司 | 障碍物分类方法、装置、存储介质和计算机设备 |
CN109579848A (zh) * | 2018-12-27 | 2019-04-05 | 武汉大学 | 一种保持全局路径下机器人的中间规划方法 |
CN109917818A (zh) * | 2019-01-31 | 2019-06-21 | 天津大学 | 基于地面机器人的协同搜索围堵方法 |
CN110032949A (zh) * | 2019-03-22 | 2019-07-19 | 北京理工大学 | 一种基于轻量化卷积神经网络的目标检测与定位方法 |
CN110244756A (zh) * | 2019-04-29 | 2019-09-17 | 福州大学 | 无人机快速追踪协同避障方法 |
CN110825108A (zh) * | 2019-11-11 | 2020-02-21 | 浙江理工大学 | 一种在同一空域内多架跟踪无人机的协同防碰撞方法 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112596542A (zh) * | 2020-12-11 | 2021-04-02 | 广州极飞科技有限公司 | 数据处理方法和装置、电子设备及存储介质 |
CN112596542B (zh) * | 2020-12-11 | 2024-07-09 | 广州极飞科技股份有限公司 | 数据处理方法和装置、电子设备及存储介质 |
CN112731929A (zh) * | 2020-12-23 | 2021-04-30 | 浙江大学 | 一种基于阿克曼模型的移动机器人避障路径规划方法 |
CN113110466A (zh) * | 2021-04-22 | 2021-07-13 | 深圳市井智高科机器人有限公司 | 一种用于agv机器人的高灵敏度避障系统及方法 |
CN113110466B (zh) * | 2021-04-22 | 2021-12-21 | 深圳市井智高科机器人有限公司 | 一种用于agv机器人的高灵敏度避障系统及方法 |
CN113237688A (zh) * | 2021-07-09 | 2021-08-10 | 深圳市普渡科技有限公司 | 机器人、机器人避障性能测试方法、装置及可读存储介质 |
CN113237688B (zh) * | 2021-07-09 | 2021-10-08 | 深圳市普渡科技有限公司 | 机器人、机器人避障性能测试方法、装置及可读存储介质 |
CN114299039A (zh) * | 2021-12-30 | 2022-04-08 | 广西大学 | 一种机器人及其碰撞检测装置和方法 |
CN114347031A (zh) * | 2022-01-18 | 2022-04-15 | 广东省智能机器人研究院 | 一种考虑时变时滞的移动机械臂避碰控制方法及装置 |
CN114347031B (zh) * | 2022-01-18 | 2024-01-16 | 广东省智能机器人研究院 | 一种考虑时变时滞的移动机械臂避碰控制方法及装置 |
WO2024212587A1 (zh) * | 2023-04-12 | 2024-10-17 | 珠海格力智能装备有限公司 | 移动机器人的控制方法及装置、移动机器人 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111982127A (zh) | LightWeight-3D避障方法 | |
Kim et al. | Deep learning based vehicle position and orientation estimation via inverse perspective mapping image | |
JP6561199B2 (ja) | レーザ点群に基づく都市道路の認識方法、装置、記憶媒体及び機器 | |
US11567496B2 (en) | Method and apparatus for optimizing scan data and method and apparatus for correcting trajectory | |
CN110674705B (zh) | 基于多线激光雷达的小型障碍物检测方法及装置 | |
WO2022188663A1 (zh) | 一种目标检测方法及装置 | |
CN113593017B (zh) | 露天矿地表三维模型构建方法、装置、设备及存储介质 | |
CN110858076A (zh) | 一种设备定位、栅格地图构建方法及移动机器人 | |
CN110132242B (zh) | 多摄像机即时定位与地图构建的三角化方法及其运动体 | |
CN111239763A (zh) | 对象的定位方法、装置、存储介质和处理器 | |
CN114549738A (zh) | 无人车室内实时稠密点云重建方法、系统、设备及介质 | |
JP2020153956A (ja) | 移動体位置推定システムおよび移動体位置推定方法 | |
CN110705385B (zh) | 一种障碍物角度的检测方法、装置、设备及介质 | |
CN114593739B (zh) | 基于视觉检测与参考线匹配的车辆全局定位方法及装置 | |
CN113836251B (zh) | 一种认知地图构建方法、装置、设备及介质 | |
CN117707194A (zh) | 无人设备的飞行作业方法、装置、无人设备及存储介质 | |
CN114511590A (zh) | 基于单目视觉3d车辆检测与跟踪的路口多引导线构建方法 | |
CN111583331B (zh) | 用于同时定位和地图构建的方法及装置 | |
JP2023173688A (ja) | 移動体、事前地図生成方法、位置推定システム、位置推定方法、事前地図生成方法、およびプログラム | |
CN114283401A (zh) | 障碍物识别方法和装置以及驾驶方法和装置 | |
CN115236672A (zh) | 障碍物信息生成方法、装置、设备及计算机可读存储介质 | |
CN117146829B (zh) | 基于双目与三维点云的多姿态人形机器人环境导航方法 | |
CN115668333A (zh) | 电子地图生成方法、装置、计算机设备和存储介质 | |
EP4242986A1 (en) | Method and system to detect and estimate dynamic obstacles using rgbd sensors for robot navigation | |
WO2019215726A1 (en) | Method for control of an autonomous vehicle with internal delays |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |