CN113391633A - 一种面向城市环境的移动机器人融合路径规划方法 - Google Patents
一种面向城市环境的移动机器人融合路径规划方法 Download PDFInfo
- Publication number
- CN113391633A CN113391633A CN202110684793.3A CN202110684793A CN113391633A CN 113391633 A CN113391633 A CN 113391633A CN 202110684793 A CN202110684793 A CN 202110684793A CN 113391633 A CN113391633 A CN 113391633A
- Authority
- CN
- China
- Prior art keywords
- target point
- mobile robot
- robot
- distance
- obstacle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 230000004927 fusion Effects 0.000 title claims abstract description 31
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 71
- 230000006870 function Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000009471 action Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 6
- 210000002569 neuron Anatomy 0.000 description 5
- 238000004088 simulation Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000002787 reinforcement Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000005034 decoration Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种面向城市环境的移动机器人融合路径规划方法,属于移动机器人运动控制技术领域。该方法包括如下步骤:第一步:移动机器人根据激光雷达探测到的障碍物信息,判断采用全局规划还是局部路径规划;第二步:当机器人与障碍物之间的距离大于设定阈值时,采用人工势场法进行全局路径规划方式;当机器人与障碍物之间的距离小于设定的阀值时,采用DDPG算法进行局部避障;第三步:判断移动机器人与目标点的距离,若小于设定阀值,则完成任务;若大于设定阀值,重复第一步和第二步,直至到达目标点。本发明实现移动机器人从起点到终点找到一条无碰撞的最优路径。
Description
技术领域
本发明涉及一种面向城市环境的移动机器人融合路径规划方法,属于移动机器人运动控制技术领域。
背景技术
移动机器人完成其它任务的首要前提就是要移动到指定目标位置,因此路径规划技术是移动机器人技术中关键的技术之一。移动机器人在城市环境中要完成路径规划,不仅要考虑到静态的障碍物,同时也要考虑到动态的障碍物;由于城市环境十分复杂多变,要建立完整的地图信息十分困难,因此未知环境下的移动机器人路径规划十分重要,同时也给移动机器人进行路径规划增加了很大的难度。
目前路径规划算法可以分为全局路径规划和局部路径规划两大类。全局算法包括A*算法,Dijkstra算法,可视图算法,自由空间法等;全局路径规划算法通常需要提前获取全局地图信息,但是移动机器人工作的环境通常是动态的,并且难以获取准确的环境信息,因此只能将全局路径规划,划分为若干个子规划过程,即局部路径规划。局部路径规划大致可以分为4类:随机采样规划方法、人工势场法、图搜索法和群智能优化法。快速扩展随机树算法(Rapidly-exploring Random Trees,RRT)是经典的基于随机采样的算法之一,该算法能快速实现路径规划而得到广泛的应用,但是其无法保证路径最优。人工势场法虽然能应用于未知环境中,但是其容易陷入局部最优。基于群智能算法的代表算法包含遗传算法、粒子算法、蚁群算法及一些融合算法等,群智能算法因其计算复杂度高,不适用于未知动态环境中机器人路径规划。
近年来随着强化学习和神经网络的发展,深度强化学习算法被认为是解决未知动态环境最具有潜力的方法,其中就有DQN(Deep Q-learning Network深度Q网络)算法、DDPG(Deep Deterministic Policy Gradient深度确定性策略梯度)算法、A3C(AsynchronousAdvantage Actor-Critic异步优势动作评价算法)等,深度强化学习算法可以实现端到端的移动机器人路径规划,不需要对环境进行建模;但是深度强化学习算法存在着收敛速度慢,不稳定等问题急需解决。
因此,能否很好的实现移动机器人在未知动态环境中的路径规划。决定着移动机器人的发展和应用,所以移动机器人路径规划技术是十分重要的。
发明内容
针对上述DDPG算法,本发明提出了一种面向城市环境的移动机器人融合路径规划方法,实现移动机器人从起点到终点找到一条无碰撞的最优路径。
本发明为解决其技术问题采用如下技术方案:
一种面向城市环境的移动机器人融合路径规划方法,包括如下步骤:
第一步:移动机器人根据激光雷达探测到的障碍物信息,判断采用全局规划还是局部路径规划;
第二步:当机器人与障碍物之间的距离大于设定阈值时,采用人工势场法进行全局路径规划方式;当机器人与障碍物之间的距离小于设定的阀值时,采用DDPG算法进行局部避障;
第三步:判断移动机器人与目标点的距离,若小于设定阀值,则完成任务;若大于设定阀值,重复第一步和第二步,直至到达目标点。
第二步中所述DDPG算法中的奖励函数是根据移动机器人是否到达目标点、与目标点的距离以及是否与障碍物发生碰撞设计的。
当移动机器人到达目标点时的奖励函数如下:
式中,R目标点奖励为机器人是否到达目标点时的奖励,r到达目标点为机器人到达目标点时的奖励,d1为设定的机器人距离目标点的阀值,χt为t时刻移动机器人与目标点的距离;
移动机器人与目标点之间的距离变化,相关的奖励函数如下:
其中:R距离奖励为机器人与目标点的距离发生变化时的奖励,r机器人与目标点的距离为机器人与目标点距离的奖励值,χt为t时刻移动机器人与目标点的距离,χt-1为t-1时刻移动机器人与机器人之间的距离;
当移动机器人与障碍物发生碰撞时的奖励函数如下:
式中,R障碍物奖励为机器人是否与障碍物发生碰撞时的奖励,r碰撞为机器人与障碍物碰撞时的奖励,d2为设定机器人距离障碍物的最小距离,di为激光雷达检测到最近的障碍物的距离。
第三步中所述移动机器人与目标点之间的距离:
其中:px和py分别表示移动机器人当前时刻的x轴坐标,y轴坐标,gx和gy分别表示目标点的x轴坐标和y轴坐标。
本发明的有益效果如下:
本发明方法,提出了使用基于人工势场法的动作选择策略进行修正训练完的DDPG算法策略网络给出的结果,保证了移动机器人能够找到一条无碰撞、相对更短、更加平滑的路径。在没有对移动机器人进行运动学建模,直接通过改进的DDPG算法实现了端到端的导航控制。在四种仿真实验环境中进行了验证,仿真实验表明,对于移动机器人,本发明能够有效实现未知动态环境下的路径规划,并提供一条相对平滑、距离更短的路径。
附图说明
图1为DDPG算法中的神经网络结构图。
图2(a)是环境一示意图;图2(b)是环境二示意图;图2(c)是环境三示意图;图2(d)是环境四示意图。
图3(a)DDPG算法在环境一中的奖励值坐标图;图3(b)DDPG算法在环境二中的奖励值坐标图;图3(c)DDPG算法在环境三中的奖励值坐标图;图3(d)DDPG算法在环境四中的奖励值坐标图。
图4为融合规划方法流程图。
图5(a)是融合算法与DDPG算法在环境一中的路径图;图5(b)是融合算法与DDPG算法在环境二中的路径图;图5(c)是融合算法与DDPG算法在环境三中的路径图;图5(d)是融合算法与DDPG算法在环境四中的路径图。
图6为融合规划方法与DDPG算法到达目标点成功率对比图。
图7(a)是移动机器人使用DDPG算法和融合算法在环境一中行驶过程的角速度图;图7(b)是移动机器人使用DDPG算法和融合算法在环境二中行驶过程的角速度图;图7(c)是移动机器人使用DDPG算法和融合算法在环境三中行驶过程的角速度图;图7(d)是移动机器人使用DDPG算法和融合算法在环境四中行驶过程的角速度图。
具体实施方式
下面结合附图对本发明做更进一步的解释。
一种面向城市环境下移动机器人融合路径规划方法,包括局部路径规划和全局路径规划。局部路径规划中,将机器人与障碍物的距离及方位作为关键因素,使用DDPG算法进行避障,并朝着目标点进行移动。全局路径规划中,采用机器人与目标点的距离方位以及与障碍物的距离方位等信息,通过人工势场法的计算方式得到移动机器人下一步的动作,实现移动机器人的路径规划。
本发明策略网络由四层神经网络构成,其网络结构如图1所示,输入层为移动机器人的当前状态,输出层为移动机器人的线速度和角速度,中间含2层隐含层。其中,输入层包含12个神经元,隐含层1包含250个神经元,第一层与隐含层1的连接方式为全连接,采用ReLU非线性激活函数;隐含层2的输入包含250个神经元,隐含层1与隐含层2的连接方式为全连接,使用ReLU激活函数;输出层包含2个神经元,隐含层2与输出层的连接方式同样为全连接,使用Sigmoid激活函数。价值网络采用类似的网络结构,与策略网络的主要区别在于输入层包含两部分,一部分为机器人当前状态,另外一部分为机器人当前动作值;输出层含一个神经元,为相应的Q值。神经网络的输入不包含图像信息,因此本发明采用全连接神经网络;同时为了与经典的DDPG算法对比,本发明采用四层神经网络。
当移动机器人周围存在障碍物时,其输出动作主要是由训练完的DDPG算法计算而来:
at=π(st)
式中,at为移动机器人的动作,为二维数据,其中包含移动机器人的线速度和角速度。π(st)表示DDPG算法中的动作选择策略。
本发明仿真环境设计是基于ROS操作系统和Gazebo仿真软件。考虑到训练环境障碍物信息尽量多样性,本发明使用不同形状的障碍物模拟环境,环境中包含圆柱体障碍物、正方体障碍物、墙壁等,模拟环境的俯视图如图2所示。为了使移动机器人获得更好的避障能力,在环境三和四都设有三个动态障碍物,分别沿X轴方向运动、Y轴方向运动,和XY平面内运动;此外,环境四中还设置了含直角的墙壁障碍。
具体的,路径规划阶段包括如下具体步骤:
1、DDPG算法训练阶段
我们一共搭建了四种不同复杂程度的仿真环境,环境一为定目标点无障碍物,环境二为定目标点和静态障碍物,环境三为定目标点和动态障碍物,环境四为动目标点和动障碍物。环境三、四中的动障碍物一个是沿x轴方向做变速运动,另一个是沿y轴方向上做变速运动,最后一个是在x、y轴方向上做变速运动,其都有一定的范围界限。
我们在每个环境中训练一千次,在环境一和环境二中,训练模型基本达到较好的收敛效果,但是在环境三和环境四中,存在着一定程度的震荡。其训练奖励值结果如图3所示,图中epsiode_reward表示每个回合总的奖励值,epsiode表示回合数。
进一步的,所述DDPG算法中的奖励函数根据是否到达目标点、与目标点的距离以及是否与障碍物发生碰撞设计如下:
当移动机器人到达目标点时的奖励:
式中,R目标点奖励为机器人是否到达目标点时的奖励,r到达目标点为机器人到达目标点时的奖励,d1为设定的机器人距离目标点的阀值,χt为t时刻移动机器人与目标点的距离。
当移动机器人与障碍物发生碰撞时的奖励:
式中,R障碍物奖励为机器人是否与障碍物发生碰撞时的奖励,r碰撞为机器人与障碍物碰撞时的奖励,d2为设定机器人距离障碍物的最小距离,di为激光雷达检测到最近的障碍物的距离。
为引导移动机器人向着目标点前进,我们根据移动机器人与目标点之间的距离变化,设计了相关的奖励函数:
其中:R距离奖励为机器人与目标点的距离发生变化时的奖励,r机器人与目标点的距离为机器人与目标点距离的奖励值,χt为t时刻移动机器人与目标点的距离,χt-1为t-1时刻移动机器人与机器人之间的距离,
最后总的奖励函数为:
R=R目标点奖励+R障碍物奖励+R距离奖励
其中:R为机器人获得总的奖励值;
2、融合规划方法阶段:
我们首先加载训练完的DDPG算法的模型,然后机器人判断当前所处的状态,根据当前所处的状态选择进入全局路径规划模式还是局部路径规划模式,其具体流程图如图4所示:
所述的移动机器人全局路径规划的方法,其特征在于,所述全局路径的选择上根据移动机器人与目标点和周围障碍物的距离以及方位信息所共同确定的,a=[av,aω]其中av=0.25为移动机器人的线速度,aω=α(bχ+n)+0.6τdβ(cβ2+tβ)为移动机器人的角速度,ρ为移动机器人与目标点的方位角ρ∈[-π,π],,当ρ≥0,α=1,ρ<0,α=-1,b为常数,n为常数,c为常数,β为最短激光束所在的序号,当(5-β)≥0,τ=1,当(5-β)<0,τ=-1,dβ机器人与障碍物之间的距离,t为常数,χ为移动机器人当前位置与目标点的距离,β表示与移动机器人最近的障碍物所在激光雷达束的编号。
图5从路径规划的平滑程度及路径长度的角度给出移动机器人在四种环境中的路径规划效果。图例中ddpg表示深度确定性策略梯度算法,improve_ddpg表示改进后的融合算法。从图中可以看出在环境一二中,路径的平滑程度明显变好,路径长度也有了一定程度的减小,环境三四中路径的长度明显减小了很多。
表1路径规划长度实验结果对比
表1出DDPG算法和融合规划算法的路径长度对比数据,可以看出融合规划算法可使移动机器人行驶路径长度减少3%-10%。
图6从移动机器人路径规划稳定性的角度给出了移动机器人到达目标点的称功率指标。图中success rate表示到达目标点的成功率,environment表示仿真环境,DDPG表示深度确定性策略梯度算法,improve_DDPG表示融合算法。可以看出融合算法可使移动机器人在未知动态环境下的路径规划成功率提高10%。图7给出了移动机器人在行驶过程中角速度变化情况;图中angular velocity表示移动机器人的角速度,step表示步数,ddpg表示深度确定性策略梯度算法,fusion algorithm表示融合算法。
表2给出了机器人行驶过程中角速度超过1.0rad/s次数和角速度绝对值统计情况,移动机器人在行驶过程中角速度超过1.0rad/s的次数可减少5%至12.5%,可以看出融合算法明显提高行驶路径的平滑度。
表2角速度大于1.0rad/s的次数统计
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (4)
1.一种面向城市环境的移动机器人融合路径规划方法,其特征在于,包括如下步骤:
第一步:移动机器人根据激光雷达探测到的障碍物信息,判断采用全局规划还是局部路径规划;
第二步:当机器人与障碍物之间的距离大于设定阈值时,采用人工势场法进行全局路径规划方式;当机器人与障碍物之间的距离小于设定的阀值时,采用DDPG算法进行局部避障;
第三步:判断移动机器人与目标点的距离,若小于设定阀值,则完成任务;若大于设定阀值,重复第一步和第二步,直至到达目标点。
2.根据权利要求1所述的一种面向城市环境的移动机器人融合路径规划方法,其特征在于,第二步中所述DDPG算法中的奖励函数是根据移动机器人是否到达目标点、与目标点的距离以及是否与障碍物发生碰撞设计的。
3.根据权利要求2所述的一种面向城市环境的移动机器人融合路径规划方法,其特征在于,当移动机器人到达目标点时的奖励函数如下:
式中,R目标点奖励为机器人是否到达目标点时的奖励,r到达目标点为机器人到达目标点时的奖励,d1为设定的机器人距离目标点的阀值,χt为t时刻移动机器人与目标点的距离;
移动机器人与目标点之间的距离变化,相关的奖励函数如下:
其中:R距离奖励为机器人与目标点的距离发生变化时的奖励,r机器人与目标点的距离为机器人与目标点距离的奖励值,χt为t时刻移动机器人与目标点的距离,χt-1为t-1时刻移动机器人与机器人之间的距离;
当移动机器人与障碍物发生碰撞时的奖励函数如下:
式中,R障碍物奖励为机器人是否与障碍物发生碰撞时的奖励,r碰撞为机器人与障碍物碰撞时的奖励,d2为设定机器人距离障碍物的最小距离,di为激光雷达检测到最近的障碍物的距离。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110684793.3A CN113391633A (zh) | 2021-06-21 | 2021-06-21 | 一种面向城市环境的移动机器人融合路径规划方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110684793.3A CN113391633A (zh) | 2021-06-21 | 2021-06-21 | 一种面向城市环境的移动机器人融合路径规划方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113391633A true CN113391633A (zh) | 2021-09-14 |
Family
ID=77623124
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110684793.3A Pending CN113391633A (zh) | 2021-06-21 | 2021-06-21 | 一种面向城市环境的移动机器人融合路径规划方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113391633A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114924587A (zh) * | 2022-05-27 | 2022-08-19 | 江苏科技大学 | 一种无人机路径规划方法 |
CN115562357A (zh) * | 2022-11-23 | 2023-01-03 | 南京邮电大学 | 一种面向无人机集群的智能路径规划方法 |
CN115790608A (zh) * | 2023-01-31 | 2023-03-14 | 天津大学 | 基于强化学习的auv路径规划算法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107037812A (zh) * | 2017-03-31 | 2017-08-11 | 南京理工大学 | 一种基于仓储无人车的车辆路径规划方法 |
CN111142522A (zh) * | 2019-12-25 | 2020-05-12 | 北京航空航天大学杭州创新研究院 | 一种分层强化学习的智能体控制方法 |
CN111707270A (zh) * | 2020-06-23 | 2020-09-25 | 东南大学 | 一种基于分布估计和强化学习的无地图避障导航方法 |
CN112241176A (zh) * | 2020-10-16 | 2021-01-19 | 哈尔滨工程大学 | 一种水下自主航行器在大尺度连续性障碍物环境中路径规划避障控制方法 |
-
2021
- 2021-06-21 CN CN202110684793.3A patent/CN113391633A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107037812A (zh) * | 2017-03-31 | 2017-08-11 | 南京理工大学 | 一种基于仓储无人车的车辆路径规划方法 |
CN111142522A (zh) * | 2019-12-25 | 2020-05-12 | 北京航空航天大学杭州创新研究院 | 一种分层强化学习的智能体控制方法 |
CN111707270A (zh) * | 2020-06-23 | 2020-09-25 | 东南大学 | 一种基于分布估计和强化学习的无地图避障导航方法 |
CN112241176A (zh) * | 2020-10-16 | 2021-01-19 | 哈尔滨工程大学 | 一种水下自主航行器在大尺度连续性障碍物环境中路径规划避障控制方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114924587A (zh) * | 2022-05-27 | 2022-08-19 | 江苏科技大学 | 一种无人机路径规划方法 |
CN114924587B (zh) * | 2022-05-27 | 2024-03-19 | 江苏科技大学 | 一种无人机路径规划方法 |
CN115562357A (zh) * | 2022-11-23 | 2023-01-03 | 南京邮电大学 | 一种面向无人机集群的智能路径规划方法 |
CN115562357B (zh) * | 2022-11-23 | 2023-03-14 | 南京邮电大学 | 一种面向无人机集群的智能路径规划方法 |
CN115790608A (zh) * | 2023-01-31 | 2023-03-14 | 天津大学 | 基于强化学习的auv路径规划算法及装置 |
CN115790608B (zh) * | 2023-01-31 | 2023-05-30 | 天津大学 | 基于强化学习的auv路径规划算法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhu et al. | Deep reinforcement learning based mobile robot navigation: A review | |
CN110136481B (zh) | 一种基于深度强化学习的停车策略 | |
CN112356830B (zh) | 一种基于模型强化学习的智能泊车方法 | |
Cao et al. | Target search control of AUV in underwater environment with deep reinforcement learning | |
CN110632931A (zh) | 动态环境下基于深度强化学习的移动机器人避碰规划方法 | |
CN111780777A (zh) | 一种基于改进a*算法和深度强化学习的无人车路径规划方法 | |
CN112433525A (zh) | 基于模仿学习及深度强化学习的移动机器人导航方法 | |
CN109597425B (zh) | 基于强化学习的无人机导航和避障方法 | |
CN113391633A (zh) | 一种面向城市环境的移动机器人融合路径规划方法 | |
CN113848974B (zh) | 一种基于深度强化学习的飞行器轨迹规划方法及系统 | |
CN116804879B (zh) | 一种改进蜣螂算法融合dwa算法的机器人路径规划框架方法 | |
CN116679719A (zh) | 基于动态窗口法与近端策略的无人车自适应路径规划方法 | |
CN114397896A (zh) | 一种改进粒子群算法的动态路径规划方法 | |
CN114037050B (zh) | 一种基于脉冲神经网络内在可塑性的机器人退化环境避障方法 | |
Li et al. | A behavior-based mobile robot navigation method with deep reinforcement learning | |
CN114396949A (zh) | 一种基于ddpg的移动机器人无先验地图导航决策方法 | |
CN114089751A (zh) | 一种基于改进ddpg算法的移动机器人路径规划方法 | |
CN116551703B (zh) | 一种复杂环境下基于机器学习的运动规划方法 | |
CN113959446A (zh) | 一种基于神经网络的机器人自主物流运输导航方法 | |
CN116578080A (zh) | 一种基于深度强化学习的局部路径规划方法 | |
CN116027788A (zh) | 融合复杂网络理论和部分可观察马尔可夫决策过程的智能驾驶行为决策方法及设备 | |
Ma et al. | Map-less end-to-end navigation of mobile robots via deep reinforcement learning | |
Toan et al. | Environment exploration for mapless navigation based on deep reinforcement learning | |
Yu et al. | An intelligent robot motion planning method and application via lppo in unknown environment | |
YongZhou et al. | Multi-UUV Path Planning Study with Improved Ant Colony Algorithm and DDQN Algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210914 |
|
RJ01 | Rejection of invention patent application after publication |