CN112882469A - 一种融合全局训练的深度强化学习避障导航方法 - Google Patents
一种融合全局训练的深度强化学习避障导航方法 Download PDFInfo
- Publication number
- CN112882469A CN112882469A CN202110049370.4A CN202110049370A CN112882469A CN 112882469 A CN112882469 A CN 112882469A CN 202110049370 A CN202110049370 A CN 202110049370A CN 112882469 A CN112882469 A CN 112882469A
- Authority
- CN
- China
- Prior art keywords
- robot
- reward
- obstacle
- navigation
- dynamic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000002787 reinforcement Effects 0.000 title claims abstract description 33
- 238000012549 training Methods 0.000 title claims abstract description 28
- 230000008569 process Effects 0.000 claims abstract description 19
- 238000013135 deep learning Methods 0.000 claims abstract description 12
- 230000002452 interceptive effect Effects 0.000 claims abstract description 10
- 230000003993 interaction Effects 0.000 claims abstract description 3
- 230000004888 barrier function Effects 0.000 claims description 30
- 230000003068 static effect Effects 0.000 claims description 29
- 230000008859 change Effects 0.000 claims description 9
- 230000001965 increasing effect Effects 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 6
- 238000009499 grossing Methods 0.000 claims description 6
- 230000009471 action Effects 0.000 claims description 4
- 230000001186 cumulative effect Effects 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 2
- 230000004044 response Effects 0.000 claims description 2
- 238000000926 separation method Methods 0.000 claims 1
- 230000007613 environmental effect Effects 0.000 abstract description 7
- 230000000694 effects Effects 0.000 description 5
- 230000001154 acute effect Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000008014 freezing Effects 0.000 description 1
- 238000007710 freezing Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种融合全局训练的深度强化学习避障导航方法。根据已知信息规划初始路径;机器人从初始点沿着初始路径向目标点运动;选择临时目标向着临时目标运动;设置累计期望奖励惩罚值,不断多次导航,机器人导航过程中每一帧给予奖励惩罚值;从传感器获得交互元组;输入深度学习网络训练;将待导航的交互元组输入训练后的深度学习网络,输出最优的路径及累计期望奖励惩罚值,按照最优路径运动。本发明能够有效地提高深度强化学习的收敛速度,在导航过程中提高机器人的导航效率,同时使得机器人的运动具有环境友好性,将对周边环境的影响降至最低。
Description
技术领域
本发明涉及机器人的动态环境避障导航方法,特别是涉及了一种融合全局训练的深度强化学习避障导航方法。
背景技术
对诸如送货机器人,室内服务机器人等动态环境下工作的自动导航机器人来说,避障导航是其中十分重要的功能。机器人必须在避开各种障碍物的同时安全快速地到达目标点。对于静态障碍物的避障研究相对成熟,对动态障碍物的避障导航问题则更加复杂,因为它需要对未知的周围动态(如行人,车辆或其他机器人)进行预测。随着周围环境复杂性的增加,传统导航方法的可通行区域会越来越小,直到出现机器人无法规划可行的路径,即出现冻结机器人问题。此外,当移动障碍物是行人时,不仅要考虑避免碰撞,还要考虑机器人的运动对行人的影响。
传统方法更多的是基于几何模型进行避障规划,这些模型可以被看作是没有任何认知过程的低级智能。因此,传统方法对传感器数据的精确度要求较高,数据的误差对避障导航算法的性能有较大的影响,在实际环境中无法处理较为复杂的情况。而深度强化学习既可以解决传统方法的缺点,同时也不需要事先准备大量数据集,被认为是动态避障问题中一种十分有潜力和应用价值的技术。但深度强化学习收敛性差,环境适应能力弱等问题也制约了该方法的推广应用。本发明结合传统方法和深度强化学习,利用部分已知的环境信息规划初始路径作为全局,加快深度强化学习的学习速度,同时设计深度强化学习的区别化奖励函数,使得机器人的避障导航具有环境友好性,降低对周围环境的影响。
发明内容
为了解决背景技术中存在的问题,本发明的目的在于提供一种融合全局训练的深度强化学习避障导航方法,适用于部分环境信息已知,如室内、小区等情况下的机器人导航。
本发明在轮速里程计以及SLAM系统的支持下,可以获得车辆当前的位置信息、运动信息以及与目标的相对位置关系。利用传统算法规划出由一系列路点组成的初始路径,作为深度强化学习训练,使得机器人能够更好地学习到如何在躲避障碍物的同时有效导航。当训练完成后,深度强化学习的避障导航器则能独立工作,不再需要全局辅助。
本发明采用的技术方案的步骤如下:
深度强化学习训练阶段包括如下步骤:
(1)根据环境中部分已知的静态障碍物信息以及机器人的初始点与目标点,利用传统算法规划出由一系列路点组成的初始路径;
(2)机器人从初始点沿着初始路径向目标点运动;
(3)在机器人实时运动过程中,根据机器人当前所处的位置,选择初始路径中的路点作为机器人的临时目标,机器人向着临时目标运动;
在机器人向着临时目标运动过程中,设置累计期望奖励惩罚值,不断进行机器人的多次导航,机器人导航过程中每一帧具有环境给予的奖励惩罚值,从初始点到目标点的奖励惩罚值累计处理为累计期望奖励惩罚值,将当前帧的奖励惩罚值加入机器人的交互元组;
将连续多帧的交互元组输入深度学习网络作为训练数据,深度学习网络预测输出机器人从初始点到目标点的多种路径及其对应的累计期望奖励惩罚值,以累计期望奖励惩罚值最大化进行训练优化,直到深度学习网络满足精度要求;
然后针对待导航的机器人,将机器人当前帧的交互元组输入到训练后的深度学习网络中,输出最优的路径及其对应的累计期望奖励惩罚值,控制待导航的机器人按照最优的路径运动以实现避障导航。
所述步骤(1)中,用传统的快速探索随机树算法规划一条由一系列路点组成的初始路径,在深度强化学习训练过程中发挥全局作用,提高训练收敛速度。
在环境中,存在边界、静态障碍物以及动态障碍物,边界和部分静态障碍物的信息已知,或前期可借助传感器获取相关信息,利用边界和部分静态障碍物的信息构建全局地图,全局地图输入到快速探索随机树算法模块中生成一条由多个路点组成的初始路径。
所述步骤(2)具体为:根据机器人在全局地图中的位置,结合步骤(1)给出的初始路径,在初始路径中根据机器人与各个路点的距离远近情况选择一个位于机器人和目标点间的路点作为机器人的临时目标;机器人将根据自身与临时目标的相对位置关系,进行运动控制,向着临时目标运动。
临时目标应当满足如下几点要求:
a)初始路径中每个路点应当只使用一次,不应在经过选择后再次选择回该路点;
b)初始路径中的路点不要求逐个使用,应根据机器人当前的位置按需选择;
c)临时目标具有唯一性,机器人在导航过程中有且仅有一个临时目标。
所述步骤(3)中,每帧的交互元组包括当前机器人获得机器人当前帧采集的雷达点云、当前帧的动作控制量和当前帧的奖励惩罚值;动作控制量是指机器人的旋转角速度和运动线速度。初始化累计期望奖励惩罚值为零,奖励惩罚值分为包含运动奖励、导航时间奖励、轨迹平滑奖励、路点奖励、到达目标奖励以及碰撞发生时的惩罚。
所述的累计期望奖励惩罚是由运动奖励、导航时间奖励、轨迹平滑奖励、路点奖励、到达目标奖励以及碰撞发生时的惩罚累计而成。
在所述步骤(3)中,将对机器人的每一步运动做出奖励或惩罚,包括运动奖励、导航时间惩罚、轨迹平滑奖励、路点奖励、到达目标奖励和碰撞发生时的惩罚;
A)运动奖励
临时目标对机器人的运动起到了全局控制的作用,机器人的航向角和机器人与临时目标的方位角相差越小代表机器人越向着临时目标运动。增加以下运动奖励,即对机器人向着临时目标运动的行为做出奖励:
B)导航时间惩罚
本发明将机器人的线速度设定为一个固定值,机器人的导航时间转化为机器人的运动轨迹长度。当机器人运动轨迹长度大于初始路径的长度,认为机器人没有以较优的方式运动,增加以下导航时间惩罚,给予机器人惩罚:
C)轨迹平滑奖励
机器人圆滑的运动轨迹能缩短导航时间,且也有利于躲避障碍物;同时考虑到机器人的驱动方式,频繁的转向会导致机器人驱动模块工作效率低下。按照以下公式的设置对角速度的突然大变化增加轨迹平滑奖励,给予机器人一个惩罚,有助于在导航时获得平滑的轨迹:
D)路点奖励
按照以下公式设置路点奖励,当机器人每次到达一个临时目标时,增加以下路点奖励,给予机器人一个奖励,增强初始路径的全局引导:
E)同时,针对机器人每次导航结束的不同情形,增加机器人区别化的奖励和惩罚:
当机器人在沿初始路径运动过程中,会躲避障碍物,机器人根据障碍物的运动状态做出不同的运动响应,通过传感器数据实施分析障碍物的运动状态,进而判断是否设置奖励和惩罚:
E.1)2D激光雷达的传感器围绕机器人一圈发射激光并返回圆周各个角度的距离信息,根据返回圆周各个角度的距离信息处理获得机器人周围环境中各个障碍物相对于机器人的坐标距离;
E.2)在t1时刻,探测获得各个障碍物相对于机器人的坐标距离,再结合机器人自身的全局坐标,得到t1时刻环境中各个障碍物的全局坐标;
E.3)在t1时刻之后紧邻的t2时刻,按照步骤相同方式处理获得t2时刻环境中各个障碍物的全局坐标;
E.4)t1、t2两个时刻间隔较短,通过预设的间隔距离阈值,将t1、t2两个时刻的障碍物进行一一配对,从而得到障碍物的运动信息;已知t1时刻机器人的运动指令,可以在新的全局坐标中减去机器人的位置变化,对t1时刻的障碍物位置进行预测。
若在t1、t2两个时刻,障碍物的全局坐标的变化小于预设的移动阈值,则视为障碍物没有运动,该障碍物为静态障碍物;
若在t1、t2两个时刻,障碍物的全局坐标的变化大于预设的移动阈值,且在预设的移动范围内,则视为障碍物是运动的,该障碍物为动态障碍物;
E.5)实时将机器人与静态障碍物之间的距离和预设的碰撞距离阈值进行比较,若机器人与静态障碍物之间的距离小于预设的碰撞距离阈值,则机器人与静态障碍物间发生碰撞;否则机器人与静态障碍物间未发生碰撞;
在机器人与静态障碍物发生碰撞时,本次导航直接结束,机器人不再向目标点运动,并增加一个固定的静态碰撞惩罚:
E.6)根据已知t1、t2两个时刻障碍物的全局坐标的变化处理得到动态障碍物的运动速度和运动方向,实时获得动态障碍物的位置,将机器人与动态障碍物之间的距离和预设的碰撞距离阈值进行比较:
若机器人与动态障碍物之间的距离小于预设的碰撞距离阈值,则机器人与动态障碍物间发生碰撞;否则机器人与动态障碍物间未发生碰撞;
在机器人与动态障碍物发生碰撞时,根据不同碰撞角度增加动态碰撞惩罚,给予机器人不同的惩罚,以减少对环境的影响,让机器人的导航不会对行人等造成干扰:
Pdynamic=-Pdatum-γdynamic*cos(θobs-θrobot)
其中,Pdynamic表示动态碰撞惩罚值,θobs和θrobot分别为障碍物和机器人的运动方向,γdynamic为提前设定的调节参数。
E.7)机器人已到达目标点,导航结束:若机器人到达目标点,则代表机器人在导航过程中没有发生任何碰撞,顺利完成导航,本次导航结束,增加机器人到达目标奖励。
机器人无论是与静态障碍物发生碰撞,还是与与动态障碍物发生碰撞,均导致本次导航结束。碰撞后发起新的导航增加训练数据。
本发明首先利用传统路径规划方法中的快速探索随机树算法,根据部分已知的环境地图信息规划出一条初始路径,再将该初始路径作为深度强化学习的全局控制训练机器人的导航行为。在训练过程中,每一时刻都将根据机器人的动作指令、导航轨迹以及初始路径,给予机器人奖励惩罚值,进一步约束机器人的行为。同时本发明针对机器人发生碰撞的情形,提出了一种区别化的惩罚方法,根据机器人与障碍物两个运动方向的夹角给予机器人不同大小的惩罚,从而驱使机器人从障碍物运动方向的后方绕行,提高机器人导航过程的环境友好性。强化学习训练结束后,机器人工作时不再需要全局路径。
与背景技术相比,本发明具有的有益效果是:
(1)本发明对传感器精度要求较低,仅使用成本较低的2D激光雷达即可完成导航及避障任务;
(2)本发明利用传统路径规划算法对深度强化学习训练进行全局,能够有效加快深度强化学习的收敛速度;
(3)本发明具有较好的鲁棒性,能够有效处理各种复杂场景,只需将已知的环境地图信息输入快速探索随机树模块即可得到初始路径;
(4)本发明能够让机器人的避障导航过程具有更高的环境友好性,能减少对环境以及行人等的干扰。
综合来说,本发明能够有效利用传统算法得到的初始路径,发挥全局作用,加快深度强化学习收敛速度。通过本发明设计的奖励函数,使得机器人在导航过程中能够大致沿着初始路径快速抵达目标点,且具有较平滑的轨迹以及较高的导航效率。同时本发明提出的区别化惩罚机制,使得机器人在躲避动态障碍物(例如行人)时,更倾向于从障碍物运动方向后方绕行,极大提高了环境友好性,减少对环境的干扰。
附图说明
图1是实施例的走廊环境地图示意图;
图2是快速探索随机树算法模块输出的初始路径示例;
图3是初始路径的全局作用示意图;
图4是动态障碍物的四种碰撞情况示意图;
图5是仿真实验中的静态障碍物避障环境;
图6是仿真实验中的动态障碍物避障环境。
具体实施方式
下面结合附图和实施例对本发明做进一步说明。
在深度强化学习的训练阶段,按照本发明内容完整方法实施的实施例如下:
(1)根据已知的部分环境信息,建立全局地图,如图1所示,白色栅格代表机器人的可通行区域,黑色栅格代表环境边界或者动态障碍物;
(2)通过SLAM模块,获得机器人的初始点,将该位置与目标点同时输入快速探索随机树算法模块中,得到机器人导航任务的初始路径,如图2所示;
(3)将初始路径输入深度强化学习模块中作为机器人导航的全局控制,对机器人每个时刻的行为给予奖励惩罚值,包括运动奖励、导航时间惩罚、轨迹平滑奖励、路点奖励、到达目标奖励以及碰撞发生时的惩罚。
下面以一个简单的例子来表述全局控制的思想与具体实施步骤。图3(a)是根据部分已知地图、机器人初始点和目标点得到的初始路径。在这条初始路径中包含四个路点,第四个路点为机器人初始点,第一个路点为目标点,中间两个路点则为机器人需抵达的临时目标。
开始导航后,由于机器人从初始点出发,所以第四个路点当即从初始路径中删除,第三个路点(9.22,-5.97)成为机器人当前的临时目标,机器人向着临时目标运动。
经过一段时间的运动,机器人与临时目标的距离小于设定的阈值,于是该路点也被从初始路径中删除,第二个路点(8.01,-1.59)随即成为机器人的临时目标,指导机器人前往该位置。当机器人与第二个路点间的距离同样小于阈值时,执行与上个路点相同的操作,此时第一个路点(即目标)成为机器人被指引前往的位置。
当机器人的导航任务结束时,根据机器人是否达到目标点以及与何种障碍物发生碰撞,给予机器人区别化的奖励或惩罚。
(3.1)机器人已经到达目标点,导航结束,代表机器人在导航过程中没有发生任何碰撞,顺利完成导航任务,给予机器人正向奖励。
(3.2)机器人与静态障碍物发生碰撞,导致本次导航结束,给予机器人一个固定的惩罚:
(3.3)机器人与动态障碍物发生碰撞,导致本次导航结束,根据不同碰撞角度给予机器人不同的惩罚,驱使机器人从障碍物运动方向的后方绕行:
下面通过对机器人与动态障碍物发生碰撞的不同情形进行分析,具体说明区别化奖励的原理。如图4所示,红色圆形代表机器人,黑色圆形代表障碍物,根据发生碰撞时机器人在障碍物的前方或后方,机器人与障碍物的速度夹角呈锐角或钝角,可以将机器人与动态障碍物发生碰撞分为四种情形:
a.机器人在障碍物的后方,且机器人与障碍物的速度夹角呈锐角。
由于希望的是机器人在导航过程中尽可能减少对行人等动态障碍物的干扰,那么机器人在遇到动态障碍物时从障碍物速度方向的后方绕行是最佳的结果。如图4(a)所示,障碍物此时正在向右方运动,那么希望机器人从障碍物的左边绕行。而此时,机器人与障碍物不仅发生了碰撞,而且从机器人的速度方向可以看出机器人并没有躲避障碍物的意图,或者估计的障碍物速度过小,导致机器人认为该时刻障碍物应在更右的位置。因此希望在这种情形下,给予机器人更大的惩罚。
b.机器人在障碍物的前方,且机器人与障碍物的速度夹角呈锐角。
图4(b)所示的情形为机器人估计的障碍物速度过大,导致机器人认为该时刻障碍物应在更左的位置,从而机器人与障碍物发生了碰撞。同样,希望在这种情形下,给予机器人更大的惩罚。
c.机器人在障碍物的前方,且机器人与障碍物的速度夹角呈钝角。
当机器人与障碍物发生碰撞的情形如图4(c)所示时,代表机器人已经学习到了从动态障碍物的后方绕行,但是由于机器人本身运动能力有限或者由于深度网络未收敛导致机器人未能及时做出转向指令等其他因素导致机器人无法避开障碍物。所以希望在这种情形下,给予机器人更小的惩罚。
d.机器人在障碍物的后方,且机器人与障碍物的速度夹角呈钝角。
图4(d)的情形与图4(c)类似,机器人学习到了具备环境友好性的导航方式,所以给予机器人更小的惩罚。
通过对图4中四种情形的分析,可以看到在机器人与障碍物的速度夹角呈锐角是,均希望给予更大的惩罚,而呈钝角时给予更小的惩罚。所以在存在一个基准惩罚Pdatum时,简单的cos(·)即可帮助实现区别化奖励。
机器人当前帧采集的雷达点云、当前帧的动作控制量和当前帧的累计期望奖励惩罚值组成当前帧的交互元组。将连续多帧的交互元组输入深度学习网络训练。待导航的机器人当前帧的交互元组输入训练后的深度学习网络,输出最优的路径及其累计期望奖励惩罚值,机器人将按照最优的路径运动。
在Gazebo仿真环境中测试评估了本方法的效果,以2D激光雷达作为输入,比较使用本方法前后的机器人导航效果。仿真环境中的静态障碍物地图与动态障碍物地图如图5与图6所示,所有环境中仅地图边界事先已知的,矩形静态障碍物与圆形动态障碍物均未知,圆形障碍物的箭头代表动态障碍物的运动方向。
表1列出了机器人使用本方法前后的导航效果数据对比。Original DQN代表未使用本方法的深度强化学习导航算法,DQN_guidance在深度强化学习方法中加入了全局,而DQN_friendly在此基础上进一步加上了碰撞的区别化惩罚。比较的指标包括三个:成功率、平均导航时间与平均绕路百分比。
成功率=机器人到达目标次数/机器人总导航次数,是机器人导航任务中最重要的指标。平均导航时间统计机器人到达目标的平均时间,平均绕路百分比=(机器人实际运动的距离-初始路径长度)/初始路径长度,这两个指标能够有效表示机器人的导航效率。
表1机器人使用本方法前后的导航效果比较
可以看出,采用本发明方法后,机器人在导航任务中明显提高了导航效率,且大幅提升了导航成功率。
由此可见,本发明结合传统算法和深度强化学习,能够有效地提高深度强化学习的收敛速度,在导航过程中提高机器人的导航效率,同时使得机器人的运动具有环境友好性,将对周边环境的影响降至最低。
Claims (6)
1.一种融合全局训练的深度强化学习避障导航方法,其特征在于,包括如下步骤:
(1)根据环境中部分已知的静态障碍物信息以及机器人的初始点与目标点,规划出由一系列路点组成的初始路径;
(2)机器人从初始点沿着初始路径向目标点运动;
(3)在机器人实时运动过程中,根据机器人当前所处的位置,选择初始路径中的路点作为机器人的临时目标,机器人向着临时目标运动;
在机器人向着临时目标运动过程中,设置累计期望奖励惩罚值,不断进行机器人的多次导航,机器人导航过程中每一帧具有环境给予的奖励惩罚值,从初始点到目标点的奖励惩罚值累计处理为累计期望奖励惩罚值,将当前帧的奖励惩罚值加入机器人的交互元组;
将连续多帧的交互元组输入深度学习网络作为训练数据,深度学习网络预测输出机器人从初始点到目标点的多种路径及其对应的累计期望奖励惩罚值,以累计期望奖励惩罚值最大化进行训练优化,直到深度学习网络满足精度要求;
然后针对待导航的机器人,将机器人当前帧的交互元组输入到训练后的深度学习网络中,输出最优的路径及其对应的累计期望奖励惩罚值,控制待导航的机器人按照最优的路径运动以实现避障导航。
2.根据权利要求1所述的一种融合全局训练的深度强化学习避障导航方法,其特征在于:所述步骤(1)中,用传统的快速探索随机树算法规划一条由一系列路点组成的初始路径。
3.根据权利要求3所述的一种融合全局训练的深度强化学习避障导航方法,其特征在于:在环境中,利用边界和部分静态障碍物的信息构建全局地图,全局地图输入到快速探索随机树算法模块中生成一条由多个路点组成的初始路径。
4.根据权利要求1所述的一种融合全局训练的深度强化学习避障导航方法,其特征在于:所述步骤(2)具体为:根据机器人在全局地图中的位置,结合步骤(1)给出的初始路径,在初始路径中选择一个位于机器人和目标点间的路点作为机器人的临时目标;机器人将根据自身与临时目标的相对位置关系,进行运动控制,向着临时目标运动。
5.根据权利要求1所述的一种融合全局训练的深度强化学习避障导航方法,其特征在于:所述步骤(3)中,每帧的交互元组包括当前机器人获得机器人当前帧采集的雷达点云、当前帧的动作控制量和当前帧的奖励惩罚值;初始化累计期望奖励惩罚值为零,奖励惩罚值分为包含运动奖励、导航时间奖励、轨迹平滑奖励、路点奖励、到达目标奖励以及碰撞发生时的惩罚。
6.根据权利要求1所述的一种融合全局训练的深度强化学习避障导航方法,其特征在于:在所述步骤(3)中,将对机器人的每一步运动做出奖励或惩罚,包括运动奖励、导航时间惩罚、轨迹平滑奖励、路点奖励、到达目标奖励和碰撞发生时的惩罚;
A)运动奖励
增加以下运动奖励:
B)导航时间惩罚
当机器人运动轨迹长度大于初始路径的长度,认为机器人没有以较优的方式运动,增加以下导航时间惩罚:
C)轨迹平滑奖励
按照以下公式的设置对角速度的突然大变化增加轨迹平滑奖励:
D)路点奖励
按照以下公式设置路点奖励,当机器人每次到达一个临时目标时,增加以下路点奖励:
E)同时,针对机器人每次导航结束的不同情形,增加机器人区别化的奖励和惩罚:
当机器人在沿初始路径运动过程中,会躲避障碍物,机器人根据障碍物的运动状态做出不同的运动响应,通过传感器数据实施分析障碍物的运动状态,进而判断是否设置奖励和惩罚:
E.1)2D激光雷达的传感器围绕机器人一圈发射激光并返回圆周各个角度的距离信息,根据返回圆周各个角度的距离信息处理获得机器人周围环境中各个障碍物相对于机器人的坐标距离;
E.2)在t1时刻,探测获得各个障碍物相对于机器人的坐标距离,再结合机器人自身的全局坐标,得到t1时刻环境中各个障碍物的全局坐标;
E.3)在t1时刻之后紧邻的t2时刻,按照步骤相同方式处理获得t2时刻环境中各个障碍物的全局坐标;
E.4)通过预设的间隔距离阈值,将t1、t2两个时刻的障碍物进行一一配对,从而得到障碍物的运动信息;
若在t1、t2两个时刻,障碍物的全局坐标的变化小于预设的移动阈值,则视为障碍物没有运动,该障碍物为静态障碍物;
若在t1、t2两个时刻,障碍物的全局坐标的变化大于预设的移动阈值,且在预设的移动范围内,则视为障碍物是运动的,该障碍物为动态障碍物;
E.5)实时将机器人与静态障碍物之间的距离和预设的碰撞距离阈值进行比较,若机器人与静态障碍物之间的距离小于预设的碰撞距离阈值,则机器人与静态障碍物间发生碰撞;否则机器人与静态障碍物间未发生碰撞;
在机器人与静态障碍物发生碰撞时,本次导航直接结束,机器人不再向目标点运动,并增加一个固定的静态碰撞惩罚:
E.6)根据已知t1、t2两个时刻障碍物的全局坐标的变化处理得到动态障碍物的运动速度和运动方向,实时获得动态障碍物的位置,将机器人与动态障碍物之间的距离和预设的碰撞距离阈值进行比较:
若机器人与动态障碍物之间的距离小于预设的碰撞距离阈值,则机器人与动态障碍物间发生碰撞;否则机器人与动态障碍物间未发生碰撞;
在机器人与动态障碍物发生碰撞时,根据不同碰撞角度增加动态碰撞惩罚:
Pdynamic=-Pdatum-γdynamic*cos(θobs-θrobot)
其中,Pdynamic表示动态碰撞惩罚值,θobs和θrobot分别为障碍物和机器人的运动方向,γdynamic为提前设定的调节参数。
E.7)机器人已到达目标点,导航结束:若机器人到达目标点,则代表机器人在导航过程中没有发生任何碰撞,本次导航结束,增加机器人到达目标奖励。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110049370.4A CN112882469B (zh) | 2021-01-14 | 2021-01-14 | 一种融合全局训练的深度强化学习避障导航方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110049370.4A CN112882469B (zh) | 2021-01-14 | 2021-01-14 | 一种融合全局训练的深度强化学习避障导航方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112882469A true CN112882469A (zh) | 2021-06-01 |
CN112882469B CN112882469B (zh) | 2022-04-08 |
Family
ID=76049088
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110049370.4A Active CN112882469B (zh) | 2021-01-14 | 2021-01-14 | 一种融合全局训练的深度强化学习避障导航方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112882469B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113219997A (zh) * | 2021-06-08 | 2021-08-06 | 河北师范大学 | 一种基于tpr-ddpg的移动机器人路径规划方法 |
CN113359859A (zh) * | 2021-07-16 | 2021-09-07 | 广东电网有限责任公司 | 一种组合导航避障方法、系统、终端设备及存储介质 |
CN113392584A (zh) * | 2021-06-08 | 2021-09-14 | 华南理工大学 | 基于深度强化学习和方向估计的视觉导航方法 |
CN113419524A (zh) * | 2021-06-10 | 2021-09-21 | 杭州电子科技大学 | 一种结合深度q学习的机器人路径学习与避障系统及方法 |
CN113486871A (zh) * | 2021-09-07 | 2021-10-08 | 中国人民解放军国防科技大学 | 基于深度图的无人车局部自主控制方法、装置和设备 |
CN113515131A (zh) * | 2021-08-27 | 2021-10-19 | 苏州大学 | 基于条件变分自动编码器的移动机器人避障方法及系统 |
CN113759901A (zh) * | 2021-08-12 | 2021-12-07 | 杭州电子科技大学 | 一种基于深度强化学习的移动机器人自主避障方法 |
CN113787514A (zh) * | 2021-06-25 | 2021-12-14 | 广东工业大学 | 机械臂动态避碰规划方法 |
CN114047745A (zh) * | 2021-10-13 | 2022-02-15 | 广州城建职业学院 | 机器人运动控制方法、机器人、计算机装置和存储介质 |
CN114740849A (zh) * | 2022-04-07 | 2022-07-12 | 哈尔滨工业大学(深圳) | 基于行人步行决策规则的移动机器人自主导航方法及装置 |
CN115542901A (zh) * | 2022-09-21 | 2022-12-30 | 北京航空航天大学 | 基于近端策略训练的可变形机器人避障方法 |
WO2023123838A1 (zh) * | 2021-12-31 | 2023-07-06 | 上海商汤智能科技有限公司 | 网络训练、机器人控制方法及装置、设备、存储介质和程序 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107368076A (zh) * | 2017-07-31 | 2017-11-21 | 中南大学 | 一种智能环境下机器人运动路径深度学习控制规划方法 |
CN109960880A (zh) * | 2019-03-26 | 2019-07-02 | 上海交通大学 | 一种基于机器学习的工业机器人避障路径规划方法 |
CN110515303A (zh) * | 2019-09-17 | 2019-11-29 | 余姚市浙江大学机器人研究中心 | 一种基于ddqn的自适应动态路径规划方法 |
CN110632931A (zh) * | 2019-10-09 | 2019-12-31 | 哈尔滨工程大学 | 动态环境下基于深度强化学习的移动机器人避碰规划方法 |
US20200150671A1 (en) * | 2018-11-08 | 2020-05-14 | Baidu Usa Llc | Auto-tuning motion planning system for autonomous vehicles |
CN111780777A (zh) * | 2020-07-13 | 2020-10-16 | 江苏中科智能制造研究院有限公司 | 一种基于改进a*算法和深度强化学习的无人车路径规划方法 |
CN111857142A (zh) * | 2020-07-17 | 2020-10-30 | 广州大学 | 一种基于强化学习的路径规划避障辅助方法 |
CN111880549A (zh) * | 2020-09-14 | 2020-11-03 | 大连海事大学 | 面向无人船路径规划的深度强化学习奖励函数优化方法 |
US20200363813A1 (en) * | 2019-05-15 | 2020-11-19 | Baidu Usa Llc | Online agent using reinforcement learning to plan an open space trajectory for autonomous vehicles |
-
2021
- 2021-01-14 CN CN202110049370.4A patent/CN112882469B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107368076A (zh) * | 2017-07-31 | 2017-11-21 | 中南大学 | 一种智能环境下机器人运动路径深度学习控制规划方法 |
US20200150671A1 (en) * | 2018-11-08 | 2020-05-14 | Baidu Usa Llc | Auto-tuning motion planning system for autonomous vehicles |
CN109960880A (zh) * | 2019-03-26 | 2019-07-02 | 上海交通大学 | 一种基于机器学习的工业机器人避障路径规划方法 |
US20200363813A1 (en) * | 2019-05-15 | 2020-11-19 | Baidu Usa Llc | Online agent using reinforcement learning to plan an open space trajectory for autonomous vehicles |
CN110515303A (zh) * | 2019-09-17 | 2019-11-29 | 余姚市浙江大学机器人研究中心 | 一种基于ddqn的自适应动态路径规划方法 |
CN110632931A (zh) * | 2019-10-09 | 2019-12-31 | 哈尔滨工程大学 | 动态环境下基于深度强化学习的移动机器人避碰规划方法 |
CN111780777A (zh) * | 2020-07-13 | 2020-10-16 | 江苏中科智能制造研究院有限公司 | 一种基于改进a*算法和深度强化学习的无人车路径规划方法 |
CN111857142A (zh) * | 2020-07-17 | 2020-10-30 | 广州大学 | 一种基于强化学习的路径规划避障辅助方法 |
CN111880549A (zh) * | 2020-09-14 | 2020-11-03 | 大连海事大学 | 面向无人船路径规划的深度强化学习奖励函数优化方法 |
Non-Patent Citations (2)
Title |
---|
LIU ERYUN等: "Conductive particle detection via deep learning for ACF bonding in TFT-LCDmanufacturing", 《JOURNAL OF INTELLIGENT MANUFACTURING》 * |
牟治宇等: "基于深度强化学习的无人机数据采集和路径规划研究", 《物联网学报》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113392584A (zh) * | 2021-06-08 | 2021-09-14 | 华南理工大学 | 基于深度强化学习和方向估计的视觉导航方法 |
CN113219997A (zh) * | 2021-06-08 | 2021-08-06 | 河北师范大学 | 一种基于tpr-ddpg的移动机器人路径规划方法 |
CN113219997B (zh) * | 2021-06-08 | 2022-08-30 | 河北师范大学 | 一种基于tpr-ddpg的移动机器人路径规划方法 |
CN113419524A (zh) * | 2021-06-10 | 2021-09-21 | 杭州电子科技大学 | 一种结合深度q学习的机器人路径学习与避障系统及方法 |
CN113787514B (zh) * | 2021-06-25 | 2022-12-23 | 广东工业大学 | 机械臂动态避碰规划方法 |
CN113787514A (zh) * | 2021-06-25 | 2021-12-14 | 广东工业大学 | 机械臂动态避碰规划方法 |
CN113359859A (zh) * | 2021-07-16 | 2021-09-07 | 广东电网有限责任公司 | 一种组合导航避障方法、系统、终端设备及存储介质 |
CN113359859B (zh) * | 2021-07-16 | 2023-09-08 | 广东电网有限责任公司 | 一种组合导航避障方法、系统、终端设备及存储介质 |
CN113759901A (zh) * | 2021-08-12 | 2021-12-07 | 杭州电子科技大学 | 一种基于深度强化学习的移动机器人自主避障方法 |
CN113515131A (zh) * | 2021-08-27 | 2021-10-19 | 苏州大学 | 基于条件变分自动编码器的移动机器人避障方法及系统 |
CN113486871A (zh) * | 2021-09-07 | 2021-10-08 | 中国人民解放军国防科技大学 | 基于深度图的无人车局部自主控制方法、装置和设备 |
CN114047745A (zh) * | 2021-10-13 | 2022-02-15 | 广州城建职业学院 | 机器人运动控制方法、机器人、计算机装置和存储介质 |
WO2023123838A1 (zh) * | 2021-12-31 | 2023-07-06 | 上海商汤智能科技有限公司 | 网络训练、机器人控制方法及装置、设备、存储介质和程序 |
CN114740849B (zh) * | 2022-04-07 | 2023-07-04 | 哈尔滨工业大学(深圳) | 基于行人步行决策规则的移动机器人自主导航方法及装置 |
CN114740849A (zh) * | 2022-04-07 | 2022-07-12 | 哈尔滨工业大学(深圳) | 基于行人步行决策规则的移动机器人自主导航方法及装置 |
CN115542901A (zh) * | 2022-09-21 | 2022-12-30 | 北京航空航天大学 | 基于近端策略训练的可变形机器人避障方法 |
CN115542901B (zh) * | 2022-09-21 | 2024-06-07 | 北京航空航天大学 | 基于近端策略训练的可变形机器人避障方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112882469B (zh) | 2022-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112882469B (zh) | 一种融合全局训练的深度强化学习避障导航方法 | |
CN110136481B (zh) | 一种基于深度强化学习的停车策略 | |
CN110264721B (zh) | 一种城市交叉口周边车辆轨迹预测方法 | |
US20210396531A1 (en) | Assistance control system | |
CN112650242A (zh) | 一种基于混合算法的移动机器人路径规划方法 | |
JP2020034906A (ja) | 高精度地図生成方法、高精度地図生成装置、コンピュータ機器、非一時的なコンピュータ読み取り可能な記憶媒体及びコンピュータプログラム製品 | |
CN110262518A (zh) | 基于轨迹拓扑地图和避障的车辆导航方法、系统及介质 | |
CN112577506B (zh) | 一种自动驾驶局部路径规划方法和系统 | |
CN111006667B (zh) | 高速场景下的自动驾驶轨迹生成系统 | |
Zhang et al. | A cognitively inspired system architecture for the Mengshi cognitive vehicle | |
CN105043376A (zh) | 一种适用于非全向移动车辆的智能导航方法及系统 | |
CN114815853B (zh) | 一种考虑路面障碍特征的路径规划方法和系统 | |
CN116045998A (zh) | 使用动态步长搜索用于自主驾驶车辆的环境感知路径规划 | |
CN112394725A (zh) | 用于自动驾驶的基于预测和反应视场的计划 | |
JP2021076584A (ja) | ゴルフ場自動運転車のナビゲーション切り替え設備 | |
CN113291318B (zh) | 基于部分可观测马尔科夫模型的无人车盲区转弯规划方法 | |
Kanayama et al. | Two-mode mapless visual navigation of indoor autonomous mobile robot using deep convolutional neural network | |
CN112327865A (zh) | 一种自动驾驶系统及方法 | |
CN114879660A (zh) | 一种基于目标驱动的机器人环境感知方法 | |
CN114442630A (zh) | 一种基于强化学习和模型预测的智能车规划控制方法 | |
CN211427151U (zh) | 一种应用于封闭场地无人驾驶货运车辆上的自动引导系统 | |
CN116466708A (zh) | 一种面向复杂非结构化场景的自主代客泊车轨迹规划方法 | |
CN117111617A (zh) | 考虑感知盲区碰撞不确定性的机器人路径规划方法及系统 | |
Heinrich et al. | Optimizing a driving strategy by its sensor coverage of relevant environment information | |
Yuan et al. | Comparison and improvement of local planners on ros for narrow passages |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |