CN113741416B - 基于改进捕食者猎物模型和dmpc的多机器人全覆盖路径规划方法 - Google Patents
基于改进捕食者猎物模型和dmpc的多机器人全覆盖路径规划方法 Download PDFInfo
- Publication number
- CN113741416B CN113741416B CN202110824316.2A CN202110824316A CN113741416B CN 113741416 B CN113741416 B CN 113741416B CN 202110824316 A CN202110824316 A CN 202110824316A CN 113741416 B CN113741416 B CN 113741416B
- Authority
- CN
- China
- Prior art keywords
- robot
- grid
- steps
- path
- sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- GZDFHIJNHHMENY-UHFFFAOYSA-N Dimethyl dicarbonate Chemical compound COC(=O)OC(=O)OC GZDFHIJNHHMENY-UHFFFAOYSA-N 0.000 title claims abstract description 13
- 244000062645 predators Species 0.000 title claims abstract description 11
- 230000005284 excitation Effects 0.000 claims abstract description 16
- 238000011156 evaluation Methods 0.000 claims description 9
- 238000004891 communication Methods 0.000 claims description 6
- 230000009191 jumping Effects 0.000 claims description 5
- 229920000535 Tan II Polymers 0.000 claims description 4
- 238000004422 calculation algorithm Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 4
- 238000013459 approach Methods 0.000 claims description 3
- 238000000926 separation method Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000005457 optimization Methods 0.000 abstract description 3
- 238000007689 inspection Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Optics & Photonics (AREA)
- Electromagnetism (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
一种基于改进捕食者猎物模型和DMPC的多机器人全覆盖路径规划方法,输入地图空间,机器人位置和运动优先级等信息;对地图空间栅格化,并赋予栅格状态属性;随机生成初始参数种群和种群数量;根据周围栅格状态,确定机器人运动模型;进入死区时,利用A*回溯脱离;未进入死区,根据激励函数找到周围激励最大的栅格并移动;引入DMPC方法,根据运动模型,预测机器人的移动序列;利用WOA对参数优化求解寻找最佳的移动序列;通过不断的滚动决策,实现地图的全覆盖。本发明能够得到路径重复率低,总路径长度短的全覆盖路径。
Description
技术领域
本发明属于多机器人全覆盖领域,特别涉及一种基于改进捕食者猎物模型和分布式模型预测控制(Distributed Model Predictive Control,以下简称DMPC)的多机器人全覆盖路径规划方法。
背景技术
机器人的全覆盖路径规划(Coverage Path planning,CPP)已经广泛的应用于机器人的作业中,如变电站检测的巡检机器人,锅炉探伤的爬壁机器人,地面清洁的扫地机器人等。机器人的全覆盖路径规划指的是机器人避开障碍物的前提下,规划出一条遍历所有工作空间的路径。单机器人由于自身性能的约束,无法快速覆盖大范围区域,难以处理复杂危险环境,系统的鲁棒性差。多机器人可以通过机器人之间的相互协作比单机器人更快的完成对地图空间的全覆盖,同时多机器人具有内置的冗余性,系统的鲁棒性好,因此研究多机器人的全覆盖方法是有必要的。
由于多机器人协同覆盖同一区域,所以在规划机器人覆盖路径的过程中除了避开障碍物还要避免机器人之间发生碰撞,所以对于多机器人全覆盖路径规划是有必要的。
在实际机器人使用中,大部分情况下机器人往往只能拥有部分或无法拥有环境的先验知识,所以对于未知地图的全覆盖路径规划是有必要的。现有未知地图的全覆盖方法有基于分区的全覆盖方法,基于生物神经网络的全覆盖方法,基于模板和回溯的全覆盖方法等,然而现有方法存在着在规划后期陷入局部最优,回溯区域重复而导致机器人覆盖区域重叠等问题。
发明内容
为了克服现有技术的在规划后期陷入局部最优,回溯区域重复而导致机器人覆盖区域重叠的不足,为了得到路径重复率低,总路径长度短的全覆盖路径,本发明提供一种基于改进捕食者猎物模型和DMPC的多机器人全覆盖路径规划方法。
为了实现上述目的,本发明提供了如下技术方案:
一种基于改进捕食者猎物模型和DMPC的多机器人全覆盖路径规划方法,包括下列步骤:
步骤1:输入地图空间,多机器人的初始位置,机器人的探测半径和机器人的运动速度,机器人运动的优先级;
步骤2:对地图空间栅格化,使得机器人能刚好覆盖一个栅格,并对每个栅格赋予不同的状态属性,将多机器人系统划分为多个子系统,栅格的状态属性I(x,y)和机器人覆盖的任务空间WS分别为:
WS={(x,y)|I(x,y)=1,0<x<x_l,0<y<y_l} (2)
式中x_l,y_l分别为地图空间离散后x轴的长度和y轴的长度;
步骤3:随机生成初始参数种群种群数量为pop;
步骤4:机器人根据传感器检测到的信息,确定周围栅格的状态属性,从而判断机器人是否陷入死区,确定机器人的运动模型。若陷入死区跳转至步骤5,若为陷入死区跳转至步骤7;
步骤5:从回溯列表中剔除其他回溯点半径r内的栅格坐标,得到搜索列表Lsearch为:
Lsearch=Lreturn/Lback,r (3)
式中Lreturn代表回溯列表,Lback,r代表回溯点半径r内的点的集合;
步骤6:从搜索列表中找到距离当前机器人最近的自由栅格坐标,使用A*算法脱离死区,得到机器人的移动序列后跳转至步骤10,机器人的移动序列Apath为:
Apath={A1,A2,…Ai,…Preturn} (4)
式中Ai为A*算法规划出的路径点坐标,Preturn为回溯点坐标;
步骤7:根据改进后的捕食者猎物模型计算机器人临近点未覆盖栅格的各激励值大小,计算避开竞争者激励Ecompete为:
式中D代表两栅格之间的欧式距离,Okt,j代表机器人k在t时刻的临近点j的位置,H代表机器人k通讯范围Hmax内其他机器人的个数。Rk,i,Rk,m分别代表通讯范围内的第i,m个机器人位置;
步骤8:计算移动方向激励Edirection为:
∠Ok,t-1Ok,tOkt,j=|atan2(yk,j-yk,t,xk,j-xk,t)-atan2(yk,t-yk,t-1,xk,t-xk,t-1)| (7)
式中∠Ok,t-1Ok,tOkt,j为机器人当前移动方向于下一步移动方向之间的夹角,(xk,t-1,yk,t-1),(xk,t,yk,t),(xk,j,yk,j)分别为机器人k前一时刻,当前时刻和下一时刻的坐标位置;
步骤9:计算边界激励Eb为:
nN(Okt,j)代表在机器人k的临近点j处未覆盖的栅格数量,代表允许的临近点最大个数;
步骤10:计算栅格总激励值E为:
E(Okt,j)=ωcEcompete(Okt,j)+ωsEdirection(Okt,j)+Eb(Okt,j) (9)
式中ωc,ωs为权重因子;
步骤11:机器人根据最大激励或者脱离死区序列决定机器人下一步移动坐标,当多个机器人在相同时刻选择同一栅格时,优先级高的机器人优先运动,机器人下一步移动坐标为stepk,t*:
步骤12:引入DMPC方法,根据步骤4-11预测机器人T步路径序列,以覆盖自由栅格数和路径长度为指标,设立评价函数,预测序列yk(t)和评价函数分别J(T)为:
yk(t)=[yk(t+1|t),yk(t+2|t),…yk(t+T|t)] (11)
式中Ncover代表机器人覆盖的栅格数,L代表路径长度,α,β表示权重系数;
步骤13:通过WOA优化ωs,迭代次数WOAiter,以机器人T步的评价函数作为适应度函数,得到机器人未来T步的最佳移动序列LT:
LT={Stepk,t+1,…Stepk,t+i,…Stepk,t+T} (13)
其中Stepk,t+i代表机器人k在t+i时刻的位置,i=1,2…T;
步骤14:机器人选择移动序列中最靠前的序列并移动,同时更新栅格地图状态和机器人位置,并将未覆盖的栅格信息加入回溯列表中,删除已覆盖的栅格点;
步骤15:当前迭代次数iter达到最大迭代次数itermax或时,执行步骤16;否则,iter=iter+1,返回步骤3;
步骤16:输出路径,结束。
本发明的有益效果主要表现在以下几个方面:
1.以改进后的捕食者猎物作为运动模型,有效的将机器人的回溯点分离,避免了机器人覆盖范围的重叠。覆盖过程中通过边界激励的引导,使得机器人能有效的覆盖边界区域。
2.基于DMPC框架下的滚动决策和WOA优化求解,使得本方法有效的平衡了短期收益和长期收益,避免了局部最优。
3.本发明可以实现对未知地图的全覆盖,在避免障碍物和其他机器人的同时,覆盖率可达100%,并且拥有较低的重复率。
附图说明
图1是机器人运动模型流程图。
图2是多机器人的全覆盖路径规划方法流程图。
图3是地图空间栅格示意图。
图4是仿真实验中多机器人全覆盖路径
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1~图4,一种基于改进捕食者猎物模型和DMPC的多机器人全覆盖路径规划方法,包括下列步骤:
步骤1:输入地图空间30*30,机器人数量为4,多机器人的初始位置,机器人的探测半径和机器人的运动速度,机器人运动的优先级;
步骤2:对地图空间栅格化,使得机器人能刚好覆盖一个栅格,并对每个栅格赋予不同的状态属性,将多机器人系统划分为多个子系统,栅格的状态属性和机器人覆盖的任务空间分别为:
WS={(x,y)|I(x,y)=1,0<x<x_l,0<y<y_l} (2)
式中x_l,y_l分别为地图空间离散后x轴的长度和y轴的长度,x_l=30,y_l=30;
步骤3:随机生成初始参数种群种群数量pop=50;
步骤4:机器人根据激光雷达检测到周围环境的信息,确定周围栅格的状态属性,从而判断机器人是否陷入死区,确定机器人的运动模型,若陷入死区跳转至步骤4,若为陷入死区跳转至步骤5;
步骤5:从回溯列表中剔除其他回溯点半径r内的栅格坐标,得到搜索列表Lsearch:
Lsearch=Lreturn/Lback,r (3)
式中Lreturn代表回溯列表,Lback,r代表回溯点半径r内的点的集合,其中r=3;
步骤6:从搜索列表中找到距离当前机器人最近的自由栅格坐标,使用A*算法脱离死区,得到机器人的移动序列后跳转至步骤7,机器人的移动序列Apath为:
Apath={A1,A2,…Ai,…Preturn} (4)
式中Ai为A*算法规划出的路径点坐标;
步骤7:根据改进后的捕食者猎物模型计算机器人临近点未覆盖栅格的各激励值大小,计算避开竞争者激励Ecompete为:
式中D代表两栅格之间的欧式距离,Okt,j代表机器人k在t时刻的临近点j的位置,H代表机器人k通讯范围Hmax内其他机器人的个数,Hmax=3。Rk,i,Rk,m分别代表通讯范围内的第i,m个机器人位置;
步骤8:计算移动方向激励Edirection为:
∠Ok,t-1Ok,tOkt,j=|a tan 2(yk,j-yk,t,xk,j-xk,t)-a tan 2(yk,t-yk,t-1,xk,t-xk,t-1)|(7)
式中∠Ok,t-1Ok,tOkt,j为机器人当前移动方向于下一步移动方向之间的夹角,(xk,t-1,yk,t-1),(xk,t,yk,t),(xk,j,yk,j)分别为机器人k前一时刻,当前时刻和下一时刻的坐标位置;
步骤9:计算边界激励Eb为:
nN(Okt,j)代表在机器人k的临近点j处自由栅格数量,代表机器人允许的临近点最大个数,/>
步骤10:计算栅格总激励值E为:
E(Okt,j)=ωcEcompete(Okt,j)+ωsEdirection(Okt,j)+Eb(Okt,j) (9)
式中ωc,ωs为权重因子ωc=0.01,ωs∈[0,1];
步骤11:机器人根据最大激励或者脱离死区序列决定机器人下一步移动坐标,当多个机器人在相同时刻选择同一栅格时,优先级高的机器人优先运动,移动方式为:
其中Apath,0代表脱离死区路径规划中最靠前的路径点坐标,Ok,j∈Nu(Rk)代表机器人k临近点的集合;
步骤12:引入DMPC方法,根据步骤4-11预测机器人T步路径序列,以覆盖自由栅格数和路径长度为指标,设立评价函数,预测序列yk(t)和评价函数分别J(T)为:
yk(t)=[yk(t+1|t),yk(t+2|t),…yk(t+T|t)] (11)
式中Ncover代表机器人覆盖的栅格数,L代表路径长度,α,β表示权重系数,α=1,β=0.01,T=3;
步骤13:通过WOA优化初始种群以机器人T步的评价函数为适应度函数,迭代次数为WOAiter=20,得到机器人未来T步的最佳移动序列LT:
LT={Stepk,t,Stepk,t+1,…Stepk,t+T-1} (13)
其中Stepk,t代表机器人k在t时刻的位置;
步骤14:机器人选择移动序列中最靠前的序列并移动,同时更新栅格地图状态和机器人位置,并将自由栅格信息加入回溯列表中,删除已覆盖的栅格点;
步骤15:当前迭代次数iter达到最大迭代次数itermax或时,执行步骤16,itermax=350;否则,iter=iter+1,返回步骤3;
步骤16:输出各个机器人的路径,结束。
以上详细地描述了本发明的具体实例,但本发明不限于以上实例。本领域的普通技术人员依据本发明现有的构思上通过逻辑推理、分析和其他实验可以得到的所有变形,均应认为是本发明的保护范围。
Claims (1)
1.一种基于改进捕食者猎物模型和DMPC的多机器人全覆盖路径规划方法,其特征在于,所述方法包括下列步骤:
步骤1:输入地图空间,多机器人的初始位置,机器人的探测半径和机器人的运动速度,机器人运动的优先级;
步骤2:对地图空间栅格化,使得机器人能刚好覆盖一个栅格,并对每个栅格赋予不同的状态属性,将多机器人系统划分为多个子系统,栅格的状态属性I(x,y)和机器人覆盖的任务空间WS分别为:
WS={(x,y)|I(x,y)=1,0<x<x_l,0<y<y_l} (2)
式中x_l,y_l分别为地图空间离散后x轴的长度和y轴的长度;
步骤3:随机生成初始参数种群种群数量为pop;
步骤4:机器人根据传感器检测到的信息,确定周围栅格的状态属性,从而判断机器人是否陷入死区,确定机器人的运动模型,若陷入死区跳转至步骤5,若为陷入死区跳转至步骤7;
步骤5:从回溯列表中剔除其他回溯点半径r内的栅格坐标,得到搜索列表Lsearch为:
Lsearch=Lreturn/Lback,r (3)
式中Lreturn代表回溯列表,Lback,r代表回溯点半径r内的点的集合;
步骤6:从搜索列表中找到距离当前机器人最近的自由栅格坐标,使用A*算法脱离死区,得到机器人的移动序列后跳转至步骤10,机器人的移动序列Apath为:
Apath={A1,A2,…Ai,…Preturn} (4)
式中Ai为A*算法规划出的路径点坐标,Preturn为回溯点坐标;
步骤7:根据改进后的捕食者猎物模型计算机器人临近点未覆盖栅格的各激励值大小,计算避开竞争者激励Ecompete为:
式中D代表两栅格之间的欧式距离,Okt,j代表机器人k在t时刻的临近点j的位置,H代表机器人k通讯范围Hmax内其他机器人的个数,Rk,i,Rk,m分别代表通讯范围内的第i,m个机器人位置;
步骤8:计算移动方向激励Edirection为:
∠Ok,t-1Ok,tOkt,j=|a tan 2(yk,j-yk,t,xk,j-xk,t)-a tan 2(yk,t-yk,t-1,xk,t-xk,t-1)| (7)
式中∠Ok,t-1Ok,tOkt,j为机器人当前移动方向于下一步移动方向之间的夹角,(xk,t-1,yk,t-1),(xk,t,yk,t),(xk,j,yk,j)分别为机器人k前一时刻,当前时刻和下一时刻的坐标位置;
步骤9:计算边界激励Eb为:
nN(Okt,j)代表在机器人k的临近点j处未覆盖的栅格数量,代表允许的临近点最大个数;
步骤10:计算栅格总激励值E为:
E(Okt,j)=ωcEcompete(Okt,j)+ωsEdirection(Okt,j)+Eb(Okt,j) (9)
式中ωc,ωs为权重因子;
步骤11:机器人根据最大激励或者脱离死区序列决定机器人下一步移动坐标,当多个机器人在相同时刻选择同一栅格时,优先级高的机器人优先运动,机器人下一步移动坐标为stepk,t*:
步骤12:引入DMPC方法,根据步骤4-11预测机器人T步路径序列,以覆盖自由栅格数和路径长度为指标,设立评价函数,预测序列yk(t)和评价函数分别J(T)为:
yk(t)=[yk(t+1|t),yk(t+2|t),…yk(t+T|t)] (11)
式中Ncover代表机器人覆盖的栅格数,L代表路径长度,α,β表示权重系数;
步骤13:通过WOA优化ωs,迭代次数WOAiter,以机器人T步的评价函数作为适应度函数,得到机器人未来T步的最佳移动序列LT:
LT={Stepk,t+1,…Stepk,t+i,…Stepk,t+T} (13)
其中Stepk,t+i代表机器人k在t+i时刻的位置,i=1,2…T;
步骤14:机器人选择移动序列中最靠前的序列并移动,同时更新栅格地图状态和机器人位置,并将未覆盖的栅格信息加入回溯列表中,删除已覆盖的栅格点;
步骤15:当前迭代次数iter达到最大迭代次数itermax或时,执行步骤16;否则,iter=iter+1,返回步骤3;
步骤16:输出路径,结束。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110824316.2A CN113741416B (zh) | 2021-07-21 | 2021-07-21 | 基于改进捕食者猎物模型和dmpc的多机器人全覆盖路径规划方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110824316.2A CN113741416B (zh) | 2021-07-21 | 2021-07-21 | 基于改进捕食者猎物模型和dmpc的多机器人全覆盖路径规划方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113741416A CN113741416A (zh) | 2021-12-03 |
CN113741416B true CN113741416B (zh) | 2023-12-26 |
Family
ID=78728867
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110824316.2A Active CN113741416B (zh) | 2021-07-21 | 2021-07-21 | 基于改进捕食者猎物模型和dmpc的多机器人全覆盖路径规划方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113741416B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114740840A (zh) * | 2022-03-21 | 2022-07-12 | 同济大学 | 一种基于兽群觅食行为的群体机器人双环境区域覆盖方法 |
CN115421496A (zh) * | 2022-09-26 | 2022-12-02 | 上海电机学院 | 一种用于消毒机器人的全覆盖路径规划方法及设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016045615A1 (zh) * | 2014-09-25 | 2016-03-31 | 科沃斯机器人有限公司 | 机器人静态路径规划方法 |
CN106843216A (zh) * | 2017-02-15 | 2017-06-13 | 北京大学深圳研究生院 | 一种基于回溯搜索的生物激励机器人完全遍历路径规划方法 |
CN106979785A (zh) * | 2017-03-24 | 2017-07-25 | 北京大学深圳研究生院 | 一种面向多机器人系统的完全遍历路径规划方法 |
WO2017173990A1 (zh) * | 2016-04-07 | 2017-10-12 | 北京进化者机器人科技有限公司 | 一种机器人避障中的最短路径规划方法 |
-
2021
- 2021-07-21 CN CN202110824316.2A patent/CN113741416B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016045615A1 (zh) * | 2014-09-25 | 2016-03-31 | 科沃斯机器人有限公司 | 机器人静态路径规划方法 |
WO2017173990A1 (zh) * | 2016-04-07 | 2017-10-12 | 北京进化者机器人科技有限公司 | 一种机器人避障中的最短路径规划方法 |
CN106843216A (zh) * | 2017-02-15 | 2017-06-13 | 北京大学深圳研究生院 | 一种基于回溯搜索的生物激励机器人完全遍历路径规划方法 |
CN106979785A (zh) * | 2017-03-24 | 2017-07-25 | 北京大学深圳研究生院 | 一种面向多机器人系统的完全遍历路径规划方法 |
Non-Patent Citations (1)
Title |
---|
移动机器人全覆盖路径规划算法研究;刘晶;姚维;章玮;;工业控制计算机(第12期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113741416A (zh) | 2021-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tai et al. | Virtual-to-real deep reinforcement learning: Continuous control of mobile robots for mapless navigation | |
CN109506655B (zh) | 基于非均匀建模的改进蚁群路径规划算法 | |
Grigorescu et al. | Neurotrajectory: A neuroevolutionary approach to local state trajectory learning for autonomous vehicles | |
CN111780777A (zh) | 一种基于改进a*算法和深度强化学习的无人车路径规划方法 | |
CN112148008B (zh) | 一种基于深度强化学习的实时无人机路径预测方法 | |
CN109597425B (zh) | 基于强化学习的无人机导航和避障方法 | |
CN113741416B (zh) | 基于改进捕食者猎物模型和dmpc的多机器人全覆盖路径规划方法 | |
Guo et al. | A fusion method of local path planning for mobile robots based on LSTM neural network and reinforcement learning | |
CN116804879B (zh) | 一种改进蜣螂算法融合dwa算法的机器人路径规划框架方法 | |
Xue et al. | Multi-agent deep reinforcement learning for UAVs navigation in unknown complex environment | |
CN113885567B (zh) | 一种基于冲突搜索的多无人机的协同路径规划方法 | |
CN112484732A (zh) | 一种基于ib-abc算法的无人机飞行路径规划方法 | |
Katona et al. | Obstacle Avoidance and Path Planning Methods for Autonomous Navigation of Mobile Robot | |
CN115826586B (zh) | 一种融合全局算法和局部算法的路径规划方法及系统 | |
CN115729238A (zh) | 一种用于移动机器人自主避障的动态路径规划方法 | |
Zheng et al. | A hierarchical approach for mobile robot exploration in pedestrian crowd | |
CN115933637A (zh) | 一种变电设备巡检机器人路径规划方法、设备及存储介质 | |
Liu et al. | Improved gray wolf optimization algorithm integrating A* algorithm for path planning of mobile charging robots | |
Chen et al. | STExplorer: A hierarchical autonomous exploration strategy with spatio-temporal awareness for aerial robots | |
Shi et al. | Coverage path planning for cleaning robot based on improved simulated annealing algorithm and ant colony algorithm | |
CN114740849A (zh) | 基于行人步行决策规则的移动机器人自主导航方法及装置 | |
Raiesdana | A hybrid method for industrial robot navigation | |
CN116448134B (zh) | 基于风险场与不确定分析的车辆路径规划方法及装置 | |
CN110779526A (zh) | 一种路径规划方法、装置及存储介质 | |
Chen et al. | GVD-Exploration: An Efficient Autonomous Robot Exploration Framework Based on Fast Generalized Voronoi Diagram Extraction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |