CN109765901A - 基于线激光与双目视觉的动态代价地图导航方法 - Google Patents
基于线激光与双目视觉的动态代价地图导航方法 Download PDFInfo
- Publication number
- CN109765901A CN109765901A CN201910119415.3A CN201910119415A CN109765901A CN 109765901 A CN109765901 A CN 109765901A CN 201910119415 A CN201910119415 A CN 201910119415A CN 109765901 A CN109765901 A CN 109765901A
- Authority
- CN
- China
- Prior art keywords
- map
- robot
- coordinate
- coordinate system
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种基于线激光与双目视觉的动态代价地图导航方法,包括步骤:1)建立二维栅格地图模型;2)建立移动机器人位姿模型;3)建立激光雷达数据模型;4)标定双目摄像头和获取三维坐标;5)使用步骤4)获取的三维坐标创建动态代价地图;6)利用dwa算法进行路径规划与避障导航。本发明能够通过双目测距创建代价地图,感知二维激光雷达不能探测的障碍物;能够在已知环境二维栅格地图环境下,使用双目摄像头探测环境中高于和低于二维激光雷达平面的障碍物,并且将障碍物映射到环境地图中,通过dwa算法,得到避开障碍物的导航路径线,可以使移动机器人在运动过程中沿着避开障碍的路径到达目的地。
Description
技术领域
本发明涉及机器人导航避障的技术领域,尤其是指一种基于线激光与双目视觉的动态代价地图导航方法。
背景技术
随着智能机器人技术蓬勃发展,机器人在生产与生活中有了越来越广泛的应用。根据应用环境的不同,机器人可以被分为多种类别,比如说工业机器人往往有着多个关节和机械臂,其在工厂当中承担着装配、搬运等高效率的工作;而服务机器人产品,包括轮式移动机器人、仿人机器人等可以被用在家用或者商用的环境中,针对不同使用目的开发出不同功能,智能移动小车可以实现无人驾驶,仿人机器人可以实现唱歌跳舞娱乐互动等等;无人机常常用于军事侦察,遥感测绘等;还有水下机器人、纳米机器人、农业机器人等更多类别的特种机器人,都有着其比较专一的用途。其中随着推动移动机器人发展的激光传感器技术的不断发展和突破,激光传感器在移动机器人领域得到了广泛的应用。在机器人对未知环境的探索,创建地图,以及导航避障上,激光有着不可取代的重要地位。目前市面上广泛使用且成本低的主要是二维激光,但是它的平面性使得机器人探测不到低于机器人平面的障碍物和悬空高于激光平面的障碍物。
为了弥补单个二维激光在移动机器人中的不足,越来越多的传感器加到了机器人上,其中就有摄像头。利用双目摄像头可以测距的功能,很自然的可以想到应用双目摄像头来探测二维激光无法探测到的障碍物,从而实现移动机器人可以避开实际场景中激光无法检测到的障碍物。
在机器人实时避障算法中,动态代价地图至关重要,动态代价地图显示的是传感器实时检测到的障碍物,结合建立的静态地图,就可以探测到移动机器人周围的障碍物信息,然后结合路径规划算法,计算出一条能够到达目的地的最短路径。
而对于机器人软件系统,目前主流的机器人系统框架是基于ROS(The RobotOperating System)系统,该系统提供有各种主流传感器的数据接口,也提供对机器人的控制接口,可以在真实环境下完成各类型机器人的实验。并且ROS系统提供了很多基础功能包,使得我们可以在机器人的基础框架上进一步做实验和研究。
发明内容
本发明的目的在于克服二维激光传感器只能探测单一平面障碍物的不足,提出了一种基于线激光与双目视觉的动态代价地图导航方法,在导航避障时不能检测到低矮,或者悬空的障碍物,利用标定好的双目摄像头可以检测到这些障碍物并计算出这些障碍物到摄像头平面的距离,然后我们在导航避障时加上由摄像头生成的三维映射到二维的动态代价地图层,通过该层来管理双目视觉的检测的障碍物,如定期更新视觉的障碍物在地图的位置,删除地图中过期的障碍物。再结合二位激光的动态代价地图,我们就可以获取真是世界中三维障碍物的信息,使得移动机器人可以避开激光雷达检测不到的障碍物。
为实现上述目的,本发明所提供的技术方案为:基于线激光与双目视觉的动态代价地图导航方法,包括以下步骤:
1)建立二维栅格地图模型
建立以二维栅格地图作为环境障碍信息的环境地图模型,建立世界坐标系与地图坐标系的转换关系;其中,模型使用二维栅格地图表示环境障碍信息,二维栅格地图模型在系统中以灰度图片的形式保存,并且在模型中记录了地图图片的高度height,地图图片的宽度width,以及地图左下角像素的对应的世界坐标(Xlowerleft,Ylowerleft),定义地图图片中左上角像素为地图坐标系的原点(0,0),行坐标以地图图片从上到下为正方向,列坐标以地图图片从左到右为正方向,定义世界坐标的原点在地图坐标处,resolution为地图分辨率,世界坐标系的x轴方向对应地图坐标系中列坐标增大的方向,世界坐标系的y轴方向对应地图坐标系中行坐标减小的方向,世界坐标系以现实中的米为单位,每一个像素对应了现实世界中一个长宽都是5cm的正方形二维平面区域,若像素值为白色,则表示该区域不存在障碍物,若像素值为黑色,则代表该区域存在障碍物;使用gmapping建图算法构建基于激光雷达的静态地图;
2)建立移动机器人位姿模型
建立以移动机器人中心为原点的机器人坐标系,建立二维坐标平面上的机器人位姿模型,并以坐标系转换关系的形式表示机器人在环境中的位姿;其中,所述机器人位姿模型以机器人中心为原点,机器人中心到机器人正面方向为x轴,以米为单位建立右手平面直角坐标系,即为机器人坐标系,并且用Pose(x,y,θ)表示机器人的位姿,式中x,y代表机器人坐标系的原点所处的世界坐标系的坐标,θ表示世界坐标系x轴方向到机器人坐标系x轴方向的夹角,以逆时针为角度增大的方向,则机器人坐标系中的坐标对应到世界坐标系中的坐标转换如下:
式中,x,y,θ为机器人位姿Pose(x,y,θ);wx,wy为世界坐标系的坐标;rx,ry为机器人坐标系的坐标;
3)建立激光雷达数据模型
根据二维激光雷达的安放位置与朝向,建立激光雷达数据模型,并根据步骤1)建立的地图模型和步骤2)建立的机器人位姿模型,以及激光雷达的数据协议,实现激光雷达对环境距离的测量并将测量到的障碍物数据映射到环境地图当中;其中,所述激光雷达数据模型形式如下:
二维激光雷达能够扫描一个平面内360度范围内的障碍信息,二维激光雷达扫描范围能够达8米,角度分辨率为1度,在二维激光雷达的数据模型中,每次传输数据将传输360个浮点数据,从激光雷达的0度方向开始,逆时针方向传输每1角方向上的障碍距离激光雷达中心的距离,以米为单位,并且记录i度方向上的障碍物距离雷达中心距离为ρi,当二维激光雷达中心安装在机器人坐标系中的(0.08,0)处,激光雷达的0度方向与机器人坐标系的y轴方向平行且朝向相同时,当机器人处于位姿状态Pose(x,y,θ)时,雷达数据ρi映射到世界坐标系中坐标:
式中,Xworld,Yworld为世界坐标系中的坐标;
并且,将雷达数据ρi最终映射到地图坐标系中的坐标:
式中,height代表地图图片行坐标,width代表地图图片列坐标,resolution代表地图分辨率;
4)标定双目摄像头和获取三维坐标
使用标定板拍10组不同两个摄像头的照片,通过找到标定板的角点在图像的位置,来计算两个摄像头的内参和外参,最终通过联合标定得到4×4的双目摄像头的重投影矩阵cx,cy为左相机像平面中心坐标,c'x,c'y为右相机像平面中心坐标;Tx为两个相机的中心距离,f为相机焦距;然后使用块匹配立体匹配算法得到左右两个摄像头的视差图即深度图,给定视差d和一个像平面二维点(x,y),通过公式求得摄像机坐标系下的三维坐标P=(X/W,Y/W,Z/W);
5)使用步骤4)获取的三维坐标创建动态代价地图
根据双目视觉系统的定义,以双目摄像头中的左摄像头的光心为原点,光轴方向为z轴,基线方向从左向右为x轴,以米为单位,建立右手空间直角坐标系,称为双目坐标系,在获取图像上每个像素点的三维坐标P=(x',y',z')后,y'表示的就是高度信息,x'对应着机器人二维坐标平面的-y轴,z'对应的是x轴方向,根据y'来筛选低于机器人和高于机器人的障碍物,然后把它压缩到机器人所在的二维平面,记机器人坐标系下的坐标为r(x,y),具体公式有r(x,y)=(z',-x'),得到压缩到机器人二维平面的世界坐标系坐标(rx,ry)后,根据当前机器人的位姿(robotx,roboty,θ),由刚体变换矩阵和平面坐标相乘即得到双目坐标系在世界坐标系中的坐标(wx,wy);在创建地图时,机器人初始位姿为世界坐标系的原点,是在地图坐标系的中心,根据世界坐标系和地图坐标系的关系,进一步计算出双目坐标系下的障碍物在地图坐标系中的位姿,然后在栅格地图中添加该障碍物,并添加膨胀半径,这样就能够创建出基于双目视觉的代价地图;同理使用相同的方法能够创建出二维激光的代价地图,然后融合两个代价地图,就能够得到当前环境中激光和视觉所看到的障碍物的代价地图;使用该代价地图机器人就能够避障导航到地图中的目标点;
6)最后就是选择一个目标点,通过dwa局部避障算法进行避障导航:a、在机器人控制的空间上进行速度离散采样;b、对于每一个采样速度,看看使用该采样速度移动一段距离后会发生什么;c、评价前向模拟的每个轨迹,评价标准是:靠近障碍物,靠近目标贴近全局路径和速度;在评价的过程中丢弃非法路径;d、挑出得分最高的轨迹并发送相应的速度给机器人;e、不断重复步骤a-d,直到到达目的地。
本发明与现有技术相比,具有如下优点与有益效果:
本发明方法能够通过双目测距创建代价地图,感知二维激光雷达不能探测的障碍物;能够在已知环境二维栅格地图环境下,使用双目摄像头探测环境中高于和低于二维激光雷达平面的障碍物,并且将障碍物映射到环境地图中,通过dwa算法,得到避开障碍物的导航路径线,可以使移动机器人在运动过程中沿着避开障碍的路径到达目的地。
附图说明
图1为二维栅格地图示意图。
图2为地图对应的真实环境示意图。
图3为移动机器人硬件平台示意图。
图4为机器人坐标系定义以及激光雷达0度方向示意图。
图5为双目标定示例图。
图6为激光雷达与双目摄像头的安装方式示意图。
图7为现实环境障碍示意图。
图8为双目摄像头与激光雷达融合的动态代价地图。
图9为机器人系统中计算得出的导航路径线示意图。
图10为机器人按照导航路径线避开障碍到达目的结果示意图。
具体实施方式
下面结合具体实施例对本发明作进一步说明。
本发明所提供的基于线激光与双目视觉的动态代价地图导航方法,包括以下步骤:
1)建立二维栅格地图模型:建立以二维栅格地图作为环境障碍信息的环境地图模型,建立世界坐标系与地图坐标系的转换关系。其中,模型使用二维栅格地图表示环境障碍信息,二维栅格地图模型在系统中以灰度图片的形式保存,并且在模型中记录了地图图片的高度height,地图图片的宽度width,以及地图左下角像素的对应的世界坐标(Xlowerleft,Ylowerleft),定义地图图片中左上角像素为地图坐标系的原点(0,0),行坐标以地图图片从上到下为正方向,列坐标以地图图片从左到右为正方向,定义世界坐标的原点在地图坐标处,resolution为地图分辨率,世界坐标系的x轴方向对应地图坐标系中列坐标增大的方向,世界坐标系的y轴方向对应地图坐标系中行坐标减小的方向,世界坐标系以现实中的米为单位,每一个像素对应了现实世界中一个长宽都是5cm的正方形二维平面区域,若像素值为白色,则表示该区域不存在障碍物,若像素值为黑色,则代表该区域存在障碍物。使用gmapping建图算法可以构建基于激光雷达的静态地图。
2)建立移动机器人位姿模型:建立以移动机器人中心为原点的机器人坐标系,建立二维坐标平面上的机器人位姿模型,并以坐标系转换关系的形式表示机器人在环境中的位姿。其中,所述机器人位姿模型,以机器人中心为原点,机器人中心到机器人正面方向为x轴,以米为单位建立右手平面直角坐标系,即为机器人坐标系,并且用Pose(x,y,θ)表示机器人的位姿,其中x,y代表机器人坐标系的原点所处的世界坐标系的坐标,θ表示世界坐标系x轴方向到机器人坐标系x轴方向的夹角,以逆时针为角度增大的方向,则机器人坐标系中的坐标对应到世界坐标系中的坐标转换如下:
式中,x,y,θ为机器人位姿Pose(x,y,θ);wx,wy为世界坐标系的坐标;rx,ry为机器人坐标系的坐标。
3)建立激光雷达数据模型:根据二维激光雷达的安放位置与朝向,建立激光雷达数据模型,并根据步骤1)建立的地图模型和步骤2)建立的机器人位姿模型,以及激光雷达的数据协议,实现激光雷达对环境距离的测量并将测量到的障碍物数据映射到环境地图当中。其中,所述激光雷达数据模型形式如下:
二维激光雷达可以扫描一个平面内360度范围内的障碍信息,一般的二维激光雷达扫描范围可达8米,角度分辨率为1度,在二维激光雷达的数据模型中,每次传输数据将传输360个浮点数据,从激光雷达的0度方向开始,逆时针方向传输每1角方向上的障碍距离激光雷达中心的距离,以米为单位,并且记录i度方向上的障碍物距离雷达中心距离为ρi,当二维激光雷达中心安装在机器人坐标系中的(0.08,0)处,激光雷达的0度方向与机器人坐标系的y轴方向平行且朝向相同时,当机器人处于位姿状态Pose(x,y,θ)时,雷达数据ρi映射到世界坐标系中坐标:
式中,Xworld,Yworld为世界坐标系中的坐标;
并且,将雷达数据ρi最终映射到地图坐标系中的坐标,
式中,height代表地图图片行坐标,width代表地图图片列坐标,resolution代表地图分辨率。
4)标定双目摄像头和获取三维坐标:使用标定板拍10组不同两个摄像头的照片,通过找到标定板的角点在图像的位置,来计算两个摄像头的内参和外参,最终通过联合标定得到4×4的双目摄像头的重投影矩阵cx,cy为左相机像平面中心坐标,c'x,c'y为右相机像平面中心坐标;Tx为两个相机的中心距离,f为相机焦距;然后使用块匹配立体匹配算法得到左右两个摄像头的视差图即深度图,给定视差d和一个像平面二维点(x,y),我们可以通过公式求得摄像机坐标系下的三维坐标P=(X/W,Y/W,Z/W)。
5)使用步骤4)获取的三维坐标创建动态代价地图:根据双目视觉系统的定义,以双目摄像头中的左摄像头的光心为原点,光轴方向为z轴,基线方向从左向右为x轴,以米为单位,建立右手空间直角坐标系,称为双目坐标系,在获取图像上每个像素点的三维坐标P=(x',y',z')后,y'表示的就是高度信息,x'对应着机器人二维坐标平面的-y轴,z'对应的是x轴方向,可以根据y'来筛选低于机器人和高于机器人的障碍物,然后把它压缩到机器人所在的二维平面,记机器人坐标系下的坐标为r(x,y),具体公式有r(x,y)=(z',-x'),得到压缩到机器人二维平面的世界坐标系坐标(rx,ry)后,根据当前机器人的位姿(robotx,roboty,θ),由刚体变换矩阵和平面坐标相乘即得到双目坐标系在世界坐标系中的坐标(wx,wy),在创建地图时,机器人初始位姿为世界坐标系的原点,是在地图坐标系的中心,根据世界坐标系和地图坐标系的关系,可以进一步计算出双目坐标系下的障碍物在地图坐标系中的位姿,然后我们在栅格地图中添加该障碍物,并添加膨胀半径,这样就可以创建出基于双目视觉的代价地图。同理使用相同的方法可以创建出二维激光的代价地图,然后融合两个代价地图,就可以得到当前环境中激光和视觉所看到的障碍物的代价地图。使用该代价地图机器人就可以避障导航到地图中的目标点。
6)最后就是选择一个目标点,通过dwa局部避障算法进行避障导航:a、在机器人控制的空间上进行速度离散采样。b、对于每一个采样速度,看看使用该采样速度移动一小段后会发生什么。c、评价前向模拟的每个轨迹,评价标准如:靠近障碍物,靠近目标贴近全局路径和速度;在评价的过程中丢弃非法路径。d、挑出得分最高的轨迹并发送相应的速度给机器人。e、不断重复步骤a-d,直到到达目的地。
实施案例:在KOBUKI移动机器人平台上完成基于双目摄像头与二维激光雷达的移动机器人导航。
(1)二维栅格地图模型
二维栅格地图如图1所示,储存信息包括每行像素个数以及地图图片总共的行数,地图中每一个像素代表真实环境中一个长宽5cm的平面区域,使用黑色像素代表该区域存在障碍,白色像素代表该区域不存在障碍。
本实例中,地图图片宽度为50像素,高度为60像素,代表一块宽2.5米,长3米的实验场地,如图2所示。
(2)移动机器人平台模型
在移动机器人硬件平台的选择上,使用了KOBUKI通用移动机器人底座,以及LSLIDAR2D激光雷达和两个普通的30万像素摄像头作为传感器获取距离信息,一个X86平台4GB内存的终端作为机器人服务端,如图3所示。
本实例中对传感器的安装方式与机器人坐标的设置如图4所示,以机器人中心为原点,以机器人正面方向为x轴,建立右手平面坐标系,并且将激光雷达的0度方向摆放与机器人坐标系的y轴平行。
(3)标定双目摄像头和获取三维坐标:用于双目标定的标定板,标定均方误差,标定结果Q如图5所示。
(4)基于双目动态代价地图和激光动态代价地图以及二维栅格静态地图的联合导航定位。
本实施案例中:在机器人平台上,双目摄像头与激光雷达固定的形式如图6所示。真实环境如图7所示。而在机器人系统中使用二维栅格地图表示全局环境的障碍物信息,使用双目摄像头和二维激光雷达同时探测障碍物,并且互不干扰,将局部环境障碍信息映射到环境地图当中,将机器人周边5米范围内的全局障碍信息使用局部障碍信息替换,如图8所示,在图7中白色矮箱子是低于激光雷达扫描平面的障碍,它由双目摄像头探测得到,并且映射到了图8的地图中。然通过dwa算法得到了图9所示的导航路径。按照导航规划的路径,最终到达图10所示的终点。
因此,综上所述,本发明方法能够通过双目测距创建代价地图,感知二维激光雷达不能探测的障碍物;能够在已知环境二维栅格地图环境下,使用双目摄像头探测环境中高于和低于二维激光雷达平面的障碍物,并且将障碍物映射到环境地图中,通过dwa算法,得到避开障碍物的导航路径线,可以使移动机器人在运动过程中沿着避开障碍的路径到达目的地,具有实际推广价值,值得推广。
以上所述实施例只为本发明之较佳实施例,并非以此限制本发明的实施范围,故凡依本发明之形状、原理所作的变化,均应涵盖在本发明的保护范围内。
Claims (1)
1.基于线激光与双目视觉的动态代价地图导航方法,其特征在于,包括以下步骤:
1)建立二维栅格地图模型
建立以二维栅格地图作为环境障碍信息的环境地图模型,建立世界坐标系与地图坐标系的转换关系;其中,模型使用二维栅格地图表示环境障碍信息,二维栅格地图模型在系统中以灰度图片的形式保存,并且在模型中记录了地图图片的高度height,地图图片的宽度width,以及地图左下角像素的对应的世界坐标(Xlowerleft,Ylowerleft),定义地图图片中左上角像素为地图坐标系的原点(0,0),行坐标以地图图片从上到下为正方向,列坐标以地图图片从左到右为正方向,定义世界坐标的原点在地图坐标处,resolution为地图分辨率,世界坐标系的x轴方向对应地图坐标系中列坐标增大的方向,世界坐标系的y轴方向对应地图坐标系中行坐标减小的方向,世界坐标系以现实中的米为单位,每一个像素对应了现实世界中一个长宽都是5cm的正方形二维平面区域,若像素值为白色,则表示该区域不存在障碍物,若像素值为黑色,则代表该区域存在障碍物;使用gmapping建图算法构建基于激光雷达的静态地图;
2)建立移动机器人位姿模型
建立以移动机器人中心为原点的机器人坐标系,建立二维坐标平面上的机器人位姿模型,并以坐标系转换关系的形式表示机器人在环境中的位姿;其中,所述机器人位姿模型以机器人中心为原点,机器人中心到机器人正面方向为x轴,以米为单位建立右手平面直角坐标系,即为机器人坐标系,并且用Pose(x,y,θ)表示机器人的位姿,式中x,y代表机器人坐标系的原点所处的世界坐标系的坐标,θ表示世界坐标系x轴方向到机器人坐标系x轴方向的夹角,以逆时针为角度增大的方向,则机器人坐标系中的坐标对应到世界坐标系中的坐标转换如下:
式中,x,y,θ为机器人位姿Pose(x,y,θ);wx,wy为世界坐标系的坐标;rx,ry为机器人坐标系的坐标;
3)建立激光雷达数据模型
根据二维激光雷达的安放位置与朝向,建立激光雷达数据模型,并根据步骤1)建立的地图模型和步骤2)建立的机器人位姿模型,以及激光雷达的数据协议,实现激光雷达对环境距离的测量并将测量到的障碍物数据映射到环境地图当中;其中,所述激光雷达数据模型形式如下:
二维激光雷达能够扫描一个平面内360度范围内的障碍信息,二维激光雷达扫描范围能够达8米,角度分辨率为1度,在二维激光雷达的数据模型中,每次传输数据将传输360个浮点数据,从激光雷达的0度方向开始,逆时针方向传输每1角方向上的障碍距离激光雷达中心的距离,以米为单位,并且记录i度方向上的障碍物距离雷达中心距离为ρi,当二维激光雷达中心安装在机器人坐标系中的(0.08,0)处,激光雷达的0度方向与机器人坐标系的y轴方向平行且朝向相同时,当机器人处于位姿状态Pose(x,y,θ)时,雷达数据ρi映射到世界坐标系中坐标:
式中,Xworld,Yworld为世界坐标系中的坐标;
并且,将雷达数据ρi最终映射到地图坐标系中的坐标:
式中,height代表地图图片行坐标,width代表地图图片列坐标,resolution代表地图分辨率;
4)标定双目摄像头和获取三维坐标
使用标定板拍10组不同两个摄像头的照片,通过找到标定板的角点在图像的位置,来计算两个摄像头的内参和外参,最终通过联合标定得到4×4的双目摄像头的重投影矩阵cx,cy为左相机像平面中心坐标,c'x,c'y为右相机像平面中心坐标;Tx为两个相机的中心距离,f为相机焦距;然后使用块匹配立体匹配算法得到左右两个摄像头的视差图即深度图,给定视差d和一个像平面二维点(x,y),通过公式求得摄像机坐标系下的三维坐标P=(X/W,Y/W,Z/W);
5)使用步骤4)获取的三维坐标创建动态代价地图
根据双目视觉系统的定义,以双目摄像头中的左摄像头的光心为原点,光轴方向为z轴,基线方向从左向右为x轴,以米为单位,建立右手空间直角坐标系,称为双目坐标系,在获取图像上每个像素点的三维坐标P=(x',y',z')后,y'表示的就是高度信息,x'对应着机器人二维坐标平面的-y轴,z'对应的是x轴方向,根据y'来筛选低于机器人和高于机器人的障碍物,然后把它压缩到机器人所在的二维平面,记机器人坐标系下的坐标为r(x,y),具体公式有r(x,y)=(z',-x'),得到压缩到机器人二维平面的世界坐标系坐标(rx,ry)后,根据当前机器人的位姿(robotx,roboty,θ),由刚体变换矩阵和平面坐标相乘即得到双目坐标系在世界坐标系中的坐标(wx,wy);在创建地图时,机器人初始位姿为世界坐标系的原点,是在地图坐标系的中心,根据世界坐标系和地图坐标系的关系,进一步计算出双目坐标系下的障碍物在地图坐标系中的位姿,然后在栅格地图中添加该障碍物,并添加膨胀半径,这样就能够创建出基于双目视觉的代价地图;同理使用相同的方法能够创建出二维激光的代价地图,然后融合两个代价地图,就能够得到当前环境中激光和视觉所看到的障碍物的代价地图;使用该代价地图机器人就能够避障导航到地图中的目标点;
6)最后就是选择一个目标点,通过dwa局部避障算法进行避障导航:a、在机器人控制的空间上进行速度离散采样;b、对于每一个采样速度,看看使用该采样速度移动一段距离后会发生什么;c、评价前向模拟的每个轨迹,评价标准是:靠近障碍物,靠近目标贴近全局路径和速度;在评价的过程中丢弃非法路径;d、挑出得分最高的轨迹并发送相应的速度给机器人;e、不断重复步骤a-d,直到到达目的地。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910119415.3A CN109765901A (zh) | 2019-02-18 | 2019-02-18 | 基于线激光与双目视觉的动态代价地图导航方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910119415.3A CN109765901A (zh) | 2019-02-18 | 2019-02-18 | 基于线激光与双目视觉的动态代价地图导航方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109765901A true CN109765901A (zh) | 2019-05-17 |
Family
ID=66456832
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910119415.3A Pending CN109765901A (zh) | 2019-02-18 | 2019-02-18 | 基于线激光与双目视觉的动态代价地图导航方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109765901A (zh) |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110108269A (zh) * | 2019-05-20 | 2019-08-09 | 电子科技大学 | 基于多传感器数据融合的agv定位方法 |
CN110502019A (zh) * | 2019-09-06 | 2019-11-26 | 北京云迹科技有限公司 | 一种室内机器人的避障方法及装置 |
CN110609559A (zh) * | 2019-10-25 | 2019-12-24 | 江苏恒澄交科信息科技股份有限公司 | 用于无人船路径跟随和避障的改进dwa动态窗口法 |
CN110726409A (zh) * | 2019-09-09 | 2020-01-24 | 杭州电子科技大学 | 一种基于激光slam和视觉slam地图融合方法 |
CN111469127A (zh) * | 2020-04-14 | 2020-07-31 | 北京海益同展信息科技有限公司 | 代价地图更新方法、装置、机器人及存储介质 |
CN111726591A (zh) * | 2020-06-22 | 2020-09-29 | 珠海格力电器股份有限公司 | 地图更新方法、装置、存储介质及电子设备 |
CN111743464A (zh) * | 2020-07-06 | 2020-10-09 | 追创科技(苏州)有限公司 | 一种基于线激光的避障方法及装置 |
CN111830977A (zh) * | 2020-07-02 | 2020-10-27 | 中国兵器科学研究院 | 一种移动机器人自主导航软件框架及导航方法 |
CN112129281A (zh) * | 2019-06-25 | 2020-12-25 | 南京航空航天大学 | 一种基于局部邻域地图的高精度图像导航定位方法 |
CN112180943A (zh) * | 2020-10-19 | 2021-01-05 | 山东交通学院 | 一种基于视觉图像和激光雷达的水下机器人导航避障方法 |
CN112230634A (zh) * | 2019-06-26 | 2021-01-15 | 北京海益同展信息科技有限公司 | 一种机器人避障方法和装置 |
CN112286194A (zh) * | 2020-10-29 | 2021-01-29 | 广东杜尼智能机器人工程技术研究中心有限公司 | 代价地图区域划分方法 |
CN112294197A (zh) * | 2020-11-04 | 2021-02-02 | 深圳市普森斯科技有限公司 | 扫地机的清扫控制方法、电子装置及存储介质 |
CN112363498A (zh) * | 2020-10-19 | 2021-02-12 | 山东交通学院 | 一种基于激光雷达的水下机器人智能运动控制方法 |
CN112378408A (zh) * | 2020-11-26 | 2021-02-19 | 重庆大学 | 一种实现轮式移动机器人实时避障的路径规划方法 |
CN112447065A (zh) * | 2019-08-16 | 2021-03-05 | 北京地平线机器人技术研发有限公司 | 一种轨迹规划方法及装置 |
CN112462768A (zh) * | 2020-11-25 | 2021-03-09 | 深圳拓邦股份有限公司 | 移动机器人导航地图的创建方法、装置及移动机器人 |
CN112489131A (zh) * | 2020-12-26 | 2021-03-12 | 上海有个机器人有限公司 | 基于路面检测构建代价地图的方法、装置、介质和机器人 |
CN112486172A (zh) * | 2020-11-30 | 2021-03-12 | 深圳市普渡科技有限公司 | 道路边缘检测方法及机器人 |
CN112506196A (zh) * | 2020-12-07 | 2021-03-16 | 合肥工业大学 | 基于先验知识的机器人避障方法和系统 |
CN112505723A (zh) * | 2021-02-03 | 2021-03-16 | 之江实验室 | 一种基于导航点选择的三维地图重建方法 |
CN112817315A (zh) * | 2020-12-31 | 2021-05-18 | 江苏集萃智能制造技术研究所有限公司 | 一种动态环境下无人清洗车的避障方法及系统 |
CN113239520A (zh) * | 2021-04-16 | 2021-08-10 | 大连海事大学 | 一种近水底三维水下地形环境建模方法 |
CN113520246A (zh) * | 2021-07-30 | 2021-10-22 | 珠海一微半导体股份有限公司 | 移动机器人补偿清洁方法及系统 |
CN113607162A (zh) * | 2021-10-09 | 2021-11-05 | 创泽智能机器人集团股份有限公司 | 一种基于三维地图的路径规划方法及设备 |
CN113608532A (zh) * | 2021-07-29 | 2021-11-05 | 深圳市眼科医院 | 一种用于盲人出行的自动避障系统及其代步车 |
CN114194685A (zh) * | 2021-12-23 | 2022-03-18 | 山东新华医疗器械股份有限公司 | 码垛agv控制系统、方法及装置 |
WO2022127541A1 (zh) * | 2020-12-16 | 2022-06-23 | 北京极智嘉科技股份有限公司 | 一种机器人及定位方法 |
CN115016464A (zh) * | 2022-05-13 | 2022-09-06 | 中山大学·深圳 | 一种微纳机器人路径规划与自动导航方法及系统 |
CN115185266A (zh) * | 2022-06-14 | 2022-10-14 | 重庆大学 | 一种基于地形可通过性的机器人控制方法及系统 |
CN115406445A (zh) * | 2022-08-18 | 2022-11-29 | 四川华丰科技股份有限公司 | 多传感器数据融合处理方法及机器人避障方法 |
CN115731360A (zh) * | 2021-08-31 | 2023-03-03 | 中科南京软件技术研究院 | 面向人机交互的栅格地图后处理表示方法 |
CN115775309A (zh) * | 2023-01-31 | 2023-03-10 | 中国电子科技集团公司第二十八研究所 | 面向三维空间的火力范围标记方法、装置 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103400392A (zh) * | 2013-08-19 | 2013-11-20 | 山东鲁能智能技术有限公司 | 基于变电站巡检机器人的双目视觉导航系统及方法 |
CN108151728A (zh) * | 2017-12-06 | 2018-06-12 | 华南理工大学 | 一种用于双目slam的半稠密认知地图创建方法 |
US20180181141A1 (en) * | 2016-12-28 | 2018-06-28 | H.P.B Optoelectronic Co., Ltd | Robot surveillance system |
CN108214487A (zh) * | 2017-12-16 | 2018-06-29 | 广西电网有限责任公司电力科学研究院 | 基于双目视觉和激光雷达的机器人目标定位和抓取方法 |
CN108663681A (zh) * | 2018-05-16 | 2018-10-16 | 华南理工大学 | 基于双目摄像头与二维激光雷达的移动机器人导航方法 |
CN108839055A (zh) * | 2018-05-31 | 2018-11-20 | 芜湖星途机器人科技有限公司 | 带自主导航的机器人 |
CN108932736A (zh) * | 2018-05-30 | 2018-12-04 | 南昌大学 | 二维激光雷达点云数据处理方法以及动态机器人位姿校准方法 |
CN108983783A (zh) * | 2018-08-03 | 2018-12-11 | 上海有个机器人有限公司 | 一种机器人移动速度控制方法及系统、存储介质及终端 |
CN109118542A (zh) * | 2017-06-22 | 2019-01-01 | 百度在线网络技术(北京)有限公司 | 激光雷达与相机之间的标定方法、装置、设备及存储介质 |
CN109129507A (zh) * | 2018-09-10 | 2019-01-04 | 北京联合大学 | 一种智能讲解机器人及讲解方法和系统 |
CN109270534A (zh) * | 2018-05-07 | 2019-01-25 | 西安交通大学 | 一种智能车激光传感器与相机在线标定方法 |
-
2019
- 2019-02-18 CN CN201910119415.3A patent/CN109765901A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103400392A (zh) * | 2013-08-19 | 2013-11-20 | 山东鲁能智能技术有限公司 | 基于变电站巡检机器人的双目视觉导航系统及方法 |
US20180181141A1 (en) * | 2016-12-28 | 2018-06-28 | H.P.B Optoelectronic Co., Ltd | Robot surveillance system |
CN109118542A (zh) * | 2017-06-22 | 2019-01-01 | 百度在线网络技术(北京)有限公司 | 激光雷达与相机之间的标定方法、装置、设备及存储介质 |
CN108151728A (zh) * | 2017-12-06 | 2018-06-12 | 华南理工大学 | 一种用于双目slam的半稠密认知地图创建方法 |
CN108214487A (zh) * | 2017-12-16 | 2018-06-29 | 广西电网有限责任公司电力科学研究院 | 基于双目视觉和激光雷达的机器人目标定位和抓取方法 |
CN109270534A (zh) * | 2018-05-07 | 2019-01-25 | 西安交通大学 | 一种智能车激光传感器与相机在线标定方法 |
CN108663681A (zh) * | 2018-05-16 | 2018-10-16 | 华南理工大学 | 基于双目摄像头与二维激光雷达的移动机器人导航方法 |
CN108932736A (zh) * | 2018-05-30 | 2018-12-04 | 南昌大学 | 二维激光雷达点云数据处理方法以及动态机器人位姿校准方法 |
CN108839055A (zh) * | 2018-05-31 | 2018-11-20 | 芜湖星途机器人科技有限公司 | 带自主导航的机器人 |
CN108983783A (zh) * | 2018-08-03 | 2018-12-11 | 上海有个机器人有限公司 | 一种机器人移动速度控制方法及系统、存储介质及终端 |
CN109129507A (zh) * | 2018-09-10 | 2019-01-04 | 北京联合大学 | 一种智能讲解机器人及讲解方法和系统 |
Non-Patent Citations (2)
Title |
---|
ROBOTDREAMSKY: "ROS机器人导航", 《ROBOTDREAMSKY HTTPS://WENKU.BAIDU.COM/VIEW/B70E5289B7360B4C2F3F6497.HTML?FROM=SEARCH》 * |
冯里千: "移动机器人自主探索环境定位导航技术的研究与实现", 《 中优秀国硕士学位论文全文数据库,信息科技辑》 * |
Cited By (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110108269A (zh) * | 2019-05-20 | 2019-08-09 | 电子科技大学 | 基于多传感器数据融合的agv定位方法 |
CN110108269B (zh) * | 2019-05-20 | 2023-01-17 | 电子科技大学 | 基于多传感器数据融合的agv定位方法 |
CN112129281A (zh) * | 2019-06-25 | 2020-12-25 | 南京航空航天大学 | 一种基于局部邻域地图的高精度图像导航定位方法 |
CN112129281B (zh) * | 2019-06-25 | 2022-02-22 | 南京航空航天大学 | 一种基于局部邻域地图的高精度图像导航定位方法 |
CN112230634A (zh) * | 2019-06-26 | 2021-01-15 | 北京海益同展信息科技有限公司 | 一种机器人避障方法和装置 |
CN112447065B (zh) * | 2019-08-16 | 2022-04-26 | 北京地平线机器人技术研发有限公司 | 一种轨迹规划方法及装置 |
CN112447065A (zh) * | 2019-08-16 | 2021-03-05 | 北京地平线机器人技术研发有限公司 | 一种轨迹规划方法及装置 |
CN110502019A (zh) * | 2019-09-06 | 2019-11-26 | 北京云迹科技有限公司 | 一种室内机器人的避障方法及装置 |
CN110726409A (zh) * | 2019-09-09 | 2020-01-24 | 杭州电子科技大学 | 一种基于激光slam和视觉slam地图融合方法 |
CN110726409B (zh) * | 2019-09-09 | 2021-06-22 | 杭州电子科技大学 | 一种基于激光slam和视觉slam地图融合方法 |
CN110609559A (zh) * | 2019-10-25 | 2019-12-24 | 江苏恒澄交科信息科技股份有限公司 | 用于无人船路径跟随和避障的改进dwa动态窗口法 |
CN111469127A (zh) * | 2020-04-14 | 2020-07-31 | 北京海益同展信息科技有限公司 | 代价地图更新方法、装置、机器人及存储介质 |
CN111469127B (zh) * | 2020-04-14 | 2022-06-07 | 京东科技信息技术有限公司 | 代价地图更新方法、装置、机器人及存储介质 |
CN111726591A (zh) * | 2020-06-22 | 2020-09-29 | 珠海格力电器股份有限公司 | 地图更新方法、装置、存储介质及电子设备 |
CN111726591B (zh) * | 2020-06-22 | 2021-11-23 | 珠海格力电器股份有限公司 | 地图更新方法、装置、存储介质及电子设备 |
CN111830977A (zh) * | 2020-07-02 | 2020-10-27 | 中国兵器科学研究院 | 一种移动机器人自主导航软件框架及导航方法 |
CN111830977B (zh) * | 2020-07-02 | 2024-06-18 | 中国兵器科学研究院 | 一种移动机器人自主导航软件框架及导航方法 |
CN111743464A (zh) * | 2020-07-06 | 2020-10-09 | 追创科技(苏州)有限公司 | 一种基于线激光的避障方法及装置 |
CN112180943A (zh) * | 2020-10-19 | 2021-01-05 | 山东交通学院 | 一种基于视觉图像和激光雷达的水下机器人导航避障方法 |
CN112363498A (zh) * | 2020-10-19 | 2021-02-12 | 山东交通学院 | 一种基于激光雷达的水下机器人智能运动控制方法 |
CN112286194A (zh) * | 2020-10-29 | 2021-01-29 | 广东杜尼智能机器人工程技术研究中心有限公司 | 代价地图区域划分方法 |
CN112286194B (zh) * | 2020-10-29 | 2022-05-17 | 广东杜尼智能机器人工程技术研究中心有限公司 | 代价地图区域划分方法 |
CN112294197A (zh) * | 2020-11-04 | 2021-02-02 | 深圳市普森斯科技有限公司 | 扫地机的清扫控制方法、电子装置及存储介质 |
CN112462768B (zh) * | 2020-11-25 | 2024-03-29 | 深圳拓邦股份有限公司 | 移动机器人导航地图的创建方法、装置及移动机器人 |
CN112462768A (zh) * | 2020-11-25 | 2021-03-09 | 深圳拓邦股份有限公司 | 移动机器人导航地图的创建方法、装置及移动机器人 |
CN112378408A (zh) * | 2020-11-26 | 2021-02-19 | 重庆大学 | 一种实现轮式移动机器人实时避障的路径规划方法 |
CN112486172A (zh) * | 2020-11-30 | 2021-03-12 | 深圳市普渡科技有限公司 | 道路边缘检测方法及机器人 |
WO2022111723A1 (zh) * | 2020-11-30 | 2022-06-02 | 深圳市普渡科技有限公司 | 道路边缘检测方法及机器人 |
CN112486172B (zh) * | 2020-11-30 | 2024-08-02 | 深圳市普渡科技有限公司 | 道路边缘检测方法及机器人 |
CN112506196A (zh) * | 2020-12-07 | 2021-03-16 | 合肥工业大学 | 基于先验知识的机器人避障方法和系统 |
WO2022127541A1 (zh) * | 2020-12-16 | 2022-06-23 | 北京极智嘉科技股份有限公司 | 一种机器人及定位方法 |
CN112489131A (zh) * | 2020-12-26 | 2021-03-12 | 上海有个机器人有限公司 | 基于路面检测构建代价地图的方法、装置、介质和机器人 |
CN112489131B (zh) * | 2020-12-26 | 2024-04-05 | 上海有个机器人有限公司 | 基于路面检测构建代价地图的方法、装置、介质和机器人 |
CN112817315A (zh) * | 2020-12-31 | 2021-05-18 | 江苏集萃智能制造技术研究所有限公司 | 一种动态环境下无人清洗车的避障方法及系统 |
CN112505723A (zh) * | 2021-02-03 | 2021-03-16 | 之江实验室 | 一种基于导航点选择的三维地图重建方法 |
CN112505723B (zh) * | 2021-02-03 | 2024-01-23 | 之江实验室 | 一种基于导航点选择的三维地图重建方法 |
CN113239520A (zh) * | 2021-04-16 | 2021-08-10 | 大连海事大学 | 一种近水底三维水下地形环境建模方法 |
CN113239520B (zh) * | 2021-04-16 | 2023-09-08 | 大连海事大学 | 一种近水底三维水下地形环境建模方法 |
CN113608532A (zh) * | 2021-07-29 | 2021-11-05 | 深圳市眼科医院 | 一种用于盲人出行的自动避障系统及其代步车 |
CN113520246A (zh) * | 2021-07-30 | 2021-10-22 | 珠海一微半导体股份有限公司 | 移动机器人补偿清洁方法及系统 |
CN115731360A (zh) * | 2021-08-31 | 2023-03-03 | 中科南京软件技术研究院 | 面向人机交互的栅格地图后处理表示方法 |
CN115731360B (zh) * | 2021-08-31 | 2024-10-15 | 中科南京软件技术研究院 | 面向人机交互的栅格地图后处理表示方法 |
CN113607162A (zh) * | 2021-10-09 | 2021-11-05 | 创泽智能机器人集团股份有限公司 | 一种基于三维地图的路径规划方法及设备 |
CN114194685A (zh) * | 2021-12-23 | 2022-03-18 | 山东新华医疗器械股份有限公司 | 码垛agv控制系统、方法及装置 |
CN115016464A (zh) * | 2022-05-13 | 2022-09-06 | 中山大学·深圳 | 一种微纳机器人路径规划与自动导航方法及系统 |
CN115016464B (zh) * | 2022-05-13 | 2024-09-27 | 中山大学·深圳 | 一种微纳机器人路径规划与自动导航方法及系统 |
CN115185266A (zh) * | 2022-06-14 | 2022-10-14 | 重庆大学 | 一种基于地形可通过性的机器人控制方法及系统 |
CN115406445A (zh) * | 2022-08-18 | 2022-11-29 | 四川华丰科技股份有限公司 | 多传感器数据融合处理方法及机器人避障方法 |
CN115406445B (zh) * | 2022-08-18 | 2024-05-17 | 四川华丰科技股份有限公司 | 多传感器数据融合处理方法及机器人避障方法 |
CN115775309A (zh) * | 2023-01-31 | 2023-03-10 | 中国电子科技集团公司第二十八研究所 | 面向三维空间的火力范围标记方法、装置 |
CN115775309B (zh) * | 2023-01-31 | 2023-04-04 | 中国电子科技集团公司第二十八研究所 | 面向三维空间的火力范围标记方法、装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109765901A (zh) | 基于线激光与双目视觉的动态代价地图导航方法 | |
CN108663681B (zh) | 基于双目摄像头与二维激光雷达的移动机器人导航方法 | |
CN111156998B (zh) | 一种基于rgb-d相机与imu信息融合的移动机器人定位方法 | |
Zhang et al. | Intelligent collaborative localization among air-ground robots for industrial environment perception | |
US11441899B2 (en) | Real time position and orientation tracker | |
EP3321888B1 (en) | Projected image generation method and device, and method for mapping image pixels and depth values | |
JP4794019B2 (ja) | 領域の3次元マップ表現を提供するための装置及び方法 | |
Maier et al. | Real-time navigation in 3D environments based on depth camera data | |
CN105354875B (zh) | 一种室内环境二维与三维联合模型的构建方法和系统 | |
Rovira-Más et al. | Creation of three-dimensional crop maps based on aerial stereoimages | |
Bruno et al. | Augmented reality visualization of scene depth for aiding ROV pilots in underwater manipulation | |
Wang et al. | Micro aerial vehicle navigation with visual-inertial integration aided by structured light | |
CN110202577A (zh) | 一种实现障碍物检测的自主移动机器人及其方法 | |
Jensen et al. | Laser range imaging using mobile robots: From pose estimation to 3d-models | |
CN114529585A (zh) | 基于深度视觉和惯性测量的移动设备自主定位方法 | |
Allotta et al. | Thesaurus project: Design of new autonomous underwater vehicles for documentation and protection of underwater archaeological sites | |
Lu et al. | 3-D location estimation of underwater circular features by monocular vision | |
CN116957360A (zh) | 一种基于无人机的空间观测与重建方法及系统 | |
Nagai et al. | Development of digital surface model and feature extraction by integrating laser scanner and CCD sensor with IMU | |
Orlov et al. | Machine vision system for autonomous agricultural vehicle | |
Bai et al. | Research on key technologies of meal delivery robot based on the fusion of lidar and machine vision | |
Brujic-Okretic et al. | Remote vehicle manoeuvring using augmented reality | |
Li et al. | Localization of leader-follower formations using kinect and RTK-GPS | |
Zhou et al. | A multi-binocular camera-based localization method for amphibious spherical robots | |
Li et al. | Geodetic coordinate calculation based on monocular vision on UAV platform |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190517 |