CN115972217B - 基于单目相机的地图建立方法和机器人 - Google Patents
基于单目相机的地图建立方法和机器人 Download PDFInfo
- Publication number
- CN115972217B CN115972217B CN202310271896.6A CN202310271896A CN115972217B CN 115972217 B CN115972217 B CN 115972217B CN 202310271896 A CN202310271896 A CN 202310271896A CN 115972217 B CN115972217 B CN 115972217B
- Authority
- CN
- China
- Prior art keywords
- map
- grid
- confidence
- robot
- environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000000007 visual effect Effects 0.000 claims abstract description 7
- 230000007613 environmental effect Effects 0.000 claims description 33
- 230000004927 fusion Effects 0.000 claims description 31
- 238000004891 communication Methods 0.000 claims description 16
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 238000010276 construction Methods 0.000 claims description 6
- 238000012216 screening Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 abstract description 11
- 238000010586 diagram Methods 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 8
- 230000006870 function Effects 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 230000005021 gait Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 230000003416 augmentation Effects 0.000 description 2
- 238000007621 cluster analysis Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 241000270295 Serpentes Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000009193 crawling Effects 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002572 peristaltic effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009182 swimming Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
本申请公开一种基于单目相机的地图建立方法和机器人,涉及机器人技术领域,旨在解决如何提升机器人建立地图的准确性的技术问题。基于单目相机的地图建立方法包括:响应于地图建立指令,获取单目相机采集的目标环境对应的环境图像,目标环境与单目相机在周围环境中的视野范围相对应,目标环境中包括多个区域;根据环境图像获取目标环境中多个区域各自对应的区域数据;基于多个区域各自对应的区域数据建立周围环境对应的栅格地图;根据多个区域和机器人的位置关系,生成栅格地图对应的置信度地图;根据栅格地图和置信度地图,建立机器人所在的周围环境对应的目标地图。
Description
技术领域
本申请涉及机器人技术领域,具体涉及基于单目相机的地图建立方法和机器人。
背景技术
机器人在移动时需要了解周围环境的障碍物信息,根据障碍物信息来规避障碍物。通常是在机器人上布置深度传感器,机器人利用深度传感器采集的深度信息来获取周围环境的障碍物信息,将障碍物信息更新到地图中。然而,深度传感器容易受环境光照、物体表面颜色和材质等因素的影响,导致周围环境的部分区域没有深度信息,使得该区域被认定为未知区域,机器人无法识别到该区域的障碍物信息,从而造成机器人建立的地图出现错误。
发明内容
本申请提供基于单目相机的地图建立方法和机器人,旨在解决如何提升机器人建立地图的准确性的技术问题。
本申请第一方面提供一种基于单目相机的地图建立方法,方法应用于机器人,机器人安装有至少一个单目相机,方法包括:响应于地图建立指令,获取单目相机采集的目标环境对应的环境图像,目标环境与单目相机在周围环境中的视野范围相对应,目标环境中包括多个区域;根据环境图像获取目标环境中多个区域各自对应的区域数据;基于多个区域各自对应的区域数据建立周围环境对应的栅格地图;根据多个区域和机器人的位置关系,生成栅格地图对应的置信度地图;根据栅格地图和置信度地图,建立机器人所在的周围环境对应的目标地图。
采用本实施例的基于单目相机的地图建立方法,首先获取单目相机采集的目标环境对应的环境图像,然后根据环境图像获取目标环境中多个区域各自对应的区域数据,再基于多个区域各自对应的区域数据建立周围环境对应的栅格地图,并根据多个区域和机器人的位置关系,生成栅格地图对应的置信度地图,接着根据栅格地图和置信度地图,建立机器人所在的周围环境对应的目标地图。机器人通过单目相机来采集目标环境对应的环境图像,采集的环境图像不易受环境干扰,从而提升机器人识别障碍物信息的准确性,进而提高机器人建立地图的准确性。而且,单目相机构造简单、成本低廉,可节省机器人的生产成本。机器人先后建立周围环境对应的栅格地图和置信度地图,并结合栅格地图和置信度地图建立机器人所在的周围环境对应的目标地图,使目标地图同时包含栅格地图和置信度地图的信息,由此能够提升机器人建立地图的准确性。
本申请第二方面提供一种机器人,机器人包括:机身;设置在机身上的至少一个单目相机;以及与机身通信的控制系统,控制系统包括处理器和与处理器通信的存储器,存储器存储指令,指令在处理器上被运行时使处理器执行操作,操作包括:响应于地图建立指令,获取单目相机采集的目标环境对应的环境图像,目标环境与单目相机在周围环境中的视野范围相对应,目标环境中包括多个区域;根据环境图像获取目标环境中多个区域各自对应的区域数据;基于多个区域各自对应的区域数据建立周围环境对应的栅格地图;根据多个区域和机器人的位置关系,生成栅格地图对应的置信度地图;根据栅格地图和置信度地图,建立机器人所在的周围环境对应的目标地图。
可以理解,本申请第二方面提供的机器人的具体实施方式和有益效果均与本申请第一方面提供的基于单目相机的地图建立方法的具体实施方式和有益效果大致相同,此处不再赘述。
附图说明
图1是本申请一种实施例提供的应用场景示意图。
图2是本申请一种实施例提供的机器人的结构框图。
图3是本申请一种实施例提供的单目相机的部署示意图。
图4是本申请一种实施例提供的机器人的硬件结构示意图。
图5是本申请一种实施例提供的机器人的机械结构示意图。
图6是本申请一种实施例提供的基于单目相机的地图建立方法的流程图。
图7是本申请一种实施例提供的机器人识别接地线的示意图。
图8为本申请另一种实施例提供的机器人识别接地线的示意图。
图9是本申请一种实施例提供的机器人更新目标地图的示意图。
图10是本申请一种实施例提供的根据环境图像获取目标环境中多个区域各自对应的区域数据的流程图。
图11是本申请另一种实施例提供的根据环境图像获取目标环境中多个区域各自对应的区域数据的流程图。
图12是本申请另一种实施例提供的基于单目相机的地图建立方法的流程图。
具体实施方式
需要说明的是,本申请实施例中“至少一个”是指一个或者多个,“多个”是指两个或多于两个。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B可以表示:单独存在A,同时存在A和B,单独存在B的情况,其中A,B可以是单数或者复数。本申请的说明书和权利要求书及附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不是用于描述特定的顺序或先后次序。
另外需要说明的是,本申请实施例中公开的方法或流程图所示出的方法,包括用于实现方法的一个或多个步骤,在不脱离权利要求的范围的情况下,多个步骤的执行顺序可以彼此互换,其中某些步骤也可以被删除。
下面对本申请实施例的应用场景进行说明。
图1是本申请一种实施例提供的应用场景示意图。
可参阅图1,机器人100首先位于A位置,通过单目相机采集A位置周围的障碍物信息来建立第一地图10。接着,机器人100根据第一地图10规划移动路径。然后,机器人100依照规划的移动路径从A位置移动到B位置。当位于B位置时,机器人100可以再通过单目相机采集B位置周围的障碍物信息来建立第二地图20。机器人100通过采集其所在位置周围的障碍物信息来建立地图,再根据地图规划移动路径,从而规避障碍物。
目前,通常是在机器人上布置深度传感器,例如主动双目相机或被动双目相机。机器人利用深度传感器采集的深度信息来获取周围环境的障碍物信息,然后根据障碍物信息来建立地图。然而,深度传感器容易受环境光照、物体表面颜色和材质等因素的影响,导致周围环境的部分区域没有深度信息,使得该区域被认定为未知区域,机器人无法识别到该区域的障碍物信息,从而造成机器人建立的地图可能出现错误。
基于此,本申请实施例提供基于单目相机的地图建立方法和机器人,首先获取单目相机采集的目标环境对应的环境图像,然后根据环境图像获取目标环境中多个区域各自对应的区域数据,再基于多个区域各自对应的区域数据建立周围环境对应的栅格地图,并根据多个区域和机器人的位置关系,生成栅格地图对应的置信度地图,接着根据栅格地图和置信度地图,建立机器人所在的周围环境对应的目标地图。机器人通过单目相机来采集目标环境对应的环境图像,采集的环境图像不易受环境干扰,从而提升机器人识别障碍物信息的准确性,进而提高机器人建立地图的准确性。而且,单目相机构造简单、成本低廉,可节省机器人的生产成本。机器人先后建立周围环境对应的栅格地图和置信度地图,并结合栅格地图和置信度地图建立机器人所在的周围环境对应的目标地图,使目标地图同时包含栅格地图和置信度地图的信息,由此能够提升机器人建立地图的准确性。
下面对本申请实施例的机器人进行说明。
图2是本申请一种实施例提供的机器人100的结构框图。
可参阅图2,机器人100可以包括机身110,设置在机身110上的至少一个单目相机130;以及与机身110通信的控制系统120,控制系统120包括处理器121和与处理器121通信的存储器122,存储器122存储指令,指令在处理器121上被运行时使处理器121执行操作,操作包括:响应于地图建立指令,获取单目相机130采集的目标环境对应的环境图像。目标环境与单目相机130在周围环境中的视野范围相对应。目标环境中包括多个区域。根据环境图像获取目标环境中多个区域各自对应的区域数据。基于多个区域各自对应的区域数据建立周围环境对应的栅格地图。根据多个区域和机器人的位置关系,生成栅格地图对应的置信度地图。根据栅格地图和置信度地图,建立机器人100所在的周围环境对应的目标地图。
在本实施例中,机器人100可首先通过至少一个单目相机130来采集目标环境对应的至少一帧环境图像,再通过处理器121从至少一个单目相机130获取至少一帧环境图像,然后根据至少一帧环境图像获取目标环境中多个区域各自对应的区域数据,再基于多个区域各自对应的区域数据建立周围环境对应的栅格地图,并根据多个区域和机器人100的位置关系,生成栅格地图对应的置信度地图,接着根据栅格地图和置信度地图,建立机器人100所在的周围环境对应的目标地图。
单目相机130可拆卸或固定安装于机器人100的机身上。在一些实施例中,可参阅图3,图3是本申请一种实施例提供的单目相机130的部署示意图。如图3所示,机器人100可以包括四个单目相机130,四个单目相机130分别部署在机器人100机身的前、后、左、右四个方向上。每个单目相机130均可采集相应方向上目标环境对应的环境图像。其中,目标环境与单目相机130在周围环境中的视野范围相对应。例如,四个单目相机130的目标环境分别为目标环境1、目标环境2、目标环境3以及目标环境4。
可以理解,本申请实施例示意的结构并不构成对机器人100的具体限定。在另一些实施例中,机器人100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
举例而言,可一并参阅图4和图5,图4是本申请一种实施例提供的机器人300的硬件结构示意图,图5是本申请一种实施例提供的机器人300的机械结构示意图。
机器人300可以是多种形态机器人中的任何一种,具体包括但不限于轮式机器人、足式机器人、履带式机器人、爬行机器人、蠕动式机器人或者游动式机器人等中的至少一种,例如机器人300具体可以是足式机器人,也可以是足式与轮式相结合的机器人。其中,足式机器人包括单足机器人、双足机器人或者多足机器人。多足机器人是指具有三个足或者三个以上的足式机器人,例如多足机器人具体可以是四足机器人。机器人是指一种能够半自主或全自主执行工作的机器,机器人并不限定于人形的机器装置,还可以包括例如狗形、马形、蛇形、鱼形或者猿形等构型的机器人,例如机器人具体可以是一种四足的机器马。如图4所示,机器人300包括机械单元301、通讯单元302、传感单元303、接口单元304、存储单元305、显示单元306、输入单元307、控制模块308及电源309。机器人300的各种部件可以任何方式连接,包括有线或无线连接等。
可以理解,图3中示出的机器人300的具体结构并不构成对机器人300的限定,机器人300可以包括比图示更多或更少的部件,某些部件也并不属于机器人300的必须构成,完全可以根据需要在不改变申请的本质的范围内而省略,或者组合某些部件。
下面结合图4和图5对机器人300的各个部件进行具体介绍。
机械单元301为机器人300的硬件。如图4所示,机械单元301可包括驱动板3011、电动机3012、机械结构3013。
如图5所示,机械结构3013可包括机身3014、可伸展的腿部3015、足端3016、可转动的头部结构3017、可摇动的尾巴结构3018、载物结构3019、鞍座结构3020、摄像头结构3021,在其他实施方式中,机械结构3013还可包括可伸展的机械臂(图未示)等。
需要说明的是,机械单元301的各个部件模块可以为一个也可以为多个,可根据具体情况设置,比如腿部3015可为4个,每个腿部3015可配置3个电动机3012,对应的电动机3012为12个。
通讯单元302可用于信号的接收和发送,还可以通过与网络和其他设备通信,比如,接收遥控器或其他机器人30发送的按照特定步态以特定速度值向特定方向移动的指令信息后,传输给控制模块308处理。通讯单元302包括如WiFi模块、4G模块、5G模块、蓝牙模块、红外模块等。
传感单元303用于获取机器人300周围环境的信息数据以及监控机器人300内部各部件的参数数据,并发送给控制模块308。传感单元303包括多种传感器,如获取周围环境信息的传感器:单目相机、激光雷达(用于远程物体检测、距离确定和/或速度值确定)、毫米波雷达(用于短程物体检测、距离确定和/或速度值确定)、全球导航卫星系统(GNSS,GlobalNavigation Satellite System)等。如监控机器人300内部各部件的传感器:惯性测量单元(IMU,Inertial Measurement Unit)(用于测量速度值、加速度值和角速度值的值)、足底传感器(用于监测足底着力点位置、足底姿态、触地力大小和方向)、温度传感器(用于检测部件温度)等。至于机器人300还可配置的载荷传感器、触摸传感器、电动机角度传感器、扭矩传感器等其他传感器,在此不再赘述。
接口单元304可以用于接收来自外部装置的输入(例如,数据信息、电力等)并且将接收到的输入传输到机器人300内的一个或多个部件,或者可以用于向外部装置输出(例如,数据信息、电力等)。接口单元304可包括电源端口、数据端口(如USB端口)、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口等。
存储单元305用于存储软件程序以及各种数据。存储单元305可主要包括程序存储区和数据存储区,其中,程序存储区可存储操作系统程序、运动控制程序、应用程序(比如文本编辑器)等;数据存储区可存储机器人300在使用中所生成的数据(比如传感单元303获取的各种传感数据,日志文件数据)等。此外,存储单元305可以包括高速随机存取存储器,还可以包括非易失性存储器,例如磁盘存储器、闪存器、或其他易失性固态存储器。
显示单元306用于显示由用户输入的信息或提供给用户的信息。显示单元306可包括显示面板3061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode, OLED)等形式来配置显示面板3061。
输入单元307可用于接收输入的数字或字符信息。具体地,输入单元307可包括触控面板3071以及其他输入设备3072。触控面板3071,也称为触摸屏,可收集用户的触摸操作(比如用户使用手掌、手指或适合的附件在触控面板3071上或在触控面板3071附近的操作),并根据预先设定的程序驱动相应的连接装置。触控面板3071可包括触摸检测装置3073和触摸控制器3074两个部分。其中,触摸检测装置3073检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器3074;触摸控制器3074从触摸检测装置3073上接收触摸信息,并将它转换成触点坐标,再送给控制模块308,并能接收控制模块308发来的命令并加以执行。除了触控面板3071,输入单元307还可以包括其他输入设备3072。具体地,其他输入设备3072可以包括但不限于遥控操作手柄等中的一种或多种,具体此处不做限定。
进一步的,触控面板3071可覆盖显示面板3061,当触控面板3071检测到在其上或附近的触摸操作后,传送给控制模块308以确定触摸事件的类型,随后控制模块308根据触摸事件的类型在显示面板3061上提供相应的视觉输出。虽然在图4中,触控面板3071与显示面板3061是作为两个独立的部件来分别实现输入和输出功能,但是在某些实施例中,可以将触控面板3071与显示面板3061集成而实现输入和输出功能,具体此处不做限定。
控制模块308是机器人300的控制中心,利用各种接口和线路连接整个机器人300的各个部件,通过运行或执行存储在存储单元305内的软件程序,以及调用存储在存储单元305内的数据,从而对机器人300进行整体控制。
电源309用于给各个部件供电,电源309可包括电池和电源控制板,电源控制板用于控制电池充电、放电、以及功耗管理等功能。在图4所示的实施方式中,电源309电连接控制模块308,在其它的实施方式中,电源309还可以分别与传感单元303(比如摄像头、雷达、音箱等)、电动机3012电性连接。需要说明的是,各个部件可以各自连接到不同的电源309,或者由相同的电源309供电。
在一些实施例中,控制终端可控制机器人300。具体地,控制终端与机器人300进行通信连接,在控制终端与机器人300进行通信时,控制终端可以向机器人300发送控制指令,机器人300可通过通讯单元302来接收控制指令,并可在接收到控制指令的情况下,将控制指令传输至控制模块308,使得控制模块308可根据控制指令来实现相应的功能。控制终端包括,但不限于:具备图像拍摄功能的手机、平板电脑、服务器、个人计算机、可穿戴智能设备、其它电器设备。
控制指令可以根据预设条件来确定。在一种实施方式中,机器人300可以包括传感单元303,传感单元303根据机器人300所在的当前环境可生成控制指令。控制模块308可根据控制指令来判断机器人300的当前速度值是否满足对应的预设条件。若满足预设条件,则会保持机器人300的当前速度值和当前步态移动。若不满足预设条件,则会根据对应的预设条件来确定目标速度值和相应的目标步态,从而可控制机器人300以目标速度值和相应的目标步态移动。传感单元303与控制模块308之间的通信方式可以为有线通信,也可以为无线通信。无线通信的方式包括,但不限于:无线网络、移动通信网络(3G、4G、5G等)、蓝牙、红外。
可以理解,机器人300能够实现本申请实施例的基于单目相机的地图建立方法。
下面以图2所示的机器人100为例对本申请实施例的基于单目相机的地图建立方法进行说明。
图6是本申请一种实施例提供的基于单目相机的地图建立方法的流程图。
可参阅图6,基于单目相机的地图建立方法应用于机器人100,机器人100安装有至少一个单目相机130,该方法具体可包括如下步骤:
S601,响应于地图建立指令,获取单目相机130采集的目标环境对应的环境图像,目标环境与单目相机130在周围环境中的视野范围相对应,目标环境中包括多个区域。
其中,地图建立指令用于指示机器人100建立机器人100所在的周围环境对应的目标地图。目标地图为机器人100基于周围环境实时建立的局部地图,机器人100在移动过程中,除了可以根据全局地图规划全局路径以外,还可以实时建立周围环境对应的局部地图,局部地图可以用于确定当前时刻下周围环境中的实时环境信息,引导机器人100执行避障等任务。其中,实时可以是根据实际应用需求确定的预设频率,在机器人100移动的同时采集环境图像进行建图。
在本实施例中,机器人100通过单目相机130来采集目标环境对应的环境图像,采集的环境图像不易受环境干扰,可提升机器人100识别障碍物信息的准确性,进而提高机器人100建立地图的准确性。而且,单目相机130构造简单、成本低廉,可节省机器人100的生产成本。
可以理解,机器人100所在的周围环境是指机器人100周围360度方向范围的环境,单目相机130采集的目标环境是指在单目相机130视野范围内的环境。周围环境可包括至少一个目标环境,例如,如图3所示,周围环境可包括四个目标环境。机器人100可将目标环境划分为多个区域,区域可包括至少一个栅格。区域的划分方式可依需而设,例如依照环境类型(例如人行道、草地、马路等)或者语义划分。
在本实施例中,用户可通过机器人100的输入模块或语音模块向机器人100输入地图建立指令。机器人100可接收地图建立指令,然后响应于地图建立指令,通过至少一个单目相机130采集目标环境对应的至少一帧环境图像。
在一些实施例中,用户可通过触发控制终端的地图建立控件来生成地图建立指令。其中,控制终端与机器人100通信连接。控制终端向机器人100发送地图建立指令。机器人100在接收地图建立指令之后,响应于地图建立指令,通过至少一个单目相机130采集目标环境对应的至少一帧环境图像。
在其他实施例中,机器人100还可以自主生成地图建立指令,然后响应于地图建立指令,通过至少一个单目相机130采集目标环境对应的至少一帧环境图像。
可以理解,机器人100可以在自主生成或接收一次地图建立指令之后,循环重复建立实时局部地图。机器人100也可以循环重复生成或接收地图建立指令,每次地图建立指令可指示机器人100建立周围环境的局部地图。
S602,根据环境图像获取目标环境中多个区域各自对应的区域数据。
其中,区域可包括至少一个栅格,区域数据是指与区域相关的环境数据,例如具体可包括区域类型和区域高程中的至少一种。区域类型包括可通行区域和不可通行区域中的一种,不可通行区域包括障碍物区域和未知区域中的一种。区域高程为区域对应的高程值。在一些实施例中,区域高程包括可通行区域对应的高程值或障碍物区域对应的高程值。在另一些实施例中,区域高程包括各个区域的实际高程值。
在本实施例中,机器人100在获取至少一帧环境图像之后,可通过图像识别模型从环境图像中识别目标环境中多个区域各自对应的区域数据。
可以理解,图像识别模型可通过特征比对识别出图像中的目标特征,其中,目标特征为区域数据对应的特征。机器人100可存储区域数据和目标特征的对应关系。机器人100在将图像输入到图像识别模型之后,图像识别模型可判断各区域是否存在目标特征,若区域存在目标特征,则输出目标特征。然后机器人100可基于图像识别模型输出的目标特征以及区域数据和目标特征的对应关系识别出对应的区域数据。例如,目标特征为区域类型对应的特征,机器人100可基于图像识别模型输出的目标特征以及区域类型和目标特征的对应关系识别出区域类型。又例如,目标特征为区域高程对应的特征,机器人100可基于图像识别模型输出的目标特征以及区域高程和目标特征的对应关系识别出区域高程。图像识别模型可包括神经网络模型。
在一些实施例中,目标特征可为二维图像特征,机器人100在从图像识别模型获取二维图像特征之后,通过坐标系转换将二维图像特征转换成三维地图特征,再基于三维地图特征识别出区域数据。在另一些实施例中,目标特征也可为三维地图特征,机器人100在从图像识别模型获取三维地图特征之后,可直接基于三维地图特征识别出区域数据。
举例而言,图像识别模型可为接地线识别模型,接地线识别模型可从环境图像中识别接地线。接地线为地面与障碍物的交线。可参阅图7,图7是本申请一种实施例提供的机器人100识别接地线的示意图。如图7所示,机器人100位于A位置,首先通过单目相机130采集目标环境对应的环境图像,然后通过接地线识别模型从环境图像中识别出接地线501,接地线501为地面与障碍物502的交线。接地线501为直线段,接地线501的两端点与A位置点连接构成的三角形区域为可通行区域503。
又例如,可参阅图8,图8为本申请另一种实施例提供的机器人100识别接地线的示意图。如图8所示,机器人100通过单目相机130采集目标环境对应的环境图像,然后通过接地线识别模型从环境图像中识别出接地线601。接地线601为折线段,接地线601的两端点与机器人100所在的位置点连接构成的不规则区域为可通行区域602。
S603,基于多个区域各自对应的区域数据建立周围环境对应的栅格地图。
在本实施例中,栅格地图中可呈现各个区域对应的区域高程。机器人100在识别出目标环境中各个区域对应的区域高程之后,根据各个区域对应的区域高程建立栅格地图。例如,机器人100识别出各个区域对应的区域高程为h0或h1,h0为可通行区域对应的高程,h1为障碍物区域对应的高程,栅格地图中可呈现多个区域各自对应的区域高程为h0或h1。又例如,机器人100识别出各个区域对应的区域高程为实际高程值,栅格地图中呈现多个区域各自对应的实际高程值。
在一些实施例中,栅格地图可呈现各个区域对应的区域类型。机器人100在识别出目标环境中各个区域对应的区域类型之后,可标记各个区域对应的区域类型,然后根据各个区域对应的区域类型建立栅格地图。例如,机器人100将可通行区域标记为0,将不可通行区域标记为1,栅格地图可呈现多个区域各自对应的区域类型的标记为0或1。
S604,根据多个区域和机器人100的位置关系,生成栅格地图对应的置信度地图。
在本实施例中,机器人100在建立周围环境对应的栅格地图之后,根据多个区域和机器人100的位置关系获取栅格地图中各个栅格对应的距离置信度,再根据各个栅格对应的距离置信度生成栅格地图对应的置信度地图。其中,区域与栅格地图中的至少一个栅格相对应。置信度地图的大小与栅格地图的大小相同,置信度地图包括栅格地图中各个栅格对应的距离置信度。距离置信度可用于表征机器人100识别到的区域与真实环境相一致的概率。
在一种实施例中,置信度地图呈现各栅格对应的栅格类型和距离置信度,栅格类型可包括可通行栅格和不可通行栅格中的一种。若栅格对应的栅格类型为可通行栅格(或不可通行栅格),栅格对应的距离置信度越大,可说明该栅格为真实可通行栅格(或真实不可通行栅格)的概率越大。
在另一种实施例中,置信度地图仅呈现各栅格对应的距离置信度。机器人100可根据栅格类型和距离置信度的对应关系从置信度地图中确定各栅格对应的栅格类型。其中,栅格类型和距离置信度的对应关系可依需而设。例如,栅格对应的距离置信度越大,可确定该栅格为可通行栅格的概率越大。又例如,栅格对应的距离置信度越大,可确定该栅格为不可通行栅格的概率越大。
S605,根据栅格地图和置信度地图,建立机器人100所在的周围环境对应的目标地图。
在本实施例中,机器人100在建立栅格地图对应的置信度地图之后,可从置信度地图中查询各个栅格的距离置信度,根据距离置信度和栅格地图确定栅格数据,根据各个栅格对应的栅格数据更新栅格地图,从而生成机器人100所在的周围环境对应的目标地图。其中,栅格数据是与栅格相关的环境数据,例如,栅格数据可包括栅格类型和栅格高程中的至少一种,栅格类型包括可通行栅格或不可通行栅格,栅格高程包括可通行栅格对应的高程或不可通行栅格对应的高程。目标地图包括各个栅格对应的栅格数据。目标地图结合栅格地图和置信度地图,相对于栅格地图具有更高的准确性。
在一些实施例中,根据距离置信度和栅格地图确定栅格数据可包括:根据栅格对应的距离置信度和栅格数据的对应关系确定栅格对应的新的栅格数据;使用新的栅格数据替换栅格地图中栅格对应的栅格数据。在另一些实施例中,在根据栅格对应的距离置信度和栅格数据的对应关系确定栅格对应的栅格数据之前,可判断栅格对应的距离置信度是否大于或等于距离置信度阈值。若栅格对应的距离置信度大于或等于距离置信度阈值,则根据栅格对应的距离置信度和栅格数据的对应关系确定栅格对应的栅格数据。其中,距离置信度阈值可依需而设。
可以理解,距离置信度与栅格数据相对应。
举例而言,机器人100可通过如下公式(1)确定栅格的距离置信度对应的栅格高程:
可以理解,距离置信度阈值可依需而设。例如,假设距离置信度阈值。当一个栅格的距离置信度/>时,/>,栅格高程/>,说明该栅格为不可通行栅格。当一个栅格的距离置信度时,/>,栅格高程/>,说明该栅格为可通行栅格。
又例如,机器人100可通过如下公式(2)确定栅格的距离置信度对应的栅格类型:
可以理解,距离置信度阈值可依需而设。例如,假设距离置信度阈值。当一个栅格的距离置信度/>时,/>,栅格类型/>,说明该栅格为不可通行栅格。当一个栅格的距离置信度时,/>,栅格类型/>,说明该栅格为可通行栅格。
在本实施例中,机器人100先后建立周围环境对应的栅格地图和置信度地图,并结合栅格地图和置信度地图建立机器人100所在的周围环境对应的目标地图,机器人100通过单目相机130来采集目标环境对应的环境图像,采集的环境图像不易受环境干扰,从而提升机器人100识别障碍物信息的准确性,进而提高机器人100建立地图的准确性。而且,单目相机130构造简单、成本低廉,可节省机器人100的生产成本。机器人100先后建立周围环境对应的栅格地图和置信度地图,并结合栅格地图和置信度地图建立机器人100所在的周围环境对应的目标地图,使目标地图同时包含栅格地图和置信度地图的信息,由此能够提升机器人100建立地图的准确性。
在一些实施例中,机器人100根据多个区域和机器人100的位置关系,生成栅格地图对应的置信度地图,可以包括:根据多个区域和机器人100的位置关系,确定多个区域分别与机器人100之间的区域距离。再根据区域距离确定栅格地图中各个栅格对应的距离置信度,区域与栅格地图中的至少一个栅格相对应。然后基于各个栅格对应的距离置信度生成栅格地图对应的置信度地图。
可以理解,单目相机130采集的环境图像具有“近大远小”的特点,即近处物体在图像上更大,远处的物体在图像上更小,近处分辨率高,远处分辨率低。因此,距离置信度与区域距离的大小呈现负相关的关系。区域和机器人位置之间的区域距离越小,则距离置信度越大。
举例而言,机器人100可根据不同的区域距离范围设置相应的距离置信度。例如,机器人100可通过如下公式(3)计算距离置信度:
可以理解,距离阈值和距离置信度系数可依需而设。
例如,假设距离阈值、/>和/>分别为3m、5m和7m,距离置信度系数和/>分别为0.2和0.4。当一个区域的区域距离/>为2m时,/>,机器人100可计算得到该区域对应的距离置信度/>。当一个区域的区域距离/>为4m时,/>,机器人100可计算得到该区域对应的距离置信度/>。当一个区域的区域距离/>为6m时,,机器人100可计算得到该区域对应的距离置信度。当一个区域的区域距离/>为8m时,/>,机器人100可计算得到该区域对应的距离置信度/>。
在其他实施例中,距离置信度还可以设置为不同区域距离范围对应的固定值。例如,当区域距离为时,距离置信度为0.8;当区域距离为时,距离置信度为0.5;当区域距离为/>时,距离置信度为0.2;当区域距离为/>时,距离置信度为0。
在其中一种实施例中,机器人100基于各个栅格对应的距离置信度生成栅格地图对应的置信度地图,可以包括:获取各个栅格对应的至少两个距离置信度,至少两个距离置信度是基于单目相机130采集的至少两帧环境图像得到的。根据至少两帧环境图像标记各个栅格对应的采集次数。然后根据各个栅格对应的采集次数确定各个栅格对应的采集置信度。接着基于各个栅格对应的至少两个距离置信度,以及各个栅格对应的采集置信度,生成栅格地图对应的置信度地图。
在本实施例中,对于目标环境中单个区域而言,机器人100可从每一帧环境图像中获取单个区域对应的区域位置,再结合机器人位置,计算出单个区域与机器人100之间的区域距离。机器人100从多帧环境图像计算出同一个区域与机器人100之间的多个区域距离之后,可根据多个区域距离分别计算栅格地图中同一个栅格对应的多个距离置信度。例如,机器人100可通过公式(3)计算单个栅格对应的距离置信度。
机器人100可根据每一帧环境图像的采集时间统计包括单个栅格的环境图像的采集次数。不同的环境图像可以包括相同或不同的栅格。例如,假设环境图像A包括栅格A和栅格B,环境图像B包括栅格A和栅格C,环境图像A和环境图像B不同,栅格A、栅格B和栅格C均不同。机器人100可从两帧环境图像统计出栅格A、栅格B和栅格C对应的采集次数分别为2、1、1。
可以理解,栅格对应的采集置信度与采集次数呈现正相关的关系。采集置信度可用于表征机器人100通过单目相机130采集到单个栅格的概率。
机器人100在统计出各个栅格对应的采集次数之后,可根据采集次数与采集置信度的对应关系确定多个栅格各自对应的采集置信度。例如,一个栅格对应的采集次数为1,其对应的采集置信度为0.2。又例如,一个栅格对应的采集次数为2,其对应的采集置信度为0.3。又例如,一个栅格对应的采集次数为4,其对应的采集置信度为0.5。
在其中一种实施例中,机器人100基于各个栅格对应的至少两个距离置信度,以及各个栅格对应的采集置信度,生成栅格地图对应的置信度地图,可以包括:基于各个栅格对应的至少两个距离置信度,以及各个栅格对应的采集置信度,计算得到各个栅格对应的至少两个融合置信度。然后对各个栅格对应的至少两个融合置信度进行置信度统计,得到各个栅格对应的目标置信度。再根据各个栅格对应的目标置信度生成栅格地图对应的置信度地图。
在本实施例中,机器人100在获取多个栅格各自对应的多个距离置信度和采集置信度之后,可结合各个栅格对应的多个距离置信度和采集置信度,计算多个栅格各自对应的多个融合置信度。融合置信度可用于表征机器人100识别到障碍物的概率。融合置信度取值越大,说明机器人100识别到障碍物的概率越高。融合置信度结合距离置信度和采集置信度,相对于距离置信度具有更高的准确性。
举例而言,机器人100可通过如下公式(4)计算栅格对应的融合置信度:
可以理解,目标环境中栅格可包括可通行栅格和不可通行栅格,不可通行栅格可包括障碍物栅格或未知栅格。假设可通行栅格对应的高程为h0,不可通行栅格对应的高程为h1。机器人100可先从栅格地图查询单个栅格对应的栅格高程,再结合距离置信度和采集置信度计算栅格对应的融合置信度。具体而言,当一个栅格的栅格高程为h1时,融合置信度为距离置信度和采集置信度乘积的正值。当一个栅格的栅格高程为h0时,融合置信度为距离置信度和采集置信度乘积的负值。对于不可通行栅格而言,采集次数越多,采集置信度越大,计算出的融合置信度也越大。对于可通行栅格而言,采集次数越多,采集置信度越大,计算出的融合置信度越小。
又例如,机器人100可通过如下公式(5)计算栅格对应的融合置信度:
在其他实施例中,机器人100可先从栅格地图查询单个栅格对应的栅格类型,再结合距离置信度和采集置信度计算栅格对应的融合置信度。具体而言,当一个栅格的栅格类型为不可通行栅格时,融合置信度可为距离置信度和采集置信度乘积加上一个常数。当一个栅格的栅格类型为可通行栅格时,融合置信度为距离置信度和采集置信度乘积减去一个常数。
对于单个栅格而言,机器人100在计算出单个栅格对应的多个融合置信度之后,根据多个融合置信度确定目标置信度。目标置信度为单个栅格对应的多个融合置信度的统计值。举例而言,机器人100计算出一个栅格对应的3个融合置信度为0.2、0.3、0.4,再计算出3个融合置信度的平均值为0.3,可将平均值0.3作为该栅格对应的目标置信度。
在一些实施例中,机器人100根据栅格地图和置信度地图,建立机器人100所在的周围环境对应的目标地图,可以包括:根据置信度地图中的目标置信度确定各个栅格对应的栅格类型,栅格类型包括可通行栅格或不可通行栅格。再获取与栅格类型相对应的栅格数据。然后基于栅格数据对栅格地图进行更新,建立机器人所在的周围环境对应的目标地图。
在本实施例中,机器人100在建立栅格地图对应的置信度地图之后,可从置信度地图中查询各个栅格的目标置信度,根据目标置信度和栅格地图确定栅格数据,根据各个栅格对应的栅格数据更新栅格地图,从而生成机器人100所在的周围环境对应的目标地图。其中,栅格数据是与栅格相关的环境数据,例如,栅格数据可包括栅格类型和栅格高程中的至少一种,栅格类型包括可通行栅格或不可通行栅格,栅格高程包括可通行栅格对应的高程或不可通行栅格对应的高程。目标地图包括各个栅格对应的栅格数据。目标地图结合栅格地图和置信度地图,相对于栅格地图具有更高的准确性。
在一些实施例中,机器人100在建立周围环境对应的目标地图之后,可响应于路径规划指令,从目标地图中获取多个区域各自对应的区域类型和区域置信度,根据多个区域各自对应的区域类型和区域置信度筛选期望通行区域,基于期望通行区域确定期望路径,根据期望路径控制机器人100移动。
其中,路径规划指令用于控制机器人100规划期望路径。路径规划指令的触发方式与步骤S601中地图建立指令的触发方式相同,此处不再赘述。
可以理解,机器人100在建立机器人100所在的周围环境对应的目标地图之后,可基于目标地图规划期望路径,期望通行区域和期望路径分别是指机器人可以优先决策通行的区域和路径,期望通行区域和期望路径的通行安全性较高,从而引导机器人100规避障碍物。
在本实施例中,机器人100在接收路径规划指令之后,响应于路径规划指令,可从目标地图中查询各个栅格对应的栅格数据和距离置信度,根据区域中各个栅格对应的栅格数据确定区域类型,以及根据区域中各个栅格对应的距离置信度计算区域置信度。区域置信度为区域中各个栅格对应的距离置信度的统计值。统计值可包括平均值(Mean)、方差(Variance)或标准差(Standard Deviation)等。
举例而言,机器人100可通过判断区域中可通行栅格的数目占比是否大于预设占比来确定区域类型。可通行栅格的数目占比为可通行栅格的数目和区域中全部栅格数目的比值。预设占比可依需而设。若一个区域中可通行栅格的数目占比大于预设占比,则确定该区域的区域类型为可通行区域。若一个区域中可通行栅格的数目占比小于或等于预设占比,则确定该区域的区域类型为不可通行区域。例如,假设一个区域中全部栅格数目为10,其中可通行栅格的数目为7,预设占比为0.6,由于可通行栅格的数目占比大于0.6,因此机器人100可确定该区域的区域类型为可通行区域。
又例如,假设一个区域包含4个栅格,4个栅格各自对应的距离置信度为0.6、0.7、0.8、0.9。机器人100计算得到4个栅格各自对应的距离置信度的平均值为0.75,可将平均值0.75作为该区域的区域置信度。
在一些实施例中,目标地图可为局部实时地图。局部实时地图是以机器人100为中心,且具有一定范围,并实时更新的一种地图,例如2D、2.5D或者3D的栅格地图。
举例而言,可参阅图9,图9是本申请一种实施例提供的机器人100更新目标地图的示意图。如图9所示,机器人100首先在第一时间建立第一目标地图901,然后基于第一目标地图901控制机器人100移动,接着在第二时间建立第二目标地图902。第二目标地图902与第一目标地图901存在至少一个重合区域903。对于单个重合区域903而言,机器人100可从第二目标地图902中获取该区域对应的区域类型和区域置信度,也可从第一目标地图901中获取该区域对应的区域类型和区域置信度。
在一些实施例中,机器人100在获取多个区域各自对应的区域类型和区域置信度之后,可以根据区域类型从全部区域中筛选出可通行区域,比对多个可通行区域各自对应的区域置信度,然后将区域置信度最小的可通行区域作为期望通行区域。在其他实施例中,也可以将区域置信度最大的可通行区域作为期望通行区域。
举例而言,假设4个区域中有3个可通行区域和1个不可通行区域,3个可通行区域各自对应的区域置信度为0.2、0.3、0.4。机器人100比对3个可通行区域各自对应的区域置信度,从3个可通行区域中筛选出区域置信度为0.2的可通行区域,将区域置信度为0.2的可通行区域作为期望通行区域。
在一些实施例中,当多个可通行区域各自对应的区域置信度相等时,机器人100可随机选取其中任一个可通行区域,并将其作为期望通行区域。当多个区域中没有可通行区域时,机器人100可将上一个控制周期机器人100所在位置的区域作为期望通行区域。
可以理解,机器人10具有多个控制周期T,控制周期T可依需而设。
举例而言,控制周期T可包括至少一个第一控制周期T1、至少一个第二控制周期T2以及至少一个第三控制周期T3。相邻两个第一控制周期T1之间相互间隔至少两个控制周期T。第二控制周期T2为第一控制周期T1之后的时间段。例如,第二控制周期T2和第一控制周期T2可以为两个连续的时间段,即在第一控制周期T1后立刻进入第二控制周期T2。第二控制周期T2也可以与第一控制周期T1之间还可间隔至少一个控制周期T。例如,第二控制周期T2可以位于相邻两个第一控制周期T1之间,也可以位于间隔设置的两个第一控制周期T1之间。即,在相邻两个第一控制周期T1之间可包括至少一个第二控制周期T2,也可以不包括第二控制周期T2。同理,第三控制周期T3为第二控制周期T2之后的时间段。例如,第二控制周期T2和第三控制周期T3可以为两个连续的时间段,即在第二控制周期T2后立刻进入第三控制周期T3。第二控制周期T2也可以与第三控制周期T3之间还可间隔至少一个控制周期T。例如,第三控制周期T3可以位于相邻两个第二控制周期T2之间,也可以位于间隔设置的两个第二控制周期T2之间。即,在相邻两个第二控制周期T2之间可包括至少一个第三控制周期T3,也可以不包括第三控制周期T3。
在本实施例中,机器人100在一个控制周期内筛选出一个期望通行区域之后,可将该期望通行区域作为该控制周期内的期望路径,并控制机器人100向期望路径移动。
在一些实施例中,机器人100在一个控制周期内筛选出多个期望通行区域之后,可将多个期望通行区域连接构成至少一条预测路径,再从至少一条预测路径中筛选出期望路径,并控制机器人100向期望路径移动。
举例而言,假设机器人100所在的位置在水平方向的投影点为(2,2),机器人100在一个控制周期内筛选出的多个期望通行区域分别为(2,3)、(1,3)和(0,3)。机器人100可将多个期望通行区域连接起来,构成的期望路径为(2,3)、(1,3)和(0,3),即机器人100先从(2,2)移动到(2,3),再从(2,3)移动到(1,3),然后从(1,3)移动到(0,3),接着进行下一个控制周期的路径规划。
在本实施例中,机器人100基于目标地图进行路径规划,根据目标地图中多个区域各自对应的区域类型和区域置信度筛选期望通行区域,根据期望通行区域确定期望路径,从而控制机器人沿期望路径移动,可有效地规避障碍物,提升机器人100规划路径的可靠性。
图10是本申请一种实施例提供的根据环境图像获取目标环境中多个区域各自对应的区域数据的流程图。
可参阅图10,根据环境图像获取目标环境中多个区域各自对应的区域数据,可包括如下步骤:
S1001,获取根据第一图像得到的区域对应的第一区域类型,以及根据第二图像得到的区域对应的第二区域类型,第一图像为单目相机130在第一时间采集的环境图像,第二图像为单目相机130在第二时间采集的环境图像,第二时间晚于第一时间。
其中,第一时间和第二时间是同一个控制周期内的时间。
在本实施例中,机器人100在一个控制周期内获取多帧环境图像之后,可通过图像识别模型从多帧环境图像中识别目标环境中多个区域各自对应的区域类型。每一帧环境图像可对应一个时间戳,时间戳用于记录环境图像的采集时间。对于目标环境中单个区域而言,机器人100可从每一帧环境图像中识别出单个区域对应的一个区域类型。
S1002,比对第一区域类型与第二区域类型,得到类型比对结果。
在本实施例中,机器人100从多帧环境图像中识别出单个区域对应的多个区域类型之后,可比对单个区域对应的多个区域类型,判断单个区域对应的多个区域类型是否相同,从而得到类型比对结果,以确定单个区域对应的区域类型。
在本实施例中,当一个区域对应的多个区域类型相同时,机器人100可直接确定该区域对应的区域类型,从而得到包括该区域类型的区域数据。
举例而言,假设机器人100从两帧环境图像中分别识别出同一个区域对应的两个区域类型均为可通行区域。机器人100可确定该区域的区域类型为可通行区域,以及得到该区域的区域高程为可通行区域对应的高程。
S1003,当类型比对结果为类型不一致时,控制单目相机130采集区域对应的至少一帧第三图像。
在本实施例中,当一个区域对应的多个区域类型不同时,机器人100可增加环境图像的采集次数,从而提高图像识别模型识别该区域对应的区域类型的准确性。
可以理解,环境图像的采集次数和区域对应的区域类型的可信程度呈现正相关的关系。
S1004,根据第三图像确定区域对应的目标区域类型,得到包括目标区域类型的区域数据。
在本实施例中,对于同一个区域,当从第一图像识别到的第一区域类型与从第二图像识别到的第二区域类型不同时,机器人100再次通过单目相机130采集该区域的第三图像,将从第三图像识别到的区域类型作为该区域对应的目标区域类型,从而得到包括该目标区域类型的区域数据。
在一些实施例中,当一个区域对应的多个区域类型不同时,机器人100可通过单目相机130采集该区域对应的更多帧图像,从更多帧图像识别该区域对应的多个区域类型,再根据该区域对应的多个区域类型确定目标区域类型,从而得到包括该目标区域类型的区域数据。
举例而言,假设机器人100首先从两帧环境图像中分别识别出同一个区域对应的两个区域类型为可通行区域和不可通行区域。机器人100可控制单目相机130再次采集该区域对应的两帧环境图像,从两帧环境图像中分别识别出同一个区域对应的两个区域类型均为可通行区域,然后确定该区域的区域类型为可通行区域,以及得到该区域的区域高程为可通行区域对应的高程。
在本实施例中,当同一区域从不同图像中识别到的区域类型不一致时,机器人100可增加环境图像的采集次数,从而提高识别区域数据的准确性。
图11是本申请另一种实施例提供的根据环境图像获取目标环境中多个区域各自对应的区域数据的流程图。
可参阅图11,根据环境图像获取目标环境中多个区域各自对应的区域数据,可包括如下步骤:
S1101,调用接地线识别模型对环境图像进行识别,得到环境图像中的接地线对应的图像坐标集合,图像坐标集合包括接地线在环境图像中对应的多个图像坐标。
在本实施例中,机器人100在获取至少一帧环境图像之后,可通过接地线识别模型识别出环境图像中至少一条接地线,从而得到接地线对应的图像坐标集合。
S1102,对图像坐标集合包括的多个图像坐标进行坐标系转换,得到接地线在周围环境中的接地线位置。
在本实施例中,机器人100在获取接地线对应的图像坐标集合之后,对图像坐标集合包括的多个图像坐标进行坐标系转换,从相机坐标系转换到世界坐标系,从而得到接地线在周围环境中的接地线位置。
可以理解,接地线对应的图像坐标集合包括的多个图像坐标在世界坐标系的Z轴坐标,可认为与地面相同,设地面高度为h0。基于地形平面假设,接地线对应的图像坐标集合包括的多个图像坐标在世界坐标系的Z轴坐标为z=h0,结合单目相机130的标定参数,可获取接地线对应的图像坐标集合包括的多个图像坐标在世界坐标系的X轴和Y轴坐标,从而得到接地线在周围环境中的接地线位置。
举例而言,机器人100可通过如下公式(6)进行坐标系转换:
其中,为相机坐标系的图像坐标,/>为图像坐标在世界坐标系的坐标,/>为旋转矩阵,/>为平移矩阵,/>和/>均为相机的外部参数,/>为外参矩阵,和/>分别为相机坐标系下图像坐标在X轴和Y轴方向的物理尺寸,/>为相机焦距,/>、、/>和/>均为相机的内部参数,/>为内参矩阵,/>为投影矩阵,/>为尺度因子,/>为图像坐标在世界坐标系的坐标矩阵。
例如,假设图像坐标在世界坐标系的Z轴坐标为。对于标定完成的单目相机130而言,单目相机130的外部参数和内部参数均是已知的,接地线对应的图像坐标集合包括的图像坐标也是已知的,机器人100可通过公式(6)计算出图像坐标在世界坐标系的X轴和Y轴坐标/>和/>,从而得到接地线在周围环境中的接地线位置。
S1103,获取采集环境图像时机器人100所在的机器人位置。
在本实施例中,机器人100可通过定位模块确定机器人100所在的机器人位置。定位模块可以是全球导航卫星系统(GNSS)。
可以理解,GNSS可以包括,但不限于全球卫星定位系统(global positioningsystem,GPS)、全球导航卫星系统(global navigation satellite system,GLONASS)、北斗卫星导航系统(beidou navigation satellite system,BDS)、准天顶卫星系统(quasi-zenith satellite system,QZSS)和/或星基增强系统(satellite based augmentationsystems,SBAS)。
在其中一些实施例中,机器人100还可以利用IMU(Inertial Measurement Unit,惯性测量单元)采集机器人100移动的里程计数据,并根据里程计数据确定机器人所在的机器人位置。
S1104,根据机器人位置和接地线位置确定目标环境中多个区域各自对应的区域数据。
在本实施例中,机器人100在获取机器人位置和至少一个接地线位置之后,可将目标环境中机器人位置和各个接地线位置之间的多个区域确定为可通行区域,将目标环境中可通行区域以外的区域确定为不可通行区域,从而得到各个区域的区域数据。
在一些实施例中,机器人100在获取多个接地线位置之后,可对多个接地线位置进行聚类分析,从而判断障碍物的类型,再根据障碍物的类型和多个接地线位置确定目标环境中的可通行区域和不可通行区域,从而得到各个区域的区域数据。
举例而言,假设目标环境中有一个四脚凳。机器人100可先通过接地线识别模型识别出四脚凳对应的4条接地线,再通过坐标系转换获取4条接地线对应的4个接地线位置,接着对4个接地线位置进行聚类分析,判断出障碍物的类型为四脚物体,然后计算出4个接地线位置中相邻2个接地线位置之间的距离分别为0.5m、0.3m、0.5m、0.3m。假设机器人100的最大宽度为0.4m,由于4个接地线位置中相邻2个接地线位置之间的距离有小于机器人100最大宽度的值,因此机器人100可将该四脚物体覆盖的区域确定为不可通行区域。即,当四脚凳相邻两个脚之间的距离均大于机器人100的最大宽度时,机器人100可将该四脚凳覆盖的区域确定为可通行区域。当四脚凳相邻两个脚之间的距离中有小于或等于机器人100的最大宽度的值时,机器人100可将该四脚凳覆盖的区域确定为不可通行区域。
在本实施例中,机器人100通过接地线识别模型识别环境图像中接地线对应的图像坐标集合,通过坐标系转换将二维图像坐标转换为三维地图坐标以确定接地线位置,结合接地线位置和机器人位置确定目标环境中多个区域各自对应的区域数据,以接地线作为图像识别的目标特征,可有效地识别出目标环境中的障碍物和可通行区域。
图12是本申请另一种实施例提供的基于单目相机的地图建立方法的流程图。
可参阅图12,基于单目相机的地图建立方法可包括如下步骤:
S1201,响应于地图建立指令,获取单目相机130采集的目标环境对应的至少两帧环境图像。
S1202,根据至少两帧环境图像获取目标环境中多个区域各自对应的区域数据。
S1203,基于多个区域各自对应的区域数据建立周围环境对应的栅格地图。
S1204,根据多个区域和机器人100的位置关系,确定多个区域分别与机器人100之间的至少两个区域距离。
S1205,根据至少两个区域距离确定栅格地图中各个栅格对应的至少两个距离置信度,至少两个距离置信度是基于单目相机130采集的至少两帧环境图像得到的。
S1206,根据至少两帧环境图像标记各个栅格对应的采集次数。
S1207,根据各个栅格对应的采集次数确定各个栅格对应的采集置信度。
S1208,基于各个栅格对应的至少两个距离置信度,以及各个栅格对应的采集置信度,计算得到各个栅格对应的至少两个融合置信度。
S1209,对各个栅格对应的至少两个融合置信度进行置信度统计,得到各个栅格对应的目标置信度。
S1210,根据各个栅格对应的目标置信度生成栅格地图对应的置信度地图。
S1211,根据置信度地图中的目标置信度确定各个栅格对应的栅格类型。
S1212,获取与栅格类型相对应的栅格数据。
S1213,基于栅格数据对栅格地图进行更新,建立机器人所在的周围环境对应的目标地图。
在本实施例中,机器人100先后建立周围环境对应的栅格地图和置信度地图,并结合栅格地图和置信度地图建立机器人100所在的周围环境对应的目标地图,机器人100通过单目相机130来采集目标环境对应的环境图像,采集的环境图像不易受环境干扰,从而提升机器人100识别障碍物信息的准确性,进而提高机器人100建立地图的准确性。而且,单目相机130构造简单、成本低廉,可节省机器人100的生产成本。机器人100先后建立周围环境对应的栅格地图和置信度地图,并结合栅格地图和置信度地图建立机器人100所在的周围环境对应的目标地图,使目标地图同时包含栅格地图和置信度地图的信息,由此能够提升机器人100建立地图的准确性。
本申请实施例还提供一种机器人,机器人可以执行如下操作:
在一些实施例中,根据多个区域和机器人的位置关系,生成栅格地图对应的置信度地图的操作,具体包括:根据多个区域和机器人的位置关系,确定多个区域分别与机器人之间的区域距离;根据区域距离确定栅格地图中各个栅格对应的距离置信度,区域与栅格地图中的至少一个栅格相对应;基于各个栅格对应的距离置信度生成栅格地图对应的置信度地图。
在其中一种实施例中,基于各个栅格对应的距离置信度生成栅格地图对应的置信度地图的操作,包括:获取栅格对应的至少两个距离置信度,至少两个距离置信度是基于单目相机采集的至少两帧环境图像得到的;根据至少两帧环境图像标记栅格对应的采集次数;根据栅格对应的采集次数确定至少两个距离置信度各自对应的采集置信度;基于各个栅格对应的至少两个距离置信度,以及各个栅格对应的采集置信度,生成栅格地图对应的置信度地图。
在其中一种实施例中,基于各个栅格对应的至少两个距离置信度,以及至少两个距离置信度各自对应的采集置信度,生成栅格地图对应的置信度地图的操作,包括:基于各个栅格对应的至少两个距离置信度,以及至少两个距离置信度各自对应的采集置信度,计算得到各个栅格对应的至少两个融合置信度;对各个栅格对应的至少两个融合置信度进行置信度统计,得到各个栅格对应的目标置信度;根据各个栅格对应的目标置信度生成栅格地图对应的置信度地图。
在其中一种实施例中,根据栅格地图和置信度地图,建立机器人所在的周围环境对应的目标地图的操作,包括:根据置信度地图中的目标置信度确定各个栅格对应的栅格类型,栅格类型包括可通行栅格或不可通行栅格;获取与栅格类型相对应的栅格数据;基于栅格数据对栅格地图进行更新,建立机器人所在的周围环境对应的目标地图。
在另一些实施例中,多个区域各自对应的区域数据包括区域类型,根据环境图像获取目标环境中多个区域各自对应的区域数据的操作,包括:获取根据第一图像得到的区域对应的第一区域类型,以及根据第二图像得到的区域对应的第二区域类型,第一图像为单目相机在第一时间采集的环境图像,第二图像为单目相机在第二时间采集的环境图像,第二时间晚于第一时间;比对第一区域类型与第二区域类型,得到类型比对结果;当类型比对结果为类型不一致时,控制单目相机采集区域对应的至少一帧第三图像;根据第三图像确定区域对应的目标区域类型,得到包括目标区域类型的区域数据。
在另一些实施例中,在根据栅格地图和置信度地图,建立机器人所在的周围环境对应的目标地图的操作之后,操作还包括:响应于路径规划指令,从目标地图中获取多个区域各自对应的区域类型和区域置信度;根据多个区域各自对应的区域类型和区域置信度筛选期望通行区域;基于期望通行区域确定期望路径,根据期望路径控制机器人移动。
在另一些实施例中,根据环境图像获取目标环境中多个区域各自对应的区域数据的操作,包括:调用接地线识别模型对环境图像进行识别,得到环境图像中的接地线对应的图像坐标集合,图像坐标集合包括接地线在环境图像中对应的多个图像坐标;对图像坐标集合包括的多个图像坐标进行坐标系转换,得到接地线在周围环境中的接地线位置;获取采集环境图像时机器人所在的机器人位置;根据机器人位置和接地线位置确定目标环境中多个区域各自对应的区域数据。
本申请实施例还提供一种基于单目相机的地图建立装置,基于单目相机的地图建立装置可包括图像获取模块、区域数据识别模块、栅格地图建立模块、置信度地图建立模块以及目标地图建立模块。其中,上述各模块可通过总线连接。
图像获取模块用于响应于地图建立指令,获取单目相机采集的目标环境对应的环境图像,目标环境与单目相机在周围环境中的视野范围相对应,目标环境中包括多个区域。
区域数据识别模块用于根据环境图像获取目标环境中多个区域各自对应的区域数据。
栅格地图建立模块用于基于多个区域各自对应的区域数据建立周围环境对应的栅格地图。
置信度地图建立模块用于根据多个区域和机器人的位置关系,生成栅格地图对应的置信度地图。
目标地图建立模块用于根据栅格地图和置信度地图,建立机器人所在的周围环境对应的目标地图。
可以理解,上述各模块并不构成对基于单目相机的地图建立装置的具体限定。在其他实施例中,基于单目相机的地图建立装置可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
本申请实施例还提供一种计算机可读存储介质,计算机可读存储介质用于存储计算机程序或代码,当所述计算机程序或代码被处理器执行时,实现本申请实施例的基于单目相机的地图建立方法。
计算机可读存储介质包括在用于存储信息(诸如计算机可读指令、数据结构、程序模块或其它数据)的任何方法或技术中实施的易失性和非易失性、可移除和不可移除介质。存储介质包括,但不限于随机存储器(Random Access Memory,RAM)、只读存储器(Read-Only Memory,ROM)、带电可擦可编程只读存储器(Electrically Erasable ProgrammableRead-Only Memory,EEPROM)、闪存或其它存储器、只读光盘(Compact Disc Read-OnlyMemory,CD-ROM)、数字通用光盘(Digital Versatile Disc,DVD)或其它光盘存储、磁盒、磁带、磁盘存储或其它磁存储装置、或者可以用于存储期望的信息并且可以被计算机访问的任何其它的介质。
上面结合附图对本申请实施例作了详细说明,但是本申请不限于上述实施例,在所属技术领域普通技术人员所具备的知识范围内,还可以在不脱离本申请宗旨的前提下做出各种变化。
Claims (16)
1.一种基于单目相机的地图建立方法,其特征在于,所述方法应用于机器人,所述机器人安装有至少一个单目相机,所述方法包括:
响应于地图建立指令,获取所述单目相机采集的目标环境对应的环境图像,所述目标环境与所述单目相机在周围环境中的视野范围相对应,所述目标环境中包括多个区域;
根据所述环境图像获取所述目标环境中所述多个区域各自对应的区域数据;
基于所述多个区域各自对应的区域数据建立所述周围环境对应的栅格地图;
根据所述多个区域和所述机器人的位置关系,生成所述栅格地图对应的置信度地图,所述置信度地图包括所述栅格地图中各个栅格对应的距离置信度和采集置信度,所述采集置信度基于所述各个栅格对应的采集次数确定;
根据所述栅格地图和所述置信度地图,建立所述机器人所在的所述周围环境对应的目标地图。
2.如权利要求1所述的基于单目相机的地图建立方法,其特征在于,所述根据所述多个区域和所述机器人的位置关系,生成所述栅格地图对应的置信度地图,包括:
根据所述多个区域和所述机器人的位置关系,确定所述多个区域分别与所述机器人之间的区域距离;
根据所述区域距离确定所述栅格地图中各个栅格对应的距离置信度,所述区域与所述栅格地图中的至少一个栅格相对应;
基于所述各个栅格对应的距离置信度生成所述栅格地图对应的置信度地图。
3.如权利要求2所述的基于单目相机的地图建立方法,其特征在于,所述基于所述各个栅格对应的距离置信度生成所述栅格地图对应的置信度地图,包括:
获取所述各个栅格对应的至少两个距离置信度,所述至少两个距离置信度是基于所述单目相机采集的至少两帧环境图像得到的;
根据所述至少两帧环境图像标记所述各个栅格对应的采集次数;
根据所述各个栅格对应的采集次数确定所述各个栅格对应的采集置信度;
基于所述各个栅格对应的所述至少两个距离置信度,以及所述各个栅格对应的采集置信度,生成所述栅格地图对应的置信度地图。
4.如权利要求3所述的基于单目相机的地图建立方法,其特征在于,所述基于所述各个栅格对应的所述至少两个距离置信度,以及所述各个栅格对应的采集置信度,生成所述栅格地图对应的置信度地图,包括:
基于所述各个栅格对应的所述至少两个距离置信度,以及所述各个栅格对应的采集置信度,计算得到所述各个栅格对应的至少两个融合置信度;
对所述各个栅格对应的至少两个融合置信度进行置信度统计,得到所述各个栅格对应的目标置信度;
根据所述各个栅格对应的目标置信度生成所述栅格地图对应的置信度地图。
5.如权利要求4所述的基于单目相机的地图建立方法,其特征在于,所述根据所述栅格地图和所述置信度地图,建立所述机器人所在的所述周围环境对应的目标地图,包括:
根据所述置信度地图中的所述目标置信度确定所述各个栅格对应的栅格类型,所述栅格类型包括可通行栅格或不可通行栅格;
获取与所述栅格类型相对应的栅格数据;
基于所述栅格数据对所述栅格地图进行更新,建立所述机器人所在的所述周围环境对应的目标地图。
6.如权利要求1所述的基于单目相机的地图建立方法,其特征在于,所述多个区域各自对应的区域数据包括区域类型,所述根据所述环境图像获取所述目标环境中所述多个区域各自对应的区域数据,包括:
获取根据第一图像得到的所述区域对应的第一区域类型,以及根据第二图像得到的所述区域对应的第二区域类型,所述第一图像为所述单目相机在第一时间采集的环境图像,所述第二图像为所述单目相机在第二时间采集的环境图像,所述第二时间晚于所述第一时间;
比对所述第一区域类型与所述第二区域类型,得到类型比对结果;
当所述类型比对结果为类型不一致时,控制所述单目相机采集所述区域对应的至少一帧第三图像;
根据所述第三图像确定所述区域对应的目标区域类型,得到包括所述目标区域类型的区域数据。
7.如权利要求1所述的基于单目相机的地图建立方法,其特征在于,在根据所述栅格地图和所述置信度地图,建立所述机器人所在的所述周围环境对应的目标地图之后,所述方法还包括:
响应于路径规划指令,从所述目标地图中获取所述多个区域各自对应的区域类型和区域置信度;
根据所述多个区域各自对应的区域类型和区域置信度筛选期望通行区域;
基于所述期望通行区域确定期望路径,根据所述期望路径控制所述机器人移动。
8.如权利要求1所述的基于单目相机的地图建立方法,其特征在于,所述根据所述环境图像获取所述目标环境中所述多个区域各自对应的区域数据,包括:
调用接地线识别模型对所述环境图像进行识别,得到所述环境图像中的接地线对应的图像坐标集合,所述图像坐标集合包括所述接地线在所述环境图像中对应的多个图像坐标;
对所述图像坐标集合包括的多个图像坐标进行坐标系转换,得到所述接地线在所述周围环境中的接地线位置;
获取采集所述环境图像时所述机器人所在的机器人位置;
根据所述机器人位置和所述接地线位置确定所述目标环境中所述多个区域各自对应的区域数据。
9.一种机器人,其特征在于,所述机器人包括:
机身;
设置在所述机身上的至少一个单目相机;以及
与所述机身通信的控制系统,所述控制系统包括处理器和与所述处理器通信的存储器,所述存储器存储指令,所述指令在所述处理器上被运行时使所述处理器执行操作,所述操作包括:
响应于地图建立指令,获取所述单目相机采集的目标环境对应的环境图像,所述目标环境与所述单目相机在周围环境中的视野范围相对应,所述目标环境中包括多个区域;
根据所述环境图像获取所述目标环境中所述多个区域各自对应的区域数据;
基于所述多个区域各自对应的区域数据建立所述周围环境对应的栅格地图;
根据所述多个区域和所述机器人的位置关系,生成所述栅格地图对应的置信度地图,所述置信度地图包括所述栅格地图中各个栅格对应的距离置信度和采集置信度,所述采集置信度基于所述各个栅格对应的采集次数确定;
根据所述栅格地图和所述置信度地图,建立所述机器人所在的所述周围环境对应的目标地图。
10.如权利要求9所述的机器人,其特征在于,所述根据所述多个区域和所述机器人的位置关系,生成所述栅格地图对应的置信度地图的操作,包括:
根据所述多个区域和所述机器人的位置关系,确定所述多个区域分别与所述机器人之间的区域距离;
根据所述区域距离确定所述栅格地图中各个栅格对应的距离置信度,所述区域与所述栅格地图中的至少一个栅格相对应;
基于所述各个栅格对应的距离置信度生成所述栅格地图对应的置信度地图。
11.如权利要求10所述的机器人,其特征在于,所述基于所述各个栅格对应的距离置信度生成所述栅格地图对应的置信度地图的操作,包括:
获取所述栅格对应的至少两个距离置信度,所述至少两个距离置信度是基于所述单目相机采集的至少两帧环境图像得到的;
根据所述至少两帧环境图像标记所述栅格对应的采集次数;
根据所述栅格对应的采集次数确定所述至少两个距离置信度各自对应的采集置信度;
基于所述各个栅格对应的所述至少两个距离置信度,以及所述各个栅格对应的采集置信度,生成所述栅格地图对应的置信度地图。
12.如权利要求11所述的机器人,其特征在于,所述基于所述各个栅格对应的所述至少两个距离置信度,以及所述至少两个距离置信度各自对应的采集置信度,生成所述栅格地图对应的置信度地图的操作,包括:
基于所述各个栅格对应的所述至少两个距离置信度,以及所述至少两个距离置信度各自对应的采集置信度,计算得到所述各个栅格对应的至少两个融合置信度;
对所述各个栅格对应的至少两个融合置信度进行置信度统计,得到所述各个栅格对应的目标置信度;
根据所述各个栅格对应的目标置信度生成所述栅格地图对应的置信度地图。
13.如权利要求12所述的机器人,其特征在于,所述根据所述栅格地图和所述置信度地图,建立所述机器人所在的所述周围环境对应的目标地图的操作,包括:
根据所述置信度地图中的所述目标置信度确定所述各个栅格对应的栅格类型,所述栅格类型包括可通行栅格或不可通行栅格;
获取与所述栅格类型相对应的栅格数据;
基于所述栅格数据对所述栅格地图进行更新,建立所述机器人所在的所述周围环境对应的目标地图。
14.如权利要求9所述的机器人,其特征在于,所述多个区域各自对应的区域数据包括区域类型,所述根据所述环境图像获取所述目标环境中所述多个区域各自对应的区域数据的操作,包括:
获取根据第一图像得到的所述区域对应的第一区域类型,以及根据第二图像得到的所述区域对应的第二区域类型,所述第一图像为所述单目相机在第一时间采集的环境图像,所述第二图像为所述单目相机在第二时间采集的环境图像,所述第二时间晚于所述第一时间;
比对所述第一区域类型与所述第二区域类型,得到类型比对结果;
当所述类型比对结果为类型不一致时,控制所述单目相机采集所述区域对应的至少一帧第三图像;
根据所述第三图像确定所述区域对应的目标区域类型,得到包括所述目标区域类型的区域数据。
15.如权利要求9所述的机器人,其特征在于,在根据所述栅格地图和所述置信度地图,建立所述机器人所在的所述周围环境对应的目标地图的操作之后,所述操作还包括:
响应于路径规划指令,从所述目标地图中获取所述多个区域各自对应的区域类型和区域置信度;
根据所述多个区域各自对应的区域类型和区域置信度筛选期望通行区域;
基于所述期望通行区域确定期望路径,根据所述期望路径控制所述机器人移动。
16.如权利要求9所述的机器人,其特征在于,所述根据所述环境图像获取所述目标环境中所述多个区域各自对应的区域数据的操作,包括:
调用接地线识别模型对所述环境图像进行识别,得到所述环境图像中的接地线对应的图像坐标集合,所述图像坐标集合包括所述接地线在所述环境图像中对应的多个图像坐标;
对所述图像坐标集合包括的多个图像坐标进行坐标系转换,得到所述接地线在所述周围环境中的接地线位置;
获取采集所述环境图像时所述机器人所在的机器人位置;
根据所述机器人位置和所述接地线位置确定所述目标环境中所述多个区域各自对应的区域数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310271896.6A CN115972217B (zh) | 2023-03-20 | 2023-03-20 | 基于单目相机的地图建立方法和机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310271896.6A CN115972217B (zh) | 2023-03-20 | 2023-03-20 | 基于单目相机的地图建立方法和机器人 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115972217A CN115972217A (zh) | 2023-04-18 |
CN115972217B true CN115972217B (zh) | 2023-06-27 |
Family
ID=85966895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310271896.6A Active CN115972217B (zh) | 2023-03-20 | 2023-03-20 | 基于单目相机的地图建立方法和机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115972217B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118181300B (zh) * | 2024-05-13 | 2024-08-02 | 广东电网有限责任公司佛山供电局 | 一种验电接地机器人的作业对象定位方法、装置和巡检系统 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108897328B (zh) * | 2018-08-27 | 2024-05-10 | 桂林电子科技大学 | 轮椅机器人及其室内自主导航方法 |
CN110531759B (zh) * | 2019-08-02 | 2020-09-22 | 深圳大学 | 机器人探索路径生成方法、装置、计算机设备和存储介质 |
CN111950440B (zh) * | 2020-08-10 | 2024-09-06 | 杭州萤石软件有限公司 | 一种识别与定位门的方法、装置及存储介质 |
CN113932799A (zh) * | 2021-10-29 | 2022-01-14 | 上海有个机器人有限公司 | 激光地图更新方法、系统、电子设备、介质及程序产品 |
CN115016507A (zh) * | 2022-07-27 | 2022-09-06 | 深圳市普渡科技有限公司 | 建图方法、定位方法、装置、机器人和存储介质 |
CN115435772A (zh) * | 2022-08-30 | 2022-12-06 | 深圳鹏行智能研究有限公司 | 局部地图的建立方法、装置、电子设备以及可读存储介质 |
CN115755887A (zh) * | 2022-10-26 | 2023-03-07 | 西安交通大学 | 一种多agv协同感知方法 |
-
2023
- 2023-03-20 CN CN202310271896.6A patent/CN115972217B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN115972217A (zh) | 2023-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113296495B (zh) | 自移动设备的路径形成方法、装置和自动工作系统 | |
CN115597659A (zh) | 一种变电站智能安全管控方法 | |
CN107966989A (zh) | 一种机器人自主导航系统 | |
CN107544501A (zh) | 一种智能机器人智慧行走控制系统及其方法 | |
CN106168805A (zh) | 基于云计算的机器人自主行走的方法 | |
CN114683290B (zh) | 一种足式机器人位姿优化的方法,装置以及存储介质 | |
EP4050449A1 (en) | Method and device for robot positioning, smart robot, and storage medium | |
CN114564027A (zh) | 足式机器人的路径规划方法、电子设备及可读存储介质 | |
CN207965645U (zh) | 一种机器人自主导航系统 | |
CN115972217B (zh) | 基于单目相机的地图建立方法和机器人 | |
CN206209407U (zh) | 一种室内机器人导航定位系统 | |
CN112327868A (zh) | 一种智能机器人自动导航系统 | |
CN112447058B (zh) | 泊车方法、装置、计算机设备及存储介质 | |
CN115435772A (zh) | 局部地图的建立方法、装置、电子设备以及可读存储介质 | |
CN114510041A (zh) | 一种机器人运动路径规划方法及机器人 | |
CN115655261B (zh) | 地图生成方法、装置、机器人以及存储介质 | |
CN118658056A (zh) | 一种果园自动巡检的方法、系统及电子设备 | |
CN116358522A (zh) | 局部地图生成方法和装置、机器人、计算机可读存储介质 | |
CN114663754B (zh) | 检测方法、装置、多足机器人及存储介质 | |
CN115752476B (zh) | 一种基于语义信息的车辆地库重定位方法、装置、设备和介质 | |
CN117707194A (zh) | 无人设备的飞行作业方法、装置、无人设备及存储介质 | |
CN114995459A (zh) | 机器人的控制方法、装置、设备及存储介质 | |
CN115979251B (zh) | 地图的生成方法和机器人 | |
CN117863190B (zh) | 足式机器人的移动控制方法及足式机器人 | |
CN114872051B (zh) | 通行地图获取系统、方法、机器人及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |