CN111328386A - 通过自主移动机器人对未知环境的探察 - Google Patents
通过自主移动机器人对未知环境的探察 Download PDFInfo
- Publication number
- CN111328386A CN111328386A CN201880072993.XA CN201880072993A CN111328386A CN 111328386 A CN111328386 A CN 111328386A CN 201880072993 A CN201880072993 A CN 201880072993A CN 111328386 A CN111328386 A CN 111328386A
- Authority
- CN
- China
- Prior art keywords
- robot
- area
- partial region
- partial
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims abstract description 70
- 238000000034 method Methods 0.000 claims abstract description 59
- 230000033001 locomotion Effects 0.000 claims abstract description 14
- 238000004140 cleaning Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 11
- 238000011835 investigation Methods 0.000 claims description 4
- 238000007689 inspection Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 description 11
- 230000006399 behavior Effects 0.000 description 10
- 238000004422 calculation algorithm Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000003993 interaction Effects 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000000638 solvent extraction Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000005192 partition Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000010411 cooking Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000012459 cleaning agent Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000013479 data entry Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000004146 energy storage Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3848—Data obtained from both position sensors and additional sensors
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
- A47L11/40—Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
- A47L11/4011—Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
- A47L11/40—Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
- A47L11/4061—Steering means; Means for avoiding obstacles; Details related to the place where the driver is accommodated
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/383—Indoor data
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0219—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0225—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
- A47L2201/04—Automatic control of the travelling movement; Automatic obstacle detection
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Electric Vacuum Cleaner (AREA)
Abstract
本发明涉及到一种通过自主移动机器人探察机器人使用区域的方法。根据一个实施例,该方法包括开始探察行驶,其间,机器人检测环境中的物体,并且在机器人运动通过所述机器人使用区域期间将所检测到的物体作为地图数据存储在地图中。在所述探察行驶期间,机器人基于所存储的地图数据执行部分区域检测,其中,检测至少一个参考部分区域。然后其检查所述参考部分区域是否被完全探察。机器人重复所述部分区域检测,以更新所述参考部分区域,并且重新检查所述(更新的)参考部分区域是否被完全探察。继续探察所述参考部分区域,直到检查表明所述参考部分区域被完全探察为止。然后只要已经检测到另一个部分区域,那么就继续在所述另一个部分区域中进行所述探察行驶,所述另一个部分区域将作为参考部分区域。
Description
技术领域
本描述涉及自主移动机器人的领域,尤其是涉及在机器人使用区域中、对于自主移动机器人来说仍然未知的环境的探索方法。
背景技术
可以购买到大量的自主移动机器人用于各种不同的私人的或者商业的应用,例如地板表面的处理或者清洁、物品的运输或者环境的检查。简单的装置不需要创建和使用机器人使用区域的地图就能应付工作,例如随机地在要清洁的地板上运动(例如参见iRobotCorp.的公开文件EP 2287697A2)。较复杂的机器人使用机器人自己创建的或者是以电子形式为其提供而获得的机器人使用区域的地图。
在地图可以被用于路径规划(以及其他的目的)之前,机器人必须在机器人使用区域中探察其环境,以便创建地图。已知一些用于探察对于机器人来说未知的环境的方法。例如,诸如“同时定位和地图创建”(Simultaneous Localization and Mapping,SLAM)这样的技术可以在机器人使用区域的探察阶段中使用。发明人旨在解决下述问题,即改善在机器人使用区域内对于机器人来说仍然未知的环境的探察过程。
发明内容
上述任务可以通过根据权利要求1或16所述的方法以及根据权利要求19所述的机器人控制装置来解决。不同的示例性实施例和扩展方案是从属权利要求的主题。
描述了一种用于通过自主移动机器人探察机器人使用区域的方法。根据一个示例性实施例,该方法包括开始探察行驶,其中,在机器人运动通过所述机器人使用区域期间,机器人在所述探察行驶期间检测在其环境中的物体并且将所检测到的物体作为地图数据存储在地图中。在所述探察行驶期间,机器人基于所存储的地图数据执行部分区域检测,其中,检测至少一个参考部分区域。然后,其检查所述参考部分区域是否被完全探察。机器人重复所述部分区域检测,以更新所述参考部分区域,并且重新检查所述(更新的)参考部分区域是否被完全探察。继续探察所述参考部分区域,直到检查表明所述参考部分区域被完全探察为止。然后只要已经检测到另一个部分区域,那么就继续在所述另一个部分区域中进行所述探察行驶,所述另一个部分区域将作为参考部分区域。
根据另一个示例性实施例,该方法包括在机器人使用区域中通过门过道连接起来的多个房间中的第一房间开始探察行驶。在探察行驶期间,在机器人运动通过所述机器人使用区域期间,机器人检测在其环境中的物体并且将所检测到的物体作为地图数据存储在地图中。此外,机器人在所述探察行驶期间检测一个或多个门过道,并且检查所述第一房间是否被完全探察。继续在所述第一房间中进行所述探察行驶,直到所述检查表明所述第一房间被完全探察为止。然后继续在另一个房间中进行所述探察行驶。
附图说明
下面借助于附图更详细地解释各种示例性实施例。这些图示不一定是按正确比例绘制的,并且本发明不仅仅限于所示出的方面。相反,重要的是要说明作为基础的原理。在附图中显示:
图1示出了在机器人使用区域中的自主移动机器人。
图2借助于框图示出了自主移动机器人的结构示例。
图3示出了由移动机器人自动生成的、它的具有多个边界线的机器人使用区域(住宅)的地图。
图4示出了将机器人使用区域自动地划分为部分区域的结果示例。
图5借助于流程图示出了用于完全探察机器人使用区域的方法示例。
图6示出了通过机器人对障碍物的构建。
图7示出了机器人通过将要探察的使用区域的运动。
图8-13逐步地示出了对具有多个房间的机器人使用区域的探察。
具体实施方式
图1示出了作为用于自主移动机器人的示例的清洁机器人100。自主移动机器人的其他的示例有服务型机器人、监视机器人、远程临场机器人,等等。现代的自主移动机器人基于地图进行导航,也就是说,它们具有机器人使用区域的电子地图。但是,在很多情况下,机器人没有机器人使用区域的地图或者没有该机器人使用区域的当前的地图,并且因此机器人必须探察它的(未知的)环境并且构建地图。这个过程也被称为“探察”。在这个过程中,机器人会在在运动穿过机器人使用区域期间检测障碍物。在所示的示例中,机器人100已经识别出房间的墙壁W1和W2的一些部分。用于探察自主移动机器人的环境的方法本身是已知的。一种经常使用的方法是前面提到的SLAM。
此外,将由机器人创建的地图划分为部分区域本身是已知的(例如参见DE 102010 017 689 A1)。在这种情况下,机器人基于预定的标准(例如借助于传感器检测到的门过道、检测到的地板覆盖物,等等),对其地图进行划分。将机器人使用区域划分为多个部分区域的目的是提供这样的可能性,即单个地处理不同的区域(例如住宅的房间)。在清洁机器人的情况下,不同的部分区域例如可以以不同的频率、以不同的强度、在特定的时间、使用特定的工具或者清洁剂等等来进行清洁。但是,只要机器人还没有(基本上完全地)探察其环境,就还不能将地图明确地划分成部分区域。有多种不同策略用于探察机器人使用区域。对此的示例有随机行驶、沿着障碍物行驶(尤其围绕外部轮廓移动),直至复杂以确定机器人可以接近的下一个最近探察点并且就此获得最大的探察收益(例如参见D.Lee:TheMap-Building and Exploration Strategies of a Simple Sonar-Equipped MobileRobot(Cambridge University Press,1996))。但是没有考虑单个房间的住宅环境的特殊情况的方法。这些房间一般地通过门过道连接起来并且因此彼此之间明显隔开。同时,至少从机器人的角度来看,房间由于家具(障碍物)而可能是非常复杂的。这导致以下的情况:即在采用传统的用于探察的策略下,机器人会非常经常地在房间之间来回移动,这会花费大量的时间和能量。本发明的基本的构思是,在机器人转换到下一个房间之前完全探察一个房间。为此目的,机器人在探察期间将地图划分为多个部分区域,以便例如将一个房间识别为有意义的部分区域。机器人可以探察这个部分区域并且确定这个部分区域(并且因此该房间)何时被完全探察。
在更详细地探讨对机器人的环境的探察之前,首先应该简要地描述自主移动机器人的结构。图2借助于框图示出了自主移动机器人100的各个不同的单元(模块)的示例。单元或者模块可以是用于控制机器人的独立的组件或者软件的一部分。单元可以具有几个子单元。负责机器人100的行为的软件可以由机器人100的控制单元150执行。在所示的示例中,控制单元150包括处理器155,该处理器被设计成用于执行包含在存储器156中的软件指令。控制单元150的一些功能也可以至少部分地借助于外部计算机来执行。这就是说,控制单元150所需的计算能力可以至少部分地转移给外部的计算机,该外部的计算机可以例如经由家庭网络或者经由互联网(云)而到达。
自主移动机器人100包括驱动单元170,该驱动单元例如可以具有电动机、传动机构和轮子,由此,机器人100(至少在理论上)可以行进到使用区域中的任何点。驱动单元170适用于将由控制单元150接收的命令或者信号转换成机器人100的运动。
自主移动机器人100此外包括通信单元140,以便建立与人机界面(HMI)200和/或者其他外部设备300的通信链路145。通信链路145例如是直接的无线连接(例如蓝牙)、本地无线网络连接(例如WLAN或ZigBee)或者互联网连接(例如到云服务)。人机界面200可以例如以视觉形式或者也以听觉形式通过自主移动机器人100放出用户信息(例如电池状态、当前工作任务、地图信息,如清洁地图等等)以及接收用于自主移动机器人100的工作任务的用户命令。HMI 200的示例是平板PC、智能手机、智能手表和其他可穿戴设备、计算机、智能电视或者头戴式显示器等等。附加地或者替代地,HMI200可以被直接集成到机器人中,由此机器人100例如可以通过按键、手势和/或者语音输入和输出进行操作。
外部设备300的示例是:计算机和服务器,计算和/或者数据被转移到该计算机和服务器上;外部传感器,该外部传感器提供附加的信息;或其他的家用电器(例如其他的自主移动机器人),自主移动机器人100可以与这些其他的家用电器一起工作和/或者交换信息。
自主移动机器人100可以具有工作单元160,例如用于处理地板表面并且特别是用于清洁地板表面的处理单元(例如刷子、真空吸尘装置)或者用于抓取和运输物品的抓持臂。
在一些情况下,例如在远程临场机器人或监视机器人的情况下,可以使用另一个结构单元来完成规定的任务并且不需要任何工作单元160。因此,远程临场机器人可以具有与HMI耦合的通信单元140,该通信单元例如可以装备有多媒体单元,该多媒体单元例如包括麦克风、摄像机和屏幕,以便能够在多个空间上远离的人员之间进行通信。监视机器人在检控行驶下借助其传感器查明不同寻常的事件(例如火、光、未经授权的人员等等)并且例如将其通告监控站。在这种情况下,设置了带有用于监视机器人使用区域的传感器的监视单元来代替工作单元160。
自主移动机器人100包括具有各种不同的传感器(例如用于探测关于机器人在其使用区域中的环境的信息的一个或者多个传感器,例如在使用区域内的障碍物或者其他地标的位置和范围)的传感器单元120。用于探测关于环境信息的传感器例如是用于测量在机器人的环境中的物体(例如墙壁或者其他的障碍物等等)之间的距离的传感器,例如光学的和/或者声学的传感器,该光学和/或者声学的传感器借助于三角测量或者对发射出的信号的传输时间的测量而测量距离(三角测量传感器、3D摄像机、激光扫描仪、超声波传感器等等)。替代地或者附加地,可以使用摄像机来收集关于周围环境的信息。特别地,物体的位置和范围也可以通过从两个或者多个位置观察物体而确定。
附加地,机器人可以具有传感器,以便检测与障碍物的(通常是无意的)接触(或者碰撞)。这可以通过加速度计(该加速度计例如检测机器人在发生碰撞时的速度变化)、接触开关、电容式传感器或者其他的触觉式或者触敏式传感器来实现。附加地,机器人可以具有地面传感器,以识别在地面中的边缘,例如楼梯台阶的边缘。在自主移动机器人的领域中的其他常用的传感器是用于确定机器人的速度和/或者走过的路程的传感器,例如用于确定机器人的位置和运动变化的里程表或者惯性传感器(加速度传感器、旋转速率传感器),以及用于检测在轮子与地面之间的接触的轮子接触开关。
自主移动机器人100例如可以与基站110相关联,例如在该基站处机器人可以对其能量储存装置(电池)充电。在完成任务之后,机器人100可以返回到该基站110。如果机器人不再具有要处理的任务,则它可以在基站110中等待新的使用。
控制单元150可以被设计成用于提供机器人在其使用区域中独立运动和完成任务所需要的所有功能。为此目的,控制单元150例如包括处理器155和存储器模块156,以便执行软件。控制单元150可以基于从传感器单元120和通信单元140获得的信息来生成用于工作单元160和驱动单元170的控制命令(例如控制信号)。如已经提到的那样,驱动单元170可以将这些控制信号或者控制命令转换成机器人的运动。包含在存储器156中的软件也可以被模块化地设计。例如,导航模块152提供用于自动创建机器人使用区域的地图以及用于规划机器人100的运动的功能。例如,控制软件模块151提供通用(全局)控制功能并且可以在各个模块之间形成接口。
为了使机器人能够自主地完成任务,控制单元150可以包括用于在机器人的使用区域中对机器人进行导航的功能,该功能由上面提到的导航模块152提供。这些功能本身是已知的并且除了其它方面以外,可以包括以下功能之一:
·提供借助于传感器单元120,例如但不是仅仅借助于SLAM方法收集关于环境的信息来创建(电子)地图,
·管理一个或多个地图,这些地图与机器人的一个或多个使用区域相对应,
·基于通过传感器单元120的传感器确定的周围环境的信息,确定机器人在地图上的位置和方向(姿态),
·进行从机器人的当前的姿态(起始点)到目标点的基于地图的路径规划,
·轮廓跟随模式,在该轮廓跟随模式下机器人(100)沿着一个或者多个障碍物(例如墙壁)的轮廓在与该轮廓基本上恒定的距离d下运动,
·部分区域识别,其中,分析地图并且将其分解为部分区域,其中,例如识别房间边界,如墙壁和门过道,由此这些部分区域描述住宅的房间和/或者这些房间的有意义的部分区域。
控制单元150可以借助于导航模块152并且基于传感器单元120的信息,例如在机器人的运行期间连续地更新机器人使用区域的地图,例如当机器人的环境发生变化时(障碍物被移动,门被打开等等)。然后,当前的地图可以被控制单元150用于机器人的短期的和/或者长期的运动规划。控制单元150在机器人的(目标)运动被实际执行之前,针对机器人的该(目标)运动而先前计算的那个路径被称为规划地平线。在此处描述的示例性实施例(除其他方面以外)涉及在某些情况下的不同的方法和策略(例如,其中某些操作被障碍物阻挡并且因此不能够进行实施的情况)。
一般地,可由机器人100使用的(电子)地图是地图数据的集合(例如数据库),其用于存储关于机器人的使用区域和在该使用区域中与机器人有关的环境的与位置相关的信息。在这一点上,“与位置相关的”是指将存储的信息分配给在地图中的一个位置或者一个姿态。因此,地图代表了大量具有地图数据的数据记录项,并且地图数据可以包含任何与位置相关的信息。与位置相关的信息可以以不同的详细程度和抽象程度进行存储,其中,该详细程度和抽象程度可以与特定的功能相适配。特别地,各单个信息可以冗余地存储。与同一区域相关、但以不同的形式(数据结构)进行存储的多个地图的汇编常常也被称为“地图”。
如果一方面一个设备的行为对于用户而言是可理解的和易懂的,并且另一方面操作在直观上是可能的,则该技术设备对于人类用户而言在日常生活中是最有用的。通常值得期望的是,自主移动机器人(例如地板清洁机器人)展现出对于人类用户来说可直观地理解的并且切实可行的行为。为此目的,机器人必须通过技术方法解释其使用区域,并以与人类用户可能采取的类似的方式将该使用区域划分为部分区域(例如起居室、卧室、走廊、厨房、用餐区域等等)。这样可以实现在用户和机器人之间的简单通信,例如针对机器人的简单命令形式(例如“清洁卧室”)和/或针对用户的消息形式(例如“卧室的清洁已完成”)。此外,所提到的部分区域可以用于显示机器人使用区域的地图和借助于该地图对机器人的操作。
现在,可以由用户一方面根据公认的惯例和另一方面根据个人喜好(并且因此是用户特定的,例如用餐区域、儿童玩耍区域等等)将机器人使用区域划分为部分区域。已知的惯例的一个示例是将住宅划分为不同的房间,例如卧室、起居室和走廊。根据一个示例性的、用户特定的划分,可以将起居室划分成烹饪区域、用餐区域或者在沙发前面和沙发旁边的区域。在这些区域之间的边界有时可以定义得非常“模糊”并且通常取决于用户的解释。例如,烹饪区域可以通过瓷砖地板来指定,而用餐区域仅仅通过带有椅子的桌子的存在来指定。对于机器人来说,与人类用户的适配可能是一项非常艰巨的任务,并且为了进行机器人使用区域的正确划分,可能经常需要机器人与用户的交互。为了使这种机器人与用户的交互变得简单和易懂,必须由设备解释和准备地图数据和自动完成划分。此外,人类用户期望自主移动机器人的行为与该划分相适配。因此可能希望可以由用户或者自动地为这些部分区域配上属性,从而影响机器人的行为。
为此的技术先决条件是,自主移动机器人具有其使用区域的地图,以便在该使用区域中借助于该地图对其自身进行定位。例如,该地图由机器人自动地建立并且永久地存储。为了实现对于用户来说直观地划分机器人使用区域的目标,需要这样的技术方法:(1)根据预定的规则自动地划分机器人使用区域(例如住宅)的地图;(2)允许与用户进行简单的交互,以便适应在划分时先验未知的用户期望;(3)预先处理自动生成的划分,以便以简单并且易懂的方式将该划分在地图中呈现给用户;以及(4)可以从由此创建的划分中尽可能自动地导出某些特性,这些特性适合于实现用户所期望的行为。
图3示出了机器人使用区域的地图的可能的图示,如该地图由机器人例如借助于传感器和SLAM算法所建立的那样。例如,机器人借助于距离传感器来测量到障碍物(例如墙壁、家具、门等等)的距离并且由该测量数据(通常是点云)计算出限定其使用区域的边界的线段。机器人的使用区域例如可以通过闭合的线段链(通常是凹入的、简单的多段线)来限定,其中,每个线段都具有起点、终点并且因此也具有方向。线段的方向表示线段的哪一侧指向使用区域的内部,或者机器人从哪一侧“看到”了由特定的线段表示的障碍物。对于机器人来说,在图3中所示的多边形完整地描述了使用区域,但是对于机器人与用户之间的交流来说,该多边形则是非常不适合的。人类用户可能很难识别其自己的住宅并在其中进行定位。提到的线段链的一种替代方案是网格地图,其中,在机器人使用区域上放置一个例如10x 10cm的网格,并且如果每个单元(即10x 10cm的小间)被障碍物占据,则将其标记出来。这样的网格地图对于人类用户来说也是很难解释的。
不仅为了简化与人类用户的交互,而且为了以(从用户的角度出发)合理的方式“处理”使用区域,机器人应该首先自动地将其使用区域划分为多个部分区域(即执行部分区域检测)。这种到多个部分区域的划分使得机器人能够更轻松地、更系统地、更有区分地、(从用户的角度出发)“更具逻辑性地”执行其在其使用区域中的任务,并且改善与用户的交互。为了获得有意义的划分,机器人必须对不同的传感器数据相互进行权衡。特别地,机器人可以利用关于它的使用区域的某个区域的可行驶性(困难/容易)的信息,以便限定一个部分区域。此外,机器人可以做出这样的(可反驳的)假设,即房间一般是矩形的。机器人可以学到,所述划分的一些更改会导致更有意义的结果(因此例如某些障碍物以一定的概率位于某个部分区域中)。
如在图3中所示的那样,机器人通常能够借助于传感器(例如激光距离传感器、三角测量传感器、超声波距离传感器、碰撞传感器或者上述各项的组合)来识别障碍物并且将其使用区域的边界以边界线的形状绘制到地图中。然而,机器人的有限的传感器装置通常不能够明确地识别出(对于人类用户来说)显而易见的、使用区域到不同的房间(例如卧室、起居室、走廊等等)的划分。甚至在地图中包含的边界线(例如在图3中的点J和K之间的线)是属于墙壁还是属于家具的决定也不可能容易地自动地实现。对于机器人来说,即使在两个房间之间的“边界”也不是能够容易地识别的。
为了解决所提及的问题并且实现将机器人使用区域自动划分为不同的部分区域(例如房间),机器人会基于与机器人的环境相关的传感器数据做出“假设”,这些假设借助于不同的方法来进行测试。如果一个假设可以被证伪,则该假设被拒绝。如果两条边界线(例如在图3中的线A-A'和O-O')是近似平行的并且相距一个距离,其中该距离与门过道的通常净宽度(为此具有标准化的尺寸)相对应,则机器人可以做出假设“门过道”并且由此得出结论,该门过道将两个不同的房间分开。在最简单的情况下,通过机器人“询问”用户,也就是说请求用户的反馈,可以对自动做出的假设进行测试。然后用户可以确认或者拒绝该假设。但是,通过针对其可信性对由假设得出的结论进行检查,可以对该假设自动地进行测试。如果由机器人识别的房间(例如通过识别门槛)包括一个例如小于一平方米的中央房间,那么最终导致了这个小的中央房间的假设很可能是错误的。另一个自动的测试可能在于检查,从两个假设中推导得出的结论是否是相互矛盾的。例如,如果可以作出针对一扇门的六个假设,而只有在五个假设的门的情况下机器人才可以检测到一个门槛(一个小的台阶),那么这可能表明,关于门没有门槛的假设是错误的。
在通过机器人创建假设时,不同传感器的测量值被组合起来。例如,对于门过道而言,这些测量值是过道宽度、过道深度(通过壁厚给定)、在过道右侧和左侧的墙壁的存在或者突入到房间内的门。例如,这些信息可以借助于距离传感器由机器人来确定。借助于加速度传感器或者位置传感器(例如陀螺仪传感器),可以检测机器人行驶通过的门槛。通过图像处理和天花板高度的测量,可以确定附加的信息。
针对可能的假设的另一个示例是在机器人使用区域中的墙壁的走向。除了其它方面以外,这些墙壁的特征在于两条平行的线,该两条平行的线具有典型的壁厚(参见图3,厚度dw)的距离,并且被机器人从两个相反的方向看到(例如在图3中的线K-L和L'-K')。但是,在墙壁前面可能站立有其他的物体(障碍物),例如橱柜、架子、花盆等等,它们同样可以借助于假设进行识别。一个假设也可以以另一个假设为基础。因此,例如一扇门是一个墙壁的中断部。因此,如果能够做出关于在机器人的使用区域中的墙壁的走向的可靠的假设,那么该假设就可以使门的识别变得容易,并且因此可以使机器人使用区域的自动划分变得简单一些。
为了测试和评估假设,可以给这些假设分配可信性程度。在一个简单的示例性实施例中,对于每个确认的传感器测量值,给假设加上一个预定义的点值。如果某个假设以这种方式达到最小点数,则该假设被认为是可信的。负的点数可能会导致假设被拒绝。在一个进一步发展的示例性实施例中,给某个假设为真分配对其适用的概率。这需要一种概率模型,该概率模型不仅考虑在不同的传感器测量值之间的相关性,而且借助于随机计算模型进行复杂的概率陈述,从而可以更可靠地预测用户的期望。例如,在使用机器人的某些地区(例如国家)中,门的宽度是被标准化的。如果机器人测量到这种标准化的宽度,则涉及的极有可能是一扇门。与标准宽度的偏差会降低它是一扇门的可能性。为此,例如可以使用基于正态分布的概率模型。用于创建和评估假设的另一种可能性是使用“机器学习”来创建合适的模型和度量函数(例如参见Trevor Hastie,Robert Tibshirani,Jerome Friedman:“TheElements of Statistical Learning”,第二版,Springer-Verlag,2008)。为此目的,例如,通过一个或者多个机器人记录在不同的居住环境中的地图数据。然后,可以用平面图或者通过用户输入的数据(例如关于墙壁或者门过道的走向或者关于所期望的划分)来补充这些地图数据并且通过学习算法对其进行评估。
可作为上面解释的假设的使用的替代方案或补充方案使用的另一种方法是将机器人使用区域(例如住宅)划分为多个矩形的区域(例如房间)。这种方法基于以下的假设:即房间一般是矩形的,或者可以由多个矩形组成。在机器人创建的地图中,房间的这种矩形形状一般无法识别,因为在房间中大量的具有复杂边界的障碍物(例如家具)限制了机器人的使用区域。
基于矩形房间的假设,机器人使用区域被具有不同尺寸的矩形覆盖,这些矩形应该再现所述房间。特别地,这样地来选择所述矩形,即可以为在机器人使用区域的地图上的对于机器人来说可接近的每个点明确地分配一个矩形。这就是说,矩形一般地不会重叠。在这种情况下不排除一个矩形包含对于机器人来说不能够接近的点(例如因为家具而使接近变得不可能)。因此,通过矩形描述的区域可以比实际的机器人使用区域更大并且在几何形状上更简单。为了确定各个矩形的方向和大小,例如在机器人使用区域的地图中使用长的直边界线,如边界线沿着墙壁出现的那样(例如参见图3,通过点L'和K'的直线、通过点P和P'以及P”和P'”的直线)。各种不同的标准被用来选择要使用的边界线。一种标准例如可以是:相关的边界线大致地平行于或者正交于许多其他的边界线。另一种标准可以是:相关的边界线近似地大致地位于一条直线上和/或者相对较长(也就是说,处在机器人使用区域的外部尺寸的数量级上)。用于选择矩形的方向和大小的其他的标准例如是被识别的门过道或者地板覆盖物边界。这些标准以及其他的标准可以在一个或多个评估函数(类似于假设的可信性程度,例如用于假设的点值的分配)中使用,以对它们进行评估,以便确定矩形的具体的形状和位置。例如将满足标准的点给予边界线。具有最高点值的边界线被用作在两个矩形之间的边界。
基于房间基本上是矩形的假设,机器人可以由边界线的地图(参见图3)将最外的边界线完善成矩形多边形(直线多边形)。例如,在图4中示出了将地图划分为部分区域的一种可能的结果。因此,该住宅被划分为不同的房间(例如带有床的卧室10、走廊20、带有开放式厨房区域30的起居室)。例如,根据检测到的门过道,将住宅划分为部分区域10、20、30(房间)。基于识别出的地板覆盖物,从部分区域30(具有开放式厨房区域的起居室)进一步划分出部分区域31(厨房区域,具有瓷砖地板)和部分区域32(地毯地面)(剩余的部分区域30例如具有镶木地板)。
如已经提到的那样,在机器人可以将地图有意义地自动地划分为部分区域(例如房间)之前,一般地需要机器人使用区域的基本上完整的地图。在此之前,机器人会运动通过机器人使用区域,而不能够观察部分区域边界。这可能会导致机器人在“探察阶段”中的无效益的并且对于用户来说难以理解的行为。例如,在机器人完全探察完一个房间之前,机器人穿过一个门过道而进入另一个房间中。这可能导致,机器人行驶通过在机器人使用区域(例如一个住宅)的大部分区域,但是在住宅的不同位置处(在不同的房间中)仍然保留有在地图中的“空白点”。最后,机器人必须分别驶向在地图中的这些“空白点”,以便探察这些“空白点”并且获得完整的地图。这里描述的示例性实施例,除了其它方面以外,还涉及一种方法,该方法至少在一些情况下使所提到的探察阶段更加有效,让机器人在该探察阶段中的行为对于用户来说显得“更加合乎逻辑”。
图5示出了用于通过自主移动机器人(参见图1,机器人100)探察机器人使用区域的方法的一个示例性的示例。探察行驶可以在机器人使用区域中的任意的点处开始(图5,步骤S10),并且在探察行驶期间,机器人会运动通过机器人使用区域。在探察行驶开始时,机器人没有或者仅有极少的关于其周围环境的信息。机器人的(电子)地图将被新建并且因此在探察开始时实际上是空的。机器人100在探察行驶期间连续地执行测量(图5,步骤S11),以便检测在其周围环境中的物体(例如障碍物,一般地也称为导航特征),并将检测到的物体作为地图数据存储在地图中。例如,检测墙壁和其他的障碍物(例如家具和其他的物体),并且将它们的位置和姿态存储在地图上。用于检测的传感器装置本身是已知的并且可以包含在机器人100的传感器单元120中(参见图2)。用于检测所需的计算可以由包含在机器人100的控制单元150(参见图2)中的处理器来执行。
在探察行驶期间,机器人100基于当前的地图数据执行部分区域检测(参见图5,步骤S12),其中,至少一个参考部分区域被检测(例如机器人使用区域的一部分,机器人当前位于该部分中)。此外,检查是否所述参考部分区域已经被完全探察(参见图5,步骤S13)。只要不是这种情况,机器人就通过连续地执行测量来继续(仅仅)探察所述参考部分区域(参见图5,步骤S14),以便检测在机器人的环境中的物体并且将检测到的物体存储在地图中。连续地和/或者根据可预先确定的规则重复进行所述部分区域检测,以便对所述参考部分区域的确定进行更新。然后,机器人重新检查是否所述(更新的)参考部分区域已经被完全探察(返回到步骤S13)。一旦检查表明,所述(更新的)参考部分区域已经被完全探察,就进一步检查,是否所述机器人使用区域已经被完全探察(参见图5,步骤S15)。例如,在部分区域检测期间,机器人可能已经检测到还没有被探察的另一个部分区域。机器人可以由此得出结论,机器人使用区域的探察还不是完整的并且所述探察在另一个部分区域中继续进行着(图5,步骤S16),然后所述另一个部分区域变成为参考部分区域。如果机器人不再能够检测到还没有被探察的任何另外的部分区域,那么机器人使用区域的探察结束。
为了更新参考部分区域,在部分区域检测中不仅可以考虑当前的地图数据而且也可以考虑参考部分区域的先前的边界(也就是说,在较早的部分区域检测中确定的边界)。在后面还要对参考部分区域的持续的更新进行更详细的解释(参见图8至图10)。在一个示例性实施例中,可以将已经被探察的机器人使用区域的部分划分为一个或者多个部分区域,以更新参考部分区域,其中,从检测到的部分区域中根据预定义的标准选择出所述参考部分区域。如果仅仅检测到一个唯一的部分区域,则该部分区域是参考部分区域。用于选择参考部分区域的标准例如可以是与先前(在前面的部分区域检测期间)确定的参考部分区域重叠的程度。这就是说,从检测到的部分区域中选择与先前确定的参考部分区域之间具有最大的重叠的部分区域作为当前的参考部分区域。
用于将地图自动地划分为部分区域的算法本身是已知。这些算法中的一些算法仅在地图被完全探察,即被墙壁和其他的障碍物完全包围的情况下才正常起作用。如果地图被“人为地”完成,那么这些算法可以被用于未完全探察的地图。为此目的,例如可以在已经探察过的区域周围放置一个框架(边界框),并且将其考虑成“虚拟的”障碍物。也可以替代地使用其他的可能方法来完成未完全探察的地图,以便将所述算法用于完整地图的自动划分。在这里描述的示例性实施例中,可以将基于地图数据的一个或者多个信息用于所述部分区域检测,例如墙壁和/或者其他的障碍物的位置、门过道的位置以及地板覆盖物边界的位置。附加地或者替代地,可以考虑关于地板结构、天花板结构和/或者墙壁结构的(例如存储在地图中的)信息。用于确定部分区域的另一个标准是部分区域的可预先确定的几何属性,例如部分区域的最小尺寸或者最大尺寸。天花板结构并且尤其是天花板和墙壁之间的拐角可以提供有关房间的形状和大小的直接的提示。由此,例如可以将门过道识别为在墙壁中的未延伸到达天花板的开口。诸如窗户之类的墙壁结构可以提供是否所提到的墙壁为外墙壁的提示。地板结构,如特别是地板覆盖物的改变或者门槛可以是用于房间边界并且特别是用于门过道的标志。
根据部分区域检测的实施情况,可以至少部分地预测性地确定部分区域的边界线。在这一点上,“预测性地”意味着将现有的、已经被检测的并且被存储在地图上的轮廓(例如墙壁)用于预测部分区域的边界线。例如,已经被检测并且被存储在地图中的墙壁的轮廓可以被(虚拟地)直线地延伸,以完成对部分区域的划界。根据另一个示例,与已经被检测并且被存储在地图中的墙壁(或者另一个障碍物)的轮廓平行或者成直角的部分区域的边界线被确立,使得该边界线接触机器人使用区域的已被探察的区域的边缘。稍后将参考图9和图10对其示例进行说明。
机器人跟踪(tracking)在地图中的自己的位置。在进行部分区域检测之后,机器人可以检查其是否仍然位于(更新的)参考部分区域中。如果不是这种情况并且如果该参考部分区域还没有被完全探察,则机器人会行驶返回到该参考部分区域中,以便在那里继续进行探察行驶。在参考部分区域外部将不会继续进行该探察行驶。但是,如果该检查显示(更新的)参考部分区域已被完全探察(例如,因为它仅仅由障碍物的轮廓或者边界线相对于其他检测到的部分区域被限定了边界),则另一个部分区域将成为参考部分区域并且在那里继续进行探察行驶。
如所提到的那样,可以定期地重复进行部分区域检测,或者可以作为对特定的事件的检测的响应。所述部分区域检测的重复进行例如可以在以下的情况下被触发,即当机器人确定:自上次部分区域检测以来已过去了特定的时间间隔;自上次部分区域检测以来机器人已走过了一定的路程;自上次部分区域检测以来机器人使用区域的被探察的区域已经增长了一定的面积;或者用于进一步探察参考部分区域的成本超过了一定的值时。成本例如可以借助于成本函数进行评估。部分区域检测的重复进行例如也可以在以下的情况下被触发,即当机器人已经到达用于探察所确定的目标点时。这样的目标点例如可以在已探察的和(还)没有探察的部分区域之间的边界上选择。当机器人驶向该点时,机器人可以借助于其传感器探测新的区域,并且由此扩大被探察的区域的边界。
如果机器人确定参考部分区域已经被完全探察,那么该参考部分区域将被存储并且它的边界以后不会再被更改。只要还有其他的没有被完全探察的部分区域存在,机器人就会选择另一个部分区域作为参考部分区域,并且在那里继续进行探察行驶。可以在进一步的部分区域检测中考虑先前的参考部分区域(或者多个先前的参考部分区域),它的(或者它们的)边界线不再被更改,并且因此相邻的部分区域的边界也(至少部分地)被确定。也就是说,在确定其他的部分区域的边界线时,可以考虑先前的参考部分区域的边界线。
如果该机器人是清洁机器人,则该机器人可以(在它已经完全探察参考部分区域之后)在选择另一个部分区域作为参考部分区域并且在那里继续进行探察行驶之前,对该参考部分区域进行清洗。这种行为可以根据用户输入来做出,从而提高了机器人的灵活性。因此,机器人可以接收用户输入,根据该用户输入,机器人区分三种运行模式。用户输入(例如“探察”、“探察并清洁”、“清洁”)例如可以通过HMI(例如在便携式外部设备上或者直接在机器人上)来完成。在第一种运行模式下,机器人执行探察行驶,并且机器人探察机器人使用区域以及在此期间创建新的地图。该探察行驶可以根据在这里描述的方法进行实施。在第二种运行模式下,机器人执行探察行驶,在此期间创建新的地图并且也清洁机器人区域。在第三种运行模式下,不创建新的地图,而是基于已经存在的、被存储的地图清除机器人使用区域。这种设计构思也可以转用到不是清洁机器人的其他的机器人上。在这种情况下,机器人将执行其他的工作而不是清洁。
机器人可以在地图上将机器人使用区域的已经探察的区域标记为“已探察”(例如通过设置某个位或者其他的标记,或者通过探测、更新和存储在已探察的区域和未探察的区域之间的边界)。例如可以将在探察行驶期间至少一次位于机器人的导航传感器的探测区域内(参见图7)的那些区域在地图上标记为已探察。机器人通常可以借助于导航传感器,在导航传感器的探测区域内检测物体,例如通过以无接触的方式测量在导航传感器与物体的多个点之间的距离(参见图6)。
如果机器人确定使用区域已经被完全探察(例如因为被标记为已探察的区域完全被障碍物限定边界)和/或如果不可能继续进行探察行驶,因为检测不到其他的(还没有完全探察的)部分区域,则机器人可以结束探察行驶。在这种情况下,机器人可以重新执行部分区域检测,并且在此期间考虑与已完全探察的机器人使用区域有关的地图数据。在这个最后的部分区域检测中,机器人可以使用与在探察行驶期间在重复执行的部分区域检测的情况下不同的算法(例如更精确的和/或者更复杂的算法)。但是,替代地,可以将相同的算法与更改的参数一起使用。最后,机器人在结束探察行驶之后可以返回到该探察行驶开始的起点,或者返回到在探察行驶期间被检测到的并且存储在地图中的基站。
在图6中的简图示出了自主移动机器人100如何探察其周围环境的情况的示例。在所示的示例中,机器人100的传感器单元120(参见图2)具有导航传感器121,该导航传感器覆盖限定的探测区域Z(覆盖区域)。在所示的示例中,探测区域Z具有半径为d的近似扇形的形状。这种情况在图6的简图(a)中示出。导航传感器121被设计成,一旦有物体位于传感器121的探测区域Z内,就通过该传感器测量到物体轮廓的距离来检测在机器人100的环境中的物体(例如障碍物、家具和其他的物体)。探测区域Z与机器人一起运动,并且如果机器人与物体的距离小于d,则探测区域Z可以覆盖物体。图6的简图(b)示出了障碍物H位于机器人的导航传感器121的探测区域Z内的情况。机器人可以识别障碍物H的轮廓的一部分,在本示例中,这是在障碍物H的面向传感器121一侧上的线L。线L被存储在地图中。在探察行驶的过程中,机器人还将从其他的观察方向检测障碍物H,并且由此可以在地图上完善障碍物的轮廓。在所示的示例中,传感器这种的探测区域Z具有相对较小的视野。但是,也有一些传感器能够覆盖360°的范围。在这种情况下,探测区域Z具有(完整的)圆形的形状。取决于传感器,其他的探测区域也是可能的并且本身是已知的。特别地,探测区域可以是立体的,例如开口锥体,特别是在用于对环境进行三维探测的传感器的情况下。
机器人100一般地知道自己在地图上的位置;机器人100例如可以借助于测距法(例如借助于轮子传感器、视觉测距法等等)来测量其位置的变化。因此,机器人也“知道”它已经探察过机器人使用区域的哪些区域,并且可以在地图上将这些已经探察过的区域标记为“已探察”。在图7中所示的示例中,已探察的区域E包括机器人使用区域的、在探察行驶期间已经至少一次位于(与机器人100一起运动的)探测区域Z中的所有点。地图的未被标记为已探察的区域可以被视为“空白点”,对于机器人来说(还)不存在关于这些“空白点”的任何信息。在这一点上还应该注意的是,位于探测区域Z中的物体H遮盖了探测区域的一部分并且实际地缩小了该探测区域(请参见在图6中的简图(b))。
图8至图10示出了对具有多个房间的机器人使用区域的逐步的探察。图8显示了在探察行驶开始后不久的情况。所示的机器人使用区域对应于来自图3和图4中的机器人使用区域。在本示例中,探察行驶开始于视图中的卧室(参见图4,房间10)的上部的区域中。为了简单起见,假设导航传感器121的探测区域Z覆盖360°并且因此是圆形的。用Z标示的圆表示传感器121的理论上的最大探测区域。与此相应地,已探察的区域E的边界EB由在机器人周围的已被识别的障碍物和两个圆弧给出。
机器人100现在可以执行一个部分区域检测,以便确定第一参考部分区域R(或者它的边界)。参考部分区域R例如一方面通过所识别的障碍物来限制边界。另一方面,定义两条虚拟的临时的边界线。由于没有用于该两条边界线的位置任何其他的参考点,因此它们例如被确定为与被识别的障碍物正交的直线,该被识别的障碍物接触已探察的区域E的边界EB(参见图8,与圆弧EB相切的水平的和垂直的虚线)。
为了进一步探察所述参考部分区域,机器人例如可以尝试朝着已探察的区域EB的边界线之一的方向上行驶,这些边界线不是由检测到的障碍物(例如墙壁、床、抽屉柜等等)形成的。在本示例中,在机器人继续持续地执行测量和检测在其环境中的障碍物并且将其存储在其地图中期间,机器人向下行驶到房间10的在地图上位于下方的区域中。这种情况在图9中示出。如从图9可以看出的那样,与图8相比较,已探察的区域E已经扩大了,其中,在机器人旁边左侧的墙壁的一个拐角部分地遮挡了机器人100的传感器121的视野。在所示的情况下,(朝向走廊20的)门过道的一部分已经位于已探察的区域E中。在重新进行部分区域检测时,产生用于该参考部分区域R的其他的边界。此外,在该部分区域检测中可以包括预定义的假设,例如假设一个房间具有基本上矩形的地面。根据图9,这样地选择边界线,即参考部分区域是基本上矩形的区域,该区域包含被探察的区域的大部分。参考部分区域R的下边界线(在图9中的水平的虚线)例如通过延长墙壁的轮廓而产生。例如,参考部分区域R的左边界线(在图9中的垂直的虚线)被确定成与其成直角,从而已探察的区域EB的任何边界线不与该左边界线相交(而是仅在上部的区域中接触)。
基于对参考部分区域R的确定,机器人100现在不通过门过道行驶进入相邻的房间中,因为机器人会由此离开参考部分区域。相反,机器人100留在参考部分区域R中,并且探察(在地图中)左下方先前还未探察的区域(空白点),并且被探察的区域E继续增长并且现在几乎包括整个房间(参见图2,卧室10)。在图10中示出了这种情况。在重新进行部分区域检测时,机器人100识别出通向相邻的房间的门过道(参见图4,走廊20),该门过道作为线D被输入到地图中并且被用于确定在两个部分区域之间的边界线。因此,机器人会将在线D的另一侧上的、已经被探察的区域与另一个(新的、至今为止还未检测的)部分区域T相关联。因此,在图10中所示的情况下,所述部分区域检测提供了两个部分区域,即参考部分区域R和所述另一个部分区域T。
基于图10中所示的情况,机器人将不会直接地行驶到下一个部分区域T中(尽管该下一个部分区域非常靠近机器人100)以便在那里继续进行探察,而是首先探察在参考区域R中仍然存在的“空白点”(在地图中的左上方)。在此之后,机器人将确定该参考部分区域R已被完全探察,因为该参考部分区域仅仅由障碍物(例如墙壁、家具等等)或者由在两个部分区域之间的边界线(线D、门过道)限制了边界。在此之后机器人才行驶进入所述另一个部分区域T中,该部分区域被定义为新的参考部分区域,并且机器人在那里继续进行其探察行驶。
图11示出了在探察部分区域T时的机器人100,该部分区域T现在是参考部分区域。在机器人100已经行驶通过门过道之后,在所示的示例中,机器人已经向左转弯并且在起居室(参见图4,起居室30)的方向上跟随走廊(参见图4,走廊20)行驶。在图11中再次示出了被探察的区域E的边界EB以及参考部分区域T在部分区域检测期间确定的(更新的)边界。在参考部分区域T的右侧和左侧上的边界线是直线,该直线与一个探测到的墙壁成直角地延伸并且与被探察的区域的边界EB相切。在根据图11的图示中,已探察的区域E已经延伸到相邻的房间(参见图4,起居室30)中,然而机器人100还没有识别出通向起居室的门过道。因此,机器人100继续进行探察一直到进入相邻的房间中并且进入在图11中所示的状况。
在图11中所示的示例中,仅在机器人100行驶通过门过道D'之后,机器人才识别出该门过道。随后的部分区域检测(基于现在识别出的门过道D')导致对另一个部分区域U的检测。在这种情况下,机器人可以识别出它不再位于参考部分区域T中,尽管该参考部分区域T还没有被完全探察(在左侧,该参考部分区域还没有通过检测到的障碍物或者另一个已经识别的部分区域限制边界,因此其被未完全地探察)。因此机器人100行驶返回到该参考部分区域T中并且对该参考部分区域进一步进行探察。
在图13中所示的情况下,机器人100也已经探察了参考部分区域T的左侧的区域,并且机器人将检测该参考部分区域T现在已经被完全探察,因为该参考部分区域仅仅由检测到的障碍物(墙壁)的轮廓和检测到的相邻的部分区域R和U限制边界。基于图13中所示的情况,机器人现在将选择部分区域U作为新的参考部分区域(因为该部分区域还没有被完全探察)并且在那里继续进行探察行驶。
在此处描述的方法的一种简单的变型中,部分区域检测被简化为对门过道的检测。对(敞开的)门过道的检测意味着对相邻的房间的检测。这就是说,该部分区域检测在探察行驶期间实际上仅将不同的房间作为不同的部分区域来检测。除此之外,该示例性实施例与先前描述的示例性实施例相同或者相似。机器人将首先完全地探察一个房间,然后机器人才行驶通过一个门过道,以便在相邻的房间中继续进行探察行驶。如果机器人意外地行驶进入相邻的房间,例如因为仅在机器人已经检测到这样的门过道之后才识别出这样的门过道,则机器人仍然可以确定它已经离开了先前已探察过的房间,尽管该房间还没有被完全地探察。在这种情况下,机器人将结束在它当前所位于的房间中的探察行驶并且再次(沿着相反的方向)行驶通过先前意外地行驶通过的门过道,通过这种方式返回到先前探察的房间并且对该房间进一步进行探察。
在这里描述的方法可以以软件的形式实施。该软件可以在机器人上、在人机界面(human-machine Interface,HMI)上和/或者在任何其他的计算机(例如家庭服务器或者云服务器)上执行。特别地,该方法的各个部分可以借助于软件来实施,该软件可以被划分为不同的软件模块并且可以在不同的设备上执行。如果机器人“做某事”(例如执行一个方法步骤),则该过程(例如方法步骤)可能已经由控制单元150(参见图2)启动。该控制单元150可以(可能与其他的单元一起)形成用于自主移动机器人的控制装置,该控制装置(借助于其他在机器人中的单元和模块)控制自主和移动机器人的所有功能和行为方式。
Claims (19)
1.一种通过自主移动机器人探察机器人使用区域的方法,其中,所述方法包括:
开始探察行驶,其中,所述机器人在所述探察行驶期间执行以下的步骤:
在所述机器人运动通过所述机器人使用区域期间,检测在所述机器人的环境中的物体并且将所检测到的物体作为地图数据存储在地图中;
基于所存储的地图数据执行部分区域检测,其中,检测至少一个参考部分区域;
检查所述参考部分区域是否被完全探察;
重复所述部分区域检测,以更新所述参考部分区域,并且重新检查更新的参考部分区域是否被完全探察,并且继续探察更新的参考部分区域,直到检查表明更新的参考部分区域被完全探察为止;然后
只要已经检测到另一个部分区域,那么就继续在所述另一个部分区域中进行所述探察行驶,所述另一个部分区域将作为参考部分区域。
2.根据权利要求1所述的方法,
其中,为了更新所述参考部分区域,所述部分区域检测不仅考虑当前的地图数据,而且考虑所述参考部分区域的以前的边界。
3.根据权利要求2所述的方法,
其中,为了更新所述参考部分区域,已经被探察的机器人使用区域的部分被划分为一个或多个部分区域,其中,根据预定义的标准从所检测的部分区域中选择出所述参考部分区域。
4.根据权利要求3所述的方法,
其中,从检测的部分区域中选择出与先前确定的参考部分区域之间具有最大重叠的部分区域作为参考部分区域。
5.根据权利要求1至4中的任一项所述的方法,
其中,将基于所述地图数据的以下信息中的至少一项用于所述部分区域检测:墙壁和/或者其他的障碍物的位置、门过道的位置、地板覆盖物边界、地板结构、天花板结构、墙壁结构、部分区域的可预先确定的几何特性,例如部分区域的最小尺寸或最大尺寸。
6.根据权利要求1至5中的任一项所述的方法,
其中,在所述部分区域检测中,至少部分预测性地确定部分区域的边界线,特别是通过延伸已经识别的物体的轮廓并且将其用作边界线和/或者通过使用根据预定义的标准所确定的直线作为边界线,所述直线接触所述机器人使用区域的已经被探察的部分。
7.根据权利要求1至6中的任一项所述的方法,
其中,在部分区域检测之后,所述机器人检查它是否仍然位于所述参考部分区域中,并且如果不是的话,则它行驶返回到该参考部分区域中。
8.根据权利要求1至7中的任一项所述的方法,
其中,如果所述机器人确定以下事件中的至少一项,则重复进行所述部分区域检测:
自从上一次部分区域检测以来,一定的时间间隔已经结束;
自从上一次部分区域检测以来,所述机器人已经行驶过了一定的路程;
自从上一次部分区域检测以来,所述机器人使用区域的被探察的区域已经增长了一定的面积;
用于进一步探察所述参考部分区域的成本超过给定值,其中,所述成本通过成本函数进行评估;以及
所述机器人已经到达用于探察所确定的目标点。
9.根据权利要求1至8中的任一项所述的方法,
其中,在所述机器人已经确定参考部分区域已被完全探察之后,所述参考部分区域被存储并且不再被更改。
10.根据权利要求9所述的方法,
其中,如果在作为参考部分区域的另一个部分区域中继续进行所述探察,则在进一步的部分区域检测中考虑一个或多个先前的参考部分区域,使得其边界线不再被更改和/或其边界线用于确定其他的部分区域的边界线。
11.根据权利要求1至10中的任一项所述的方法,
其中,所述机器人是清洁机器人,并且在它已经确定参考部分区域已被完全探察之后并且在它在作为参考部分区域的另一个部分区域中继续进行探察之前,它清洁所述参考部分区域。
12.根据权利要求1至11中的任一项所述的方法,
其中,所述机器人将所述机器人部分区域的、在探察行驶期间至少一次位于所述机器人的导航传感器的探测区域内的区域在地图上标记为已探察。
13.根据权利要求12所述的方法,
其中,通过无接触地测量在导航传感器和物体的多个点之间的距离,所述机器人借助于导航传感器在所述导航传感器的探测区域内检测物体。
14.根据权利要求1至13中的任一项所述的方法,所述方法进一步包括:
如果不能继续进行所述探察行驶是因为不再有其他的部分区域被检测到,则结束所述探察行驶;并且
基于与被完全探察的机器人使用区域有关的地图数据,重新执行部分区域检测。
15.根据权利要求1至13中的任一项所述的方法,所述方法进一步包括:
如果不能继续进行所述探察行驶是因为不再有其他的部分区域被检测到,则结束所述探察行驶;并且
返回到所述机器人被启动时所处于的起点,或者驶向在所述探察行驶期间被检测到的基站。
16.一种通过自主移动机器人探察机器人使用区域的方法,其中,所述方法包括:
在所述机器人使用区域内通过门过道连接起来的多个房间中的第一房间开始探察行驶,其中,所述机器人在所述探察行驶期间执行以下的步骤:
在所述机器人运动通过所述机器人使用区域期间,检测在所述机器人的环境中的物体并且将所检测到的物体作为地图数据存储在地图中;
检测一个或多个门过道;
检查所述第一房间是否被完全探察,并且
继续在所述第一房间中进行所述探察行驶,直到检查表明所述第一房间被完全探察为止;然后
继续在另一个房间中进行所述探察行驶。
17.根据权利要求16所述的方法,
其中,在门过道被行驶通过之前、期间或者之后,可以对所述门过道进行检测,并且
其中,如果在所述第一房间被完全探察之前所述机器人已经行驶通过了一个门过道,则所述机器人沿着相反的方向行驶通过所述门过道,以返回到所述第一房间中。
18.一种用于控制自主移动机器人的方法,所述方法包括以下的步骤:
通过所述自主移动机器人接收用户输入;
根据用户输入确定运行模式,其中,所述机器人位于机器人使用区域中,并且
在第一运行模式下,根据权利要求1至17中的任一项所述的方法探察所述机器人使用区域并且在创建新地图;
在第二运行模式下,根据权利要求1至17中的任一项所述的方法探察所述机器人使用区域、创建新地图并且进行工作,特别是清洁所述机器人使用区域,以及
在第三运行模式下,在所述机器人使用区域中进行工作,特别是清洗所述机器人使用区域,利用先前创建的并且存储的地图在所述机器人使用区域中导航。
19.一种用于自主移动机器人的机器人控制装置,包括以下的部分:
用于存储软件指令的存储器;
至少一个被设计成用于执行所述软件指令的处理器,其中,在所述软件指令被执行时,所述处理器促使所述机器人控制装置执行根据权利要求1至17中的任一项所述的方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017121128 | 2017-09-12 | ||
DE102017121128.4 | 2017-09-12 | ||
PCT/EP2018/074607 WO2019053062A1 (de) | 2017-09-12 | 2018-09-12 | Exploration einer unbekannten umgebung durch einen autonomen mobilen roboter |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111328386A true CN111328386A (zh) | 2020-06-23 |
Family
ID=63579352
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880072993.XA Pending CN111328386A (zh) | 2017-09-12 | 2018-09-12 | 通过自主移动机器人对未知环境的探察 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210131822A1 (zh) |
EP (1) | EP3682305B1 (zh) |
JP (1) | JP2020533720A (zh) |
CN (1) | CN111328386A (zh) |
WO (1) | WO2019053062A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111857156A (zh) * | 2020-08-02 | 2020-10-30 | 珠海市一微半导体有限公司 | 一种基于激光的机器人区域划分方法、芯片及机器人 |
CN112015175A (zh) * | 2020-08-12 | 2020-12-01 | 深圳华芯信息技术股份有限公司 | 用于移动机器人的房间分割方法、系统、终端以及介质 |
CN112180940A (zh) * | 2020-10-16 | 2021-01-05 | 三一机器人科技有限公司 | 用于有反定位的建图方法及装置、车辆运行方法及装置 |
CN112790669A (zh) * | 2020-12-30 | 2021-05-14 | 北京奇虎科技有限公司 | 扫地机清扫方法、设备以及存储介质 |
CN114589708A (zh) * | 2022-02-28 | 2022-06-07 | 华南师范大学 | 基于环境信息的室内自主探索方法、装置及机器人 |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11274929B1 (en) * | 2017-10-17 | 2022-03-15 | AI Incorporated | Method for constructing a map while performing work |
EP3907575B1 (en) * | 2019-01-03 | 2023-09-06 | Ecovacs Robotics Co., Ltd. | Dynamic region division and region channel identification method, and cleaning robot |
JP2022539936A (ja) * | 2019-01-16 | 2022-09-14 | ハイ ロボティクス カンパニー リミテッド | 障害物回避方法、装置及び倉庫ロボット |
TWI683197B (zh) * | 2019-03-19 | 2020-01-21 | 東元電機股份有限公司 | 移動平台圖資校正系統 |
CN109947109B (zh) * | 2019-04-02 | 2022-06-21 | 北京石头创新科技有限公司 | 机器人工作区域地图构建方法、装置、机器人和介质 |
CN109946715B (zh) * | 2019-04-09 | 2021-06-25 | 云鲸智能科技(东莞)有限公司 | 探测方法、装置、移动机器人及存储介质 |
CN110362079B (zh) * | 2019-07-11 | 2022-07-08 | 珠海一微半导体股份有限公司 | 机器人的遍历控制方法和芯片以及清洁机器人 |
KR20210051014A (ko) * | 2019-10-29 | 2021-05-10 | 엘지전자 주식회사 | 로봇 청소기 및 그의 동작 방법 |
CN111721280B (zh) * | 2020-05-25 | 2022-05-31 | 科沃斯机器人股份有限公司 | 一种区域识别方法、自移动设备及存储介质 |
CN111631642B (zh) * | 2020-05-30 | 2021-07-06 | 珠海市一微半导体有限公司 | 一种基于激光地图的工作区域拓展方法、芯片及机器人 |
CN111830970B (zh) * | 2020-06-12 | 2022-03-04 | 珠海一微半导体股份有限公司 | 一种机器人沿边行走的区域清扫规划方法、芯片及机器人 |
CN111813111B (zh) * | 2020-06-29 | 2024-02-20 | 佛山科学技术学院 | 一种多机器人协同工作方法 |
CN111898557B (zh) * | 2020-08-03 | 2024-04-09 | 追觅创新科技(苏州)有限公司 | 自移动设备的地图创建方法、装置、设备及存储介质 |
JP2022113054A (ja) * | 2021-01-22 | 2022-08-03 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、プログラムおよび移動装置 |
US12099371B2 (en) * | 2021-06-04 | 2024-09-24 | Ubkang (Qingdao) Technology Co., Ltd. | Fast continuous regulation of nonholonomic mobile robots |
DE102021206121B3 (de) * | 2021-06-16 | 2022-12-22 | BSH Hausgeräte GmbH | Regelmäßiges Reinigen eines Haushalts |
CN113741446B (zh) * | 2021-08-27 | 2024-04-16 | 深圳市优必选科技股份有限公司 | 一种机器人自主探索的方法、终端设备及存储介质 |
US12007785B2 (en) | 2021-08-31 | 2024-06-11 | Samsung Electronics Co., Ltd. | Cleaning robot capable of obtaining map of indoor space and operating method thereof |
CN113805590A (zh) * | 2021-09-23 | 2021-12-17 | 云南民族大学 | 一种基于边界驱动的室内机器人自主探索方法及系统 |
CN114595354A (zh) * | 2022-01-04 | 2022-06-07 | 北京石头创新科技有限公司 | 机器人的建图方法、装置、机器人和存储介质 |
CN114543808B (zh) * | 2022-02-11 | 2024-09-27 | 杭州萤石软件有限公司 | 室内重定位方法、装置、设备及存储介质 |
CN116182840B (zh) * | 2023-04-28 | 2023-07-25 | 科大讯飞股份有限公司 | 地图构建方法、装置、设备及存储介质 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050216122A1 (en) * | 2004-03-25 | 2005-09-29 | Funai Electric Co., Ltd. | Self-propelled cleaner |
US20070282484A1 (en) * | 2006-06-01 | 2007-12-06 | Samsung Electronics Co., Ltd. | Method, medium and apparatus classifying and collecting area feature information according to a robot's moving path, and a robot controlled by the area features |
EP2294960A2 (de) * | 2009-09-11 | 2011-03-16 | Vorwerk & Co. Interholding GmbH | Verfahren zum Betreiben eines Reinigungsroboters |
WO2011057153A1 (en) * | 2009-11-06 | 2011-05-12 | Evolution Robotics, Inc. | Methods and systems for complete coverage of a surface by an autonomous robot |
CN104737085A (zh) * | 2012-09-24 | 2015-06-24 | 罗巴特公司 | 用于自主地检测或处理地面的机器人和方法 |
US20160008982A1 (en) * | 2012-02-08 | 2016-01-14 | RobArt GmbH | Method for automatically triggering a self-positioning process |
WO2016095966A1 (en) * | 2014-12-16 | 2016-06-23 | Aktiebolaget Electrolux | Cleaning method for a robotic cleaning device |
US20160297072A1 (en) * | 2015-04-09 | 2016-10-13 | Irobot Corporation | Restricting movement of a mobile robot |
WO2017079777A2 (de) * | 2015-11-11 | 2017-05-18 | RobArt GmbH | Unterteilung von karten für die roboternavigation |
EP3184013A1 (en) * | 2014-08-20 | 2017-06-28 | Samsung Electronics Co., Ltd | Cleaning robot and control method therefor |
CN107003675A (zh) * | 2014-12-16 | 2017-08-01 | 罗伯特·博世有限公司 | 用于自主机器人车辆测绘处理表面的方法 |
CN107000207A (zh) * | 2014-09-24 | 2017-08-01 | 三星电子株式会社 | 清洁机器人和控制清洁机器人的方法 |
WO2017141535A1 (ja) * | 2016-02-16 | 2017-08-24 | 東芝ライフスタイル株式会社 | 自律走行体 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3198532B2 (ja) * | 1991-05-14 | 2001-08-13 | 松下電器産業株式会社 | 自走式掃除機 |
ES2660836T3 (es) | 2001-06-12 | 2018-03-26 | Irobot Corporation | Método y sistema de cobertura multicódigo para un robot autónomo |
JP2005270413A (ja) * | 2004-03-25 | 2005-10-06 | Funai Electric Co Ltd | 自走式掃除機 |
KR100843085B1 (ko) * | 2006-06-20 | 2008-07-02 | 삼성전자주식회사 | 이동 로봇의 격자지도 작성 방법 및 장치와 이를 이용한영역 분리 방법 및 장치 |
JP2008027267A (ja) * | 2006-07-24 | 2008-02-07 | Matsushita Electric Ind Co Ltd | 自走式機器およびそのプログラム |
DE102010017689A1 (de) * | 2010-07-01 | 2012-01-05 | Vorwerk & Co. Interholding Gmbh | Selbsttätig verfahrbares Gerät sowie Verfahren zur Orientierung eines solchen Gerätes |
KR102158695B1 (ko) * | 2014-02-12 | 2020-10-23 | 엘지전자 주식회사 | 로봇 청소기 및 이의 제어방법 |
-
2018
- 2018-09-12 US US16/645,997 patent/US20210131822A1/en not_active Abandoned
- 2018-09-12 CN CN201880072993.XA patent/CN111328386A/zh active Pending
- 2018-09-12 EP EP18769346.0A patent/EP3682305B1/de active Active
- 2018-09-12 WO PCT/EP2018/074607 patent/WO2019053062A1/de unknown
- 2018-09-12 JP JP2020535308A patent/JP2020533720A/ja active Pending
Patent Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050216122A1 (en) * | 2004-03-25 | 2005-09-29 | Funai Electric Co., Ltd. | Self-propelled cleaner |
US20070282484A1 (en) * | 2006-06-01 | 2007-12-06 | Samsung Electronics Co., Ltd. | Method, medium and apparatus classifying and collecting area feature information according to a robot's moving path, and a robot controlled by the area features |
JP2007323652A (ja) * | 2006-06-01 | 2007-12-13 | Samsung Electronics Co Ltd | ロボットの移動経路によって所定領域の特性に関する情報を収集し、分類する方法及び該領域特性によって制御されるロボット、該領域特性を用いたui構成方法及び装置 |
EP2294960A2 (de) * | 2009-09-11 | 2011-03-16 | Vorwerk & Co. Interholding GmbH | Verfahren zum Betreiben eines Reinigungsroboters |
CN102018481A (zh) * | 2009-09-11 | 2011-04-20 | 德国福维克控股公司 | 驱动清洁机器人的方法 |
WO2011057153A1 (en) * | 2009-11-06 | 2011-05-12 | Evolution Robotics, Inc. | Methods and systems for complete coverage of a surface by an autonomous robot |
CN102713779A (zh) * | 2009-11-06 | 2012-10-03 | 进展机器人有限公司 | 用于通过自主型机器人完全覆盖表面的方法和系统 |
US20160008982A1 (en) * | 2012-02-08 | 2016-01-14 | RobArt GmbH | Method for automatically triggering a self-positioning process |
CN104737085A (zh) * | 2012-09-24 | 2015-06-24 | 罗巴特公司 | 用于自主地检测或处理地面的机器人和方法 |
EP3184013A1 (en) * | 2014-08-20 | 2017-06-28 | Samsung Electronics Co., Ltd | Cleaning robot and control method therefor |
CN107072457A (zh) * | 2014-08-20 | 2017-08-18 | 三星电子株式会社 | 清洁机器人及其控制方法 |
CN107000207A (zh) * | 2014-09-24 | 2017-08-01 | 三星电子株式会社 | 清洁机器人和控制清洁机器人的方法 |
WO2016095966A1 (en) * | 2014-12-16 | 2016-06-23 | Aktiebolaget Electrolux | Cleaning method for a robotic cleaning device |
CN107003675A (zh) * | 2014-12-16 | 2017-08-01 | 罗伯特·博世有限公司 | 用于自主机器人车辆测绘处理表面的方法 |
CN106998984A (zh) * | 2014-12-16 | 2017-08-01 | 伊莱克斯公司 | 用于机器人清洁设备的清洁方法 |
US20160297072A1 (en) * | 2015-04-09 | 2016-10-13 | Irobot Corporation | Restricting movement of a mobile robot |
CN106037591A (zh) * | 2015-04-09 | 2016-10-26 | 美国iRobot公司 | 限制移动机器人的运动 |
WO2017079777A2 (de) * | 2015-11-11 | 2017-05-18 | RobArt GmbH | Unterteilung von karten für die roboternavigation |
WO2017141535A1 (ja) * | 2016-02-16 | 2017-08-24 | 東芝ライフスタイル株式会社 | 自律走行体 |
Non-Patent Citations (1)
Title |
---|
刘海;郭小勤;余得贵;: "清洁机器人全覆盖路径规划算法综述", 机电产品开发与创新, no. 06 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111857156A (zh) * | 2020-08-02 | 2020-10-30 | 珠海市一微半导体有限公司 | 一种基于激光的机器人区域划分方法、芯片及机器人 |
CN111857156B (zh) * | 2020-08-02 | 2024-04-02 | 珠海一微半导体股份有限公司 | 一种基于激光的机器人区域划分方法、芯片及机器人 |
CN112015175A (zh) * | 2020-08-12 | 2020-12-01 | 深圳华芯信息技术股份有限公司 | 用于移动机器人的房间分割方法、系统、终端以及介质 |
CN112180940A (zh) * | 2020-10-16 | 2021-01-05 | 三一机器人科技有限公司 | 用于有反定位的建图方法及装置、车辆运行方法及装置 |
CN112790669A (zh) * | 2020-12-30 | 2021-05-14 | 北京奇虎科技有限公司 | 扫地机清扫方法、设备以及存储介质 |
CN114589708A (zh) * | 2022-02-28 | 2022-06-07 | 华南师范大学 | 基于环境信息的室内自主探索方法、装置及机器人 |
CN114589708B (zh) * | 2022-02-28 | 2023-11-07 | 华南师范大学 | 基于环境信息的室内自主探索方法、装置及机器人 |
Also Published As
Publication number | Publication date |
---|---|
EP3682305B1 (de) | 2023-04-12 |
JP2020533720A (ja) | 2020-11-19 |
WO2019053062A1 (de) | 2019-03-21 |
EP3682305A1 (de) | 2020-07-22 |
US20210131822A1 (en) | 2021-05-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111328386A (zh) | 通过自主移动机器人对未知环境的探察 | |
US20230409032A1 (en) | Method for controlling an autonomous, mobile robot | |
JP7395229B2 (ja) | 状況認識のためのモバイル清掃ロボット人工知能 | |
US20230393579A1 (en) | Sectoring of maps for robot navigation | |
EP3785093B1 (en) | Robot contextualization of map regions | |
US20220074762A1 (en) | Exploration Of A Robot Deployment Area By An Autonomous Mobile Robot | |
US11927450B2 (en) | Methods for finding the perimeter of a place using observed coordinates | |
JP7073336B2 (ja) | 自律移動ロボットを制御する方法 | |
US10612934B2 (en) | System and methods for robotic autonomous motion planning and navigation | |
JP6054425B2 (ja) | 自己位置推定を自動的に実行する方法 | |
JP2020532018A (ja) | 自律移動ロボットの移動計画 | |
US20170131721A1 (en) | Robot cleaner and method for controlling the same | |
US20200306989A1 (en) | Magnetometer for robot navigation | |
US20200397202A1 (en) | Floor treatment by means of an autonomous mobile robot | |
JP2006350776A (ja) | 移動体の経路生成装置 | |
TW201825038A (zh) | 自行移動式行走器具之操作方法 | |
Oberlander et al. | A region-based SLAM algorithm capturing metric, topological, and semantic properties | |
JP7581673B2 (ja) | 移動ロボットおよび移動ロボットの制御プログラム | |
US12140965B2 (en) | Method for controlling an autonomous mobile robot | |
JP2022165192A (ja) | 領域認識システム、移動体および領域認識装置 | |
CN116069006A (zh) | 地图优化方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
AD01 | Patent right deemed abandoned |
Effective date of abandoning: 20240830 |
|
AD01 | Patent right deemed abandoned |