CN117915817A - 机器人清洁器 - Google Patents
机器人清洁器 Download PDFInfo
- Publication number
- CN117915817A CN117915817A CN202280060153.8A CN202280060153A CN117915817A CN 117915817 A CN117915817 A CN 117915817A CN 202280060153 A CN202280060153 A CN 202280060153A CN 117915817 A CN117915817 A CN 117915817A
- Authority
- CN
- China
- Prior art keywords
- mobile device
- robotic
- cleaning system
- robotic cleaner
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004140 cleaning Methods 0.000 claims abstract description 30
- 230000003190 augmentative effect Effects 0.000 claims description 27
- 230000004044 response Effects 0.000 claims description 16
- 238000001514 detection method Methods 0.000 claims description 3
- 238000000034 method Methods 0.000 description 31
- 230000007613 environmental effect Effects 0.000 description 8
- 230000015654 memory Effects 0.000 description 6
- 230000009467 reduction Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
- A47L11/40—Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
- A47L11/4011—Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/28—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
- A47L9/2805—Parameters or conditions being sensed
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0038—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0044—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/22—Command input arrangements
- G05D1/221—Remote-control arrangements
- G05D1/222—Remote-control arrangements operated by humans
- G05D1/224—Output arrangements on the remote controller, e.g. displays, haptics or speakers
- G05D1/2244—Optic
- G05D1/2247—Optic providing the operator with simple or augmented images from one or more cameras
- G05D1/2249—Optic providing the operator with simple or augmented images from one or more cameras using augmented reality
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/22—Command input arrangements
- G05D1/229—Command input data, e.g. waypoints
- G05D1/2297—Command input data, e.g. waypoints positional data taught by the user, e.g. paths
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/24—Arrangements for determining position or orientation
- G05D1/246—Arrangements for determining position or orientation using environment maps, e.g. simultaneous localisation and mapping [SLAM]
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/60—Intended control result
- G05D1/648—Performing a task within a working area or space, e.g. cleaning
- G05D1/6484—Performing a task within a working area or space, e.g. cleaning by taking into account parameters or characteristics of the working area or space, e.g. size or shape
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
- A47L2201/04—Automatic control of the travelling movement; Automatic obstacle detection
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D2105/00—Specific applications of the controlled vehicles
- G05D2105/10—Specific applications of the controlled vehicles for cleaning, vacuuming or polishing
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D2107/00—Specific environments of the controlled vehicles
- G05D2107/40—Indoor domestic environment
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D2109/00—Types of controlled vehicles
- G05D2109/10—Land vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- General Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
一种机器人清洁系统可包括配置成生成环境地图的机器人清洁器,以及配置成通信地联接到机器人清洁器的移动装置,机器人清洁器配置成将地图传送到移动装置。移动装置可包括配置成生成环境的图像的摄像头,图像包括多个像素;配置成显示图像并且在显示图像时接收用户输入的显示器,用户输入与多个像素中的一个或多个像素相关联;配置成生成与图像的每个像素相关联的深度数据的深度传感器;配置成生成与图像的每个像素相关联的定向数据的定向传感器;以及配置成使用深度数据和定向数据在地图内定位移动装置的移动控制器。
Description
相关申请的交叉引用
本申请请求享有2021年8月13日提交的题为“机器人清洁器(Robotic Cleaner)”的美国临时申请序列号63/232,997的权益,该临时申请通过引用完全并入本文。
技术领域
本公开大体上涉及一种机器人清洁器,并且更具体地涉及一种配置成与诸如移动电话或平板电脑的移动装置协作的机器人清洁器。
背景技术
自主清洁装置(例如,机器人清洁器)配置成自主地穿过(或通过)表面,同时至少部分地清洁该表面。自主清洁装置的一个实例是机器人真空清洁器。机器人真空清洁器可以包含抽吸电机、流体地耦合到抽吸电机的集尘杯,以及配置成推动机器人真空清洁器跨越待清洁表面的一个或多个从动轮。在操作中,机器人真空清洁器穿过待清洁表面,同时收集存在于待清洁表面上的任何碎屑的至少一部分。
附图说明
通过结合附图阅读以下详细描述,将更好地理解这些和其它特征和优点,其中:
图1是根据本公开的实施例的机器人清洁器和移动装置的示意性实例。
图2是根据本公开的实施例的移动装置的示意性实例。
图3是根据本公开的实施例的示例方法的流程图。
图4是根据本公开的实施例的示例方法的流程图。
图5是根据本公开的实施例的示例方法的流程图。
具体实施方式
本公开总体涉及配置成与移动装置协作的机器人清洁器。例如,机器人清洁器可配置成生成环境地图,并且将生成的地图传送到移动装置。移动装置可配置成在从机器人清洁器接收的地图内定位其自身。
移动装置可包括显示器和摄像头,其中显示器显示对应于摄像头的视场的一个或多个图像(例如,以视频的形式)。移动装置可配置成生成一个或多个增强现实元素以在一个或多个图像上显示。在一些情况下,增强现实元素可响应于一个或多个用户输入而生成,并且对应于一个或多个图像中所示的环境内的位置和/或区域。当与使用图形表示(例如,呈二维地图的形式)相比时,使用增强现实元素来识别环境内的位置和/或区域可更容易和/或更准确。所识别的位置和/或区域可在从机器人清洁器接收的地图内(例如,转换成所接收的地图内的坐标)定位。
例如,可使用多个用户输入来识别包围一个或多个图像内示出的环境区域的多边形的顶点。所得多边形可在一个或多个图像中示出为增强现实元素。在此实例中,包围区域可在所接收的地图内定位并且与命令/指令(例如,清洁此处命令/指令、避开命令/指令、表面类型命令/指令和/或任何其它命令/指令)相关联。包围区域可响应于与表示多边形的增强现实元素交互的用户输入而与命令/指令相关联。
图1示出了配置成与移动装置102(例如,移动电话、平板电脑、笔记本电脑和/或任何其它类型的移动装置)协作的机器人清洁器100的示意性实例。如图所示,机器人清洁器100包括一个或多个从动轮104(以虚线示出)、流体地联接到抽吸入口108(以虚线示出)和集尘杯110(以虚线示出)的抽吸电机106(以虚线示出),以及通信地联接到一个或多个机器人传感器114(以虚线示出)和/或一个或多个机器人发射器/接收器116(以虚线示出)的机器人控制器112(以虚线示出)。在操作中,机器人控制器112配置成使机器人清洁器100自主地通过环境(例如,家庭和/或家庭内的房间)。在通过环境时,机器人清洁器100可配置成生成环境地图(例如,使用一个或多个机器人传感器114)。
例如,机器人控制器112可配置成从一个或多个机器人传感器114中的至少一个机器人传感器接收环境和/或位置(例如,定向)信息。环境信息可对应于环境内的障碍物(例如,墙壁、家具和/或任何其它障碍物)。机器人控制器112可使用所接收的环境信息和/或位置信息来生成环境的一个或多个地图。使用生成的一个或多个地图,机器人控制器112可配置成生成一个或多个路径计划,机器人清洁器100在穿过环境时可沿着所述路径计划行进。在一些情况下,机器人控制器112可结合所接收的环境信息和/或位置信息使用一个或多个地图,以用于定位的目的。在地图内定位机器人清洁器100可允许机器人清洁器100导航到特定位置(例如,由用户识别的脏位置)和/或避开特定位置(例如,用户不希望机器人清洁器100穿过的区域)。
移动装置102配置成通信地联接到机器人清洁器100。如图所示,移动装置102包括显示器118、移动控制器120(以虚线示出)、一个或多个移动发射器/接收器122(以虚线示出)和一个或多个移动传感器124(以虚线示出)。一个或多个移动发射器/接收器122中的至少一个移动发射器/接收器配置成(直接或间接)与一个或多个机器人发射器/接收器116中的至少一个机器人发射器/接收器通信地联接。例如,移动装置102可配置成将一个或多个指令/命令传输到机器人清洁器100。作为另一实例,机器人清洁器100可配置成将数据(例如,环境信息和/或位置信息)传输到移动装置102。作为另一实例,机器人清洁器100和移动装置102可配置成用于双向通信。在此实例中,移动装置102可配置成传输至少部分地基于用户输入的一个或多个指令/命令,并且从机器人清洁器100接收环境信息和/或位置信息(例如,以地图的形式)。
移动控制器120可配置成使用一个或多个移动传感器124中的至少一个移动传感器来在环境内定位移动装置102。在一些情况下,移动装置102可从机器人清洁器100接收环境地图,并且使用所接收的地图来在环境内定位其自身。例如,移动控制器120可从一个或多个移动传感器124中的至少一个移动传感器接收环境信息,并且确定移动装置102在所接收的地图内的位置。在此实例中,移动控制器120可配置成实时跟踪移动装置102在环境内的移动。在一些情况下,可跟踪移动装置102相对于一点(例如,机器人清洁器100的位置)的位置变化。在一些情况下,一个或多个移动传感器124可用于修改所接收的地图(例如,以提高所接收的地图的准确性)。例如,一个或多个移动传感器124可用于识别(多个)障碍物、(多个)障碍物类型(例如,家具、墙壁和/或任何其它障碍物类型)和/或(多个)表面类型(例如,地毯或硬地板),并且将此信息添加到所接收的地图,以生成修改的地图。修改的地图可传输到机器人清洁器100。在此实例中,用户可发送命令/指令以清洁使用移动传感器124识别的特定家具附近。命令/指令可包括在修改的地图中(例如,使得每当机器人清洁器100接近特定家具时执行命令/指令)和/或与修改的地图分离(例如,使得机器人清洁器100响应于接收到命令/指令而执行命令/指令和/或将命令/指令包括到地图中)。
一个或多个移动传感器124可包括例如摄像头(例如,单目或立体摄像头)、配置成生成深度数据的深度传感器(例如,光检测和测距(LIDAR)传感器)、配置成生成定向数据的定向传感器(例如,罗盘和/或加速度计)和/或任何其它类型的传感器中的一个或多个。在一个实例中,一个或多个移动传感器124可包括摄像头和LIDAR传感器。
图2示出了移动装置200的示意性实例,所述移动装置可以是图2的移动装置102的实例。移动装置200大体上以智能手机的形式示出。如图所示,移动装置200包括显示器202、与显示器202相对并且配置成生成环境的一个或多个图像的摄像头204(以虚线示出)、与显示器202相对并且配置成生成深度数据的深度(例如,LIDAR)传感器206(以虚线示出)、无线移动发射器/接收器208(以虚线示出)、配置成生成定向数据的定向传感器210(以虚线示出),以及移动控制器212(以虚线示出)。
显示器202配置成显示一个或多个捕获的图像,并且在显示一个或多个图像时接收一个或多个用户输入(例如,触摸输入)。显示器202可以是例如电容或电阻触摸屏显示器。由摄像头204捕获的一个或多个图像各自包括多个像素,其中多个像素中的每个像素可与深度数据和/或定向数据相关联。当用户触摸显示器202时,当显示一个或多个捕获的图像时,用户输入可与一个或多个图像中的一个或多个像素相关联。当连续显示多个图像(例如,以视频的形式)时,用户输入可以与图像中的每个图像的一个或多个像素相关联。
移动控制器212配置成通信地联接到显示器202、摄像头204、LIDAR传感器206、无线移动发射器/接收器208和定向传感器210。例如,移动控制器212可配置成从摄像头204(例如,一个或多个图像)和LIDAR传感器206(例如,对应于所接收的一个或多个图像的深度数据)接收环境数据,并且从定向传感器210接收定向数据(例如,当捕获图像时摄像头204面向的方向)。在此实例中,移动控制器212可进一步配置成使用无线移动发射器/接收器208接收由机器人清洁器100生成的地图。移动控制器212可配置成使用从LIDAR传感器206接收的深度数据和/或从定向传感器210接收的定向数据来在所接收的地图内定位移动装置200。
移动控制器212可配置成使由摄像头204捕获的图像呈现在显示器202上(例如,呈现的图像203)。呈现的图像203可与来自定向传感器210的定向数据和来自LIDAR传感器206的深度数据相关联。例如,呈现的图像203可包括多个像素205,其中每个像素205与深度数据和定向数据相关联。呈现的图像203与定向数据和深度数据的关联允许用户将一个或多个命令/指令分配到呈现的图像203中所示的位置和/或区域(例如,用户可触摸显示器202上的呈现的图像203内示出的位置以将命令/指令分配到该位置)。换句话说,用户输入可用于利用呈现的图像203限定位置和/或区域,并且将一个或多个命令/指令与所限定的位置和/或区域相关联。在一些情况下,移动控制器212可配置成使显示器202将限定位置和/或区域显示为图像内的增强现实元素207。
移动控制器212进一步配置成在所接收的地图内(例如,使用深度数据和定向数据)定位限定位置和/或区域。例如,移动控制器212可配置成生成包括定位位置和/或区域的修改的地图。修改的地图可进一步包括与位置和/或区域相关联的命令/指令。
作为另一实例,移动控制器212可使所接收的地图内的定位位置和/或区域传输到机器人清洁器100(例如,以对应于所接收的地图的坐标的形式)。因而,机器人清洁器100可识别与命令/指令相关联的位置和/或区域,并且在该位置和/或区域处执行命令/指令。命令/指令可对应于机器人清洁器行为(例如,清洁此处命令/指令、避开命令/指令和/或任何其它命令/指令)。
图3示出了使用移动装置(诸如图1的移动装置102)控制机器人清洁器(诸如图1的机器人清洁器100)的方法300的实例的流程图。例如,移动装置102可配置成生成增强现实体验,使得移动装置102的用户可利用增强现实体验来控制机器人清洁器100的一个或多个行为。方法300的一个或多个步骤可体现为存储在一个或多个存储器(例如,一个或多个非瞬态存储器)中的一个或多个指令,其中一个或多个指令配置成在一个或多个处理器上执行。例如,机器人控制器112和/或移动控制器120可配置成使得方法300的一个或多个步骤得以执行。附加地或备选地,该方法300的一个或多个步骤可以以软件、固件和/或电路(例如,专用集成电路)的任何组合来执行。
如图所示,方法300可包括步骤302。步骤302包括在移动装置102处从机器人清洁器100接收环境地图。
还如图所示,方法300可包括步骤304。步骤304包括将机器人清洁器100定位在移动装置102的摄像头的视场内。移动装置102(例如,移动控制器120)配置成识别机器人清洁器100在摄像头的视场内。在一些情况下,用户可将机器人清洁器100召集到接近用户的位置(例如,家庭内的房间),使得用户可将机器人清洁器100定位在移动装置102的摄像头的视场内。另外或替代地,用户可行进到机器人清洁器100(例如,行进到机器人清洁器100与对接站对接的位置)以将机器人清洁器100定位在移动装置102的摄像头的视场内。
还如图所示,方法300可包括步骤306。步骤306包括响应于机器人清洁器100定位在摄像头的视场内,使用移动装置102的LIDAR传感器来测量移动装置102与机器人清洁器100之间的距离。另外,当机器人清洁器100在摄像头的视场内时,移动装置102可使用定向传感器(例如,罗盘和/或加速度计)来确定移动装置102(例如,相对于磁性北方)的定向(例如,航向)。
步骤306还可包括响应于移动装置102(例如,移动控制器120)检测到图像内的机器人清洁器100,使机器人清洁器100将地图内的机器人清洁器100的位置传送到移动装置102。例如,移动装置102可响应于检测到机器人清洁器100而查询机器人清洁器100在地图内的其当前位置。响应于机器人清洁器100接收到查询,机器人清洁器100可将其在地图内的位置传送到移动装置102。
还如图所示,方法300可包括步骤308。步骤308包括在从机器人清洁器100接收的地图内定位移动装置102。在地图内定位移动装置102可包括相对于机器人清洁器100定位移动装置102以及确定机器人清洁器100在地图内的位置。相对于机器人清洁器100定位移动装置102可包括确定移动装置102相对于机器人清洁器100的位置和定向(例如,使用深度数据和定向数据)。机器人清洁器100在地图内的位置可由机器人清洁器100获知(例如,存储在地图中)。例如,可通过查询机器人清洁器100来确定机器人清洁器100在地图内的位置(例如,如关于步骤306所论述的)。因而,移动装置102可配置成至少部分地基于从机器人清洁器100接收的数据来确定机器人清洁器100的位置。
还如图所示,方法300可包括步骤310。步骤310可包括当移动装置102在环境中移动(例如,由用户)时跟踪移动装置102的位置和定向。因而,可跟踪移动装置102相对于机器人清洁器100的位置和定向变化。
在一些情况下,机器人清洁器100可配置成在用户与移动装置102一起在环境内行进时跟随用户。例如,移动装置102可实时和/或以周期性间隔将移动装置102的位置和定向传输到机器人清洁器100,以允许机器人清洁器100跟随用户。当机器人清洁器100跟随用户时,如果移动装置102失去定位,则用户可能能够更容易地使用机器人清洁器100重新定位移动装置102。例如,移动装置102可通过执行步骤304、306和308来重新定位,而无需使用户返回到机器人清洁器100的位置。另外或替代地,当移动装置102失去定位时,机器人清洁器100可被召集到接近用户的位置(例如,到用户所在的房间),使得可执行步骤304、306和308以重新定位移动装置102。通过将机器人清洁器100定位在用户附近来重新定位可减轻当用户回到穿过最初失去定位的环境时移动装置102失去定位的风险。
还如图所示,方法300可包括步骤312。步骤312包括在移动装置102在环境内移动时,在移动装置102的显示器118上显示对应于摄像头的视场的一个或多个图像(例如,以视频的形式)。在一些情况下,移动装置102可配置成使一个或多个增强现实元素显示在显示器118上的图像上(例如,具有一个或多个选项的菜单、由用户识别的位置和/或区域和/或任何其它增强现实元素)。例如,移动装置102(例如,移动控制器120)可配置成执行物体识别以识别图像内的一个或多个物体(例如,局部地毯、家具、线和/或任何其它物体)。可使用显示器118上显示的增强现实元素在图像内向用户识别所识别的物体。作为另一实例,移动装置102可配置成在图像内显示区域,其中区域由用户输入(例如,用户在显示器118上绘制区域)生成。所识别区域和/或物体中的一个或多个可与命令/指令相关联。与所识别区域和/或物体相关联的命令/指令可作为增强现实元素在显示器118上显示给用户。
还如图所示,方法300可包括步骤314。步骤314包括从用户接收输入。输入可由触摸显示器118的用户接收。
例如,显示器118可显示对应于移动装置102的摄像头的视场内的环境的一部分的一个或多个图像(例如,以视频的形式),并且用户可触摸图像内的一个或多个位置。在此实例中,用户可触摸三个或更多个位置,并且移动控制器120可配置成至少部分地基于由用户的触摸识别的位置生成包围区域的多边形。显示器118上由用户触摸的每个位置可对应于图像的一个或多个像素,其中每个像素与深度数据和定向数据相关联。生成的多边形可作为增强现实元素显示在显示器118上。在一些情况下,移动控制器120可配置成在显示器118上显示触摸点和/或示出在两个连续触摸点之间延伸的线段。在这些情况下,可实时向用户提供反馈。由多边形包围的区域可具有与其相关联的命令/指令。例如,命令/指令可包括避开区域命令/指令、清洁区域命令/指令和/或任何其它命令/指令。作为另一实例,用户可将区域与表面类型(例如,地毯或硬地板)相关联,其中机器人清洁器100执行对应于表面类型的命令/指令(例如,在湿式清洁时避开地毯表面类型)。用户可将命令/指令与表面类型相关联,和/或与表面类型相关联的命令/指令可以是预定的(例如,在机器人清洁器100的制造期间)。
作为另一实例,显示器118可显示对应于移动装置102的摄像头的视场内的环境的一部分的一个或多个图像(例如,以视频的形式),并且用户可触摸图像内的一个或多个位置。在此实例中,用户可触摸图像上对应于由移动装置102识别的物体的位置(例如,使用物体识别)。使用物体识别所识别的物体可包括局部地毯、家具、电线和/或任何其它物体。所识别的物体可与增强现实元素相关联(例如,向用户提供物体被识别的确认)。
响应于用户触摸图像内的所识别的物体(例如,触摸图像内示出的增强现实元素),移动装置102可配置成将命令/指令与所识别的物体相关联。例如,当机器人清洁器100进行湿式清洁模式时,当所识别的物体对应于局部地毯时,命令/指令可包括避开命令/指令。作为另一实例,当所识别的物体对应于一条或多条线时,移动装置102可配置成将避开命令/指令与一条或多条线周围的区域相关联,其中不论清洁模式如何,避开命令/指令都由机器人清洁器100执行。
作为又一实例,可使显示器118通过对应于移动装置102的摄像头的视场的一个或多个图像向用户显示清洁当前用户位置的增强现实元素(例如,图标)。响应于用户触摸清洁当前用户位置的增强现实元素,可使机器人清洁器100行进到接近用户触摸清洁当前用户位置的增强现实元素的位置,并且清洁包围触摸清洁当前用户位置的增强现实元素所在的位置和/或所处房间的区域。机器人清洁器100可配置成基于移动装置102在地图内的定位位置来确定用户的当前位置。
还如图所示,方法300可包括步骤316。步骤316包括至少部分地基于定向数据和深度数据在所接收的地图内定位物体和/或包围区域。例如,移动控制器120可配置成计算移动装置102与限定包围区域的多边形的每个点之间的距离(例如,水平距离)(例如,使用与对应于用户在显示器118上触摸的图像的位置的像素相关联的深度数据和定向数据)。至少部分地基于计算的距离和定向数据,可在地图内确定包围区域的多边形的每个点的位置。换句话说,限定包围区域的边界的位置的三维数据转换成二维数据。作为另一实例,移动控制器120可配置成使用深度数据和定向数据在从机器人清洁器100接收的地图内定位所识别的物体。
命令/指令可与所识别的物体和/或所限定的区域相关联。响应于命令/指令与所识别的物体和/或所限定的区域相关联,移动控制器120可配置成生成包括所识别的物体、所限定的区域和/或相关联命令/指令的修改的地图。移动控制器120可配置成使修改的地图传输到机器人清洁器100。
图4示出了使用移动装置(诸如图1的移动装置102)控制机器人清洁器(诸如图1的机器人清洁器100)的方法400的实例的流程图。方法400的一个或多个步骤可体现为存储在一个或多个存储器(例如,一个或多个非瞬态存储器)中的一个或多个指令,其中一个或多个指令配置成在一个或多个处理器上执行。例如,机器人控制器112和/或移动控制器120可配置成使得方法400的一个或多个步骤得以执行。附加地或备选地,该方法400的一个或多个步骤可以以软件、固件和/或电路(例如,专用集成电路)的任何组合来执行。
如图所示,方法400可包括步骤402。步骤402包括将机器人清洁器100定位在移动装置102的摄像头的视场内。移动装置102配置成识别机器人清洁器100在摄像头的视场内。
还如图所示,方法400可包括步骤404。步骤404包括响应于机器人清洁器100定位在摄像头的视场内,使用移动装置102的LIDAR传感器来测量移动装置102与机器人清洁器100之间的距离。另外,当机器人清洁器100在摄像头的视场内时,移动装置102可使用定向传感器(例如,罗盘和/或加速度计)来确定移动装置102(例如,相对于磁性北方)的定向(例如,航向)。
还如图所示,方法400可包括步骤406。步骤406包括相对于机器人清洁器100的位置和定向(例如,使用定向数据和深度数据)确定移动装置102的位置和定向。
还如图所示,方法400可包括步骤408。步骤408包括当移动装置102在环境中移动(例如,由用户)时跟踪移动装置102的位置和定向。因而,可跟踪移动装置102相对于机器人清洁器100的位置和定向变化。
还如图所示,方法可包括步骤410。步骤410包括在用户与移动装置102一起在环境内行进时使机器人清洁器100跟随用户。例如,移动装置102可实时和/或以周期性间隔将移动装置102相对于机器人清洁器100的位置和定向的变化传输到机器人清洁器100,以允许机器人清洁器100跟随用户。
还如图所示,方法可包括步骤410。步骤410包括向机器人清洁器100发出命令/指令。发出的命令/指令与机器人清洁器100在环境内的位置相关联。例如,命令/指令可包括使机器人清洁器100将当前位置识别为家庭内的房间(例如,机器人清洁器100可使用一个或多个机器人传感器114和/或使用从移动装置102传输的使用一个或多个移动传感器124生成的数据来识别限定房间的墙壁)。作为另一实例,命令/指令可包括使机器人清洁器100清洁机器人清洁器100当前所处的房间,和/或将机器人清洁器100当前所处的房间添加到待清洁房间列表中。在此实例中,机器人清洁器100可具有在其中识别两个或更多个房间的整个环境(例如,家庭的地板)的先前生成的地图。
图5示出了使用移动装置(诸如图1的移动装置102)控制机器人清洁器(诸如图1的机器人清洁器100)的方法500的实例的流程图。例如,移动装置102可配置成与机器人清洁器100通信,其中移动装置102可响应于用户输入而发出命令/指令,所述命令/指令使机器人清洁器100避开区域(例如,房间)和/或在行进通过用户所在的区域时以降噪模式操作。在一些情况下,可至少部分地基于移动装置102的位置来确定用户所在的区域。方法500的一个或多个步骤可体现为存储在一个或多个存储器(例如,一个或多个非瞬态存储器)中的一个或多个指令,其中一个或多个指令配置成在一个或多个处理器上执行。例如,机器人控制器112和/或移动控制器120可配置成使得方法500的一个或多个步骤得以执行。附加地或备选地,该方法500的一个或多个步骤可以以软件、固件和/或电路(例如,专用集成电路)的任何组合来执行。
如图所示,方法500可包括步骤502。步骤502包括用机器人清洁器100确定用户和/或移动装置102的位置。移动装置102的位置可至少部分地基于用户输入(例如,用户指定用户正处在的家庭内的房间)、使用移动装置102的一个或多个移动传感器124的地图内的移动装置102的定位和/或由移动装置102生成的信号的强度(例如,由一个或多个移动发射器/接收器122生成的信号)中的一个或多个来确定。例如,移动装置102可配置成将移动装置102和/或用户在环境(例如,家庭)内的位置传输到机器人清洁器100。作为另一实例,机器人清洁器100可测量由移动装置102的一个或多个移动发射器/接收器122生成的信号(例如,WiFi信号、蓝牙信号等)的信号强度,以确定机器人清洁器100与移动装置102的接近度。
如图所示,方法500可包括步骤504。步骤504包括避开包围用户和/或移动装置102的区域和/或在行进通过包围用户和/或移动装置102的区域时以降噪模式操作。该区域可至少部分地基于用户和/或移动装置102的所确定的位置来确定。在一些情况下,该区域可对应于围绕用户和/或移动装置102延伸的固定距离,和/或对应于用户和/或移动装置102所在的房间。降噪模式可使机器人清洁器100转变到较低动力清洁模式(例如,通过降低由抽吸电机生成的抽吸力、降低旋转搅拌器的转速等)。
根据本公开的机器人清洁系统的实例可包括配置成生成环境地图的机器人清洁器,以及配置成通信地联接到机器人清洁器的移动装置,机器人清洁器配置成将地图传送到移动装置。移动装置可包括配置成生成环境的图像的摄像头,图像包括多个像素;配置成显示图像并且在显示图像时接收用户输入的显示器,用户输入与多个像素中的一个或多个像素相关联;配置成生成与图像的每个像素相关联的深度数据的深度传感器;配置成生成与图像的每个像素相关联的定向数据的定向传感器;以及配置成使用深度数据和定向数据在从机器人清洁器接收的地图内定位移动装置的移动控制器。
在一些情况下,用户输入可用于在显示的图像内限定区域。在一些情况下,移动控制器可配置成使用与用户输入相关联的一个或多个像素相关联的深度数据和定向数据在从机器人清洁器接收的地图内定位所限定的区域。在一些情况下,命令/指令可与所限定的区域相关联。在一些情况下,移动控制器可配置成生成修改的地图,修改的地图包括所限定的区域和与所限定的区域相关联的命令/指令。在一些情况下,修改的地图可传送到机器人清洁器。在一些情况下,所限定的区域可在图像内显示为增强现实元素。在一些情况下,移动控制器可配置成检测机器人清洁器何时在图像内。在一些情况下,响应于移动控制器在图像内检测到机器人清洁器,机器人清洁器可配置成将机器人清洁器在环境地图内的位置传送到移动装置。在一些情况下,移动控制器可配置成使用深度数据和定向数据来相对于机器人清洁器定位移动装置。在一些情况下,移动控制器可配置成基于移动装置相对于机器人清洁器的定位而在从机器人清洁器接收的地图内定位移动装置。在一些情况下,移动控制器可配置成识别图像内的物体。在一些情况下,移动控制器可使用深度数据和定向数据在从机器人清洁器接收的地图内定位识别的物体。在一些情况下,显示器可配置成显示与识别的物体相关联的增强现实元素。在一些情况下,响应于用户输入与增强现实元素交互,命令/指令可与识别的物体相关联。在一些情况下,移动控制器可配置成生成修改的地图,修改的地图包括识别的物体和与识别的物体相关联的命令/指令。在一些情况下,修改的地图可传送到机器人清洁器。在一些情况下,摄像头可配置成生成多个图像,并且显示器配置成将多个图像显示为视频,并且在显示视频时接收用户输入。在一些情况下,显示器可接收至少三个用户输入,使用的至少三个用户输入限定多边形区域,多边形区域在视频内显示为增强现实元素。在一些情况下,深度传感器可包括光检测和测距(LIDAR)传感器,并且定向传感器可包括罗盘。
尽管本文已描述了本发明的原理,但是本领域的技术人员应理解,此描述仅作为示例,而不作为对本发明的范围的限制。除本文中示出且描述的示例性实施例之外,其它实施例也涵盖在本发明的范围内。由本领域的普通技术人员进行的修改和替换被认为在本发明的范围内,本发明的范围仅由以下权利要求书限制。
Claims (20)
1.一种机器人清洁系统,其包括:
配置成生成环境地图的机器人清洁器;以及
配置成通信地联接到所述机器人清洁器的移动装置,所述机器人清洁器配置成将所述地图传送到所述移动装置,其中所述移动装置包括:
配置成生成所述环境的图像的摄像头,所述图像包括多个像素;
配置成显示所述图像并且在显示所述图像时接收用户输入的显示器,所述用户输入与所述多个像素中的一个或多个像素相关联;
配置成生成与所述图像的每个像素相关联的深度数据的深度传感器;
配置成生成与所述图像的每个像素相关联的定向数据的定向传感器;以及
配置成使用所述深度数据和所述定向数据在从所述机器人清洁器接收的所述地图内定位所述移动装置的移动控制器。
2.根据权利要求1所述的机器人清洁系统,其中所述用户输入用于在所显示的图像内限定区域。
3.根据权利要求2所述的机器人清洁系统,其中所述移动控制器配置成使用与所述用户输入相关联的所述一个或多个像素相关联的所述深度数据和所述定向数据在从所述机器人清洁器接收的所述地图内定位所限定的区域。
4.根据权利要求3所述的机器人清洁系统,其中命令/指令与所限定的区域相关联。
5.根据权利要求4所述的机器人清洁系统,其中所述移动控制器配置成生成修改的地图,所述修改的地图包括所限定的区域和与所限定的区域相关联的所述命令/指令。
6.根据权利要求5所述的机器人清洁系统,其中所述修改的地图传送到所述机器人清洁器。
7.根据权利要求2所述的机器人清洁系统,其中所限定的区域在所述图像内显示为增强现实元素。
8.根据权利要求1所述的机器人清洁系统,其中所述移动控制器配置成检测所述机器人清洁器何时在所述图像内。
9.根据权利要求8所述的机器人清洁系统,其中响应于所述移动控制器在所述图像内检测到所述机器人清洁器,所述机器人清洁器配置成将所述机器人清洁器在所述环境地图内的位置传送到所述移动装置。
10.根据权利要求9所述的机器人清洁系统,其中所述移动控制器配置成使用所述深度数据和所述定向数据来相对于所述机器人清洁器定位所述移动装置。
11.根据权利要求10所述的机器人清洁系统,其中所述移动控制器配置成基于所述移动装置相对于所述机器人清洁器的定位而在从所述机器人清洁器接收的所述地图内定位所述移动装置。
12.根据权利要求1所述的机器人清洁系统,其中所述移动控制器配置成识别所述图像内的物体。
13.根据权利要求12所述的机器人清洁系统,其中所述移动控制器使用所述深度数据和所述定向数据在从所述机器人清洁器接收的所述地图内定位所识别的物体。
14.根据权利要求13所述的机器人清洁系统,其中所述显示器配置成显示与所识别的物体相关联的增强现实元素。
15.根据权利要求14所述的机器人清洁系统,其中响应于所述用户输入与所述增强现实元素交互,命令/指令与所识别的物体相关联。
16.根据权利要求15所述的机器人清洁系统,其中所述移动控制器配置成生成修改的地图,所述修改的地图包括所识别的物体和与所识别的物体相关联的所述命令/指令。
17.根据权利要求16所述的机器人清洁系统,其中所述修改的地图传送到所述机器人清洁器。
18.根据权利要求1所述的机器人清洁系统,其中所述摄像头配置成生成多个图像,并且所述显示器配置成将所述多个图像显示为视频,并且在显示所述视频时接收所述用户输入。
19.根据权利要求18所述的机器人清洁系统,其中所述显示器接收至少三个用户输入,使用的所述至少三个用户输入限定多边形区域,所述多边形区域在所述视频内显示为增强现实元素。
20.根据权利要求1所述的机器人清洁系统,其中所述深度传感器包括光检测和测距(LIDAR)传感器,并且所述定向传感器包括罗盘。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202163232997P | 2021-08-13 | 2021-08-13 | |
US63/232,997 | 2021-08-13 | ||
PCT/US2022/040180 WO2023018947A1 (en) | 2021-08-13 | 2022-08-12 | Robotic cleaner |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117915817A true CN117915817A (zh) | 2024-04-19 |
Family
ID=85177992
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202280060153.8A Pending CN117915817A (zh) | 2021-08-13 | 2022-08-12 | 机器人清洁器 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230046417A1 (zh) |
EP (1) | EP4384056A1 (zh) |
CN (1) | CN117915817A (zh) |
WO (1) | WO2023018947A1 (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060042804A (ko) * | 2004-11-10 | 2006-05-15 | 엘지전자 주식회사 | 로봇청소기의 움직임 추적장치 및 방법 |
CN105310604A (zh) * | 2014-07-30 | 2016-02-10 | Lg电子株式会社 | 机器人清洁系统以及控制机器人清洁器的方法 |
CN110268225A (zh) * | 2019-05-09 | 2019-09-20 | 珊口(深圳)智能科技有限公司 | 在地图上定位设备的方法、服务端及移动机器人 |
CN111358365A (zh) * | 2018-12-26 | 2020-07-03 | 珠海市一微半导体有限公司 | 清洁机器人的作业区域划分方法、系统及芯片 |
CN112204345A (zh) * | 2020-01-20 | 2021-01-08 | 珊口(深圳)智能科技有限公司 | 移动设备的室内定位方法、移动设备及控制系统 |
CN112890680A (zh) * | 2019-11-19 | 2021-06-04 | 科沃斯机器人股份有限公司 | 跟随清洁作业方法、控制方法、装置、机器人及存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0680203A (ja) * | 1992-03-24 | 1994-03-22 | East Japan Railway Co | 床面洗浄ロボットの制御方法 |
SE502834C2 (sv) * | 1994-03-29 | 1996-01-29 | Electrolux Ab | Förfarande och anordning för avkänning av hinder vid självgående anordning |
US20050273967A1 (en) * | 2004-03-11 | 2005-12-15 | Taylor Charles E | Robot vacuum with boundary cones |
AU2015322263B2 (en) * | 2014-09-24 | 2018-03-22 | Samsung Electronics Co., Ltd. | Cleaning robot and method for controlling cleaning robot |
KR102328252B1 (ko) * | 2015-02-13 | 2021-11-19 | 삼성전자주식회사 | 청소 로봇 및 그 제어방법 |
-
2022
- 2022-08-12 CN CN202280060153.8A patent/CN117915817A/zh active Pending
- 2022-08-12 US US17/886,877 patent/US20230046417A1/en active Pending
- 2022-08-12 EP EP22856663.4A patent/EP4384056A1/en active Pending
- 2022-08-12 WO PCT/US2022/040180 patent/WO2023018947A1/en active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060042804A (ko) * | 2004-11-10 | 2006-05-15 | 엘지전자 주식회사 | 로봇청소기의 움직임 추적장치 및 방법 |
CN105310604A (zh) * | 2014-07-30 | 2016-02-10 | Lg电子株式会社 | 机器人清洁系统以及控制机器人清洁器的方法 |
CN111358365A (zh) * | 2018-12-26 | 2020-07-03 | 珠海市一微半导体有限公司 | 清洁机器人的作业区域划分方法、系统及芯片 |
CN110268225A (zh) * | 2019-05-09 | 2019-09-20 | 珊口(深圳)智能科技有限公司 | 在地图上定位设备的方法、服务端及移动机器人 |
CN112890680A (zh) * | 2019-11-19 | 2021-06-04 | 科沃斯机器人股份有限公司 | 跟随清洁作业方法、控制方法、装置、机器人及存储介质 |
CN112204345A (zh) * | 2020-01-20 | 2021-01-08 | 珊口(深圳)智能科技有限公司 | 移动设备的室内定位方法、移动设备及控制系统 |
Also Published As
Publication number | Publication date |
---|---|
US20230046417A1 (en) | 2023-02-16 |
EP4384056A1 (en) | 2024-06-19 |
WO2023018947A1 (en) | 2023-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10542859B2 (en) | Cleaning robot and controlling method thereof | |
EP3027101B1 (en) | Auto-cleaning system, cleaning robot and method of controlling the cleaning robot | |
JP6636260B2 (ja) | 自律移動体の走行経路教示システムおよび走行経路教示方法 | |
CN110709790A (zh) | 用于控制自主移动机器人的方法 | |
CN105310604A (zh) | 机器人清洁系统以及控制机器人清洁器的方法 | |
KR20170087384A (ko) | 청소로봇을 원격으로 제어하기 위한 원격 제어 장치, 제어 시스템 및 제어 방법 | |
TW201826993A (zh) | 具有基於環境之操作速度變化的機器人清潔裝置 | |
KR20140066850A (ko) | 로봇청소시스템 및 그 제어방법 | |
JP7423656B2 (ja) | 自律移動ロボットの制御 | |
CN109506652B (zh) | 一种基于地毯偏移的光流数据融合方法及清洁机器人 | |
JP2017054475A (ja) | 遠隔操作装置、方法及びプログラム | |
KR20190030281A (ko) | 이동 로봇 시스템 및 그 제어 방법 | |
KR102544072B1 (ko) | 로봇 청소기 및 그 로봇 청소기의 제어 방법 | |
JP2024520821A (ja) | 清掃装置、清掃経路および清掃マップ生成方法、ならびに生成システム | |
KR100784125B1 (ko) | 단일 카메라를 이용한 이동 로봇의 랜드 마크의 좌표 추출방법 | |
JP7519579B2 (ja) | 掃除機システム、および、危険位置掲示方法 | |
US20230046417A1 (en) | Robotic cleaner | |
KR20200027069A (ko) | 로봇 청소기 및 그 로봇 청소기의 제어 방법 | |
US20230324914A1 (en) | Travel map generation device, autonomously traveling robot, travel control system for autonomously traveling robot, travel control method for autonomously traveling robot, and recording medium | |
JP2024101125A (ja) | 走行用地図作成装置、自律走行型ロボット、走行用地図作成方法、及び、プログラム | |
KR100703882B1 (ko) | 단일 카메라 기반 포즈인식이 가능한 이동로봇 및 그 방법 | |
WO2023089886A1 (ja) | 走行用地図作成装置、自律走行型ロボット、走行用地図作成方法、及び、プログラム | |
JP6982765B2 (ja) | 操作端末、遠隔操作掃除システム及び遠隔操作方法 | |
WO2023157345A1 (ja) | 走行用地図作成装置、自律走行型ロボット、走行用地図作成方法、及び、プログラム | |
JP7122573B2 (ja) | 掃除情報提供装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |