CN111414786A - 一种用于与工作机器人信息交互的方法及装置 - Google Patents
一种用于与工作机器人信息交互的方法及装置 Download PDFInfo
- Publication number
- CN111414786A CN111414786A CN201910222204.2A CN201910222204A CN111414786A CN 111414786 A CN111414786 A CN 111414786A CN 201910222204 A CN201910222204 A CN 201910222204A CN 111414786 A CN111414786 A CN 111414786A
- Authority
- CN
- China
- Prior art keywords
- working environment
- working
- image
- robot
- work
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 230000003993 interaction Effects 0.000 title claims description 27
- 230000004044 response Effects 0.000 claims description 15
- 230000008719 thickening Effects 0.000 claims description 5
- 230000009191 jumping Effects 0.000 claims description 2
- 238000010408 sweeping Methods 0.000 description 85
- 239000010813 municipal solid waste Substances 0.000 description 17
- 238000005192 partition Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 1
- 238000007621 cluster analysis Methods 0.000 description 1
- 238000013506 data mapping Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000004382 visual function Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/42—Document-oriented image-based pattern recognition based on the type of document
- G06V30/422—Technical drawings; Geographical maps
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Manipulator (AREA)
Abstract
本申请公开了一种用于与工作机器人信息交互的方法,通过用户端获取工作机器人的工作环境地图,接收用户对所述工作环境地图的某位置或某识别结果的操作信息,响应于对所述工作环境地图的某位置或某识别结果的操作信息,获取工作环境地图的某位置或某识别结果对应的工作环境的图像,展示所述位置或识别结果对应的工作环境的图像。用户通过查看展示的对应的工作环境的图像,可以清晰、准确、直观的查看所述工作机器人的工作环境的细节。
Description
技术领域
本申请涉及信息交互领域,具体涉及一种用于与工作机器人信息交互的方法及装置。
背景技术
图像识别,是指利用计算机对图像进行处理、分析和理解,以识别各种不同模式的目标和对像的技术。
场景识别是一种用计算机实现人的视觉功能的技术,它的研究目标是使计算机能够对图像或视频进行处理,自动识别和理解图像和视频中的场景信息。
虽然目前机器人能对场景中的对象物进行识别,但通常用户无法参与其中,或者简单的给出识别结果,缺少与用户的交互性。
在日常生活中,随着科学技术的不断发展,各种工作机器人遍布于生活中的方方面面,例如,智能陪伴机器通过丰富的音视频资料极大的丰富了用户的精神生活,扫地机器人可以极大的节省用户的体力劳动等等,工作机器人为用户的生活提供了极大便利。目前,扫地机器人都能建图,并提供给用户端,用户端能基于地图,可以做地图分区、设置虚拟墙、定点清扫等,但是由于目前建立的地图所包含的信息有限,只涉及一些障碍物和墙面的轮廓线,用户只能通过轮廓线了解其工作环境的大致轮廓,并不能使用户清晰、准确的了解其工作环境的细节,从而导致用户无法准确地设置虚拟墙、定点清扫和细分区域等。
发明内容
本申请提供一种用于与工作机器人信息交互的方法及装置,以解决现有技术存在的工作机器人不能为用户提供清晰、准确的工作环境的细节的问题。
本申请提供的一种用于与工作机器人信息交互的方法,包括:
用户端获取工作机器人的工作环境地图;
接收用户对所述工作环境地图的某位置或某识别结果的操作信息;
响应于对所述工作环境地图的某位置或某识别结果的操作信息,获取工作环境地图的某位置或某识别结果对应的工作环境的图像;
展示所述位置或识别结果对应的工作环境的图像。
可选的,所述工作机器环境地图,包括:工作机器人采集其工作环境的图像;
识别所述图像中的对象物并生成相应的识别结果;
在其工作环境地图的对应位置处标识出识别结果,即所述识别结果在所述工作环境地图中的位置,与所述识别结果对应的对象物在所述工作机器人工作环境中的位置相对应。
可选的,将所述工作环境地图中的识别结果和获取到所述识别结果所使用的一张或多张工作环境的图像,以及,所述工作环境地图中的位置及其所对应的一张或多张工作环境的图像,对应的存储在工作机器人或与工作机器人连接的云端服务器中。
可选的,所述展示所述位置或识别结果对应的工作环境的图像,包括展示所述位置或识别结果对应的一张或多张工作环境的图像。
可选的,所述响应于对所述工作环境地图的某识别结果的操作信息,展示所述识别结果对应的工作环境的图像,进一步包括:
接收根据展示的工作环境的图像以及相应的识别结果判断识别是否正确的评判结果。
可选的,对于工作环境地图上没有被操作过的识别结果,采用区别于已被操作过的识别结果的显示方式进行显示。
可选的,所述显示方式包括:高亮、加粗、在识别结果上添加标识。
可选的,包括:
当用户端当前不处于当前工作环境的界面时,响应于工作机器人在工作环境地图中生成新的识别结果,生成提醒用户是否查看的信息,如果用户点击查看,则跳转到当前工作环境地图的界面,获取识别结果对应的工作环境的图像,并展示所述获取的工作环境的图像。
可选的,所述接收用户根据展示的工作环境的图像以及相应的识别结果判断识别是否正确的评判结果,包括:
针对展示的每一个工作环境的图像生成选项供用户端选择;
若所述图像中存在与用户触发操作的识别结果相对应的对象物,则选择相应的选项。
可选的,若用户选择的选项表明识别结果错误,则推送可能的识别结果供用户选择;如果用户选择了其中一个识别结果,则使用该识别结果替换原工作环境地图上被判为错误的识别结果。
可选的,所述可能的识别结果根据工作机器人所处的工作环境中惯常出现的一些对象物生成或者根据识别过程中生成的其他可能的识别结果生成。
可选的,所述响应于对所述工作环境地图的某位置的操作信息,展示所述位置对应的工作环境的图像,包括:
响应于对所述工作环境地图中某位置的操作信息,获取工作机器人在所述位置工作时采集的工作环境的图像;
展示获取到的工作环境的图像。
可选的,包括:
以幻灯片的形式展示获取到的工作环境的图像。
可选的,所述响应于对所述工作环境地图的某位置的操作信息,展示所述位置对应的工作环境的图像,包括:
确定用户触发操作的某位置位于地图中的区域信息;
根据所述区域信息获取工作机器人在对应区域工作时采集的工作环境的图像;
展示获取到的工作环境的图像。
本申请还提供一种用于与工作机器人信息交互的装置,其特征在于,包括:
获取单元,用于获取工作机器人的工作环境地图;
接收单元,用于接收用户对所述工作环境地图的某位置或某识别结果的操作信息;
操作单元,用于响应于对所述工作环境地图的某位置或某识别结果的操作信息,获取工作环境地图的某位置或某识别结果对应的工作环境的图像;
展示单元,用于展示所述位置或识别结果对应的工作环境的图像。
与现有技术相比,本申请提供的两种用于与工作机器人信息交互的方法,通过用户端获取工作机器人的工作环境地图,接收用户对所述工作环境地图的某位置或某识别结果的操作信息,响应于对所述工作环境地图的某位置或某识别结果的操作信息,获取工作环境地图的某位置或某识别结果对应的工作环境的图像,展示所述位置或识别结果对应的工作环境的图像。用户通过查看展示的对应的工作环境的图像,可以清晰、准确、直观的查看所述工作机器人的工作环境的细节。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1为本申请的一种用于与工作机器人信息交互的方法实施例的流程图;
图2为本申请的一种用于与工作机器人信息交互的方法实施例提供的工作机器人生成的工作环境地图的示意图;
图3为本申请的一种用于与工作机器人信息交互的装置实施例的示意图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本申请。但是本申请能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本申请内涵的情况下做类似推广,因此本申请不受下面公开的具体实施例的限制。
本申请提供的一种用于与工作机器人信息交互的方法及装置,以下为具体实施例:
如图1所示,其为本申请的一种用于与工作机器人信息交互的方法实施例的流程图。所述方法包括如下步骤:
步骤S101:用户端获取工作机器人的工作环境地图。
在日常生活中,随着计算机技术的发展,工作机器人分布在人们生活的方方面面,为人们的工作、生活等带来了极大的便利。在家庭生活中常见的工作机器人如:扫地机器人、智能陪伴机器人等。这些工作机器人为用户的生活带来了极大的便利。
本实施例中提供的用于与工作机器人信息交互的方法,主要是依赖于工作机器人生成的工作环境地图进行的。因此需要先由用户端获取所述工作机器人的工作环境地图。
需要说明的是,在本实施例中,所述方法应用于家庭生活中常见的扫地机器人,以此来说明本步骤即获取工作机器人的工作环境地图。当然,在其它实施方式中,本申请所提供的方法还可用于其它工作机器人中。
其中,所述获取工作机器人的工作环境地图中的工作环境地图是在工作机器人工作的过程中生成的,现有技术中,根据机器人自身的传感器采集的数据来建立工作环境的地图,这部分将不再赘述,本文之中的工作环境地图在此基础上还包含有工作环境中一些对象物的识别结果。具体步骤如下:
步骤S101-1:工作机器人采集其工作环境的图像。
此处以扫地机器人为例,详细说明本步骤即工作机器人采集其工作环境的图像。扫地机器人在用户家庭环境工作的过程中,可以采集用户家庭环境中的图像,所述图像中含有用户家庭环境中的对象物(比如:鞋、垃圾桶、饭桌、电源线、袜子等),通常扫地机器人是通过自身的图像传感器(比如摄像头)采集其工作环境的图像。
所述通过自身的图像传感器采集其工作环境的对象物。例如扫地机器人在工作的过程中通过自身的摄像头采集用户家庭环境中的包含各种对象物的图像。
此外,工作机器人还可以根据其图像传感器相机的标定系统测量对象物与自身的距离,从而确定对象物在工作环境地图的位置。
步骤S101-2:识别所述图像中的对象物并生成相应的识别结果。
在上述步骤S101-1后,工作机器人采集到其工作环境的图像后,可以将所述图像存储在其本地存储中,也可以存储在其连接的云端服务器中。之后通过工作机器人中内置的识别算法或工作机器人连接的云端服务器中内置的识别算法识别所述图像中的对象物并生成相应的识别结果。
此处,仍以扫地机器人举例说明,扫地机器人采集其工作环境的图像后,可以将所述图像存储在扫地机器人本地存储中,之后通过扫地机器人中内置的识别算法识别所述图像中的对象物并生成相应的识别结果。
另外,扫地机器人也可以在采集用户家庭环境中的包含对象物的图像后,将所述图像上传到其连接的云端服务器中,之后所述云端服务器通过内置的识别算法识别所述图像中的对象物并生成相应的识别结果。
步骤S101-3:在其工作环境地图的对应位置标识出识别结果,即所述识别结果在所述工作环境地图中的位置,与所述识别结果对应的对象物在所述工作机器人工作环境中的位置相对应。
在实际应用中,工作机器人在工作的过程中常常会利用自带的各种传感器在其内部或其连接的云端服务器中建立对应的工作环境地图,常规的工作环境地图只有工作机器人工作过程中所在工作环境的大致轮廓,不能详细标识出其工作环境中都存在什么对象物,同时也不能通过选择不同的区域查看所述区域所对应的工作环境的图像,从而无法查看工作机器人的工作环境的细节。为了使用户能够通过工作机器人生成的工作环境地图清晰、直观的查看其所在工作环境中的细节,在上述步骤S101-1、S101-2后,工作机器人或工作机器人连接的云端服务器使用采集的所述工作环境的图像以及所述识别结果,在其工作环境地图的对应位置标识出识别结果,即所述识别结果在所述工作环境地图中的位置,与所述识别结果对应的对象物在所述工作机器人工作环境中的位置相对应,生成包含对象物的识别结果的工作环境地图。其中,识别结果生成后,对识别结果进行高亮、加粗、在识别结果上添加标识,当用户对识别结果点击查看后,则去除高亮、加粗、识别结果上的标识,以区别于未被用户点击查看过的识别结果。
另外,为了方便以后查询相关的工作环境的图像,工作机器人在生成包含对象物的识别结果的工作环境地图的过程中,将所述工作环境的图像及其识别结果,对应的存储在工作机器人或与工作机器人连接的云端服务器中,其中,存储的工作环境中的图像为获得所述识别结果的过程中所使用的一张或多张。
此处,仍然以用户家庭环境中常见的扫地机器人举例说明,如图2所示,扫地机器人在用户家庭环境工作的过程中通过其自带的摄像头采集周围的图像,并通过上述步骤S101-2识别出所述图像中对应的对象物后,会在其内部或其连接的云端服务器中生成的工作环境地图上对应的位置处标识识别出的相应的识别结果,生成包含对象物的识别结果的工作环境地图。例如扫地机器人在工作的过程中通过采集的图像识别出了鞋、垃圾桶、电源线等对象物,则会在建立的工作环境地图的对应位置处如图2中2-102(鞋的标识)、2-103(垃圾桶的标识)、2-110(电源线的标识)等所示标识出相应的识别结果,形成工作环境地图,同时,对于用于识别对象物的识别结果的工作环境的图像,比如扫地机器人或扫地机器人连接的云端服务器使用采集的图像11、图像12、图像13识别出了2-103垃圾桶的识别结果,那么对应的,扫地机器人或扫地机器人连接的云端服务器会在其内部以类似{垃圾桶标识,[图像11、图像12、图像13]}的形式存储所述识别结果及其对应的用于识别所述识别结果的图像。另外,本实施例中是以图像标识的形式在工作环境地图中标识出相应的对象物的识别结果,也可以以文字、声音等形式标识相应的对象物的识别结果,此处不再一一描述。
此外,所述工作机器人在生成包含对象物的识别结果的工作环境地图的过程中,还会将所述工作环境地图中的位置对应的工作环境的图像,对应的存储在工作机器人或与工作机器人连接的云端服务器中,具体可以有两种方式,一种方式是工作机器人将采集的工作环境的图像在实际环境中的位置转换为在生成的工作环境地图中的相对位置,并建立所述相对位置与工作环境的图像的对应关系,当然,也可以采用相应的聚类分析算法将所述位置相近位置的工作环境的图像也与所述位置在工作环境地图中的相对位置建立对应关系。
例如,扫地机器人在用户家庭环境工作的过程中通过其自带的摄像头采集周围的图像时,会同步的记录采集所述图像时扫地机器人在用户家庭环境中的位置信息,此后,在扫地机器人或扫地机器人连接的云端服务器中生成工作环境地图的同时,会将采集的工作环境的图像对应的实际位置信息转换为在工作环境地图中的相对位置信息,并建立所述相对位置信息与实际位置信息所对应的图像的对应关系。当然,在实际中,因为在实际工作环境的某个位置或其相邻近的位置,会采集一张或多张工作环境的图像,在实际位置信息与相对位置信息转换的过程中,可以同时采用相应的聚类分析算法,将与某位置相对或相近的一张或多张工作环境的图像建立对应关系,以便于通过简单的点击工作环境地图中的某个位置即可方便的查看所述位置对应的实际的工作环境的图像。例如,扫地机器人在用户家庭环境的实际坐标位置(X,Y)(其中,X≥0,Y≥0,此处仅是示意的性质)处采集了一张或多张工作环境的图像(如:图像X1,图像X2,图像X3),对应的,所述图像的信息中记录所述图像被采集时工作机器人在用户家庭环境中的实际坐标位置(X,Y),当然,在距离(X,Y)的相近位置(如:(X1,Y1)…(Xn,Yn)(n≥1))处,扫地机器人也可能采集了一张或多张图像(如:图像Y1,图像Y2)。在扫地机器人或扫地机器人连接的云端服务器中生成工作环境地图的同时,会同步的将工作机器人在用户家庭环境的实际位置时采集的图像与所述实际位置在工作环境地图的相对位置建立对应关系,比如实际坐标位置(X,Y)对应的在工作环境地图中的相对位置为(P,Q),则会同步的建立形如{(P,Q),[图像X1,图像X2,图像X3]}的对应关系,同时,根据相应的聚类分析算法,也可以将(X,Y)的相近位置((X1,Y1)…(Xn,Yn))采集的图像(图像Y1,图像Y2)与实际坐标位置(X,Y)对应的相对坐标位置(P,Q)建立对应关系,最终建立形如{(P,Q),[图像X1,图像X2,图像X3,图像Y1,图像Y2]}的对应关系,同时,扫地机器人或扫地机器人连接的云端服务器会存储建立的所述对应关系。此处,对于工作机器人在实际位置的图像与生成的工作环境地图中的对应位置建立对应关系的说明仅仅是示意性质的,在实际中,可根据实际场景及需求设计更为具体的方法,此处,不再赘述。
此外,还有一种方式,工作机器人或工作机器人连接的云端服务器在生成工作环境地图的同时,会将所述工作环境地图自动分区,同时,存储各分区与其分区中所对应的工作环境图像的对应关系。例如,工作机器人或工作机器人连接的云端服务器将工作机器人对应的工作环境地图划分为m个分区,则对应的会以类似{分区1,[图像11…图像1n]}、…、{分区m,[图像m1…图像mn]}(其中,m≥1,n≥1)的形式存储所述对应关系。
此处,只介绍了两种将工作机器人在实际工作环境的相应位置采集的工作环境的图像与其生成的工作环境地图的相对位置处建立对应关系的方式,在实际中,可以在相应的设置菜单中,选择使用哪种方式。同时,随着实际需要或者技术的进步,也可以采取所述两种方式以外的其它方式,此处不再赘述。
采用上述步骤S101-3生成的工作环境地图,较现有技术中常见的工作环境地图更为详细完整,不仅涵盖了工作机器人所工作环境的外形轮廓,还包含工作机器人在工作过程中识别的对象物的识别结果。
经过上述步骤工作机器人或工作机器人连接的云端服务器生成工作环境地图后,会将生成的工作环境地图存储在工作机器人内部或工作机器人连接的云端服务器中,为了获取工作机器人的工作环境地图,可以通过工作机器人获取,也可以通过移动终端设备向工作机器人或工作机器人连接的云端服务器请求获取所述工作环境地图。具体可以通过移动终端设备上安装的APP(即应用程序)向工作机器人或工作机器人连接的云端服务器请求获取所述工作环境地图,其中该移动终端设备可以为手机、Pad或移动PC等移动终端设备。
本实施例中,以在手机上安装与所述工作机器人对应的APP举例说明,通过所述APP向工作机器人或工作机器人连接的云端服务器请求,获取工作机器人在工作的过程中生成的如图2所示的工作环境地图。
步骤S102:接收用户对所述工作环境地图的某位置或某识别结果的操作信息。
经过上述步骤S101获取工作机器人的工作环境地图后,接收用户对所述工作环境地图的某位置或某识别结果的操作信息。
其中,包括:显示当前工作环境地图,接收用户对所述工作环境地图的某位置或识别结果的操作信息,所述操作信息可以是触摸点击、也可以通过外接设备点击等。
所述显示当前工作环境地图,可以通过工作机器人的显示装置获取所述工作环境地图或通过移动终端设备向工作机器人或工作机器人连接的云端服务器请求获取所述工作环境地图。此处,依然以扫地机器人举例说明,用户通过在手机上安装与扫地机器人对应的APP,通过所述APP获取扫地机器人的工作环境地图后,在所述APP中显示获取的工作环境地图,同时,接收用户对所述工作环境地图的某区域或识别结果的操作信息。
步骤S103:响应于对所述工作环境地图的某位置或某识别结果的操作信息,获取所述工作环境地图的某位置或某识别结果对应的工作环境的图像。
通过上述步骤S102接收用户对所述工作环境地图的某位置或识别结果的操作信息后,在工作机器人的工作环境地图中,响应于对所述工作环境地图的某位置或识别结果的操作信息,获取所述工作环境地图的某位置或某识别结果对应的工作环境的图像。
步骤S104:展示所述位置或识别结果对应的工作环境的图像。
通过上述步骤S103响应于对所述工作环境地图的某位置或识别结果的操作信息,获取所述工作环境地图的某位置或某识别结果对应的工作环境的图像后,所述工作机器人或与所述工作机器人对应的移动终端设备可以展示所述位置或识别结果对应的工作环境的图像。所述展示所述位置或识别结果对应的工作环境的图像,包括:展示所述位置或识别结果对应的一张或多张工作环境的图像。
此外,所述响应于对所述工作环境地图的某识别结果的操作信息,获取所述工作环境地图的某识别结果对应的工作环境的图像,展示所述识别结果对应的工作环境的图像,可以有多种方式。一种方式是响应于对所述工作环境地图上标识的某识别结果的操作信息,获取所述识别结果对应的工作环境的图像,展示获取到的工作环境的图像。此处仍然以扫地机器人举例说明此种方式,用户通过手机上的相应的APP获取并显示如图2所示的工作环境地图后,通过所述APP查看所述工作环境地图,当用户点击选择某识别结果时,所述APP会根据所述识别结果向扫地机器人或扫地机器人连接的云端服务器请求获取所述识别结果对应的工作环境的图像,并展示获取到的工作环境的图像。例如当用户点击如图2所示的工作环境地图中2-103处的垃圾桶标识,当用户点击后,响应于用户的点击,所述APP根据所述2-103标识向扫地机器人或扫地机器人连接的云端服务器获取识别所述2-103标识时所使用的工作环境的图像,扫地机器人或扫地机器人连接的云端服务器接收到所述请求后,根据请求中的2-103标识信息,查找识别所述2-103标识时所使用的图像,并返回所述图像供APP端展示。例如通过对应关系{垃圾桶2-103,[图像21、图像22、图像23]}查找到识别2-103标识时所使用的工作环境的图像,则返回图像列表[图像21、图像22、图像23]并由APP端展示给用户查看。
另一种方式是当用户不处于当前工作环境的界面时,响应于工作机器人在工作环境地图中生成新的识别结果,生成提醒用户是否查看的信息,如果用户点击查看,则跳转到当前工作环境地图的界面,获取识别结果对应的工作环境的图像,并展示获取到的工作环境的图像。此处,仍然以扫地机器人举例说明,扫地机器人在工作的过程中,每当通过对采集的图像进行识别,并在其工作环境地图上生成新的识别结果时,会在扫地机器人的显示装置上显示通知消息,或者由移动终端上对应的APP在移动终端的通知栏生成通知消息通知用户查看;当用户查看,则打开APP并显示当前工作环境地图的界面,并获取所述识别结果对应的工作环境的图像。同时,展示获取到的工作环境的图像。例如,当扫地机器人在工作的过程中,识别到一个电源线的识别结果,则用户手机上对应的APP会在用户的手机的通知栏显示类似“识别到新的对象物-电源线,是否查看”的通知消息,用户点击选择后,则打开APP并显示当前工作环境的界面,同时,由所述APP从扫地机器人或扫地机器人连接的云端服务器请求获取识别所述电源线时所使用的工作环境的图像,并展示获取的所述工作环境的图像供用户查看。
当然,对于工作环境地图上没有被点击过的识别结果,采用区别于已被点击过的识别结果的显示方式进行显示。例如,扫地机器人在工作的过程中在地图上生成了新的识别结果,在用户未点击查看前,新的识别结果采用高亮、加粗、或在识别结果上添加标识的方式进行显示。例如,扫地机器人在工作的过程中,相继识别到电源线、垃圾桶、饭桌的识别结果,如果用户端APP没有打开,用户也没有及时查看相应的通知消息,则会在用户下一次打开APP查看扫地机器人建立的工作环境地图时,在工作环境地图中,对于新生成的识别结果的图像标识的右上角有绿点的标识,表征是新生成且未被选择查看过的识别结果,提醒用户可以分别点击选择对应的识别结果,进而获取对应的工作环境的图像供用户查看。对于工作机器人生成的工作环境地图中识别结果状态的区分,以上只描述了一种,具体也可以由其它的表现形式来表示,此处不再一一描述。
需要说明的是,以上说明了二种响应于对所述工作环境地图的识别结果的操作信息,展示所述识别结果对应的工作环境的图像的方式。其中,所述获取识别结果对应的工作环境的图像,具体是指根据识别结果向工作机器人或工作机器人连接的云端服务器请求获取识别结果对应的工作环境的图像。对于具体获取的方式,在以上二种方式中都做了详细描述,此处不再赘述。当然,除了以上二种方式外,还可以有其它的方式,此处不再一一描述。
另外,在工作机器人的工作环境地图中,在展示所述识别结果对应的工作环境的图像的同时,进一步的,还可以接收用户根据展示的工作环境的图像以及相应的识别结果判断识别是否正确的评判结果,具体包括:针对展示的每一个工作环境的图像生成选项供用户选择,若所述图像中存在与用户触发操作的识别结果相对应的对象物,则选择相应的选项。
依然以扫地机器人举例说明,例如,用户点击如图2所示的工作环境地图中2-102所示的鞋的识别结果,移动终端设备上的APP根据2-102标识向扫地机器人或扫地机器人连接的云端服务器请求获取2-102标识对应的工作环境的图像,扫地机器人或扫地机器人连接的云端服务器接收所述请求并返回对应的工作环境的图像给所述APP,之后,所述APP针对获取到的每一张图像都生成2个选项“识别正确”和“识别错误”,若所述图像中存在鞋,用户则选择“识别正确”,反之,若图像中不存在鞋,用户则选择“识别错误”。
另一种实现方式可以是针对获取的图像以组为单位供用户选择,每组含多张图像,每组生成选项供用户进行选择,若一组的每张图像中都存在与所述对象物的识别结果相对应的对象物,则选择相应的选项,若一组图像中有任意一张图像中不存在与所述对象物的识别结果相对应的对象物,则选择另外的选项。
例如,用户点击如图2所示的工作环境地图中2-102标识所示的鞋的识别结果,移动终端设备上的APP根据2-102标识向扫地机器人或扫地机器人连接的云端服务器请求获取2-102标识对应的工作环境的图像,扫地机器人或扫地机器人连接的云端服务器接收所述请求并返回对应的图像给APP,之后,所述APP,以组为单位,每组含多张图像,针对每一组生成2个选项“识别正确”和“识别错误”,若一组的每张图像中都存在垃圾桶,用户则选择“识别正确”,反之,若一组中有任意一张图像中不存在垃圾桶,用户则选择“识别错误”。
另外需要说明的是,所述针对所述图像生成的选项。可以是上述举例所说的“识别正确”和“识别错误”,也可以是“YES”和“NO”或“笑脸表情”和“哭脸表情”等能表达出正确和错误这种相反意思的表现形式,此处不再一一列举说明。
所述针对展示的每一个工作环境的图像都生成选项供用户选择,若所述图像中存在与用户触发操作的识别结果相对应的对象物,则选择相应的选项。在用户选择识别正确时,则识别对象物时所用的图像与对应的识别结果可作为数据及数据标签,由此可以收集到工作机器人实际工作环境中的数据集中,用于工作机器人或工作机器人连接的云端服务器中识别算法的训练。若用户选择的选项表明识别结果错误,则推送可能的识别结果供用户选择,如果用户选择了其中一个识别结果,则使用该识别结果替换原工作环境地图上被判为错误的识别结果。此处,依然以扫地机器人举例说明,用户通过移动终端上相应的APP查看如图2所示的工作环境地图,当用户点击其中2-102所示的鞋的识别结果后,对获取到的识别2-102所使用的图像集[图像31、图像32、图像33、图像34]中的图像生成选项供用户选择;若用户通过查看图像31、图像32、图像33、图像34中的一张或多张后,发现图像中存在的是垃圾桶,而不是鞋,则用户会对每张图像生成的选项中选择“识别错误”的选项,当APP接收到所述“识别错误”这种被判为错误的评判后,则推送可能正确的识别结果供用户选择,比如生成选项:“垃圾桶”,“电源线”,“饭桌”,“鞋”供用户选择,若选项中有图像中所对应物所对应的识别结果,用户则选择其中正确的识别结果,同时所述APP会上传所述替换后的识别结果到扫地机器人或扫地机器人连接的云端服务器中并在原工作环境地图上用新的正确的识别结果替换被判为错误的识别结果。比如在此处,因为图像31、图像32、图像33、图像34的一张或多张中存在的对象物是垃圾桶,用户认为原来鞋的识别结果是错误的,则可以在选择识别错误后,在新的识别结果的选项中选择“垃圾桶”的选项,之后,所述APP会上传所述替换后的识别结果到扫地机器人或扫地机器人连接的云端服务器中并在原工作环境地图上用垃圾桶的识别结果替换2-102处鞋的识别结果。
其中,所述会生成新的识别结果供用户选择,其中所述可能的识别结果根据工作机器人所处的工作环境中惯常出现的一些对象物生成或者根据识别过程中生成的其他可能的识别结果生成。如上述在对2-102识别结果所对应的工作环境的图像[图像31、图像32、图像33、图像34]进行评判,发现识别错误时,生成的选项是:“垃圾桶”,“电源线”,“饭桌”,“鞋”,即供用户选项的选项或是扫地机器人所处的用户家庭环境中惯常出现的对象物比如“饭桌”,“鞋”等,或是在识别算法识别2-102时生成的其他可能的识别结果比如“垃圾桶”,“电源线”等组成。此处,之所以做出说明,是因为扫地机器人对应的APP在接收到识别错误的评判后,并不是漫无目的的生成选项供用户选择,而是从后端程序在扫地机器人工作的过程中通过采集的图像对用户家庭环境中出现的对象物频率的统计结果,以及,对每一个识别结果在识别的过程中对识别时出现的其它识别结果的相应的记录中,挑选出现的对象物频率较高的识别结果及识别过程中出现的其它识别结果作为选项有针对性的供用户选择,以提高命中频率。
以上,描述了在工作机器人的工作环境地图中,在展示所述识别结果对应的工作环境的图像的同时,还可以根据展示的工作环境的图像以及相应的识别结果判断识别是否正确的评判结果。经过上述评判操作后,如果评判结果显示识别正确,则识别对象物时所用的图像与对应的识别结果可作为数据及数据标签,同时将所述数据标签传递回存储了原图像数据的工作机器人本地存储或工作机器人连接的云端服务器中,由工作机器人或工作机器人连接的云端服务器中做相应的数据映射,将图像数据及其对应的数据标签收集到工作机器人实际工作环境中的数据集中,用于对工作机器人或工作机器人连接的云端服务器中的识别算法的训练。这样既完成了对工作机器人中或工作机器人连接的云端服务器中内置的识别算法场景识别结果是否正确的收集,方便统计真实正确识别率。同时,因为将用户对各对象物识别结果所用的图像进行评判的评判结果记录为对应图像的数据标签即视为对图像数据进行了标注,免去了繁杂的手工标注,将该数据标签传递回存储了原图像的工作机器人本地存储或工作机器人连接的云端服务器中,相当于收集了所述识别算法的数据集,可以用于对所述识别算法进行训练、测试及验证。
另外,对于在工作机器人的工作环境地图中,响应于对所述工作环境地图的某位置的操作信息,展示所述位置对应的工作环境的图像。一种方式是:响应于对所述工作环境地图中某位置的操作信息,获取工作机器人在所述位置工作时采集的工作环境的图像,展示获取到的工作环境的图像。
此处,仍然以扫地机器人举例说明,用户通过移动终端如手机APP查看扫地机器人的工作环境地图,当用户点击了某位置,响应于用户的点击操作,所述APP获取所述位置在所述工作环境地图中的相对坐标位置,比如所述位置是上述所述的坐标位置(P,Q),之后,所述APP根据坐标位置(P,Q)向扫地机器人或扫地机器人连接的云端服务器请求获取坐标位置(P,Q)对应的工作环境的图像,扫地机器人或扫地机器人连接的云端服务器接收所述请求并返回对应的图像给所述APP,比如通过对应关系{(P,Q),[图像X1,图像X2,图像X3,图像Y1,图像Y2]}查到坐标位置(P,Q)对应的工作环境的图像为图像X1,图像X2,图像X3,图像Y1,图像Y2],则返回图像列表[图像X1,图像X2,图像X3,图像Y1,图像Y2]到请求的APP中,并由所述APP在对应的界面中展示获取到的图像。
此外,另外一种方式是:确定用户触发操作的某位置位于地图中的区域信息,根据所述区域信息获取工作机器人在对应区域工作时采集的工作环境的图像,展示获取到的工作环境的图像。
此处,仍然以扫地机器人举例说明,当用户通过移动终端如手机APP打开扫地机器人的工作环境地图后,可以点击图中工作环境地图所示区域中的任意位置,之后,响应于对所述位置的点击操作,所述APP基于用户点击的所述位置在所述工作环境地图中的区域信息,所述位置对应的分区为上述所述的分区1,则所述APP根据分区1的信息向扫地机器人或扫地机器人连接的云端服务器发送获取所述分区1对应的工作环境的图像的请求,扫地机器人或扫地机器人连接的云端服务器接收到所述请求后,根据请求中的分区1的信息查找所述分区1对应的工作环境的图像,并将所述工作环境的图像返回给所述APP,所述APP接收到所述位置所对应的工作环境的图像后,在工作环境地图的界面中展示获取的工作环境的图像供用户查看。
对应于所述两种响应方式,因为所述位置对应的工作环境的图像可能较多,工作机器人在展示获取到的工作环境的图像时,可以以幻灯片的形式展示所述工作环境的图像。例如扫地机器人在获取到某位置对应的工作环境的图像后,所述APP显示的工作环境地图的界面中,将以幻灯片的形式展示所述工作环境的图像,以方便用户查看。当然,用户也可以对所述幻灯片的图像切换方式、图像切换时间等常规幻灯片的操作在相应的设置中做对应的设置,因为关于幻灯片操作的现有技术比较成熟,此处,不再赘述。
以上,详细描述了一种用于与工作机器人信息交互的方法的实施例,通过所述的与工作机器人信息交互的方法,极大的方便了用户对于工作机器人的工作环境的细节的查看,用户可以清晰、准确的查看工作环境的细节,进而可以准确的在工作环境地图上进行设置虚拟墙、定点清扫及细分区域的操作,大大提高了用户的操作精细、精准度。
在上述的描述中,提供了一种用于与工作机器人信息交互的方法,与之相对应的,本申请还提供了一种用于与工作机器人信息交互的装置。请参看图3,其为本申请的一种用于与工作机器人信息交互的装置实施例示意图。由于装置实施例基本相似与方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。下述描述的装置实施例仅是示意性的。
本实施例的一种用于与工作机器人信息交互的装置,包括:
获取单元301,用于获取工作机器人的工作环境地图;
接收单元302,用于接收用户对所述工作环境地图的某位置或某识别结果的点击操作;
操作单元303,用于响应于对所述工作环境地图的某位置或某识别结果的操作信息,获取工作环境地图的某位置或某识别结果对应的工作环境的图像;
展示单元304,用于展示所述位置或识别结果对应的工作环境的图像。
以上对本申请提供的一种用于与工作机器人信息交互的方法及装置的实施例进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本申请的限制。本申请的保护范围应当以本申请权利要求所界定的范围为准。
Claims (15)
1.一种用于与工作机器人信息交互的方法,其特征在于,包括:
用户端获取工作机器人的工作环境地图;
接收用户对所述工作环境地图的某位置或某识别结果的操作信息;
响应于对所述工作环境地图的某位置或某识别结果的操作信息,获取工作环境地图的某位置或某识别结果对应的工作环境的图像;
展示所述位置或识别结果对应的工作环境的图像。
2.根据权利要求1所述的用于与工作机器人信息交互的方法,其特征在于:
工作机器人采集其工作环境的图像;
识别所述图像中的对象物并生成相应的识别结果;
在其工作环境地图的对应位置处标识出识别结果,即所述识别结果在所述工作环境地图中的位置,与所述识别结果对应的对象物在所述工作机器人工作环境中的位置相对应。
3.根据权利要求2所述的用于与工作机器人信息交互的方法,其特征在于:
将所述工作环境地图中的识别结果和获取到所述识别结果所使用的一张或多张工作环境的图像,以及,所述工作环境地图中的位置及其所对应的一张或多张工作环境的图像,对应的存储在工作机器人或与工作机器人连接的云端服务器中。
4.根据权利要求1所述的用于与工作机器人信息交互的方法,其特征在于,所述展示所述位置或识别结果对应的工作环境的图像,包括展示所述位置或识别结果对应的一张或多张工作环境的图像。
5.根据权利要1所述的用于与工作机器人信息交互的方法,其特征在于,所述响应于对所述工作环境地图的某识别结果的操作信息,展示所述识别结果对应的工作环境的图像,进一步包括:
接收用户根据展示的工作环境的图像以及相应的识别结果判断识别是否正确的评判结果。
6.根据权利要求5所述的用于与工作机器人信息交互的方法,其特征在于,对于工作环境地图上没有被操作过的识别结果,采用区别于已被操作过的识别结果的显示方式进行显示。
7.根据权利要求6所述的用于与工作机器人信息交互的方法,其特征在于,所述显示方式包括:高亮、加粗、在识别结果上添加标识。
8.根据权利要求1所述的用于与工作机器人信息交互的方法,包括:
当用户端当前不处于当前工作环境的界面时,响应于工作机器人在工作环境地图中生成新的识别结果,生成提醒用户是否查看的信息,如果用户点击查看,则跳转到当前工作环境地图的界面,获取识别结果对应的工作环境的图像,并展示所述获取的工作环境的图像。
9.根据权利要求5所述的用于与工作机器人信息交互的方法,其特征在于,所述接收用户根据展示的工作环境的图像以及相应的识别结果判断识别是否正确的评判结果,包括:
针对展示的每一个工作环境的图像生成选项供用户端选择;
若所述图像中存在与用户触发操作的识别结果相对应的对象物,则选择相应的选项。
10.根据权利要求9所述的用于与工作机器人信息交互的方法,其特征在于,若用户选择的选项表明识别结果错误,则推送可能的识别结果供用户选择;如果用户选择了其中一个识别结果,则使用该识别结果替换原工作环境地图上被判为错误的识别结果。
11.根据权利要求10所述的用于与工作机器人信息交互的方法,其特征在于,所述可能的识别结果根据工作机器人所处的工作环境中惯常出现的一些对象物生成或者根据识别过程中生成的其他可能的识别结果生成。
12.根据权利要求1所述的用于与工作机器人信息交互的方法,其特征在于,所述响应于对所述工作环境地图的某位置的操作信息,展示所述位置对应的工作环境的图像,包括:
响应于对所述工作环境地图中某位置的操作信息,获取工作机器人在所述位置工作时采集的工作环境的图像;
展示获取到的工作环境的图像。
13.根据权利要求12所述的用于与工作机器人信息交互的方法,其特征在于,所述展示获取到的工作环境的图像,包括:
以幻灯片的形式展示获取到的工作环境的图像。
14.根据权利要求1所述的用于与工作机器人信息交互的方法,其特征在于,所述响应于对所述工作环境地图的某位置的操作信息,展示所述位置对应的工作环境的图像,包括:
确定用户触发操作的某位置位于地图中的区域信息;
根据所述区域信息获取工作机器人在对应区域工作时采集的工作环境的图像;
展示获取到的工作环境的图像。
15.一种用于与工作机器人信息交互的装置,其特征在于,包括:
获取单元,用于获取工作机器人的工作环境地图;
接收单元,用于接收用户对所述工作环境地图的某位置或某识别结果的操作信息;
操作单元,用于响应于对所述工作环境地图的某位置或某识别结果的操作信息,获取工作环境地图的某位置或某识别结果对应的工作环境的图像;
展示单元,用于展示所述位置或识别结果对应的工作环境的图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910222204.2A CN111414786A (zh) | 2019-03-22 | 2019-03-22 | 一种用于与工作机器人信息交互的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910222204.2A CN111414786A (zh) | 2019-03-22 | 2019-03-22 | 一种用于与工作机器人信息交互的方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111414786A true CN111414786A (zh) | 2020-07-14 |
Family
ID=71490777
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910222204.2A Pending CN111414786A (zh) | 2019-03-22 | 2019-03-22 | 一种用于与工作机器人信息交互的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111414786A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113341752A (zh) * | 2021-06-25 | 2021-09-03 | 杭州萤石软件有限公司 | 一种智能门锁与清洁机器人联动的方法、智能家居系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100324769A1 (en) * | 2007-02-13 | 2010-12-23 | Yutaka Takaoka | Environment map generating method and mobile robot (as amended) |
CN106441298A (zh) * | 2016-08-26 | 2017-02-22 | 陈明 | 一种以机器人视角图像进行地图数据人机交互的方法 |
CN107272454A (zh) * | 2017-06-19 | 2017-10-20 | 中国人民解放军国防科学技术大学 | 一种基于虚拟现实的实时人机交互方法 |
-
2019
- 2019-03-22 CN CN201910222204.2A patent/CN111414786A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100324769A1 (en) * | 2007-02-13 | 2010-12-23 | Yutaka Takaoka | Environment map generating method and mobile robot (as amended) |
CN106441298A (zh) * | 2016-08-26 | 2017-02-22 | 陈明 | 一种以机器人视角图像进行地图数据人机交互的方法 |
CN107272454A (zh) * | 2017-06-19 | 2017-10-20 | 中国人民解放军国防科学技术大学 | 一种基于虚拟现实的实时人机交互方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113341752A (zh) * | 2021-06-25 | 2021-09-03 | 杭州萤石软件有限公司 | 一种智能门锁与清洁机器人联动的方法、智能家居系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107370983B (zh) | 用于视频监控系统的行踪轨迹的获取方法和装置 | |
CN203224887U (zh) | 显示控制设备 | |
CN111623755B (zh) | 启用自动测量 | |
CN105302701B (zh) | 一种测试终端用户界面反应时间的方法、装置及设备 | |
CN110400387A (zh) | 一种基于变电站的联合巡检方法、系统和存储介质 | |
EP3944221A1 (en) | Price tag information display method and device, and shelf system | |
CN104102335A (zh) | 一种手势控制方法、装置和系统 | |
CN103383731A (zh) | 一种基于指尖定位的投影交互方法、系统及计算设备 | |
CN110579191A (zh) | 目标对象的巡检方法、装置及设备 | |
WO2022267795A1 (zh) | 区域地图的处理方法及装置、存储介质及电子装置 | |
CN104503888A (zh) | 告警提示的方法及装置 | |
CN109141647A (zh) | 机房温度监测方法和装置 | |
CN108475431A (zh) | 图像处理装置、图像处理系统、图像处理方法和程序 | |
CN107092350A (zh) | 一种远程计算机控制系统及方法 | |
CN109507904B (zh) | 家居设备管理方法、服务器、及管理系统 | |
CN114327064A (zh) | 一种基于手势控制的标绘方法、系统、设备及存储介质 | |
CN107708094A (zh) | 设备配对方法及装置 | |
CN111399634B (zh) | 一种手势引导物体识别的方法及装置 | |
CN111414786A (zh) | 一种用于与工作机器人信息交互的方法及装置 | |
CN109190716A (zh) | 低压集抄故障的处理方法、装置及电子设备 | |
CN104239842B (zh) | 一种实现视觉识别的方法、装置和系统 | |
CN108022253A (zh) | 图像处理装置、图像处理系统以及图像处理方法 | |
CN107102794B (zh) | 操作处理方法及装置 | |
CN113141433B (zh) | 测试屏幕灵敏度的方法、装置和处理器 | |
CN115729393A (zh) | 信息处理过程中的提示方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200714 |