CN109773783B - 一种基于空间点云识别的巡防智能机器人及其警务系统 - Google Patents
一种基于空间点云识别的巡防智能机器人及其警务系统 Download PDFInfo
- Publication number
- CN109773783B CN109773783B CN201811613347.8A CN201811613347A CN109773783B CN 109773783 B CN109773783 B CN 109773783B CN 201811613347 A CN201811613347 A CN 201811613347A CN 109773783 B CN109773783 B CN 109773783B
- Authority
- CN
- China
- Prior art keywords
- target object
- coordinate
- coordinates
- point cloud
- intelligent robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
本申请实施例提供的基于空间点云监控识别的巡防智能机器人,包括:图像采集模块,用于采集当前空间范围内的物体的图像;激光收发模块,用于向所述当前空间发射密集激光信号,并接收反射激光信号,生成空间点云;数据处理模块,用于根据所述空间点云确定当前空间范围内的物体的轮廓和坐标;通信模块,用于与后台服务器通信连接,将所述图像和所述物体的轮廓和坐标发送至所述后台服务器;驱动模块,用于驱动所述巡防智能机器人进行移动;中央控制模块,用于控制所述驱动模块。实现了对距离近的监控目标进行无死角监控,对于距离远的监控目标能够抵近监控,从而有利于对可疑目标的监控。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种基于空间点云识别的巡防智能机器人及其警务系统。
背景技术
随着城市化的进程发展,城市的规模越来越大,公共场所如学校、火车站、汽车站、机场大厅、图书馆、科技馆和城市商业广场等重要区域的人群集聚量很大。目前城市公共场所使用的安防措施有监控摄像头、移动交巡警平台和人力安保人员。其中,传统的固定监控摄像头存在死角,当监控目标距离摄像头比较远的时候成像不清晰,对距离摄像头比较远的可疑目标也不能抵近监控。
安防巡逻机器人比较少,功能也存在较多局限,在监控和预警提示方面对于协助或者辅助安保人员的工作来说还远远不够。在巡防路线来说,现有的机器人是按照预设的固定路线进行巡航,例如中国专利CN108115727A“一种安防机器人巡防的方法、装置及系统”中通过北斗卫星获取指定地点的高精度地图,再根据该高精度地图设置高精度巡防路线以及电子栅栏,根据巡防路线以及电子栅栏进行巡防;由于只能按照预设线路巡防,如果改变巡防路线也只能由控制人员调整。中国专利CN107825395A“巡防机器人及控制系统”公开了一种巡防机器人,在路径规划方面该发明也是由控制人员在地图上划定巡防范围,或者是由控制人员远程输入指令,可见对巡防路线的选择与调整都依赖人工调度,一旦发现可疑目标不能自主调整路径并灵活有效地展开追踪。
另外,机器人巡防过程中必须考虑如何解决障碍物干扰、阻挡甚至碰撞的问题。上述中国专利CN107825395A是利用感应模块感应图像信息,图像识别模块对感应到的图像信息进行障碍物识别。但是,安全巡防经常在黑暗的夜间或者雾霾等气象条件下在室外进行,即便是室内巡防一般夜间为了省电也会关闭大部分照明电源,这样利用摄像机采集到的图像信息会比较模糊,用于识别障碍物和规划路线的效果都非常差,容易发生意外碰撞。摄像机采集到的信号是X-Y二维平面图像信号,没有Z轴的深度信息,也不能区分目标物、背景物、障碍物谁在前谁在后,不能用于设定路线;如果要获取Z轴深度信息还得匹配双摄像头并且用复杂算法推算深度信息。
发明内容
有鉴于此,本申请的目的在于提出一种基于空间点云识别的巡防智能机器人及其警务系统,来解决现有技术中传统的固定监控摄像头存在死角和不能抵近监控,以及现有的巡防机器人不能实现针对目标的自主路径调整与追踪,利用摄像头采集图像信息识别目标和障碍物效果不佳,不利于对可疑对象的监控的技术问题。
基于上述目的,在本申请的第一个方面,提出了一种基于空间点云监控识别的巡防智能机器人,包括:
图像采集模块,用于采集当前空间范围内的物体的图像;
激光收发模块,用于向所述当前空间发射密集激光信号,并接收所述当前空间内的物体反射的激光信号,生成空间点云;
数据处理模块,用于根据所述空间点云确定当前空间范围内的物体的轮廓和坐标,以及根据物体的轮廓和坐标实时识别目标物体,确定目标物体的实时坐标信息;
通信模块,用于与后台服务器通信连接,将所述图像和所述物体的轮廓和坐标发送至所述后台服务器,并接收用户通过所述后台服务器发送的目标物体的坐标指示信息;
驱动模块,用于驱动所述巡防智能机器人进行移动;
中央控制模块,用于根据所述目标物体的实时坐标信息控制所述驱动模块驱动所述巡防智能机器人对所述目标物体进行跟踪监控。
在一些实施例中,所述激光收发模块,具体用于:
每隔预设时间间隔向所述当前空间发射一帧密集激光信号,并接收所述当前空间内的物体反射的激光信号,生成该帧密集激光信号对应的空间点云。
在一些实施例中,所述空间点云中包括多个点的坐标,所述的多个点为所述当前空间范围内的物体上的点;
所述数据处理模块,用于:
根据所述空间点云中的坐标识别出所述当前空间范围内的物体的面,并根据识别出的面确定当前空间范围内的物体的轮廓和坐标。
在一些实施例中,所述数据处理模块,具体用于:
对于所述空间点云中的点的坐标(x,y,z),将坐标x分布在区间(x-a,x+a)的点、或者坐标y分布在区间(y-a,y+a)的点、或者坐标z分布在区间(z+a,z+a)内的点分别识别为同一面上的点,从而将空间点云的点分别归入所属的面,然后将具有相交或邻接关系的两个及以上的面所包围的空间区域识别为一个物体,并将该空间区域所在的坐标作为物体的坐标。
在一些实施例中,所述数据处理模块,还用于:
根据所述巡防智能机器人的自身移动向量,对实时获得的空间点云中识别的物体的坐标进行还原;
在对所述物体的坐标还原后,根据所述当前空间内的物体的坐标与所述目标物体的坐标指示信息,判断二者坐标之间的距离是否小于预设阈值,并将与所述目标物体的坐标指示信息之间的距离小于预设阈值的物体确认为所述目标物体,获取目标物体的实时坐标信息,
若所述物体的坐标与目标物体的坐标指示信息之间的距离小于预设阈值的物体有多个,则提取多个物体的外观特征,并根据提取的多个物体的外观特征和所述目标物体的外观特征从所述多个物体中确认所述目标物体,获取目标物体的实时坐标信息。
在一些实施例中,所述数据处理模块,还用于:
对于所述多个物体中的非目标物体,根据所述非目标物体和所述目标物体的坐标之间的位置关系,确定所述非目标物体中的障碍物和背景物。
在一些实施例中,所述中央控制模块还用于:
在所述数据处理模块确定所述非目标物体中的障碍物后,根据所述障碍物的坐标设定所述巡防智能机器人的绕行路径。
在一些实施例中,所述中央控制模块具体用于:
对于静止障碍物,设定一个距离该障碍物距离为L1的绕行点,并将巡防智能机器人的行进方向设定为先经过绕行点,然后再向目标物体移动;
对于运动障碍物,设定一个在该障碍物运动方向相反方向上的距离为L2的绕行点,并将巡防智能机器人的行进方向设定为先经过绕行点,然后向目标物体移动,其中L2大于L1。
基于上述目的,在本申请的第二个方面,提出了一种基于空间点云监控识别的巡防智能机器人的警务系统,包括如第一个方面所述的巡防智能机器人,此外,还包括:
后台服务器,用于接收所述通信模块发送的所述图像和所述物体的轮廓和坐标,并将所述图像和所述物体的轮廓和坐标基于投影关系对应起来,并在用户指定目标物体后,将所述目标物体的坐标信息发送至所述通信模块;
显示模块,用于显示所述图像,并接收用户对所述图像中的目标物体的指定指令。
基于上述目的,在本申请的第三个方面,还提出了一种基于空间点云监控识别的巡防方法,包括:
巡防智能机器人获取当前空间范围内的物体的图像和空间点云,根据所述空间点云确定当前空间范围内的物体的轮廓和坐标,并将当前空间范围内的物体的图像和当前空间范围内的物体的轮廓和坐标发送至后台服务器,并根据物体的轮廓和坐标实时识别目标物体,确定目标物体的实时坐标信息;
后台服务器基于投影关系将所述图像和所述轮廓和坐标对应起来,并接收用户指定目标物体的指定指令,根据所述指定指令生成目标物体的坐标指示信息,并将所述坐标指示信息发送至所述巡防智能机器人;
所述巡防智能机器人根据自身的移动向量,对实时获得的空间点云中识别的物体的坐标进行还原,获取目标物体的实时坐标信息,并根据所述目标物体的实时坐标信息控制所述驱动模块驱动所述巡防智能机器人对所述目标物体进行跟踪监控。
本申请实施例提供的基于空间点云监控识别的巡防智能机器人,包括:图像采集模块,用于采集当前空间范围内的物体的图像;激光收发模块,用于向所述当前空间发射密集激光信号,并接收所述当前空间内的物体反射的激光信号,生成空间点云;数据处理模块,用于根据所述空间点云确定当前空间范围内的物体的轮廓和坐标,以及根据物体的轮廓和坐标实时识别目标物体,确定目标物体的实时坐标信息;通信模块,用于与后台服务器通信连接,将所述图像和所述物体的轮廓和坐标发送至所述后台服务器,并接收用户通过所述后台服务器发送的目标物体的坐标指示信息;驱动模块,用于驱动所述巡防智能机器人进行移动;中央控制模块,用于根据所述目标物体的实时坐标信息控制所述驱动模块驱动所述巡防智能机器人对所述目标物体进行跟踪监控。本申请实施例的基于空间点云监控识别的巡防智能机器人、巡防系统和巡防方法,实现了针对目标的自主路径调整与追踪,利用摄像头采集图像信息识别目标和障碍物效果更好,有利于对可疑对象的监控。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请实施例一的基于空间点云监控识别的巡防智能机器人的功能结构示意图;
图2是本申请实施例一中图像采集模块采集到的图像的示意图;
图3是本申请实施例一中激光收发模块生成的空间点云的示意图;
图4是本申请实施例中相邻两帧空间点云中的物体位置变化示意图;
图5是本申请实施例二的基于空间点云监控识别的巡防智能机器人的警务系统的功能结构示意图;
图6是本申请实施例三的基于空间点云监控识别的巡防方法的流程图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
本申请实施例中的基于空间点云监控识别的巡防智能机器人及其警务系统的巡防方法,可以应用于公共场所,例如学校、火车站、汽车站、机场大厅、图书馆、科技馆和城市商业广场等。所述巡防智能机器人在巡防的过程中,要定时(例如每1/10秒一次)检测和识别目标物(人、可疑包裹等移动或者固定物体),并确定目标物和机器人自身的相对位置关系,进而根据该位置关系设定指向目标物的行进路线(躲避路线沿途障碍物),根据行进路线向着目标物行进,实现近距离监控,从而实现巡防。
具体地,如图1所示,是本申请实施例一的基于空间点云监控识别的巡防智能机器人的功能结构示意图。从图1中可以看出,本实施例的基于空间点云监控识别的巡防智能机器人,包括:
图像采集模块101,用于采集当前空间范围内的物体的图像。
如图2所示,本申请实施例一中图像采集模块采集到的图像的示意图。从图中可以看出,所述图像采集模块101采集到的图像是二维坐标中的图像。在本实施例中,所述图像采集模块101可以是具有摄像功能的设备,例如摄像机。所述基于空间点云监控识别的巡防智能机器人上可以设置有多个图像采集模块101,每个所述的图像采集模块101可以位于所述巡防智能机器人上的不同位置处,以从不同角度获取当前空间范围内的物体的图像。
激光收发模块102,用于向所述当前空间发射密集激光信号,并接收所述当前空间内的物体反射的激光信号,生成空间点云。
在本实施例中,所述激光收发模块102用于沿所述图像采集模块101采集图像的方向向所述当前空间发射密集激光信号,然后接收当前空间范围内的物体反射回来回波信号,每个激光束反射回来形成一个点信号,故而整个当前空间内的物体产生的回波信号是密集的点组成的空间点云,并且空间点云自身就是三维分布的,能够体现出当前空间内的物体的立体结构。通过沿所述图像采集模块101采集图像的方向向所述当前空间发射密集激光信号,使得生成的空间点云与所述图像采集模块101采集模块采集到的图像对应起来。如图3所示,是本申请实施例一中激光收发模块生成的空间点云的示意图,从图3中可以看出,所述激光收发模块102生成空间点云为三维空间中的点。
数据处理模块103,用于根据所述空间点云确定当前空间范围内的物体的轮廓和坐标;以及根据物体的轮廓和坐标实时识别目标物体,确定目标物体的实时坐标信息。
在本实施例中,当通过所述激光收发模块102获取到当前空间内的物体的反射的激光信号,生成空间点云后,可以根据生成的空间点云确定当前空间范围内的物体的轮廓和坐标。由于所述激光收发模块102是按照预设时间间隔发射密集激光信号的,每发射一次密集激光信号生成的空间点云记为一帧空间点云。在同一发射间隔内,密集激光信号是同步发射的,但是,由于当前空间内的不同物体距离所述巡防智能机器人的距离不同,同一物体的不同部位距离所述巡防智能机器人的激光收发模块102的距离也可能不同,因此,所述激光收发模块102接收到当前空间内的物体反射的激光信号的时间是不同步的,根据s=ct/2,可以确定当前空间内的物体到所述巡防智能机器人距离,更具体地说,可以确定当前空间内的点到所述巡防智能机器人的激光收发模块102的距离,当然,这里所指的点是当前空间内的物体上的点,其中,s表示当前空间内的点到所述巡防智能机器人的激光收发模块102的距离,c表示密集激光信号的传播速度,t表示在同一发射间隔内,密集激光信号的发射时间和接收到对应的反射激光信号的时间差。通过上述方法,可以当前空间范围内的物体的上的点到所述所述巡防智能机器人的激光收发模块102的距离,该距离可以用一个坐标(x,y,z)来表示,其中x表示当前空间范围内的物体的上的点在三维空间的X轴上到所述所述巡防智能机器人的距离,y表示当前空间范围内的物体的上的点在三维空间的Y轴上到所述所述巡防智能机器人的距离,z表示当前空间范围内的物体的上的点在三维空间的Z轴上到所述所述巡防智能机器人的距离。然后再建立三维空间坐标系,确定所述巡防智能机器人的坐标(x1,y1,z1),进而确定当前空间范围内的物体的上的点的坐标(xn,yn,zn),其中n表示当前空间范围内的物体的上的不同的点,n≥2。当然,也可以预先建立三维空间坐标系,并实时对所述巡防智能机器人的坐标进行定位,在确定当前空间范围内的物体的上的点相对所述巡防智能机器人的激光收发模块102的距离后,可以根据公式(x1+xn,y1+yn,z1+zn)直接确定当前空间范围内的物体的上的点在预先建立的三维空间坐标系中的坐标。
在确定了当前空间范围内的物体的上的点在三维空间坐标系中的坐标后,可以进一步确定当前空间范围内的物体的轮廓和坐标。由于有误差、反射角倾斜等因素,一个物体反射面形成的点不会精确分布在一个面上,而是分布在大致面状的范围内,因此,对于所述空间点云中的点的坐标(x,y,z),将坐标x分布在区间(x-a,x+a)的点、坐标y分布在区间(y-a,y+a)的点、坐标z分布在区间(z+a,z+a)内的点识别为同一面上的点,并且,通过上述方法识别为同一面上的点所构成的面,通常对应同一个物体的一个面。在识别多当前空间内的物体的面之后,将具有相交或邻接关系的两个及以上的面所包围的空间区域识别为一个物体。其中,坐标(x,y,z)为当前空间范围内的物体的上的点的坐标(xn,yn,zn)中的任意一点。由于物体在几何中可以被认为是由多个面围成的,因此,在识别出物体的多个面之后,可以提取出该物体的轮廓,即多个面中的任意两个面的相交线。在确定了当前空间中物体的轮廓后,可以确定该物体的各顶点的坐标,并将各顶点的坐标形成的坐标组(Xn,Yn,Zn)作为该物体在当前空间内的坐标,其中n表示物体的编号。
并且,当所述巡防智能机器人有需要跟踪监控的物体(即目标物体)时,可以根据物体的轮廓和坐标实时识别目标物体,进而确定目标物体的实时坐标信息。
通信模块104,用于与后台服务器通信连接,将所述图像和所述物体的轮廓和坐标发送至所述后台服务器,并接收用户通过所述后台服务器发送的目标物体的坐标指示信息。
在确定了当前空间内的物体的轮廓和坐标之后,通过所述通信模块104建立与后台服务器的通信连接,从而将所述图像采集模块101采集到的图像以及所述数据处理模块103根据所述激光收发模块102生成的空间点云所确定的物体的轮廓和坐标发送至后台服务器。需要说明的是,所述通信模块104发送的图像和物体的轮廓和坐标在时间维度上是同步的,即所述图像采集模块101在采集当前空间内的物体的图像的同时,所述激光收发模块102同时生成当前空间内的物体的空间点云,也就是说,所述图像采集模块101每采集一帧图像,所述激光收发模块102便发射一帧密集激光信号,二者时间上是完全同步的。后台服务器在接收到所述巡防智能机器人发送的图像和物体的轮廓和坐标后,基于映射关系建立所述图像坐标和所述物体的轮廓和坐标的对应关系,并将所述图像通过显示设备显示给用户,用户可以指定所述图像中的物体作为目标物体,并发出跟踪监控所述目标物体的指令,具体地,用户可以在触控显示设备上通过圈选目标物体的方式发出跟踪监控所述目标物体的指令,后台服务器在接收到用户发出的跟踪监控所述目标物体的指令后,根据图像坐标与点云数据中物体坐标的映射关系,对应获得该目标物体在点云中的坐标,以该点云中的坐标生成坐标指示信息,并将所述目标物体的坐标指示信息发送至所述通信模块104,以令所述巡防智能机器人对所述目标物体进行跟踪监控。
驱动模块105,用于驱动所述巡防智能机器人进行移动。
在本实施例中,所述驱动模块105主要用于为所述巡防智能机器人提供动力,以供所述巡防智能机器人移动。
中央控制模块106,用于根据所述目标物体的实时坐标信息控制所述驱动模块驱动所述巡防智能机器人对所述目标物体进行跟踪监控。
具体地,在所述通信模块104接收到用户通过所述后台服务器发送的目标物体的坐标指示信息后,由数据处理模块103根据该坐标指示信息,确定当前空间的点云当中目标物体的实时坐标信息,再由中央控制模块106根据所述目标物体的实时坐标信息控制所述驱动模块驱动所述巡防智能机器人对所述目标物体进行跟踪监控。即控制所述巡防智能机器人向所述目标物体移动,以近距离获取所述目标物体的图像,并反馈给后台服务器,从而实现对目标物体的跟踪监控。
本申请实施例的基于空间点云监控识别的巡防智能机器人,能够对距离近的监控目标进行无死角监控,对于距离远的监控目标能够抵近监控,从而有利于对可疑目标的监控。
此外,作为本申请的一个实施例,在上述实施例中,所述数据处理模块,还用于:
根据所述巡防智能机器人的自身移动向量,对实时获得的空间点云中识别的物体的坐标进行还原。在对所述物体的坐标还原后,根据所述当前空间内的物体的坐标与所述目标物体的坐标指示信息,判断二者坐标之间的距离是否小于预设阈值,并将与所述目标物体的坐标指示信息之间的距离小于预设阈值的物体确认为所述目标物体,获取该物体实时的坐标信息,作为目标物体的实时坐标信息;若还原之后实时获得的空间点云之中所述物体的坐标与目标物体的坐标指示信息之间的距离小于预设阈值的物体有多个,则提取多个物体的外观特征,并根据提取的多个物体的外观特征和坐标指示信息所指明的原目标物体的外观特征,从所述多个物体中确认当前空间点云中的所述目标物体,获取目标物体的实时坐标信息。
由于在所述巡防智能机器人在发送物体的图像和物体的轮廓和坐标以及接收用户通过后台服务器发送的目标物体的实时坐标信息之间会有时间差,在该时间差内,所述巡防智能机器人本身可能会发生移动,同时,目标物体在该时间差内也可能发生移动,因此,所述巡防智能机器人接收到目标物体的坐标指示信息时,目标物体在当前空间的实时坐标相对于该信息指示的坐标来讲已经发生了改变,因此,要对当前时间的空间点云当中物体的坐标进行还原,再根据用户指定的目标物体的坐标指示信息从这些物体中识别出当前的目标物体。具体地,当所述巡防智能机器人在接收到目标物体的坐标指示信息时,对于该时刻采集到的当前空间内的物体的坐标,根据自身的移动向量对当前空间内的物体的坐标进行还原(目的是为了对目标物体的坐标进行还原),使当前空间内的物体的坐标克服机器人自身移动的影响。具体地,假设巡防智能机器人自身的移动向量为(xm,ym,zm),当前空间内的物体的坐标为(Xn,Yn,Zn),则还原处理之后当前空间点云之中各物体的坐标为(Xn-xm,Yn-ym,Zn-zm),即每个物体的顶点坐标的各维度都减去巡防智能机器人在各维度的移动量,如果巡防智能机器人未发生移动,则(xm,ym,zm)=(0,0,0)。通过上述方法,消除了巡防智能机器人自身的移动对确定目标物体坐标的影响。
但是,目标物体本身也可能是移动的,因此,在对目标物体的坐标进行还原后,还需要对所述目标物体进行进一步的确定。具体地,对于所述巡防智能机器人在接收到目标物体的坐标指示信息时采集到的当前空间内的物体的坐标,判断进行还原之后该物体的坐标与所述坐标指示信息中目标物体的坐标之间的距离是否小于预设阈值,并将在坐标还原后与所述坐标指示信息中目标物体的坐标之间的距离小于预设阈值的物体确认为所述目标物体,并获取该目标物体在当前空间点云中的实时坐标信息。由于巡防机器人是实时地将自身获取的图像信息以及点云数据中识别出来的物体的轮廓和坐标上传给后台服务器,后台服务器通过用户的圈定和映射转换获得该帧点云数据中目标物体的坐标指示信息后也实时下发到巡防机器人,因此这一交互过程产生的时间延迟也是极小的,属于秒级的范围;因此,在还原了机器人自身移动带来的影响之后,在机器人实时获取的当前帧点云数据当中,目标物体相对于后台服务器指定的坐标指示信息来说实际位移量是极小的,故而可以以距离小于预设阈值作为标准来将当前点云中的物体认定为该目标物体。若与所述坐标指示信息中目标物体的坐标之间的距离小于预设阈值的物体有多个,则提取多个物体的外观特征,并根据提取的多个物体的外观特征和坐标指示信息中所述目标物体的外观特征从所述多个物体中确认所述目标物体,并获取目标物体的实时坐标信息。具体来说,巡防机器人根据坐标指示信息确定被指定的目标物体的轮廓;进而,对于当前点云数据中上述距离小于预设阈值的每个物体,建立目标物体的点云轮廓与该物体的点云轮廓之间的总相偏离度D,其中,假设目标物体的点云轮廓包括n个面,该物体的点云轮廓包括m个面,则建立目标物体的每个面与该物体每个面的关联,显然共计n*m个关联,则该总相偏离度D为:其中ΔXi、ΔYi、ΔZi表示第i个关联涉及的两个面的面中心的坐标差,是一个系数,该系数与目标物体轮廓体积呈正比;这样计算出来目标物体与距离小于预设阈值的每个物体的总相偏离度D后,取该值最小的物体识别为目标物体。
在获取到目标物体的实时坐标信息后,进而根据所述目标物体的实时坐标信息对所述目标物体进行实时监控。具体地,对于当前帧的空间点云中所识别的目标物体的坐标,将所述巡防智能机器人的坐标与所述目标物体的坐标之间的直线连线方向作为该帧对应的时间间隔内所述巡防智能机器人的前进方向,并在获取到下一帧的空间点云中的识别的目标物体的坐标后,将所述巡防智能机器人的坐标与所述目标物体在下一帧的空间点云中的坐标之间的直线连线方向作为下一帧对应的时间间隔内所述巡防智能机器人的前进方向。重复上述过程,直到所述巡防智能机器人到达距离所述目标物体的预设距离内,从而实现了对目标物体的跟踪监控。
如图4所示,本申请实施例中相邻两帧空间点云中的物体位置变化示意图。其中五角星表示所述巡防智能机器人在三维空间坐标系中的位置,两个长方体和圆柱体表示三维空间中的物体,其中圆柱体表示目标物体,箭头表示所述巡防智能机器人和物体在两帧空间点云中的位置变化方向,在先一帧中的所述巡防智能机器人与目标物体之间的连线表示在先一帧对应的时间间隔内所述巡防智能机器人跟踪监控目标物体的移动方向,在后一帧中的所述巡防智能机器人与目标物体之间的连线表示在后一帧对应的时间间隔内所述巡防智能机器人跟踪监控目标物体的移动方向。即每生成新的一帧空间点云,即更新所述巡防智能机器人的移动方向。
本申请实施例的方法,在一定程度上避免了巡防智能机器人自身的移动和目标物体自身的移动对跟踪监控目标物体的影响,从而能够取得准确跟踪监控目标物体的效果。
作为本申请的一个实施例,在上述实施例中,通过对当前时间的空间点云当中物体的坐标进行还原后,确定了目标物体在当前空间内的坐标,进而可以控制所述巡防智能机器人向所述目标物体移动,从而实现近距离监控所述目标物体。但是,在所述巡防智能机器人和所述目标物体之间可能存在障碍物,同时在根据当前时间的空间点云确定了当前空间内的物体时,也会存在目标物体的背景物(即到巡防智能机器人的距离远于目标物体到巡防智能机器人的距离的物体),而在巡防智能机器人向目标物体移动的过程中,背景物不会影响巡防智能机器人的行进路线,只有障碍物才会影响巡防智能机器人的行进路线,因此,要对当前空间内的物体是背景物还是障碍物进行区分。具体地,对于所述多个物体中的非目标物体,根据所述非目标物体和所述目标物体的坐标之间的位置关系,确定所述非目标物体中的障碍物和背景物。即根据当前空间内的非目标物体到所述巡防智能机器人的距离和目标物体到所述巡防智能机器人的距离来确定非目标物体中的障碍物和背景物,将到所述巡防智能机器人的距离大于目标物体到所述巡防智能机器人的距离的物体确定为背景物,将到所述巡防智能机器人的距离小于目标物体到所述巡防智能机器人的距离的物体确定为障碍物。对于障碍物,通过对比该障碍物在当前时间的空间点云中坐标和经过坐标还原后该障碍物的坐标,判断该障碍物是静止障碍物还是运动障碍物。对于静止障碍物,可以设定一个距离该障碍物距离为L1的绕行点,将巡防智能机器人的行进方向设定为先经过绕行点,然后向目标物体移动。对于运动障碍物,可以设定一个在该障碍物运动方向相反方向上的距离为L2的绕行点,L2大于L1以免发生意外碰撞,然后巡防智能机器人的行进方向设定为先经过绕行点,然后向目标物体移动。
本申请实施例的巡防智能机器人在向目标物体移动的过程中,能够区分背景物和障碍物,并进一步区分静止障碍物和运动障碍物,同时能够绕开障碍物向目标物体移动,从而避免了在移动过程中与障碍物发生碰撞。
如图2所示,是本申请实施例二的基于空间点云监控识别的巡防智能机器人的警务系统的功能结构示意图。本实施例的基于空间点云监控识别的巡防智能机器人的警务系统,包括:
上述实施例中的巡防智能机器人201,此外,还包括:
后台服务器202,用于接收所述通信模块发送的所述图像和所述物体的轮廓和坐标,并将所述图像和所述物体的轮廓和坐标基于投影关系对应起来,并在用户指定目标物体后,将所述目标物体的坐标指示信息发送至所述通信模块。
具体地,后台服务器202也可以包括通信模块(图中未示出),通过通信模块与巡防智能机器人201的通信模块104进行通信连接,以实现信息交互。在所述后台服务器202接收到所述巡防智能机器人的通信模块104发送的所述图像和所述物体的轮廓和坐标后,由于图像是二维坐标系中的图像,而所述物体的轮廓和坐标是三维空间坐标系同的坐标,但是所述图像和所述物体的轮廓和坐标在时间上是同步的,因此,物体的轮廓在二维坐标系中的投影即为二维坐标系中的图像的轮廓,因此,基于二维坐标系和三维坐标系的映射关系,可以将物体的轮廓和坐标与图像中的物体对应起来。因此,通过选定图像中的物体可以确定该物体在三维坐标系中的坐标,进而将该坐标作为目标物体的坐标指示信息发送至所述巡防智能机器人。
显示模块203,用于显示所述图像,并接收用户对所述图像中的目标物体的指定指令。
具体地,所述显示模块203可以是具有触控功能的显示设备,用户可以通过在显示模块203上圈选目标物体来发出监控指令,即被圈选的物体为需要跟踪监控的物体(即目标物体),在用户指定目标物体后,所述后台服务器202获取到与图像中的物体对应的三维坐标系中的坐标,并将目标物体的坐标发送至巡防智能机器人。巡防智能机器人通过对当前空间内的物体的坐标进行还原,并确定目标物体,从而实现对目标物体的跟踪监控。关于巡防智能机器人确定目标物体的过程参见上述实施例,这里不再详细赘述。
本申请实施例的基于空间点云监控识别的巡防智能机器人的警务系统,能够对距离近的监控目标进行无死角监控,对于距离远的监控目标能够抵近监控,从而有利于对可疑目标的监控。
如图3所示,是本申请实施例三的基于空间点云监控识别的巡防方法的流程图。本申请实施例的基于空间点云监控识别的巡防方法,可以包括以下步骤:
S301:巡防智能机器人获取当前空间范围内的物体的图像和空间点云,根据所述空间点云确定当前空间范围内的物体的轮廓和坐标,并将当前空间范围内的物体的图像和当前空间范围内的物体的轮廓和坐标发送至后台服务器,并根据物体的轮廓和坐标实时识别目标物体,确定目标物体的实时坐标信息。
具体地,巡防智能机器人通过图像采集模块获取当前空间范围内的物体的图像,并通过激光收发模块和数据处理模块获取当前空间范围内的物体的空间点云。关于获取当前空间范围内的物体的图像和空间点云的具体过程参见实施例一,这里不再详细说明。
在获取到当前空间范围内的物体的图像和空间点云后,根据所述空间点云确定当前空间范围内的物体的轮廓和坐标。并将当前空间范围内的物体的图像和当前空间范围内的物体的轮廓和坐标发送至后台服务器。
由于所述激光收发模块102是按照预设时间间隔发射密集激光信号的,在同一发射间隔内,密集激光信号是同步发射的,但是,由于当前空间内的不同物体距离所述巡防智能机器人的距离不同,同一物体的不同部位距离所述巡防智能机器人的激光收发模块102的距离也可能不同,因此,所述激光收发模块102接收到当前空间内的物体反射的激光信号的时间是不同步的,根据s=ct/2,可以确定当前空间内的物体到所述巡防智能机器人距离,更具体地说,可以确定当前空间内的点到所述巡防智能机器人的激光收发模块102的距离,当然,这里所指的点是当前空间内的物体上的点,其中,s表示当前空间内的点到所述巡防智能机器人的激光收发模块102的距离,c表示密集激光信号的传播速度,t表示在同一发射间隔内,密集激光信号的发射时间和接收到对应的反射激光信号的时间差。通过上述方法,可以当前空间范围内的物体的上的点到所述所述巡防智能机器人的激光收发模块102的距离,该距离可以用一个坐标(x,y,z)来表示,其中x表示当前空间范围内的物体的上的点在三维空间的X轴上到所述所述巡防智能机器人的距离,y表示当前空间范围内的物体的上的点在三维空间的Y轴上到所述所述巡防智能机器人的距离,z表示当前空间范围内的物体的上的点在三维空间的Z轴上到所述所述巡防智能机器人的距离。然后再建立三维空间坐标系,确定所述巡防智能机器人的坐标(x1,y1,z1),进而确定当前空间范围内的物体的上的点的坐标(xn,yn,zn),其中n表示当前空间范围内的物体的上的不同的点,n≥2。当然,也可以预先建立三维空间坐标系,并实时对所述巡防智能机器人的坐标进行定位,在确定当前空间范围内的物体的上的点相对所述巡防智能机器人的激光收发模块102的距离后,可以根据公式(x1+xn,y1+yn,z1+zn)直接确定当前空间范围内的物体的上的点在预先建立的三维空间坐标系中的坐标。
在确定了当前空间范围内的物体的上的点在三维空间坐标系中的坐标后,可以进一步确定当前空间范围内的物体的轮廓和坐标。由于有误差、反射角倾斜等因素,一个物体反射面形成的点不会精确分布在一个面上,而是分布在大致面状的范围内,因此,对于所述空间点云中的点的坐标(x,y,z),将坐标x在区间(x-a,x+a)、坐标y在区间(y-a,y+a)、坐标z在区间(z+a,z+a)内的点识别为同一面上的点,并且,通过上述方法识别为同一面上的点所构成的面,通常对应同一个物体的一个面。在识别多当前空间内的物体的面之后,将具有相交或邻接关系的两个及以上的面所包围的空间区域识别为一个物体。其中,坐标(x,y,z)为当前空间范围内的物体的上的点的坐标(xn,yn,zn)中的任意一点。由于物体在几何中可以被认为是由多个面围成的,因此,在识别出物体的多个面之后,可以提取出该物体的轮廓,即多个面中的任意两个面的相交线。在确定了当前空间中物体的轮廓后,可以确定该物体的各顶点的坐标,并将各顶点的坐标形成的坐标组(Xn,Yn,Zn)作为该物体在当前空间内的坐标,其中n表示物体的编号。当用户指定目标物体后,可以根据目标物体的轮廓和坐标实时识别目标物体,确定目标物体的实时坐标信息。
S302:后台服务器基于投影关系将所述图像和所述轮廓和坐标对应起来,并接收用户指定目标物体的指定指令,根据所述指定指令生成目标物体的坐标指示信息,并将所述坐标指示信息发送至所述巡防智能机器人。
具体地,在所述后台服务器202接收到所述巡防智能机器人的通信模块104发送的所述图像和所述物体的轮廓和坐标后,由于图像是二维坐标系中的图像,而所述物体的轮廓和坐标是三维空间坐标系同的坐标,但是所述图像和所述物体的轮廓和坐标在时间上是同步的,因此,物体的轮廓在二维坐标系中的投影即为二维坐标系中的图像的轮廓,因此,基于二维坐标系和三维坐标系的映射关系,可以将物体的轮廓和坐标与图像中的物体对应起来。因此,通过选定图像中的物体可以确定该物体在三维坐标系中的坐标。所述后台服务器可以连接有显示模块,例如触控显示设备,用户可以通过在显示模块上圈选目标物体来发出监控指令,即被圈选的物体为需要跟踪监控的物体(即目标物体),在用户指定目标物体后,所述后台服务器获取到与图像中的物体对应的三维坐标系中的坐标,并将目标物体的坐标发送至巡防智能机器人。
S303:所述巡防智能机器人根据自身的移动向量,对实时获得的空间点云中识别的物体的坐标进行还原,获取目标物体的实时坐标信息,并根据所述目标物体的实时坐标信息控制所述驱动模块驱动所述巡防智能机器人对所述目标物体进行跟踪监控。
具体地,由于在所述巡防智能机器人在发送物体的图像和物体的轮廓和坐标以及接收用户通过后台服务器发送的目标物体的实时坐标信息之间会有时间差,在该时间差内,所述巡防智能机器人本身可能会发生移动,同时,目标物体在该时间差内也可能发生移动,因此,所述巡防智能机器人接收到目标物体的坐标指示信息时,目标物体在当前空间的实时坐标相对于该信息指示的坐标来讲已经发生了改变,因此,要对当前时间的空间点云当中物体的坐标进行还原,再根据用户指定的目标物体的坐标指示信息从这些物体中识别出当前的目标物体。具体地,当所述巡防智能机器人在接收到目标物体的坐标指示信息时,对于该时刻采集到的当前空间内的物体的坐标,根据自身的移动向量对当前空间内的物体的坐标进行还原(目的是为了对目标物体的坐标进行还原),使当前空间内的物体的坐标克服机器人自身移动的影响。具体地,假设巡防智能机器人自身的移动向量为(xm,ym,zm),当前空间内的物体的坐标为(Xn,Yn,Zn),则还原处理之后当前空间点云之中各物体的坐标为(Xn-xm,Yn-ym,Zn-zm),即每个物体的顶点坐标的各维度都减去巡防智能机器人在各维度的移动量,如果巡防智能机器人未发生移动,则(xm,ym,zm)=(0,0,0)。通过上述方法,消除了巡防智能机器人自身的移动对确定目标物体坐标的影响。
但是,目标物体本身也可能是移动的,因此,在对目标物体的坐标进行还原后,还需要对所述目标物体进行进一步的确定。具体地,对于所述巡防智能机器人在接收到目标物体的坐标指示信息时采集到的当前空间内的物体的坐标,判断进行还原之后该物体的坐标与所述坐标指示信息中目标物体的坐标之间的距离是否小于预设阈值,并将在坐标还原后与所述坐标指示信息中目标物体的坐标之间的距离小于预设阈值的物体确认为所述目标物体,并获取该目标物体在当前空间点云中的实时坐标信息。若与所述坐标指示信息中目标物体的坐标之间的距离小于预设阈值的物体有多个,则提取多个物体的外观特征,并根据提取的多个物体的外观特征和坐标指示信息中所述目标物体的外观特征从所述多个物体中确认所述目标物体,并获取目标物体的实时坐标信息。
在获取到目标物体的实时坐标信息后,进而根据所述目标物体的实时坐标信息对所述目标物体进行实时监控。具体地,对于当前帧的空间点云中所识别的目标物体的坐标,将所述巡防智能机器人的坐标与所述目标物体的坐标之间的直线连线方向作为该帧对应的时间间隔内所述巡防智能机器人的前进方向,并在获取到下一帧的空间点云中的识别的目标物体的坐标后,将所述巡防智能机器人的坐标与所述目标物体在下一帧的空间点云中的坐标之间的直线连线方向作为下一帧对应的时间间隔内所述巡防智能机器人的前进方向。重复上述过程,直到所述巡防智能机器人到达距离所述目标物体的预设距离内,从而实现了对目标物体的跟踪监控。
本申请实施例的基于空间点云监控识别的巡防方法能够取得与上述系统相类似的技术效果,这里不再赘述。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (6)
1.一种基于空间点云监控识别的巡防智能机器人,其特征在于,包括:
图像采集模块,用于采集当前空间范围内的物体的图像;
激光收发模块,用于向所述当前空间发射密集激光信号,并接收所述当前空间内的物体反射的激光信号,生成空间点云;
数据处理模块,用于根据所述空间点云确定当前空间范围内的物体的轮廓和坐标,以及根据物体的轮廓和坐标实时识别目标物体,确定目标物体的实时坐标信息;
通信模块,用于与后台服务器通信连接,将所述图像和所述物体的轮廓和坐标发送至所述后台服务器,并接收用户通过所述后台服务器发送的目标物体的坐标指示信息;
驱动模块,用于驱动所述巡防智能机器人进行移动;
中央控制模块,用于根据所述目标物体的实时坐标信息控制所述驱动模块驱动所述巡防智能机器人对所述目标物体进行跟踪监控;
所述激光收发模块,具体用于:
每隔预设时间间隔向所述当前空间发射一帧密集激光信号,并接收所述当前空间内的物体反射的激光信号,生成该帧密集激光信号对应的空间点云;
所述空间点云中包括多个点的坐标,所述的多个点为所述当前空间范围内的物体上的点;
所述数据处理模块,用于:
根据所述空间点云中的坐标识别出所述当前空间范围内的物体的面,并根据识别出的面确定当前空间范围内的物体的轮廓和坐标;
所述数据处理模块,具体用于:
对于所述空间点云中的点的坐标(x,y,z),将坐标x分布在区间(x-a,x+a)的点、或者坐标y分布在区间(y-a,y+a)的点、或者坐标z分布在区间(z+a,z+a)内的点分别识别为同一面上的点,从而将空间点云的点分别归入所属的面,然后将具有相交或邻接关系的两个及以上的面所包围的空间区域识别为一个物体,并将该空间区域所在的坐标作为物体的坐标;
所述数据处理模块,还用于:
根据所述巡防智能机器人的自身移动向量,对实时获得的空间点云中识别的物体的坐标进行还原;
在对所述物体的坐标还原后,根据所述当前空间内的物体的坐标与所述目标物体的坐标指示信息,判断二者坐标之间的距离是否小于预设阈值,并将与所述目标物体的坐标指示信息之间的距离小于预设阈值的物体确认为所述目标物体,获取目标物体的实时坐标信息,
若所述物体的坐标与目标物体的坐标指示信息之间的距离小于预设阈值的物体有多个,则提取多个物体的外观特征,并根据提取的多个物体的外观特征和所述目标物体的外观特征从所述多个物体中确认所述目标物体,获取目标物体的实时坐标信息。
2.根据权利要求1所述的巡防智能机器人,其特征在于,所述数据处理模块,还用于:
对于所述多个物体中的非目标物体,根据所述非目标物体和所述目标物体的坐标之间的位置关系,确定所述非目标物体中的障碍物和背景物。
3.根据权利要求2所述的巡防智能机器人,其特征在于,所述中央控制模块还用于:
在所述数据处理模块确定所述非目标物体中的障碍物后,根据所述障碍物的坐标设定所述巡防智能机器人的绕行路径。
4.根据权利要求3所述的巡防智能机器人,其特征在于,所述中央控制模块具体用于:
对于静止障碍物,设定一个距离该障碍物距离为L1的绕行点,并将巡防智能机器人的行进方向设定为先经过绕行点,然后再向目标物体移动;
对于运动障碍物,设定一个在该障碍物运动方向相反方向上的距离为L2的绕行点,并将巡防智能机器人的行进方向设定为先经过绕行点,然后向目标物体移动,其中L2大于L1。
5.一种基于空间点云监控识别的巡防智能机器人的警务系统,其特征在于,包括如权利要求1至4任一项所述的巡防智能机器人,此外,还包括:
后台服务器,用于接收所述通信模块发送的所述图像和所述物体的轮廓和坐标,并将所述图像和所述物体的轮廓和坐标基于投影关系对应起来,并在用户指定目标物体后,将所述目标物体的坐标信息发送至所述通信模块;
显示模块,用于显示所述图像,并接收用户对所述图像中的目标物体的指定指令。
6.一种基于空间点云监控识别的巡防方法,其特征在于,包括:
巡防智能机器人获取当前空间范围内的物体的图像和空间点云,根据所述空间点云确定当前空间范围内的物体的轮廓和坐标,并将当前空间范围内的物体的图像和当前空间范围内的物体的轮廓和坐标发送至后台服务器,并根据物体的轮廓和坐标实时识别目标物体,确定目标物体的实时坐标信息;
后台服务器基于投影关系将所述图像和所述轮廓和坐标对应起来,并接收用户指定目标物体的指定指令,根据所述指定指令生成目标物体的坐标指示信息,并将所述坐标指示信息发送至所述巡防智能机器人;
所述巡防智能机器人根据自身的移动向量,对实时获得的空间点云中识别的物体的坐标进行还原,获取目标物体的实时坐标信息,并根据所述目标物体的实时坐标信息控制驱动模块驱动所述巡防智能机器人对所述目标物体进行跟踪监控。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811613347.8A CN109773783B (zh) | 2018-12-27 | 2018-12-27 | 一种基于空间点云识别的巡防智能机器人及其警务系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811613347.8A CN109773783B (zh) | 2018-12-27 | 2018-12-27 | 一种基于空间点云识别的巡防智能机器人及其警务系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109773783A CN109773783A (zh) | 2019-05-21 |
CN109773783B true CN109773783B (zh) | 2020-04-24 |
Family
ID=66497735
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811613347.8A Active CN109773783B (zh) | 2018-12-27 | 2018-12-27 | 一种基于空间点云识别的巡防智能机器人及其警务系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109773783B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110141817A (zh) * | 2019-06-24 | 2019-08-20 | 陕西中建建乐智能机器人有限公司 | 一种巡防消防机器人 |
CN110719442A (zh) * | 2019-10-12 | 2020-01-21 | 深圳市镭神智能系统有限公司 | 一种安防监控系统 |
CN110889390A (zh) * | 2019-12-05 | 2020-03-17 | 北京明略软件系统有限公司 | 姿势识别方法、装置、控制设备和机器可读存储介质 |
CN112975940A (zh) * | 2019-12-12 | 2021-06-18 | 科沃斯商用机器人有限公司 | 机器人控制方法、信息生成方法及机器人 |
CN113134828B (zh) * | 2020-01-17 | 2022-06-21 | 中国科学院长春光学精密机械与物理研究所 | 定位追踪系统、基于线性趋势预测的时延补偿方法 |
CN113269085B (zh) * | 2021-05-22 | 2023-05-30 | 深圳市华成工业控制股份有限公司 | 一种直线传送带跟踪控制方法、系统、装置及存储介质 |
CN114061590A (zh) * | 2021-11-18 | 2022-02-18 | 北京仙宇科技有限公司 | 一种动态创建机器人巡航坐标方法及机器人导航方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104484648A (zh) * | 2014-11-27 | 2015-04-01 | 浙江工业大学 | 基于轮廓识别的机器人可变视角障碍物检测方法 |
CN204546542U (zh) * | 2015-04-28 | 2015-08-12 | 国家电网公司 | 基于激光技术的线路跌落开关自动更换控制系统 |
CN105965544A (zh) * | 2016-05-27 | 2016-09-28 | 珠海上富电技股份有限公司 | 机器人远程超声波感应自动测试系统及其控制方法 |
CN106650640A (zh) * | 2016-12-05 | 2017-05-10 | 浙江大学 | 一种基于激光雷达点云局部结构特征的负障碍物检测方法 |
CN107272710A (zh) * | 2017-08-08 | 2017-10-20 | 河海大学常州校区 | 一种基于视觉定位的医用物流机器人系统及其控制方法 |
CN107891425A (zh) * | 2017-11-21 | 2018-04-10 | 北方民族大学 | 智能双臂安全协作人机共融型机器人系统的控制方法 |
CN107984474A (zh) * | 2017-12-25 | 2018-05-04 | 北京工业大学 | 一种半身人形智能机器人及其控制系统 |
CN108500992A (zh) * | 2018-04-09 | 2018-09-07 | 中山火炬高新企业孵化器有限公司 | 一种多功能的移动安防机器人 |
CN108838991A (zh) * | 2018-03-06 | 2018-11-20 | 南昌工程学院 | 一种自主类人双臂机器人及其对运动目标的跟踪操作系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10107913B2 (en) * | 2016-02-08 | 2018-10-23 | Servo-Robot, Inc. | Range finder device for monitoring robot processing tool position |
-
2018
- 2018-12-27 CN CN201811613347.8A patent/CN109773783B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104484648A (zh) * | 2014-11-27 | 2015-04-01 | 浙江工业大学 | 基于轮廓识别的机器人可变视角障碍物检测方法 |
CN204546542U (zh) * | 2015-04-28 | 2015-08-12 | 国家电网公司 | 基于激光技术的线路跌落开关自动更换控制系统 |
CN105965544A (zh) * | 2016-05-27 | 2016-09-28 | 珠海上富电技股份有限公司 | 机器人远程超声波感应自动测试系统及其控制方法 |
CN106650640A (zh) * | 2016-12-05 | 2017-05-10 | 浙江大学 | 一种基于激光雷达点云局部结构特征的负障碍物检测方法 |
CN107272710A (zh) * | 2017-08-08 | 2017-10-20 | 河海大学常州校区 | 一种基于视觉定位的医用物流机器人系统及其控制方法 |
CN107891425A (zh) * | 2017-11-21 | 2018-04-10 | 北方民族大学 | 智能双臂安全协作人机共融型机器人系统的控制方法 |
CN107984474A (zh) * | 2017-12-25 | 2018-05-04 | 北京工业大学 | 一种半身人形智能机器人及其控制系统 |
CN108838991A (zh) * | 2018-03-06 | 2018-11-20 | 南昌工程学院 | 一种自主类人双臂机器人及其对运动目标的跟踪操作系统 |
CN108500992A (zh) * | 2018-04-09 | 2018-09-07 | 中山火炬高新企业孵化器有限公司 | 一种多功能的移动安防机器人 |
Also Published As
Publication number | Publication date |
---|---|
CN109773783A (zh) | 2019-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109773783B (zh) | 一种基于空间点云识别的巡防智能机器人及其警务系统 | |
CN115597659B (zh) | 一种变电站智能安全管控方法 | |
CN105946853B (zh) | 基于多传感器融合的长距离自动泊车的系统及方法 | |
WO2022021739A1 (zh) | 一种语义智能变电站机器人仿人巡视作业方法及系统 | |
CA2950791C (en) | Binocular visual navigation system and method based on power robot | |
CN105812733B (zh) | 一种民航空中交通管制的场面监视引导系统 | |
CN110147106A (zh) | 具激光和视觉融合避障系统的智能移动服务机器人 | |
EP3283843B1 (en) | Generating 3-dimensional maps of a scene using passive and active measurements | |
CN108958250A (zh) | 多传感器移动平台及基于已知地图的导航与避障方法 | |
US20180003498A1 (en) | Visual positioning system and method based on high reflective infrared identification | |
CN104932515B (zh) | 一种自主巡航方法以及巡航设备 | |
CN109333504A (zh) | 一种巡逻机器人和巡逻机器人管理系统 | |
CN109737981B (zh) | 基于多传感器的无人车目标搜索装置及方法 | |
CN106527426A (zh) | 一种室内多目轨迹规划系统及其方法 | |
CN106291535A (zh) | 一种障碍物检测装置、机器人及避障系统 | |
JP2023511779A (ja) | 無人航空機による3次元再構成の実行 | |
CN112506222A (zh) | 一种无人机智能化避障方法及装置 | |
CN110898353A (zh) | 变电站消防机器人全景监控与联动控制方法及系统 | |
CN214520204U (zh) | 一种基于深度相机和激光雷达的港区智能巡检机器人 | |
JP2016177640A (ja) | 映像監視システム | |
CN112863113A (zh) | 自动探测器报警和灭火的智能消防系统、方法及存储介质 | |
CN109375629A (zh) | 一种巡逻车及其导航避障方法 | |
CN108205314A (zh) | 基于立体视觉匹配的机器人导航装置及系统 | |
KR101319525B1 (ko) | 이동 로봇을 이용하여 목표물의 위치 정보를 제공하기 위한 시스템 | |
CN105373130A (zh) | 基于立体建模的特种设备事故现场信息探测系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |