CN113561181A - 目标检测模型的更新方法、装置及系统 - Google Patents
目标检测模型的更新方法、装置及系统 Download PDFInfo
- Publication number
- CN113561181A CN113561181A CN202110898920.XA CN202110898920A CN113561181A CN 113561181 A CN113561181 A CN 113561181A CN 202110898920 A CN202110898920 A CN 202110898920A CN 113561181 A CN113561181 A CN 113561181A
- Authority
- CN
- China
- Prior art keywords
- pose information
- detection model
- determining
- image
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 246
- 238000000034 method Methods 0.000 title claims abstract description 71
- 238000012549 training Methods 0.000 claims abstract description 107
- 238000012937 correction Methods 0.000 claims abstract description 53
- 230000004044 response Effects 0.000 claims abstract description 33
- 230000008569 process Effects 0.000 claims abstract description 31
- 238000004590 computer program Methods 0.000 claims description 10
- 238000010586 diagram Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
Abstract
本申请公开了一种目标检测模型的更新方法、装置及系统。方法的一具体实施方式包括:在根据目标检测模型对待检测图像中的目标物的检测结果,控制拣选机器人执行拣选任务的过程中,确定拣选机器人的实际位姿信息和期望位姿信息;根据实际位姿信息和期望位姿信息,确定目标物在待检测图像中的更正结果;以待检测图像为图像样本,以更正结果为标签,得到训练样本,并将训练样本添加至训练样本集;响应于确定目标检测模型的检测精度低于预设阈值,通过训练样本集训练目标检测模型,得到更新后的目标检测模型。本申请提供了一种自动生成训练数据、自动更新目标检测模型的方法,提高了目标检测模型更新的便捷性和检测结果的准确度。
Description
技术领域
本申请实施例涉及计算机技术领域,具体涉及一种目标检测模型的更新方法、装置及系统。
背景技术
在智能仓储自动化领域,拣选机器人执行拣选任务的方式具有较好的应用前景。拣选机器人执行拣选任务是指拣选机器人在视觉引导的基础上,把目标物拣选到指定位置。高精度的目标检测是该应用场景的核心技术基础。基于深度学习的目标检测技术是目前比较实用的技术。针对目标检测的深度学习技术属于监督学习范畴,基本过程是:(1)事先批量采集场景数据;(2)对数据进行人工标注;(3)训练目标检测模型;(4)把训练好的目标检测模型部署到线上应用。可以理解,目标检测模型一般会产生时效性问题。例如,电商场景中,商品更新换代频繁,基于早期数据训练好的目标检测模型的精度会随着时间推移而退化。如果重新执行上述目标检测模型的得到过程,虽然可以使模型再度恢复精度,但其过程费时费力。
发明内容
本申请实施例提出了一种目标检测模型的更新方法、装置及系统。
第一方面,本申请实施例提供了一种目标检测模型的更新方法,包括:在根据目标检测模型对待检测图像中的目标物的检测结果,控制拣选机器人执行拣选任务的过程中,确定拣选机器人的实际位姿信息和期望位姿信息,其中,目标检测模型用于表征待检测图像和检测结果之间的对应关系;根据实际位姿信息和期望位姿信息,确定目标物在待检测图像中的更正结果;以待检测图像为图像样本,以更正结果为标签,得到训练样本,并将训练样本添加至训练样本集;响应于确定目标检测模型的检测精度低于预设阈值,通过训练样本集训练目标检测模型,得到更新后的目标检测模型。
在一些实施例中,上述确定拣选机器人的实际位姿信息和期望位姿信息,包括:响应于确定拣选机器人拣选目标物移动至预设位置,获取拣选机器人的实际位姿信息,以及目标物的点云数据;根据实际位姿信息和点云数据,确定期望位姿信息。
在一些实施例中,上述根据实际位姿信息和点云数据,确定期望位姿信息,包括:根据实际位姿信息和点云数据,确定目标物的目标表面的中心点对应的位姿信息,其中,目标表面为目标物上与拣选机器人接触的表面;将位姿信息确定为期望位姿信息。
在一些实施例中,上述根据实际位姿信息和期望位姿信息,确定目标物在待检测图像中的更正结果,包括:根据实际位姿信息和期望位姿信息之间的偏差信息,确定目标物所占区域的位置信息;根据获取待检测图像的摄像装置的标定信息和位置信息,得到更正结果。
在一些实施例中,上述响应于确定目标检测模型的检测精度低于预设阈值,通过训练样本集训练目标检测模型,得到更新后的目标检测模型,包括:确定检测结果和更正结果的相似度;统计截止到当前的多个相似度,确定相似度均值;响应于确定相似度均值低于预设阈值,通过训练样本集训练目标检测模型,得到更新后的目标检测模型。
在一些实施例中,上述方法还包括:控制拣选机器人根据更新后的目标检测模型对后续的待检测图像中的目标物的检测结果,执行后续的拣选任务。
第二方面,本申请实施例提供了一种目标检测模型的更新装置,包括:第一确定单元,被配置成在根据目标检测模型对待检测图像中的目标物的检测结果,控制拣选机器人执行拣选任务的过程中,确定拣选机器人的实际位姿信息和期望位姿信息,其中,目标检测模型用于表征待检测图像和检测结果之间的对应关系;第二确定单元,被配置成根据实际位姿信息和期望位姿信息,确定目标物在待检测图像中的更正结果;得到单元,被配置成以待检测图像为图像样本,以更正结果为标签,得到训练样本,并将训练样本添加至训练样本集;更新单元,被配置成响应于确定目标检测模型的检测精度低于预设阈值,通过训练样本集训练目标检测模型,得到更新后的目标检测模型。
在一些实施例中,第一确定单元,进一步被配置成:响应于确定拣选机器人拣选目标物移动至预设位置,获取拣选机器人的实际位姿信息,以及目标物的点云数据;根据实际位姿信息和点云数据,确定期望位姿信息。
在一些实施例中,第一确定单元,进一步被配置成:根据实际位姿信息和点云数据,确定目标物的目标表面的中心点对应的位姿信息,其中,目标表面为目标物上与拣选机器人接触的表面;将位姿信息确定为期望位姿信息。
在一些实施例中,第二确定单元,进一步被配置成:根据实际位姿信息和期望位姿信息之间的偏差信息,确定目标物所占区域的位置信息;根据获取待检测图像的摄像装置的标定信息和位置信息,得到更正结果。
在一些实施例中,更新单元,进一步被配置成:确定检测结果和更正结果的相似度;统计截止到当前的多个相似度,确定相似度均值;响应于确定相似度均值低于预设阈值,通过训练样本集训练目标检测模型,得到更新后的目标检测模型。
在一些实施例中,上述装置还包括:后续执行单元,被配置成控制拣选机器人根据更新后的目标检测模型对后续的待检测图像中的目标物的检测结果,执行后续的拣选任务。
第三方面,本申请实施例提供了一种目标检测模型的更新系统,包括:图像采集装置、控制装置和拣选机器人;其中,图像采集装置,用于采集包括目标物的待检测图像;控制装置,用于通过目标检测模型得到对待检测图像中的目标物的检测结果,根据检测结果控制拣选机器人执行拣选任务;并在拣选机器人执行拣选任务的过程中,确定拣选机器人的实际位姿信息和期望位姿信息;根据实际位姿信息和期望位姿信息,确定目标物在待检测图像中的更正结果;以待检测图像为图像样本,以更正结果为标签,得到训练样本,并将训练样本添加至训练样本集;响应于确定目标检测模型的检测精度低于预设阈值,通过训练样本集训练目标检测模型,得到更新后的目标检测模型。
在一些实施例中,上述系统还包括:设置于预设位置的点云采集装置;其中,点云采集装置,用于响应于确定拣选机器人拣选目标物移动至预设位置,获取目标物的点云数据;控制装置,进一步用于获取拣选机器人在预设位置的实际位姿信息;根据实际位姿信息和点云数据,确定期望位姿信息。
第四方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现如第一方面任一实现方式描述的方法。
第五方面,本申请实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面任一实现方式描述的方法。
本申请实施例提供的目标检测模型的更新方法、装置及系统,通过在根据目标检测模型对待检测图像中的目标物的检测结果,控制拣选机器人执行拣选任务的过程中,确定拣选机器人的实际位姿信息和期望位姿信息;根据实际位姿信息和期望位姿信息,确定目标物在待检测图像中的更正结果;以待检测图像为图像样本,以更正结果为标签,得到训练样本,并将训练样本添加至训练样本集;响应于确定目标检测模型的检测精度低于预设阈值,通过训练样本集训练目标检测模型,得到更新后的目标检测模型,从而提供了一种自动生成训练数据、自动更新目标检测模型的方法,提高了目标检测模型更新的便捷性和检测结果的准确度。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请的一个实施例可以应用于其中的示例性系统架构图;
图2是本申请的又一个实施例可以应用于其中的示例性系统架构图;
图3是根据本申请目标检测模型的更新方法的一个实施例的流程图;
图4是根据本实施例的目标检测模型的更新方法的应用场景的示意图;
图5是根据本申请的目标检测模型的更新方法的又一个实施例的流程图;
图6是根据本申请的目标检测模型的更新装置的一个实施例的结构图;
图7是适于用来实现本申请实施例的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的目标检测模型的更新方法及装置的示例性架构100。
如图1所示,系统架构100可以包括图像采集装置101、102,网络103、104,控制装置105和拣选机器人106。图像采集装置101、102与控制装置105、拣选机器人106之间通信连接构成拓扑网络,网络103、104用以在图像采集装置101、102与控制装置105、拣选机器人106之间提供通信链路的介质。网络103、104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
图像采集装置101、102可以是具有图像采集功能和信息传输功能的硬件设备或软件。当图像采集装置101、102为硬件时,其可以是支持网络连接,图像获取、交互、显示、处理等功能的各种电子设备,包括但不限于2D相机、3D相机、智能手机、平板电脑和台式计算机等等。当图像采集装置101、102为软件时,可以安装在上述所列举的电子设备中。其可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
控制装置105可以是提供各种服务的服务器,例如在根据目标检测模型对待检测图像中的目标物的检测结果,控制拣选机器人执行拣选任务的过程中,自动生成训练数据、自动更新目标检测模型的服务器。作为示例,控制装置105可以是云端服务器。具体的,控制装置105通过目标检测模型得到对待检测图像中的目标物的检测结果,根据检测结果控制拣选机器人执行拣选任务;并在拣选机器人执行拣选任务的过程中,确定拣选机器人的实际位姿信息和期望位姿信息;根据实际位姿信息和期望位姿信息,确定目标物在待检测图像中的更正结果;以待检测图像为图像样本,以更正结果为标签,得到训练样本,并将训练样本添加至训练样本集;响应于确定目标检测模型的检测精度低于预设阈值,通过训练样本集训练目标检测模型,得到更新后的目标检测模型。
需要说明的是,控制装置可以是硬件,也可以是软件。当控制装置为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当控制装置为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
拣选机器人可以是具有拣选功能的各种机器人,例如多自由度机械臂。
如图2所示,示出了目标检测模型的更新系统的又一个示例性架构200,包括,图像采集装置201、控制装置202、拣选机器人203和点云采集装置204。
点云采集装置204设置于预设位置。其预设位置可以是拣选机器人拣选目标物的移动过程所经过的任意位置。例如,预设位置靠近放置待拣选的目标物的拣选工位设置。点云采集装置204例如可以是3D相机,用于在拣选机器人将目标物从拣选工位拣选至码垛位的过程中,响应于确定拣选机器人拣选目标物移动至预设位置,获取目标物的点云数据;控制装置202进一步用于获取拣选机器人在预设位置的实际位姿信息;根据实际位姿信息和点云数据,确定期望位姿信息。
本申请的实施例所提供的目标检测模型的更新方法可以由控制装置执行,相应地,目标检测模型的更新装置包括的各个部分(例如各个单元)可以全部设置于控制装置中。
应该理解,图1中的图像采集装置、网络、控制装置和拣选机器人的数目仅仅是示意性的。根据实现需要,可以具有任意数目的图像采集装置、网络、控制装置和拣选机器人。当目标检测模型的更新方法运行于其上的电子设备不需要与其他电子设备进行数据传输时,该系统架构可以仅包括目标检测模型的更新方法运行于其上的电子设备(例如控制装置)。
继续参考图3,示出了目标检测模型的更新方法的一个实施例的流程300,包括以下步骤:
步骤301,在根据目标检测模型对待检测图像中的目标物的检测结果,控制拣选机器人执行拣选任务的过程中,确定拣选机器人的实际位姿信息和期望位姿信息。
本实施例中,目标检测模型的更新方法的执行主体(例如图1中的控制装置)可以通过有有线网络连接方式或无线网络连接方式从远程,或从本地获取待检测图像,在根据目标检测模型对待检测图像中的目标物的检测结果,控制拣选机器人执行拣选任务的过程中,确定拣选机器人的实际位姿信息和期望位姿信息。
其中,目标检测模型用于表征待检测图像和检测结果之间的对应关系,可以基于具有目标物检测功能的神经网络模型训练得到,包括但不限于卷积神经网络、残差神经网络、循环神经网络。
待检测图像为包括目标物的图像数据,包括但不限于是2D图像、3D图像。2D图像例如可以是RGB(red,green,blue,红色,绿色,蓝色)图像,3D图像例如是表征目标物的点云数据。作为示例,在放置待拣选的目标物的拣选工位的上方,设置有2D相机和3D相机,以获取包括目标物的2D图像和3D图像。
将待检测图像输入目标检测模型,可以确定出指示待检测图像中目标物的检测框,进而根据获取待检测图像的图像采集装置的标定信息,确定现实环境中拣选工位上目标物的位置信息。进而,可以控制拣选机器人拣选处于所确定的位置信息的目标物。
本实施例中,期望位姿信息表征在精确拣选目标物情况下,拣选机器人的位姿信息。在目标检测模型的实际使用过程中,由于目标检测模型的检测精度的下降,待检测图像中目标物的检测结果所指示的检测框与目标物在待检测图像中的实际检测框可能存在偏差,从而导致拣选机器人在执行拣选任务的过程中,其实际位姿信息并非期望位姿信息。作为示例,拣选机器人以目标物的上表面(目标物与拣选机器人接触的表面)的中心点对应的位姿信息为期望位姿信息,而实际拣选过程中,拣选机器人偏离上表面的中心点,抓取了目标物的一端,导致其实际位姿信息与期望位姿信息之间存在偏差。
本实现方式中,拣选机器人拣选到目标物后,上述执行主体还可以控制图像采集装置获取拣选机器人抓取目标物状态下的图像,根据目标物对应的点云信息,确定目标物的尺寸信息以及上表面的中心点,以确定拣选机器人的期望位姿信息。拣选机器人的实际位姿信息可以由拣选机器人提供。
其中,位姿信息可以用(xc,yc,zc,α,β,γ)表示。其中,(xc,yc,zc)表示拣选机器人末端的位置,即拣选机器人工具坐标系的坐标原点在世界坐标系中的坐标值,(α,β,γ)是以欧拉角表示的坐标系旋转关系,即世界坐标系的xyz轴与拣选机器人工具坐标系的xyz轴的旋转关系。根据拣选机器人的位姿可以计算出拣选机器人末端工具坐标系与机器人世界坐标系的转换关系,换言之,是机器人世界坐标系转换到机器人末端工具坐标系的转换矩阵,记为其中,R33由(α,β,γ)计算得到,表示坐标系旋转,为3×3矩阵;t31即为(xc,yc,zc),表示平移,为3×1矩阵。
在本实施例的一些可选的实现方式中,上述执行主体可以通过如下方式确定拣选机器人的实际位姿信息和期望位姿信息:
第一,响应于确定拣选机器人拣选目标物移动至预设位置,获取拣选机器人的实际位姿信息,以及目标物的点云数据。
本实现方式中,在预设位置设置获取目标物的点云数据的点云采集装置。点云采集装置例如可以是3D相机。预设位置可以是拣选机器人拣选目标物的移动过程所经过的任意位置。例如,预设位置靠近放置待拣选的目标物的拣选工位设置。
拣选机器人拣选目标物的移动至预设位置,暂停在点云采集装置的上方,点云采集装置的摄像镜头朝上设置,获取目标物的下表面点云数据。拣选机器人抓取目标物移动至预设位置时,机械臂末端只有一个目标物,故而可以精准地对点云数据进行分割,得到目标物的点云数据。
第二,根据实际位姿信息和点云数据,确定期望位姿信息。
作为示例,上述执行主体可以根据点云数据中的目标物对应的点云数据,确定目标物的尺寸信息,进而确定拣选机器人的期望位姿信息
在本实施例的一些可选的实现方式中,上述执行主体可以通过如下方式执行上述第二步骤:首先,根据实际位姿信息和点云数据,确定目标物的目标表面的中心点对应的位姿信息。其中,目标表面为目标物上与拣选机器人接触的表面,也即目标物的顶面。然后,将位姿信息确定为期望位姿信息。
具体的,上述执行主体根据预设位置处目标物的点云数据确定目标物的底面中心点坐标、长度和宽度;根据拣选机器人的实际位姿信息和底面中心点坐标确定目标物的高度,根据目标物高度和底面中心点坐标,确定目标物的顶面中心点坐标;根据目标物的长度和宽度确定物品的长度方向矢量和宽度方向矢量,进而根据长度方向矢量、宽度方向矢量和顶面中心点坐标确定期望位姿信息。其中,目标物在预设位置时的底面和顶面与世界坐标系的xy平面平行。
步骤302,根据实际位姿信息和期望位姿信息,确定目标物在待检测图像中的更正结果。
本实施例中,上述执行主体可以根据实际位姿信息和期望位姿信息,确定目标物在待检测图像中的更正结果。
作为示例,上述执行主体可以通过实际位姿信息和期望位姿信息之间的偏差,以及上述执行主体根据待检测图像中目标物的检测结果而确定的目标物的位置信息,确定出目标物的实际位置信息。进而,根据目标物的实际位置信息,反推出目标物在待检测图像中的正确的目标框(更正结果)。其中,反推过程可以视为根据目标物的检测结果确定目标物的位置信息的逆过程。
在本实施例的一些可选的实现方式中,上述执行主体可以通过如下方式执行上述步骤302:
第一,根据实际位姿信息和期望位姿信息之间的偏差信息,确定目标物所占区域的位置信息。
第二,根据获取待检测图像的摄像装置的标定信息和位置信息,得到更正结果。
根据实际位姿信息和期望位姿信息之间的偏差信息,可反推出拣选工位中目标物准确的三维包围矩形,再利用3D相机与2D相机的标定关系,把准确三维包围矩形映射到2D图像上,即得到了2D图像上目标物的检测框(更正结果)。
步骤303,以待检测图像为图像样本,以更正结果为标签,得到训练样本,并将训练样本添加至训练样本集。
本实施例中,上述执行主体可以以待检测图像为图像样本,以更正结果为标签,得到训练样本,并将训练样本添加至训练样本集。
随着拣选任务的执行,上述执行主体可以获取大量的训练样本。
步骤304,响应于确定目标检测模型的检测精度低于预设阈值,通过训练样本集训练目标检测模型,得到更新后的目标检测模型。
本实施例中,上述执行主体可以响应于确定目标检测模型的检测精度低于预设阈值,通过训练样本集训练目标检测模型,得到更新后的目标检测模型。
其中,预设阈值可以根据实际情况具体设置。作为示例,当拣选任务要求的检测精度较高,可以设置较高的预设阈值;当拣选任务要求的检测精度并不高,可以设置较低的预设阈值。
当目标检测模型的检测精度低于预设阈值,可以从训练样本集中选取训练样本,将所选取的训练样本中的样本图像作为输入,将所输入的样本图像对应的标签作为期望输出,训练得到更新后的目标检测模型。
在本实施例的一些可选的实现方式中,上述执行主体可以通过如下方式执行上述步骤304:
第一,确定检测结果和更正结果的相似度。
作为示例,上述执行主体可以将检测结果中目标物的检测框与更正结果中目标物的检测框的IoU(Intersection-over-Union,交并比)作为检测结果和更正结果的相似度。
第二,统计截止到当前的多个相似度,确定相似度均值。
为了避免检测结果误差的偶然性,本实施例中统计截止到当前得到的多个相似度,从而得到相似度均值。
第三,响应于确定相似度均值低于预设阈值,通过训练样本集训练目标检测模型,得到更新后的目标检测模型
继续参见图4,图4是根据本实施例的目标检测模型的更新方法的应用场景的一个示意图400。在图4的应用场景中,2D相机401和3D相机402采集拣选工位上包括目标物的待检测图像,并将待检测图像传输至服务器403。服务器403通过目标检测模型生成对待检测图像中的目标物的检测结果,根据检测结果控制拣选机器人404执行拣选任务。在拣选机器人404执行拣选任务的过程中,确定拣选机器人的实际位姿信息和期望位姿信息;根据实际位姿信息和期望位姿信息,确定目标物在待检测图像中的更正结果;以待检测图像为图像样本,以更正结果为标签,得到训练样本,并将训练样本添加至训练样本集;响应于确定目标检测模型的检测精度低于预设阈值,通过训练样本集训练目标检测模型,得到更新后的目标检测模型。
本申请的上述实施例提供的方法,通过在根据目标检测模型对待检测图像中的目标物的检测结果,控制拣选机器人执行拣选任务的过程中,确定拣选机器人的实际位姿信息和期望位姿信息;根据实际位姿信息和期望位姿信息,确定目标物在待检测图像中的更正结果;以待检测图像为图像样本,以更正结果为标签,得到训练样本,并将训练样本添加至训练样本集;响应于确定目标检测模型的检测精度低于预设阈值,通过训练样本集训练目标检测模型,得到更新后的目标检测模型,从而提供了一种自动生成训练数据、自动更新目标检测模型的方法,提高了目标检测模型更新的便捷性和检测结果的准确度。
在本实施例的一些可选的实现方式中,在得到更新后的目标检测模型后,上述执行主体可以控制拣选机器人根据更新后的目标检测模型对后续的待检测图像中的目标物的检测结果,执行后续的拣选任务。
更新后的目标检测模型具有针对于目标物的高检测精度,进而可以控制拣选机器人更精确的执行拣选任务。
继续参考图5,示出了根据本申请的目标检测模型的更新方法的一个实施例的示意性流程500,包括以下步骤:
步骤501,在根据目标检测模型对待检测图像中的目标物的检测结果,控制拣选机器人执行拣选任务的过程中,响应于确定拣选机器人拣选目标物移动至预设位置,获取拣选机器人的实际位姿信息,以及目标物的点云数据。
步骤502,根据实际位姿信息和点云数据,确定目标物的目标表面的中心点对应的位姿信息。
其中,目标表面为目标物上与拣选机器人接触的表面。
步骤503,将位姿信息确定为期望位姿信息。
步骤504,根据实际位姿信息和期望位姿信息之间的偏差信息,确定目标物所占区域的位置信息。
步骤505,根据获取待检测图像的摄像装置的标定信息和位置信息,得到更正结果。
步骤506,以待检测图像为图像样本,以更正结果为标签,得到训练样本,并将训练样本添加至训练样本集。
步骤507,确定检测结果和更正结果的相似度。
步骤508,统计截止到当前的多个相似度,确定相似度均值。
步骤509,响应于确定相似度均值低于预设阈值,通过训练样本集训练目标检测模型,得到更新后的目标检测模型。
步骤510,控制拣选机器人根据更新后的目标检测模型对后续的待检测图像中的目标物的检测结果,执行后续的拣选任务。
从本实施例中可以看出,与图3对应的实施例相比,本实施例中的目标检测模型的更新方法的流程500具体说明了更正结果的确定过程,目标检测模型的更新过程,巧妙地运用预设位置处目标物的点云数据,确定更正结果,进一步提高了目标检测模型更新的便捷性和检测结果的准确度。
继续参考图6,作为对上述各图所示方法的实现,本申请提供了一种目标检测模型的更新装置的一个实施例,该装置实施例与图3所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,目标检测模型的更新装置包括:第一确定单元601,被配置成在根据目标检测模型对待检测图像中的目标物的检测结果,控制拣选机器人执行拣选任务的过程中,确定拣选机器人的实际位姿信息和期望位姿信息,其中,目标检测模型用于表征待检测图像和检测结果之间的对应关系;第二确定单元602,被配置成根据实际位姿信息和期望位姿信息,确定目标物在待检测图像中的更正结果;得到单元603,被配置成以待检测图像为图像样本,以更正结果为标签,得到训练样本,并将训练样本添加至训练样本集;更新单元604,被配置成响应于确定目标检测模型的检测精度低于预设阈值,通过训练样本集训练目标检测模型,得到更新后的目标检测模型。
在一些实施例中,第一确定单元601,进一步被配置成:响应于确定拣选机器人拣选目标物移动至预设位置,获取拣选机器人的实际位姿信息,以及目标物的点云数据;根据实际位姿信息和点云数据,确定期望位姿信息。
在一些实施例中,第一确定单元601,进一步被配置成:根据实际位姿信息和点云数据,确定目标物的目标表面的中心点对应的位姿信息,其中,目标表面为目标物上与拣选机器人接触的表面;将位姿信息确定为期望位姿信息。
在一些实施例中,第二确定单元602,进一步被配置成:根据实际位姿信息和期望位姿信息之间的偏差信息,确定目标物所占区域的位置信息;根据获取待检测图像的摄像装置的标定信息和位置信息,得到更正结果。
在一些实施例中,更新单元604,进一步被配置成:确定检测结果和更正结果的相似度;统计截止到当前的多个相似度,确定相似度均值;响应于确定相似度均值低于预设阈值,通过训练样本集训练目标检测模型,得到更新后的目标检测模型。
在一些实施例中,上述装置还包括:后续执行单元(图中未示出),被配置成控制拣选机器人根据更新后的目标检测模型对后续的待检测图像中的目标物的检测结果,执行后续的拣选任务。
本实施例中,目标检测模型的更新装置中的第一确定单元在根据目标检测模型对待检测图像中的目标物的检测结果,控制拣选机器人执行拣选任务的过程中,确定拣选机器人的实际位姿信息和期望位姿信息,其中,目标检测模型用于表征待检测图像和检测结果之间的对应关系;第二确定单元根据实际位姿信息和期望位姿信息,确定目标物在待检测图像中的更正结果;得到单元以待检测图像为图像样本,以更正结果为标签,得到训练样本,并将训练样本添加至训练样本集;更新单元响应于确定目标检测模型的检测精度低于预设阈值,通过训练样本集训练目标检测模型,得到更新后的目标检测模型,从而提供了一种自动生成训练数据、自动更新目标检测模型的装置,提高了目标检测模型更新的便捷性和检测结果的准确度。
下面参考图7,其示出了适于用来实现本申请实施例的设备(例如图1所示的设备101、102、105、106)的计算机系统700的结构示意图。图7示出的设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图7所示,计算机系统700包括处理器(例如CPU,中央处理器)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储部分708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM703中,还存储有系统700操作所需的各种程序和数据。处理器701、ROM702以及RAM703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
以下部件连接至I/O接口705:包括键盘、鼠标等的输入部分706;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分707;包括硬盘等的存储部分708;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分709。通信部分709经由诸如因特网的网络执行通信处理。驱动器710也根据需要连接至I/O接口705。可拆卸介质711,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器710上,以便于从其上读出的计算机程序根据需要被安装入存储部分708。
特别地,根据本申请的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本申请的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分709从网络上被下载和安装,和/或从可拆卸介质711被安装。在该计算机程序被处理器701执行时,执行本申请的方法中限定的上述功能。
需要说明的是,本申请的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,程序设计语言包括面向目标的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在客户计算机上执行、部分地在客户计算机上执行、作为一个独立的软件包执行、部分在客户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到客户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器,包括第一确定单元、第二确定单元、得到单元和更新单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,更新单元还可以被描述为“响应于确定目标检测模型的检测精度低于预设阈值,通过训练样本集训练目标检测模型,得到更新后的目标检测模型的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备中所包含的;也可以是单独存在,而未装配入该设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该计算机设备:在根据目标检测模型对待检测图像中的目标物的检测结果,控制拣选机器人执行拣选任务的过程中,确定拣选机器人的实际位姿信息和期望位姿信息,其中,目标检测模型用于表征待检测图像和检测结果之间的对应关系;根据实际位姿信息和期望位姿信息,确定目标物在待检测图像中的更正结果;以待检测图像为图像样本,以更正结果为标签,得到训练样本,并将训练样本添加至训练样本集;响应于确定目标检测模型的检测精度低于预设阈值,通过训练样本集训练目标检测模型,得到更新后的目标检测模型。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (16)
1.一种目标检测模型的更新方法,包括:
在根据所述目标检测模型对待检测图像中的目标物的检测结果,控制拣选机器人执行拣选任务的过程中,确定所述拣选机器人的实际位姿信息和期望位姿信息,其中,所述目标检测模型用于表征所述待检测图像和所述检测结果之间的对应关系;
根据所述实际位姿信息和所述期望位姿信息,确定所述目标物在所述待检测图像中的更正结果;
以所述待检测图像为图像样本,以所述更正结果为标签,得到训练样本,并将所述训练样本添加至训练样本集;
响应于确定所述目标检测模型的检测精度低于预设阈值,通过所述训练样本集训练所述目标检测模型,得到更新后的目标检测模型。
2.根据权利要求1所述的方法,其中,所述确定所述拣选机器人的实际位姿信息和期望位姿信息,包括:
响应于确定所述拣选机器人拣选所述目标物移动至预设位置,获取所述拣选机器人的实际位姿信息,以及所述目标物的点云数据;
根据所述实际位姿信息和所述点云数据,确定所述期望位姿信息。
3.根据权利要求2所述的方法,其中,所述根据所述实际位姿信息和所述点云数据,确定所述期望位姿信息,包括:
根据所述实际位姿信息和所述点云数据,确定所述目标物的目标表面的中心点对应的位姿信息,其中,所述目标表面为所述目标物上与所述拣选机器人接触的表面;
将所述位姿信息确定为所述期望位姿信息。
4.根据权利要求1所述的方法,其中,所述根据所述实际位姿信息和所述期望位姿信息,确定所述目标物在所述待检测图像中的更正结果,包括:
根据所述实际位姿信息和所述期望位姿信息之间的偏差信息,确定所述目标物所占区域的位置信息;
根据获取所述待检测图像的摄像装置的标定信息和所述位置信息,得到所述更正结果。
5.根据权利要求1所述的方法,其中,所述响应于确定所述目标检测模型的检测精度低于预设阈值,通过所述训练样本集训练所述目标检测模型,得到更新后的目标检测模型,包括:
确定所述检测结果和所述更正结果的相似度;
统计截止到当前的多个相似度,确定相似度均值;
响应于确定所述相似度均值低于所述预设阈值,通过所述训练样本集训练所述目标检测模型,得到更新后的目标检测模型。
6.根据权利要求1-5中任一项所述的方法,还包括:
控制所述拣选机器人根据更新后的目标检测模型对后续的待检测图像中的目标物的检测结果,执行后续的拣选任务。
7.一种目标检测模型的更新装置,包括:
第一确定单元,被配置成在根据所述目标检测模型对待检测图像中的目标物的检测结果,控制拣选机器人执行拣选任务的过程中,确定所述拣选机器人的实际位姿信息和期望位姿信息,其中,所述目标检测模型用于表征所述待检测图像和所述检测结果之间的对应关系;
第二确定单元,被配置成根据所述实际位姿信息和所述期望位姿信息,确定所述目标物在所述待检测图像中的更正结果;
得到单元,被配置成以所述待检测图像为图像样本,以所述更正结果为标签,得到训练样本,并将所述训练样本添加至训练样本集;
更新单元,被配置成响应于确定所述目标检测模型的检测精度低于预设阈值,通过所述训练样本集训练所述目标检测模型,得到更新后的目标检测模型。
8.根据权利要求7所述的装置,其中,所述第一确定单元,进一步被配置成:
响应于确定所述拣选机器人拣选所述目标物移动至预设位置,获取所述拣选机器人的实际位姿信息,以及所述目标物的点云数据;根据所述实际位姿信息和所述点云数据,确定所述期望位姿信息。
9.根据权利要求8所述的装置,其中,所述第一确定单元,进一步被配置成:
根据所述实际位姿信息和所述点云数据,确定所述目标物的目标表面的中心点对应的位姿信息,其中,所述目标表面为所述目标物上与所述拣选机器人接触的表面;将所述位姿信息确定为所述期望位姿信息。
10.根据权利要求7所述的装置,其中,所述第二确定单元,进一步被配置成:
根据所述实际位姿信息和所述期望位姿信息之间的偏差信息,确定所述目标物所占区域的位置信息;根据获取所述待检测图像的摄像装置的标定信息和所述位置信息,得到所述更正结果。
11.根据权利要求7所述的装置,其中,所述更新单元,进一步被配置成:
确定所述检测结果和所述更正结果的相似度;统计截止到当前的多个相似度,确定相似度均值;响应于确定所述相似度均值低于所述预设阈值,通过所述训练样本集训练所述目标检测模型,得到更新后的目标检测模型。
12.根据权利要求7-11中任一项所述的装置,还包括:
后续执行单元,被配置成控制所述拣选机器人根据更新后的目标检测模型对后续的待检测图像中的目标物的检测结果,执行后续的拣选任务。
13.一种目标检测模型的更新系统,包括:图像采集装置、控制装置和拣选机器人;其中,
所述图像采集装置,用于采集包括目标物的待检测图像;
所述控制装置,用于通过所述目标检测模型得到对所述待检测图像中的目标物的检测结果,根据所述检测结果控制所述拣选机器人执行拣选任务;并在所述拣选机器人执行所述拣选任务的过程中,确定所述拣选机器人的实际位姿信息和期望位姿信息;根据所述实际位姿信息和所述期望位姿信息,确定所述目标物在所述待检测图像中的更正结果;以所述待检测图像为图像样本,以所述更正结果为标签,得到训练样本,并将所述训练样本添加至训练样本集;响应于确定所述目标检测模型的检测精度低于预设阈值,通过所述训练样本集训练所述目标检测模型,得到更新后的目标检测模型。
14.根据权利要求13所述的系统,其中,还包括:设置于预设位置的点云采集装置;其中,
所述点云采集装置,用于响应于确定所述拣选机器人拣选所述目标物移动至所述预设位置,获取所述目标物的点云数据;
所述控制装置,进一步用于获取所述拣选机器人在所述预设位置的实际位姿信息;根据所述实际位姿信息和所述点云数据,确定所述期望位姿信息。
15.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-6中任一所述的方法。
16.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110898920.XA CN113561181B (zh) | 2021-08-04 | 2021-08-04 | 目标检测模型的更新方法、装置及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110898920.XA CN113561181B (zh) | 2021-08-04 | 2021-08-04 | 目标检测模型的更新方法、装置及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113561181A true CN113561181A (zh) | 2021-10-29 |
CN113561181B CN113561181B (zh) | 2023-01-31 |
Family
ID=78170594
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110898920.XA Active CN113561181B (zh) | 2021-08-04 | 2021-08-04 | 目标检测模型的更新方法、装置及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113561181B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116587327A (zh) * | 2023-06-20 | 2023-08-15 | 广东电网有限责任公司广州供电局 | 运动控制系统、带电作业机器人检测方法及相关设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019148453A1 (zh) * | 2018-02-02 | 2019-08-08 | 深圳蓝胖子机器人有限公司 | 目标识别模型训练方法、目标识别方法、设备及机器人 |
CN111462238A (zh) * | 2020-04-03 | 2020-07-28 | 清华大学 | 姿态估计优化方法、装置及存储介质 |
CN111476087A (zh) * | 2020-03-02 | 2020-07-31 | 深圳市商汤科技有限公司 | 目标检测方法及其相关的模型训练方法、设备、装置 |
CN113095434A (zh) * | 2021-04-27 | 2021-07-09 | 深圳市商汤科技有限公司 | 目标检测方法及装置、电子设备、存储介质 |
-
2021
- 2021-08-04 CN CN202110898920.XA patent/CN113561181B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019148453A1 (zh) * | 2018-02-02 | 2019-08-08 | 深圳蓝胖子机器人有限公司 | 目标识别模型训练方法、目标识别方法、设备及机器人 |
CN111476087A (zh) * | 2020-03-02 | 2020-07-31 | 深圳市商汤科技有限公司 | 目标检测方法及其相关的模型训练方法、设备、装置 |
CN111462238A (zh) * | 2020-04-03 | 2020-07-28 | 清华大学 | 姿态估计优化方法、装置及存储介质 |
CN113095434A (zh) * | 2021-04-27 | 2021-07-09 | 深圳市商汤科技有限公司 | 目标检测方法及装置、电子设备、存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116587327A (zh) * | 2023-06-20 | 2023-08-15 | 广东电网有限责任公司广州供电局 | 运动控制系统、带电作业机器人检测方法及相关设备 |
Also Published As
Publication number | Publication date |
---|---|
CN113561181B (zh) | 2023-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109521403B (zh) | 多线激光雷达的参数标定方法及装置、设备及可读介质 | |
CN113610968B (zh) | 目标检测模型的更新方法及装置 | |
CN111209978B (zh) | 三维视觉重定位方法、装置及计算设备、存储介质 | |
CN111192331B (zh) | 一种激光雷达和相机的外参标定方法及装置 | |
CN113787522B (zh) | 消除机械臂累积误差的手眼标定方法 | |
CN108427941B (zh) | 用于生成人脸检测模型的方法、人脸检测方法和装置 | |
CN113172636B (zh) | 一种自动手眼标定方法、装置及存储介质 | |
CN115719436A (zh) | 模型训练方法、目标检测方法、装置、设备以及存储介质 | |
CN115578433A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN113561181B (zh) | 目标检测模型的更新方法、装置及系统 | |
CN110853098B (zh) | 机器人定位方法、装置、设备及存储介质 | |
CN113177980A (zh) | 用于自动驾驶的目标对象速度确定方法、装置及电子设备 | |
CN109816726B (zh) | 一种基于深度滤波器的视觉里程计地图更新方法和系统 | |
CN115620264B (zh) | 车辆定位方法、装置、电子设备和计算机可读介质 | |
CN117499547A (zh) | 自动化三维扫描方法、装置、设备及存储介质 | |
CN110363847B (zh) | 一种基于点云数据的地图模型构建方法和装置 | |
CN109523530A (zh) | 一种微带片圆形焊盘检测方法和系统 | |
CN112597174B (zh) | 地图更新方法、装置、电子设备和计算机可读介质 | |
CN112720496B (zh) | 机械手的控制方法、装置、拾取设备及存储介质 | |
CN112880675B (zh) | 用于视觉定位的位姿平滑方法、装置、终端和移动机器人 | |
CN112668371B (zh) | 用于输出信息的方法和装置 | |
CN114581523A (zh) | 一种用于单目3d目标检测的标注数据确定方法和装置 | |
CN114217540A (zh) | 一种非标设备的控制方法、装置、设备及存储介质 | |
CN113345023A (zh) | 箱体的定位方法、装置、介质和电子设备 | |
CN113542800B (zh) | 视频画面定标方法、装置、终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |