CN112560704B - 一种多特征融合的视觉识别方法及系统 - Google Patents
一种多特征融合的视觉识别方法及系统 Download PDFInfo
- Publication number
- CN112560704B CN112560704B CN202011504074.0A CN202011504074A CN112560704B CN 112560704 B CN112560704 B CN 112560704B CN 202011504074 A CN202011504074 A CN 202011504074A CN 112560704 B CN112560704 B CN 112560704B
- Authority
- CN
- China
- Prior art keywords
- image
- images
- coordinate system
- parts
- rectangular frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 230000000007 visual effect Effects 0.000 title claims abstract description 18
- 230000004927 fusion Effects 0.000 title claims abstract description 15
- 230000009466 transformation Effects 0.000 claims abstract description 48
- 238000010586 diagram Methods 0.000 claims abstract description 33
- 239000011159 matrix material Substances 0.000 claims abstract description 32
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims abstract description 28
- 230000036544 posture Effects 0.000 claims description 33
- 238000007781 pre-processing Methods 0.000 claims description 15
- 238000000605 extraction Methods 0.000 claims description 14
- 239000013598 vector Substances 0.000 claims description 14
- 230000001131 transforming effect Effects 0.000 claims description 11
- 238000004458 analytical method Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 8
- 230000011218 segmentation Effects 0.000 claims description 8
- 238000003709 image segmentation Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000003384 imaging method Methods 0.000 claims description 6
- 230000000877 morphologic effect Effects 0.000 claims description 6
- 238000003860 storage Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000013519 translation Methods 0.000 claims description 4
- 238000004519 manufacturing process Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 238000011161 development Methods 0.000 description 5
- 230000018109 developmental process Effects 0.000 description 5
- 238000009776 industrial production Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 206010063385 Intellectualisation Diseases 0.000 description 2
- 238000005452 bending Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000007635 classification algorithm Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 230000008707 rearrangement Effects 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/06—Recognition of objects for industrial automation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种多特征融合的视觉识别方法,包括接收零件源图;对零件源图进行分割,得到各零件图像;对各零件图像进行两级分类识别,以确定各零件图像中零件的种类及图像分类归属;基于同类图像中的零件图像,确定各零件的模板图像及旋转图像并进行二者关键点提取及匹配,以计算出各零件旋转角度以及图像间的仿射变换矩阵;确定坐标转换矩阵,并结合仿射变换矩阵,让抓取点坐标变换到实际机器人坐标系下的坐标;将各零件的种类和旋转角度,以及抓取点坐标发送给实际机器人。实施本发明,能对实际场景中散乱放置零件的类别和旋转角度,以及抓取点坐标信息进行识别获取,实现对机器人调整零件姿态及夹取装配工作的正确引导。
Description
技术领域
本发明涉及小型断路器柔性装配系统技术领域,尤其涉及一种多特征融合的视觉识别方法及系统。
背景技术
随着工业生产中对机器自动化、智能化需求的日渐提高,机器视觉作为工业生产向智能化方向发展的重要技术之一,已得到愈加深入的研究,越来越多的视觉检测、测量及定位等技术被应用到实际生产当中。
将机器视觉技术应用于工业制造中的研究,不仅可以降低制造设备的机械化程度,提高提高工业生产的灵活性与柔性,同时可以提高产品的质量与生产的效率。但是,基于机器视觉的智能制造技术的发展,其可行及可靠性依靠高精度的图像分类、识别和定位跟踪等技术来支撑,而生产中所面临的形色多样的生产对象、复杂的工业环境与其不同的功能要求,给视觉的识别处理工作带来极大的困难和挑战。
在工业装配方面,在面对复杂程度相对较低的识别对象时,可以支持向量机等建模方法进行分类,一旦识别对象越多、越复杂时,模型训练所需的数据量也就越大,极大地延长了开发周期。此外,识别对象复杂度低时,可利用其轮廓、面积与颜色等信息进行分类,并通过特征匹配及模板匹配等方法对抓取点坐标和姿态进行估计,但当识别对象复杂程度较高时,尤其在小型断路器的自动装配应用中,断路器零部件外形及种类复杂多样,部分零件自身特征点区分不明显,无法通过特征匹配、模板匹配的方法对其旋转角度和抓取点坐标进行准确估计,即无法将识别的误差控制在系统允许的误差范围之内,从而无法正确引导机器人完成后续零件姿态调整及夹取装配的工作。
因此,亟需一种用于小型断路器自动装配中的机器视觉识别方法,能够对实际场景中散乱放置零件的类别和旋转角度,以及抓取点坐标信息进行识别获取,并保证识别误差在系统允许范围以内,实现对机器人调整零件姿态及夹取装配工作的正确引导。
发明内容
本发明实施例所要解决的技术问题在于,提供一种多特征融合的视觉识别方法及系统,能对实际场景中散乱放置零件的类别和旋转角度,以及抓取点坐标信息进行识别获取,并保证识别误差在系统允许范围以内,实现对机器人调整零件姿态及夹取装配工作的正确引导。
为了解决上述技术问题,本发明实施例提供了一种多特征融合的视觉识别方法,用于小型断路器柔性装配系统中,包括以下步骤:
步骤S1、接收现场零件整体拍摄的零件源图;
步骤S2、对所述零件源图进行分割处理,得到各独立状态的零件图像;
步骤S3、基于零件种类及摆放姿态,对所述各独立状态的零件图像进行两级分类识别,以确定各零件图像中零件的种类及图像分类归属;其中,同一零件种类而摆放姿态相异的多个零件图像均归属于同一类图像中;
步骤S4、基于同一类图像中的零件图像,确定各零件的模板图像及旋转图像,并对各零件的模板图像与相应旋转图像进行关键点提取及匹配,以计算出各零件旋转角度以及图像之间的仿射变换矩阵;
步骤S5、确定像素坐标系到机器人坐标系转换的坐标转换矩阵,并结合所述仿射变换矩阵,将所述零件源图中的抓取点坐标变换到实际机器人坐标系下的坐标;
步骤S6、将各零件的种类和旋转角度,以及变换后的抓取点坐标发送给实际机器人的控制器,以实现对机器人调整零件姿态及夹取装配工作的引导。
其中,在所述步骤S1和所述步骤S2之间,还包括以下步骤:
对所述零件源图进行预处理;其中,所述预处理包括图像灰度化、零件边缘提取、二值化、形态学操作、零件轮廓提取及最大最小矩形框拟合。
其中,所述步骤S2中的“各独立状态的零件图像”是通过将最小矩形框中零件像素重新画入具有其最大外接矩形框大小的空白图像中的方式,对所述零件源图中所包含的多个零件分割成各自独立的零件来得到的。
其中,所述步骤S3具体包括:
基于零件种类,对各独立状态的零件图像进行一级分类识别,以确定各独立状态的零件图像中各零件的种类,并进一步基于各零件种类的摆放姿态,对归属于同一零件种类下的零件图像进行二级分类识别,以确定各零件图像的图像分类归属。
其中,所述各独立状态的零件图像中各零件的种类是在各独立状态的零件图像中,先通过对各零件轮廓面积、最小外接矩形框面积以及颜色进行分析比较,再采用比较分析后所得的实际特征数据与第一设定阈值比较的方式来实现的。
其中,所述各零件图像的图像分类归属是基于各独立状态的零件图像进行一级分类识别之后,先通过对各零件自身在各摆放姿态下的颜色、最小矩形框面积、成像结构以及零件固有的特定特征进行分析比较,再采用比较分析后所得的实际特征数据与第二设定阈值比较的方式来实现的。
其中,所述步骤S4具体包括:
提取同一类图像中两个摆放姿态相异的零件图像分别作为相应零件的模板图像及旋转图像;
在每一零件的模板图像和旋转图像上,均通过对各零件最小矩形框中感兴趣的边及感兴趣的顶点位置进行分析选取,并根据需求重新规定矩形框各顶点储存顺序,且进一步依次寻找与各顶点距离最近或最远的零件轮廓点作为关键点;
将每一零件的模板图像上的关键点与其对应旋转图像上的关键点进行匹配,而后计算各零件的模板图像与旋转图像中相对应的两两关键点形成的向量,并进一步将各零件所计算的向量间的夹角平均值设为各零件旋转角度;
通过三对及以上的关键点对,计算得到各零件的模板图像与旋转图像间的仿射变换矩阵。
其中,所述步骤S5具体包括:
通过相机标定获取相机内参及外参矩阵,依次经过从像素坐标系到图像坐标系、图像到相机坐标系及相机到世界坐标系的转换,并结合世界坐标系与机器人坐标系之间的平移和旋转关系,得到能将像素坐标从像素坐标系转换到机器人坐标系的坐标转换矩阵;
通过所述仿射变换矩阵对所述零件源图中指定的抓取点进行仿射变换,得到抓取点在实际图像中的像素坐标,而后通过所述坐标变换矩阵对抓取点像素坐标进行空间转换,得到抓取点在机器人坐标系下的坐标。
本发明实施例还提供了一种多特征融合的视觉识别系统,包括:
图像接收单元,用于接收现场零件整体拍摄的零件源图;
图像分割单元,用于对所述零件源图进行分割处理,得到各独立状态的零件图像;
图像分级识别单元,用于基于零件种类及摆放姿态,对所述各独立状态的零件图像进行两级分类识别,以确定各零件图像中零件的种类及图像分类归属;其中,同一零件种类而摆放姿态相异的多个零件图像均归属于同一类图像中;
零件旋转角度计算单元,用于基于同一类图像中的零件图像,确定各零件的模板图像及旋转图像,并对各零件的模板图像与相应旋转图像进行关键点提取及匹配,以计算出各零件旋转角度以及图像之间的仿射变换矩阵;
抓取点坐标变换单元,用于确定像素坐标系到机器人坐标系转换的坐标转换矩阵,并结合所述仿射变换矩阵,将所述零件源图中的抓取点坐标变换到实际机器人坐标系下的坐标;
信息发送单元,用于将各零件的种类和旋转角度,以及变换后的抓取点坐标发送给实际机器人的控制器,以实现对机器人调整零件姿态及夹取装配工作的引导。
其中,还包括:
图像预处理单元,用于对所述零件源图进行预处理;其中,所述预处理包括图像灰度化、零件边缘提取、二值化、形态学操作、零件轮廓提取及最大最小矩形框拟合。
实施本发明实施例,具有如下有益效果:
1、与现有技术相比,本发明通过将最小矩形框中零件像素点画入具有其最大外接矩形框大小的空白图像中的方式进行零件图像分割,能有效避免零件相距较近时出现的将非目标零件部分同时分割至一张图像中的问题;通过对零件轮廓面积、最小外接矩形框面积、颜色以及成像结构等特征进行分析,以阈值比较的方式进行两级分类识别,在保证分类准确度的同时,又能减短系统的开发周期;
2、本发明通过寻找与重定顺序后最小矩形框顶点相距最近或最远的零件轮廓点的方式获取关键点对,再通过关键点对计算零件旋转角度与实际抓取点坐标,最后将各零件的种类和旋转角度,以及变换后的抓取点坐标发送给实际机器人的控制器,从而能对实际场景中散乱放置零件的类别和旋转角度,以及抓取点坐标信息进行识别获取,并保证识别误差在系统允许范围以内,实现对机器人调整零件姿态及夹取装配工作的正确引导;
3、本发明相较建模分类的方式,更便于后期系统的维护与调整,且相较特征匹配及模板匹配等方式,更能满足系统对识别精度的要求。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,根据这些附图获得其他的附图仍属于本发明的范畴。
图1为本发明实施例提供的多特征融合的视觉识别方法的流程图;
图2为图1步骤S2的应用场景中零件源图分割处理时的分割对比图;
图3为图1步骤S3的应用场景中零件图像进行一级分类识别时的流程图;
图4~图11为图1步骤S3的应用场景中零件图像进行二级分类识别时的零件操作示意与算法流程图;
图12为图1步骤S4的应用场景中的角度计算示意图;
图13为图1步骤S5的应用场景中的标定需坐标系示意图;
图14为本发明实施例提供的多特征融合的视觉识别系统的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述。
如图1所示,为本发明实施例中,提出的一种多特征融合的视觉识别方法,用于小型断路器柔性装配系统中,包括以下步骤:
步骤S1、接收现场零件整体拍摄的零件源图;
具体过程为,在接收到图像采集信号之后调用相机进行拍照,从而得到相机现场零件整体拍摄的零件源图。
步骤S2、对所述零件源图进行分割处理,得到各独立状态的零件图像;
具体过程为,在零件源图上,通过将最小矩形框中零件像素重新画入具有其最大外接矩形框大小的空白图像中的方式,对所述零件源图中所包含的多个零件分割成各自独立的零件来得到各独立状态的零件图像。
在一个实施例中,如图2中(a)所示,以绿色最小矩形框无法直接进行图像分割,当零件相距较近时,以蓝色最大外接矩形框分割,则出现图2中(b)所示将非目标零件部分同时分割至一张图像中的问题,而按所提供方法,以将最小矩形框中零件像素点画入具有其最大外接矩形框大小的空白图像中的方式进行图像分割,如图2中(c)所示,则可有效避免上述问题的发生。
应当说明的是,在零件源图进行分割处理之前,还包括对零件源图进行预处理;其中,预处理包括图像灰度化、零件边缘提取、二值化、形态学操作、零件轮廓提取及最大最小矩形框拟合等步骤。
步骤S3、基于零件种类及摆放姿态,对所述各独立状态的零件图像进行两级分类识别,以确定各零件图像中零件的种类及图像分类归属;其中,同一零件种类而摆放姿态相异的多个零件图像均归属于同一类图像中;
具体过程为,基于零件种类,对各独立状态的零件图像进行一级分类识别,以确定各独立状态的零件图像中各零件的种类,并进一步基于各零件种类的摆放姿态,对归属于同一零件种类下的零件图像进行二级分类识别,以确定各零件图像的图像分类归属。
其中,各独立状态的零件图像中各零件的种类是在各独立状态的零件图像中,先通过对各零件轮廓面积、最小外接矩形框面积以及颜色进行分析比较,再采用比较分析后所得的实际特征数据与第一设定阈值比较的方式来实现的。
其中,各零件图像的图像分类归属是基于各独立状态的零件图像进行一级分类识别之后,先通过对各零件自身在各摆放姿态下的颜色、最小矩形框面积、成像结构以及零件固有的特定特征进行分析比较,再采用比较分析后所得的实际特征数据与第二设定阈值比较的方式来实现的。
在一个实施例中,对零件图像进行一级分类识别。如图3所示,S0为分割后第一个零件的最小矩形框面积,用以初始化变量max_S和min_S,而Sn则是另外四个零件的最小矩形框面积。Th1、Th2分别为绿色与红色像素数的参考阈值。Sr1、Sr2分别为图片3和4代表的零件最小矩形框面积。
在另一个实施例中,对零件图像进行二级分类识别。
零件0:比较最小矩形框面积max_S与给定阈值Th3的大小,其分类结果lab0如下式(1)所示:
如图4中(a)和(c)所示,本发明实施例对姿态01、02矩形框可能出现的两种情况,以P1点为基础点,判断P1P2与P1P3的长短情况,并按下式(2)重新规定四个顶点的顺序,如图4中(b)和(d)所示。
如图4中(b)和(d)阴影区域所示,本发明实施例以Q1Q2所在的长边划定感兴趣区域(ROI)。假设表示零件的像素点集合为S,感兴趣区域内像素点集合为s,通过下式(3)对感兴趣的矩形长边做出选择,记作L:
对选取的边L的两个端点,即顶点,同样以感兴趣方式做出选择。如图5所示,实际操作中A点为最终选取的感兴趣点,同时记录与其构成矩形短边和长边的B、C两点。设向量AB和AC的夹角为Φ,因在图像中顺时针转动角度为负,反之为正,故根据下式(4)做出类别判断,记作:
零件1:如图6所示,零件1二级分类算法流程,Th4为零件1在自身不同姿态下的绿色像素数参考阈值,Th1与其的区别在于,Th1为自身与其它零件比较的参考;Th5为自身轮廓面积的参考阈值;小圆如图7中(a)图中黄色标记的圆并与(b)形成对比。子流程‘姿态10or11’的步骤同零件0姿态01和02的区分步骤基本一致。但零件1选取的感兴趣边为矩形框的短边,且其依据是两条短边与质心点m距离的大小。实际操作如图7中(c)和(d)所示,选取的边为AB边,点为A点。其分类结果如下式(5),记作lab1:
零件2:比较零件2最小矩形框面积min_S与给定阈值Th6的大小,如下式(6)做出类别判断,记作lab2:
如图8所示,对零件2轮廓进行凸包检测找出其中间弯曲处的弯曲点O。凸包即如图8中(a)和(c)中的蓝色包围线,为凸多边形,凸包所包围白色区域即为凸性“缺陷”。同样以零件0中边选取的方式找到AB边所在,而两种姿态下均有矩形框顶点A距离O点较近,从而确定A点所在。设向量OA和OB的夹角为Φ,分类结果如下式(7),记作lab2:
零件3:如图9所示,零件3的二级分类算法流程,依据其在一级分类中是否通过红色提取判断作出进一步判断。s3为其最小矩形框面积,Th7为姿态30和32的区分阈值,Th8为姿态31和33的区分阈值。
零件4:比较零件4最小矩形框面积s4与给定阈值Th9和Th10的大小,Th9<Th10。其分类结果如下式(8)所示,记作lab4:
对于姿态41、42和43,比较零件轮廓面积Scnt与给定阈值Th11的大小,将其分为两个子类,如下式(9)所示,记作lab4:
如图10所示,姿态41和42在灰度、形状、边缘梯度等方面均存在极大的相似度,难以准确区分,因此采用机械的方式使其变为姿态40或43再进行角度识别。
对于姿态44和45:顺次对矩形框顶点划定感兴趣区域,满足如下式(10)表述的条件,即确定为感兴趣顶点。其中,S为零件像素点集合,s为感兴趣区域内像素点集合。
回缩矩形框,获取新矩形内部的零件轮廓点;比较获取的轮廓点与不以感兴趣顶点为端点的两条原矩形框的边的最小距离的大小以确定两条边的位置。实际操作如图11所示,感兴趣顶点为A,与回缩后矩形框内轮廓点最小距离较小的边为BD边,另一边即为CD边。设向量AB和AC的夹角为Φ,根据下式(11)做出类别判断,记作lab4:
步骤S4、基于同一类图像中的零件图像,确定各零件的模板图像及旋转图像,并对各零件的模板图像与相应旋转图像进行关键点提取及匹配,以计算出各零件旋转角度以及图像之间的仿射变换矩阵;
具体过程为,提取同一类图像中两个摆放姿态相异的零件图像分别作为相应零件的模板图像及旋转图像;
在每一零件的模板图像和旋转图像上,均通过对各零件最小矩形框中感兴趣的边及感兴趣的顶点位置进行分析选取,并根据需求重新规定矩形框各顶点储存顺序,且进一步依次寻找与各顶点距离最近或最远的零件轮廓点作为关键点;
将每一零件的模板图像上的关键点与其对应旋转图像上的关键点进行匹配,而后计算各零件的模板图像与旋转图像中相对应的两两关键点形成的向量,并进一步将各零件所计算的向量间的夹角平均值设为各零件旋转角度;
通过三对及以上的关键点对,计算得到各零件的模板图像与旋转图像间的仿射变换矩阵。
在一个实施例中,如图12所示,为角度计算示意图,计算实际图像中两个关键点的向量ac及对应模板中的向量a1c1,其夹角θ即为旋转角。为减小误差,尽可能求多个值取平均。
步骤S5、确定像素坐标系到机器人坐标系转换的坐标转换矩阵,并结合所述仿射变换矩阵,将所述零件源图中的抓取点坐标变换到实际机器人坐标系下的坐标;
具体过程为,通过相机标定获取相机内参及外参矩阵,依次经过从像素坐标系到图像坐标系、图像到相机坐标系及相机到世界坐标系的转换,并结合世界坐标系与机器人坐标系之间的平移和旋转关系,得到能将像素坐标从像素坐标系转换到机器人坐标系的坐标转换矩阵;
通过所述仿射变换矩阵对所述零件源图中指定的抓取点进行仿射变换,得到抓取点在实际图像中的像素坐标,而后通过所述坐标变换矩阵对抓取点像素坐标进行空间转换,得到抓取点在机器人坐标系下的坐标。
在一个实施例中,首先将提前保存的与当前姿态零件对应的模板图像中的抓取点像素坐标通过仿射变换,得出抓取点在实际图像中的像素坐标,如下式(12)所示:
其中,M1为仿射变换矩阵、(u,v)为抓取点在实际图像中的像素坐标、(u0,v0)为抓取点在模板图像中的像素坐标
其次,将实际抓取点像素坐标经过如图13所示相机标定及手眼标定所需的4次坐标系变换,得到抓取点机器人坐标系下坐标,如下式(13)所示:
其中,M2为坐标转换矩阵、(x,y,z)为抓取点在机器人坐标系下的坐标、(x0,y0,z0)则为机器人坐标系与世界坐标系间的偏移量。
步骤S6、将各零件的种类和旋转角度,以及变换后的抓取点坐标发送给实际机器人的控制器,以实现对机器人调整零件姿态及夹取装配工作的引导。
具体过程为,以机器人的控制器为主控制器,接收信息包括零件类别、旋转角度和抓取点在机器人坐标系下的坐标,从而确保实现对机器人调整零件姿态及夹取装配工作的正确引导。其中,机器人的控制器承担接收关电开关输入的零件到达信号、输出相机开始拍照信号及对机器人运动和气缸夹爪动作的控制信号等作用。
如图14所示,为本发明实施例中,提供的一种多特征融合的视觉识别系统,包括:
图像接收单元110,用于接收现场零件整体拍摄的零件源图;
图像分割单元120,用于对所述零件源图进行分割处理,得到各独立状态的零件图像;
图像分级识别单元130,用于基于零件种类及摆放姿态,对所述各独立状态的零件图像进行两级分类识别,以确定各零件图像中零件的种类及图像分类归属;其中,同一零件种类而摆放姿态相异的多个零件图像均归属于同一类图像中;
零件旋转角度计算单元140,用于基于同一类图像中的零件图像,确定各零件的模板图像及旋转图像,并对各零件的模板图像与相应旋转图像进行关键点提取及匹配,以计算出各零件旋转角度以及图像之间的仿射变换矩阵;
抓取点坐标变换单元150,用于确定像素坐标系到机器人坐标系转换的坐标转换矩阵,并结合所述仿射变换矩阵,将所述零件源图中的抓取点坐标变换到实际机器人坐标系下的坐标;
信息发送单元160,用于将各零件的种类和旋转角度,以及变换后的抓取点坐标发送给实际机器人的控制器,以实现对机器人调整零件姿态及夹取装配工作的引导。
其中,还包括:
图像预处理单元,用于对所述零件源图进行预处理;其中,所述预处理包括图像灰度化、零件边缘提取、二值化、形态学操作、零件轮廓提取及最大最小矩形框拟合。
实施本发明实施例,具有如下有益效果:
1、与现有技术相比,本发明通过将最小矩形框中零件像素点画入具有其最大外接矩形框大小的空白图像中的方式进行零件图像分割,能有效避免零件相距较近时出现的将非目标零件部分同时分割至一张图像中的问题;通过对零件轮廓面积、最小外接矩形框面积、颜色以及成像结构等特征进行分析,以阈值比较的方式进行两级分类识别,在保证分类准确度的同时,又能减短系统的开发周期;
2、本发明通过寻找与重定顺序后最小矩形框顶点相距最近或最远的零件轮廓点的方式获取关键点对,再通过关键点对计算零件旋转角度与实际抓取点坐标,最后将各零件的种类和旋转角度,以及变换后的抓取点坐标发送给实际机器人的控制器,从而能对实际场景中散乱放置零件的类别和旋转角度,以及抓取点坐标信息进行识别获取,并保证识别误差在系统允许范围以内,实现对机器人调整零件姿态及夹取装配工作的正确引导;
3、本发明相较建模分类的方式,更便于后期系统的维护与调整,且相较特征匹配及模板匹配等方式,更能满足系统对识别精度的要求。
值得注意的是,上述系统实施例中,所包括的各个单元只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,所述的程序可以存储于一计算机可读取存储介质中,所述的存储介质,如ROM/RAM、磁盘、光盘等。
以上所揭露的仅为本发明一种较佳实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。
Claims (4)
1.一种多特征融合的视觉识别方法,用于小型断路器柔性装配系统中,其特征在于,包括以下步骤:
步骤S1、接收现场零件整体拍摄的零件源图;
步骤S2、对所述零件源图进行分割处理,得到各独立状态的零件图像;
步骤S3、基于零件种类及摆放姿态,对所述各独立状态的零件图像进行两级分类识别,以确定各零件图像中零件的种类及图像分类归属;其中,同一零件种类而摆放姿态相异的多个零件图像均归属于同一类图像中;
步骤S4、基于同一类图像中的零件图像,确定各零件的模板图像及旋转图像,并对各零件的模板图像与相应旋转图像进行关键点提取及匹配,以计算出各零件旋转角度以及图像之间的仿射变换矩阵;
步骤S5、确定像素坐标系到机器人坐标系转换的坐标转换矩阵,并结合所述仿射变换矩阵,将所述零件源图中的抓取点坐标变换到实际机器人坐标系下的坐标;
步骤S6、将各零件的种类和旋转角度,以及变换后的抓取点坐标发送给实际机器人的控制器,以实现对机器人调整零件姿态及夹取装配工作的引导;
所述步骤S2中的“各独立状态的零件图像”是通过将最小矩形框中零件像素重新画入具有其最大外接矩形框大小的空白图像中的方式,对所述零件源图中所包含的多个零件分割成各自独立的零件来得到的;
所述步骤S3具体包括:
基于零件种类,对各独立状态的零件图像进行一级分类识别,以确定各独立状态的零件图像中各零件的种类,并进一步基于各零件种类的摆放姿态,对归属于同一零件种类下的零件图像进行二级分类识别,以确定各零件图像的图像分类归属;
所述各独立状态的零件图像中各零件的种类是在各独立状态的零件图像中,先通过对各零件轮廓面积、最小外接矩形框面积以及颜色进行分析比较,再采用比较分析后所得的实际特征数据与第一设定阈值比较的方式来实现的;
所述各零件图像的图像分类归属是基于各独立状态的零件图像进行一级分类识别之后,先通过对各零件自身在各摆放姿态下的颜色、最小矩形框面积、成像结构以及零件固有的特定特征进行分析比较,再采用比较分析后所得的实际特征数据与第二设定阈值比较的方式来实现的;
所述步骤S4具体包括:
提取同一类图像中两个摆放姿态相异的零件图像分别作为相应零件的模板图像及旋转图像;
在每一零件的模板图像和旋转图像上,均通过对各零件最小矩形框中感兴趣的边及感兴趣的顶点位置进行分析选取,并根据需求重新规定矩形框各顶点储存顺序,且进一步依次寻找与各顶点距离最近或最远的零件轮廓点作为关键点;
将每一零件的模板图像上的关键点与其对应旋转图像上的关键点进行匹配,而后计算各零件的模板图像与旋转图像中相对应的两两关键点形成的向量,并进一步将各零件所计算的向量间的夹角平均值设为各零件旋转角度;
通过三对及以上的关键点对,计算得到各零件的模板图像与旋转图像间的仿射变换矩阵;
所述步骤S5具体包括:
通过相机标定获取相机内参及外参矩阵,依次经过从像素坐标系到图像坐标系、图像到相机坐标系及相机到世界坐标系的转换,并结合世界坐标系与机器人坐标系之间的平移和旋转关系,得到能将像素坐标从像素坐标系转换到机器人坐标系的坐标转换矩阵;
通过所述仿射变换矩阵对所述零件源图中指定的抓取点进行仿射变换,得到抓取点在实际图像中的像素坐标,而后通过所述坐标变换矩阵对抓取点像素坐标进行空间转换,得到抓取点在机器人坐标系下的坐标。
2.如权利要求1所述的多特征融合的视觉识别方法,其特征在于,在所述步骤S1和所述步骤S2之间,还包括以下步骤:
对所述零件源图进行预处理;其中,所述预处理包括图像灰度化、零件边缘提取、二值化、形态学操作、零件轮廓提取及最大最小矩形框拟合。
3.一种多特征融合的视觉识别系统,其特征在于,包括:
图像接收单元,用于接收现场零件整体拍摄的零件源图;
图像分割单元,用于对所述零件源图进行分割处理,得到各独立状态的零件图像;
图像分级识别单元,用于基于零件种类及摆放姿态,对所述各独立状态的零件图像进行两级分类识别,以确定各零件图像中零件的种类及图像分类归属;其中,同一零件种类而摆放姿态相异的多个零件图像均归属于同一类图像中;
零件旋转角度计算单元,用于基于同一类图像中的零件图像,确定各零件的模板图像及旋转图像,并对各零件的模板图像与相应旋转图像进行关键点提取及匹配,以计算出各零件旋转角度以及图像之间的仿射变换矩阵;
抓取点坐标变换单元,用于确定像素坐标系到机器人坐标系转换的坐标转换矩阵,并结合所述仿射变换矩阵,将所述零件源图中的抓取点坐标变换到实际机器人坐标系下的坐标;
信息发送单元,用于将各零件的种类和旋转角度,以及变换后的抓取点坐标发送给实际机器人的控制器,以实现对机器人调整零件姿态及夹取装配工作的引导;
所述图像分割单元中的“各独立状态的零件图像”是通过将最小矩形框中零件像素重新画入具有其最大外接矩形框大小的空白图像中的方式,对所述零件源图中所包含的多个零件分割成各自独立的零件来得到的;
所述图像分级识别单元具体包括:
基于零件种类,对各独立状态的零件图像进行一级分类识别,以确定各独立状态的零件图像中各零件的种类,并进一步基于各零件种类的摆放姿态,对归属于同一零件种类下的零件图像进行二级分类识别,以确定各零件图像的图像分类归属;
所述各独立状态的零件图像中各零件的种类是在各独立状态的零件图像中,先通过对各零件轮廓面积、最小外接矩形框面积以及颜色进行分析比较,再采用比较分析后所得的实际特征数据与第一设定阈值比较的方式来实现的;
所述各零件图像的图像分类归属是基于各独立状态的零件图像进行一级分类识别之后,先通过对各零件自身在各摆放姿态下的颜色、最小矩形框面积、成像结构以及零件固有的特定特征进行分析比较,再采用比较分析后所得的实际特征数据与第二设定阈值比较的方式来实现的;
所述零件旋转角度计算单元具体包括:
提取同一类图像中两个摆放姿态相异的零件图像分别作为相应零件的模板图像及旋转图像;
在每一零件的模板图像和旋转图像上,均通过对各零件最小矩形框中感兴趣的边及感兴趣的顶点位置进行分析选取,并根据需求重新规定矩形框各顶点储存顺序,且进一步依次寻找与各顶点距离最近或最远的零件轮廓点作为关键点;
将每一零件的模板图像上的关键点与其对应旋转图像上的关键点进行匹配,而后计算各零件的模板图像与旋转图像中相对应的两两关键点形成的向量,并进一步将各零件所计算的向量间的夹角平均值设为各零件旋转角度;
通过三对及以上的关键点对,计算得到各零件的模板图像与旋转图像间的仿射变换矩阵;
所述抓取点坐标变换单元具体包括:
通过相机标定获取相机内参及外参矩阵,依次经过从像素坐标系到图像坐标系、图像到相机坐标系及相机到世界坐标系的转换,并结合世界坐标系与机器人坐标系之间的平移和旋转关系,得到能将像素坐标从像素坐标系转换到机器人坐标系的坐标转换矩阵;
通过所述仿射变换矩阵对所述零件源图中指定的抓取点进行仿射变换,得到抓取点在实际图像中的像素坐标,而后通过所述坐标变换矩阵对抓取点像素坐标进行空间转换,得到抓取点在机器人坐标系下的坐标。
4.如权利要求3所述的多特征融合的视觉识别系统,其特征在于,还包括:
图像预处理单元,用于对所述零件源图进行预处理;其中,所述预处理包括图像灰度化、零件边缘提取、二值化、形态学操作、零件轮廓提取及最大最小矩形框拟合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011504074.0A CN112560704B (zh) | 2020-12-18 | 2020-12-18 | 一种多特征融合的视觉识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011504074.0A CN112560704B (zh) | 2020-12-18 | 2020-12-18 | 一种多特征融合的视觉识别方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112560704A CN112560704A (zh) | 2021-03-26 |
CN112560704B true CN112560704B (zh) | 2023-07-18 |
Family
ID=75063647
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011504074.0A Active CN112560704B (zh) | 2020-12-18 | 2020-12-18 | 一种多特征融合的视觉识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112560704B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114734448B (zh) * | 2022-05-11 | 2023-11-07 | 上海交通大学 | 一种用于船舶理料装备的板材零件抓取方法及装置 |
CN115359112B (zh) * | 2022-10-24 | 2023-01-03 | 爱夫迪(沈阳)自动化科技有限公司 | 一种高位料库机器人的码垛控制方法 |
CN117409082B (zh) * | 2023-12-13 | 2024-02-23 | 南昌工控机器人有限公司 | 用于手机壳体模块化装配的视觉识别与定位方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104915957A (zh) * | 2015-05-29 | 2015-09-16 | 何再兴 | 一种提高工业机器人三维视觉识别精度的匹配矫正方法 |
CN110815213A (zh) * | 2019-10-21 | 2020-02-21 | 华中科技大学 | 一种基于多维度特征融合的零件识别装配方法和装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4757142B2 (ja) * | 2006-08-10 | 2011-08-24 | キヤノン株式会社 | 撮影環境校正方法及び情報処理装置 |
JP6659098B2 (ja) * | 2015-07-29 | 2020-03-04 | キヤノン株式会社 | 画像処理方法、画像処理装置、プログラム及び記録媒体 |
CN107423770B (zh) * | 2017-08-03 | 2021-03-26 | 广东顺德西安交通大学研究院 | 一种面向高速生产线的机器人视觉定位方法 |
CN107563432A (zh) * | 2017-08-29 | 2018-01-09 | 武汉交通职业学院 | 一种基于视觉形状模型的机器人多目标识别方法 |
CN110110760A (zh) * | 2019-04-17 | 2019-08-09 | 浙江工业大学 | 一种基于机器视觉的工件定位与识别方法 |
CN110415363A (zh) * | 2019-08-05 | 2019-11-05 | 上海神添实业有限公司 | 一种基于三目视觉的散乱物识别定位方法 |
CN110935644B (zh) * | 2019-12-27 | 2020-12-29 | 江南大学 | 一种基于机器视觉的轴承滚针尺寸检测系统及方法 |
CN111152224B (zh) * | 2020-01-10 | 2022-05-10 | 温州大学 | 一种双重寻优的机器人运动轨迹优化方法 |
-
2020
- 2020-12-18 CN CN202011504074.0A patent/CN112560704B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104915957A (zh) * | 2015-05-29 | 2015-09-16 | 何再兴 | 一种提高工业机器人三维视觉识别精度的匹配矫正方法 |
CN110815213A (zh) * | 2019-10-21 | 2020-02-21 | 华中科技大学 | 一种基于多维度特征融合的零件识别装配方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112560704A (zh) | 2021-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112070818B (zh) | 基于机器视觉的机器人无序抓取方法和系统及存储介质 | |
CN110580723B (zh) | 一种利用深度学习和计算机视觉进行精准定位的方法 | |
CN112560704B (zh) | 一种多特征融合的视觉识别方法及系统 | |
Azad et al. | Stereo-based 6d object localization for grasping with humanoid robot systems | |
CN115816460B (zh) | 一种基于深度学习目标检测与图像分割的机械手抓取方法 | |
CN108981672A (zh) | 基于单目机器人与测距传感器结合的舱门实时定位方法 | |
CN108573221A (zh) | 一种基于视觉的机器人目标零件显著性检测方法 | |
Azad et al. | Combining appearance-based and model-based methods for real-time object recognition and 6d localization | |
CN112734844A (zh) | 一种基于正八面体的单目6d位姿估计方法 | |
Sommer et al. | Primitect: Fast continuous hough voting for primitive detection | |
CN113822810A (zh) | 一种基于机器视觉的三维空间中工件的定位方法 | |
CN116188763A (zh) | 一种基于YOLOv5的纸箱识别定位及放置角度的测量方法 | |
CN109410272B (zh) | 一种变压器螺母识别与定位装置及方法 | |
CN115187556A (zh) | 一种基于机器视觉的流水线上零件定位与点云获取方法 | |
CN114945071A (zh) | 一种回收机器内置摄像头拍照控制方法、装置及系统 | |
CN117036665B (zh) | 一种基于孪生神经网络的旋钮开关状态识别方法 | |
JP7191352B2 (ja) | 物体検出を実施するための方法および計算システム | |
JPH1151611A (ja) | 認識対象物体の位置姿勢認識装置および位置姿勢認識方法 | |
Tang et al. | A dulcimer keys positioning method based on improved Roberts operator | |
Javadi et al. | Change detection in aerial images using a Kendall's TAU distance pattern correlation | |
CN112614182B (zh) | 基于深度学习的识别加工位置的方法、存储设备、移动终端 | |
Zhang et al. | An improved approach for model-based detection and pose estimation of texture-less objects | |
CN110796019A (zh) | 一种识别和跟踪运动中的球形物体的方法及装置 | |
Chen et al. | Object recognition and localization based on kinect camera in complex environment | |
CN119131061B (zh) | 一种针对光照不均的工业零件图像分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |