具体实施方式
在实现本申请的过程中,发明人发现随着产品“小批量、多批次”的生产模式越来越普遍,待检产品的规格、大小、形状也会呈现出多样性和复杂性,且产品表面缺陷形态各异、参差不齐。现有的缺陷检测方式已经不能满足目前复杂的缺陷检测需求。同时,待检产品本身往往具有三维的多面结构,实际检测中需要多角度成像才能更准确的进行质检。
针对上述问题,本申请公开了一种基于目标检测定位和多角度成像的自适应智能质检方法和系统。可以实现多批次待检产品的智能成像,主要通过基于分类网络、目标检测网络等深度学习方法对具有多角度结构的三维工业产品进行识别以及坐标定位,然后基于预先设计的自适应成像角度参数库驱动手眼标定机器人自适应调整角度对检测台上的待检产品进行多角度成像拍摄。同时,本申请也公开了一种基于语义分割网络的方法,实现了对待检产品表面缺陷进行细粒度分割进而实现缺陷检测。本申请的技术方案可在软件驱动模式下实现“小批量、多批次”生产模式下产品的自适应智能质检,而无需频繁对质检机硬件部分进行人工架设和调试,极大地减少在线部署和调试的人力成本。还实现了对产品三维的多面结构的多角度成像并基于此进行更为准确的缺陷检测。
相比现有技术,针对现有技术不能处理待检产品进行偏移、旋转,对多批次需要手动调整的缺陷,本发明实现了对待检产品的偏移、旋转、多批次都能实现自适应成像拍摄。具体采用分类网络实现多批次待检产品的分类;采用目标检测网络实现对待检产品的实际位置坐标定位;采用语义分割网络实现对待检产品表面缺陷区域进行检测。
相比现有技术,针对现有质检方法采用的分类方法精度差,且检测的缺陷种类单一的缺陷,本发明提出的基于语义分割方法可以检测不同类型的缺陷,尤其是对小缺陷和复杂缺陷,可以获得更好的检测精度和更详细的缺陷检测信息。
为了使本申请实施例中的技术方案及优点更加清楚明白,以下结合附图对本申请的示例性实施例进行进一步详细的说明,显然,所描述的实施例仅是本申请的一部分实施例,而不是所有实施例的穷举。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
实施例1
为了更好的说明本申请实施例的基于多角度成像的缺陷检测方法,首先对本申请实施例采用的卷积神经网络、图像分类网络、目标检测以及图像分割进行描述。
关于卷积神经网络,卷积神经网络是一类包含卷积计算且具有深度结构的前馈神经网络,是深度学习的代表算法之一。卷积神经网络具有特征学习的能力,能够按着其阶层结构对输入信息进行平移不变分类。它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现,它包括卷积层和池化层,卷积层是在原始输入图像上一个小区域一个小区域的进行特征提取,得到特征图;池化层是对特征图做进一步的特征压缩。卷积神经网络常用于图像分类、目标检测、语义分割等视觉任务中,这些任务大都是利用卷积神经网络提取不同的特征,随后构建不同任务,然后利用大量标注的训练样本进行学习,在学习的过程不断地调整网络中的参数以达到最小化预测错误的目的。
关于图像分类网络,图像分类网络是计算机视觉领域比较广泛的研究方向,图像分类的核心是从给定的分类集合中针对给定的图像分配一个标签的任务。
图1中示出了根据本申请的图像分类网络应用示例图。参见图1,图像分类模型读取图片特征信息,并生成该图片属于图像集合{cat,dog,hat,mug}中的标签概率。对于计算机来说,图像是由一个数字组成的庞大三维数组,在这个例子中猫的图像大小是宽248像素,高400像素,存在3个通道的颜色,分别是红、绿和蓝(即RGB)。如此,该图像就包含了248X400X3=297600个数字,每个数字的范围在0-255之间的整数,其中0表示全黑,255表示全白。图像分类的任务是把这些数字变成一个简单的图像标签“猫”。
关于目标检测,目标检测是计算机视觉中用于识别图像中具体有哪些物体,以及物体位置的技术,不仅需要算法判断图片中物体的类别,还要确定出物体在图像中的位置坐标。目标检测的位置信息一般由两种格式:以图片左上角为原点(0,0),一种是极坐标表示,极坐标为(xmin,ymin,xmax,ymax)。其中,xmin,ymin分别表示x,y坐标的最小值,xmax,ymax分别表示x,y坐标的最大值;另一种使中心点坐标,中心点坐标为(x_center,y_center,w,h)。其中,x_center,y_center表示目标检测框的中心点坐标,w,h表示目标检测框的宽、高。然而,传统的目标检测方法对现实场景中的待检产品表面缺陷检测来说存在着不足,因为现实场景中待检产品不是水平放置的,并且待检产品表面本身是一种不规则的曲面,这样拍摄出来的待检产品往往存在一些角度偏差或者其他侧面的干扰区域。针对现有技术的问题,本申请实施例采用了基于文本检测的旋转目标检测网络RRPN,通过设置不同比例大小的旋转候选框,产生带角度的候选区域,并利用产生的候选区域角度计算待检产品的实际偏转角度,以更好地适应现实中待检产品表面缺陷区域和实现手眼标定机器人的自适应拍摄。
关于图像分割,图像分割是把图像分成若干个特定的、具有独特性质的区域并提取出感兴趣目标的技术和过程。图像分割是为图像中的每个像素分配语义标签的任务,使得同一个子区域内的特征具有一定的相似性,不同子区域的特征呈现较为明显的差异。从数学角度来看,图像分割是将图像划分成互不相交的区域过程。
图2中示出了根据本申请的图像分割应用示例图。如图2所示,图片中的物体,马和人被从中分割出来且以不同颜色作为标识。经过图像分割,图像中的对象可以被简单且清晰地标识出来,它可以大大简化图像,有利于凸显主要关注对象。
基于以上技术理解,图3中示出了根据本申请实施例的一种基于多角度成像的缺陷检测方法的步骤流程图。
如图3所示,本实施例的基于多角度成像的缺陷检测方法,具体包括以下步骤:
S101:获取待检产品的原始图像。
S102:根据原始图像获取待检产品的品类信息;根据原始图像获取待检产品的实际位置坐标;建立用于多角度拍照的多角度参数库。
S103:根据品类信息、实际位置坐标以及多角度参数库得到待检产品的多角度图像。
S104:根据多角度图像得到待检产品的缺陷检测结果。
详细说明的,S101中,获取待检产品的原始图像。首先,将多批次待检产品分别放到待检产品检测台上,并利用手眼标定机器人进行一次初始拍照,初始拍照即得到的原始图像。
步骤S102中,根据原始图像获取原始图像的品类信息,具体包括以下步骤:
首先,构建分类网络模型。
本申请实施例采用了基于深度学习的分类网络的方法从多批次待检产品照片中获取不同批次的品类信息。
图4中示出了根据本申请实施例的分类网络的结构示意图。如图4所示,其结构特点为:
(1)输入一张尺寸为448*448像素的3通道RGB原始图像。
(2)输入的图像会分别经过3次卷积操作和降采样操作,然后得到压缩后的图像特征图。
其中,利用卷积层对图片进行处理,可以学习到鲁棒性较高的特征;降采样的方式是采用最大池化的方式对邻域内特征点取最大值,最大池化可以减少参数规模,降低参数复杂度,最后会得到尺寸变小而通道数量增加的特征图。
(3)经过卷积层之后的特征图被送入全连接层,全连接层将学习的特征映射到样本空间,然后利用softmax激活函数计算出一个类别的概率。因1x1的卷积核不改变图像的大小,这里采用1x1的卷积层代替全连接层。
(4)在卷积层之前可以通过Batch Normalization来加速训练速度,提高网络的泛化能力,在卷积层之后使用ReLU激活函数来提高卷积层之间的非线性关系,防止训练过拟合。
其次,以待检产品的人工标注数据作为训练样本,训练以上构建的分类网络模型,最后得到训练后的分类网络模型。
具体包括:
使用卷积神经网络作为分类网络,而卷积神经网络的一个特点是需要大量的人工标注数据作为训练样本。
分类网络的训练数据获取与标注,首先,利用手眼标定机器人拍摄大量缺陷样本照片;之后,再对这些缺陷照片进行人工标注:针对每张不同品类的图像命名为相应品类下的不同ID;然后,将这些标注数据按照5:1:1的比例划分成训练集、测试集和验证集,为分类网络训练使用。对每张图像中的待检产品区域用矩形框标注出来并记录矩形框的坐标,为目标检测网络使用。
在获取训练样本以及得到分类网络后,开始输入训练样本训练上述分类网络,训练过程中相关操作如下:
首先,使用transforms的Resize方法将训练数据重新设置成长600,宽600的大小;然后将图像进行随机水平翻转,再从图像中随机裁剪出448*448大小的图像,并加载训练数据;
训练过程中,使用batchsize的大小设置为16,初始学习率为0.001;
训练过程中,使用带动量的随机梯度下降的方法。其它方法的,也可以采用Adagrad、RMSprop和Adam等优化方法,本训练方法中使用带动量的随机梯度下降方法可以取得相对更好的训练效果;
训练过程中,使用NLLLoss损失函数;
在训练过程中,每训练5个epoch进行一次测试,直至模型训练到收敛为止。
最后,基于训练好的分类网络,使用基于深度学习的分类网络对待检产品进行品类预测。输入待检产品的原始图像至训练后的分类网络模型得到待检产品的品类信息。
具体的,在训练好分类网络之后,使用训练好的分类网络对待检产品进行预测,只需加载训练好的分类网络模型,不用再使用优化器和损失函数,将手眼标定机器人拍摄到的图像送入训练好的分类模型中进行预测。
在经过分类网络得到多批次待检产品类别信息之后,还需要获取待检产品在检测台上的位置坐标以便实现自适应多角度成像,因此需要进一步引入基于目标检测的定位网络获取待检产品的实际位置坐标。
步骤S102中,根据原始图像获取待检产品的实际位置坐标,具体包括以下步骤:
首先,构建基于目标检测的定位网络模型。
本申请实施例的基于目标检测的定位网络采用基于文本检测的RRPN目标检测网络,图5中示出了根据本申请实施例的目标检测网络的结构示意图。
如图5所示,其网络结构特点为:
(1)输入一张尺寸为448*448像素的3通道RGB图像。
(2)输入图像经过5个卷积层和2个降采样层,2个降采样层分别在第一个和第二个卷积层后面,然后形成图像特征图。
(3)接下来经过RRPN模块,其中包含设计了不同大小的锚点(anchors),它们具有不同大小的尺寸、宽高比和-0,/>六种不同的旋转角,最后生成带倾斜角的候选区域,使得候选框更准确地适应待检产品区域的方向。
(4)然后经过RROIPooling层,其输入层是conv5的输出和region proposal,region proposal的个数大约为2000个,RoI Pooling Layer在特征图上摘取每一个RoI对应的特征。
(5)最后经过两个输出(output)都为4096维的全连接层,一个是分类输出,另一个是回归输出。
其次,以待检产品的人工标注数据作为训练样本,训练以上构建的目标检测定位网络模型得到训练后的目标检测网络模型。
具体包括:
使用卷积神经网络作为目标检测网络,而卷积神经网络的一个特点是需要大量的人工标注数据作为训练样本。
目标检测网络的训练数据获取与标注,首先,利用手眼标定机器人拍摄大量缺陷样本照片;之后,再对这些缺陷照片进行人工标注:针对每张不同品类的图像命名为相应品类下的不同ID;然后,将这些标注数据按照5:1:1的比例划分成训练集、测试集和验证集,为目标检测网络训练使用。
在获取训练样本以及得到目标检测网络后,开始输入训练样本训练上述目标检测网络,训练过程中相关操作如下:
首先,使用Resize方法将训练数据重新设置成长600,宽600的大小,然后将图像进行随机水平翻转,再从图像中随机裁剪出448*448大小的图像,并加载训练数据。
训练过程中,选取多种损失函数用于测试待检产品位置的回归输出,多种损失函数包括focal损失、skrinkage损失、lossless Triplet loss损失以及Repulsion loss损失,最后从以上损失函数中选取测试结果最好的focal损失函数作为最终损失函数。
训练过程中,对于任意一个RoI,计算它属于背景区域的softmax损失值和不属于背景的回归值。
训练过程中,训练策略采用4-step alternating training进行训练,直到损失函数收敛。
然后,基于训练好的目标检测网络,使用基于目标检测的网络对待检产品进行定位。输入待检产品的原始图像至训练后的基于目标检测的定位网络模型得到待检产品的中心点坐标以及方向角信息。
最后,根据待检产品的中心点坐标以及方向角信息基于相机标定原理得到待检产品的实际位置坐标。
具体流程如下:
1)将用于目标检测的训练样本输入到训练好的目标检测网络中,输出回归后的待检产品中心点坐标以及生成具有待检产品方向角信息的倾斜角度
2)根据相机标定原理从空间点及其对应的像素点获得待检产品在检测台上的实际位置坐标。
相机标定原理如下:
以一点O为原点建立相机坐标系。其中点Q(X,Y,Z)是相机坐标系空间中的一点,它被光线投影到图像平面上的点为q(x,y,f)。图像平面与光轴z轴垂直,和投影中心点的距离为f(f是相机的焦距)。按照三角比例关系可以得出:x/f=X/Z y/f=Y/Z,即x=fX/Z y=fY/Z,将坐标为(X,Y,Z)的Q点映射到投影平面上坐标为(x,y)的q点的过程叫作投影变换。
上述Q点到q点的变换关系用3*3的矩阵可表示为:q=MQ,其中,
然后,可以计算出透视投影变换矩阵:
上述矩阵M称为相机的内参数矩阵,单位均为物理尺寸。
通过上述方法,可以把相机坐标系转换到像图像坐标系的物理单位[即(X,Y,Z)→(x,y)]。
传统的目标检测方法对现实场景中的待检产品表面缺陷检测来说存在着不足,因为现实场景中待检产品不是水平放置的,并且待检产品表面本身是一种不规则的曲面,这样拍摄出来的待检产品往往存在一些角度偏差或者其他侧面的干扰区域。本申请实施例采用了基于文本检测的旋转目标检测网络RRPN,通过设置不同比例大小的旋转候选框,产生带角度的候选区域,并利用产生的候选区域角度计算待检产品的实际偏转角度,以更好地适应现实中待检产品表面缺陷区域和实现手眼标定机器人的自适应拍摄。
步骤S102中,建立用于多角度拍照的多角度参数库。多角度参数库包括不同种类待检产品的多角度参数,多角度参数包括一一对应的原始图像的初始角度、正面拍摄角度、左面拍摄角度以及右面拍摄角度。
步骤S103中,根据原始图像的品类信息、待检产品的实际位置坐标以及多角度参数库得到待检产品的多角度图像。具体包括以下步骤:
首先,根据待检产品的品类信息调取多角度参数库对应品类下多角度拍照成像所需的多角度坐标。
然后,根据待检产品的实际位置坐标以及多角度拍照成像所需的多角度坐标,计算手眼标定机器人进行拍照成像的多个角度位移。
最后,手眼标定机器人根据拍照成像的多个角度位移进行自适应多角度成像拍摄,得到待检产品的多角度图像。
在实现自适应多角度成像之前,我们通过步骤S102完成了如下三个工作,总结为:
(1)利用分类网络预测出多批次下的不同品类信息,即首先让计算机确定当前手眼标定机器人拍摄的照片属于哪一种待检产品;
(2)在确定当前待检产品的类别之后,利用基于目标检测的定位神经网络回归出当前待检产品在图片上的中心点坐标,然后利用相机标定原理计算出待检产品在检测台上的实际位置。
(3)建立包括多种类别待检产品的多角度参数库。针对不同的待检产品我们以检测台左下角为原点(单位cm)预设了初始的拍摄角度和多角度参数,从而构成了待检产品多角度参数库。
其中,初始的拍摄角度用以拍摄初始的照片给分类网络使用;多角度参数是针对不同的待检产品具有不同的三维结构而预设的一些多角度参数。表1为多角度参数库示例。
待检产品类别 |
初始拍摄角度 |
正面拍摄角度 |
左面拍摄角度 |
右面拍摄角度 |
待检产品1 |
(25,25,45°) |
(25,25,45°) |
(-25,18,-135°) |
(38,24,25°) |
待检产品2 |
(30,20,45°) |
(32,22,45°) |
(-28,23,-140°) |
(35,22,30°) |
… |
… |
… |
… |
… |
待检产品n |
(28,26,45°) |
(30,26,45°) |
(-20,25,-145°) |
(39,20,20°) |
表1多角度参数库示例
S103中,根据原始图像的品类信息、待检产品的实际位置坐标以及多角度参数库得到待检产品的多角度图像,具体实施的计算过程为:
假设待检产品在检测台上预设固定摆放位置坐标为(a,b,θ),待检产品某一面上需要成像的一个角度坐标为,经目标检测网络定位出的实际位置坐标为(x,y,θ');
计算出待检产品当前摆放的位置与预设的位置偏差为(a-x,b-y,θ-θ');
已知同一待检产品按指定面摆放(即待检产品只有一种水平摆放方式,不会立着摆放,只是摆放的时候在水平方向有些偏差),因此手眼标定机器人需要移动m,n的坐标和旋转角度
同理可得,手眼标定机器人需要移动到的坐标偏差值和计算出的待检产品与实际预设摆放位置的偏差值(a-x,b-y,θ-θ')等同;
因目标检测网络返回的待检产品方向角的倾斜角度即/>
最后,得到手眼标定机器人移动的坐标位置为进而可以驱动手眼标定机器人多角度图像。
步骤S104中,根据待检产品的多角度图像得到待检产品的缺陷检测结果。经自适应多角度成像拍摄之后,获得了待检产品的多个角度下的缺陷图像,本实施例采用基于语义分割的缺陷分割网络,基于多个角度下的缺陷图像进行缺陷分割和检测。
根据缺陷分割网络进行缺陷检测过程具体包括以下步骤:
首先,构建缺陷分割网络模型。
本申请实施例采用了多层卷积分割网络PSPNet从照片中分割出目标缺陷。图6中示出了根据本申请实施例的缺陷分割网络的结构示意图。
如图6所示,其结构特点为:
(1)图中6(a)是图像尺寸为448*448像素的3通道RGB的输入图片。
(2)图中6(b)是通过施加膨胀卷积且预训练的残差网络,其中包含一些列的卷积和池化操作,卷积操作可提取图像的特征,池化操作可以压缩图像特征,最后输出特征图为输入原图的1/8大小。
(3)图中6(c)是金字塔池化模块用来聚合上下文信息,金字塔层级为4级,对于四个层级的特征图分别经过卷积层、Batch Normalization批标准化和ReLU激活函数可以防止过拟合,提升网络泛化能力。
(4)对于四个层级的特征图,分别通过上采样(线性插值),将各特征图的空间尺寸还原至金字塔池化模块的输入的空间尺寸。
(5)将四个层级的特征图以及金字塔池化模块的输入相串联,然后将之前的金字塔特征映射与原始特征映射concat起来,最后通过卷积层,得到最终预测的特征图。
其次,以待检产品的人工标注数据作为训练样本,训练以上构建的缺陷分割网络模型,得到训练后的缺陷分割网络模型。
具体包括:
在缺陷分割网络中,我们使用卷积神经网络,而卷积神经网络的一个特点是需要大量的人工标注数据作为训练样本。首先,利用手眼标定机器人拍摄大量缺陷样本照片;之后,再对这些缺陷照片进行人工标注:针对每张不同品类的图像命名为相应品类下的不同ID;然后,将这些标注数据按照5:1:1的比例划分成训练集、测试集和验证集。其中,人工观察照片中的每一处缺陷,并将缺陷区域按像素级别标识出来,标注的最后形式是和原照片同样大小的掩码图像,为缺陷分割网络使用。
在获取训练样本以及构建缺陷分割网络后,开始输入训练样本训练上述缺陷分割网络,训练过程中相关操作如下:
首先,加载并随机打乱训练数据,将训练集照片和标注的缺陷掩码图缩放到长448,宽448的尺寸。
训练过程中,选取focal损失函数用于测试分割损失,并添加辅助损失函数,辅助损失函数的权重为0.4,用以平衡最终损失和辅助损失。
训练过程中,使用Adam优化器,初始学习速率为0.01,在每一个epoch之后使用类交并比对模型进行一次评估,直至模型收敛。
最后,输入待检产品的多角度图像至训练后的缺陷分割网络模型得到待检产品的缺陷分割结果,进而得到待检产品的缺陷检测结果。
具体的,为了完成对待检产品表面缺陷的检测,需要使用如下操作进行:
1)加载训练好的语义分割网络,将手眼标定机器人拍摄的待检产品多个表面角度原始图像缩放到长448、宽448的尺寸。
2)将原始的图像送入基于语义分割的缺陷分割网络中,最后得到预测出的概率分布图。
其它实施例中,缺陷分割网络除了PSPNet语义分割网络,还可以是SegNet语义分割网络、Fully Convolutional DenseNet语义分割网络或者U-Net语义分割网络。
进一步描述的,图7中示出了根据本申请另一实施例的基于多角度成像的缺陷检测方法的流程示意图。
参见图7的质检流程图,首先,将多批次待检产品分别放到待检产品检测台上,并利用手眼标定机器人进行一次初始拍照;其次,利用基于深度学习的分类网络对当前待检产品进行品类判定,利用基于目标检测的定位网络定位出当前待检产品的实际位置坐标;然后,利用自适应多角度成像系统进行多角度成像拍照;最后,利用基于语义分割的缺陷分割网络进行缺陷分割。最终实现对待检产品表面进行多角度自适应缺陷检测。
本申请中的分类网络、目标检测网络和语义分割网络,本申请实施例均采用卷积神经网络,其它实施例中也可以使用胶囊网络(Capsule Network)等。
本申请实施例中的目标检测网络采用的是RRPN网络,其它实施例中也可以使用其他主流的目标检测网络,例如:R3Det网络,Gliding Vertex网络以及RSDet网络等。
本申请实施例中的缺陷分割网络采用PSPNet语义分割网络,其它实施例中也可以采用其他主流的语义分割网络,例如:SegNet、Fully Convolutional DenseNet以及U-Net等网络结构。
本申请的待检产品不局限于某一待检产品,同样也适用于具有三维结构需要进行多角度成像的多种产品,例如:木板、插排以及包装盒等等。
采用本申请实施例的缺陷检测方法:首先,将多批次的待检产品放到检测台上,利用手眼标定机器人进行一次初始拍照,利用基于深度学习的分类网络对多批次待检产品进行品类识别,确定当前产品的品类信息;然后调取不同品类待检产品下的多个成像角度参数,并利用目标检测网络对当前待检产品进行位置坐标估计,确定当前待检产品的实际位置坐标;然后利用相机标定算法,结合已估计出的待检产品实际位置坐标和调取的不同品类待检产品下的多个角度参数计算出手眼标定机器人的位置值。最终,实现待检产品表面缺陷的多角度自适应成像。最后利用基于语义分割的缺陷分割网络对获得的多角度成像图像进行缺陷分割预测。
本申请实施例中的基于多角度成像的缺陷检测方法产生的有益效果可总结如下:
1、使用基于深度学习的分类网络方法,实现多批次待检产品的分类任务。
2、通过目标检测的定位方法,根据待检产品图像确定待检产品在检测台上的位置坐标。
3、基于深度学习的自适应多角度成像系统,根据分类网络得到多批次待检产品的品类信息,然后调取多角度参数中不同品类下的多个自适应拍摄角度;再根据目标检测网络得到待检产品的实际位置坐标,最终可以使手眼标定机器人实现自适应多角度拍摄成像。
4、通过基于语义分割的缺陷分割方法,从拍摄的多角度照片中分割出缺陷区域,使待检产品的质检结果更准确。
实施例2
本实施例提供了一种基于多角度成像的缺陷检测系统,对于本实施例的缺陷检测系统中未披露的细节,请参照其它实施例中的基于多角度成像的缺陷检测方法。
图8示出了根据本申请实施例的一种基于多角度成像的缺陷检测系统的结构示意图。如图8所示,本实施例提供的基于多角度成像的缺陷检测系统包括:原始图像获取模块10、原始图像分析模块20、多角度参数库模块30、多角度图像模块40以及缺陷检测模块50。
如图8所示,基于多角度成像的缺陷检测系统具体结构如下:
原始图像获取模块10:用于获取待检产品的原始图像。
原始图像分析模块20:用于根据原始图像获取待检产品的品类信息;用于根据原始图像获取待检产品的实际位置坐标。
多角度参数库模块30:用于建立用于多角度拍照的多角度参数库。
多角度图像模块40:用于根据品类信息、实际位置坐标以及多角度参数库得到待检产品的多角度图像。
缺陷检测模块50:用于根据待检产品的多角度图像得到待检产品的缺陷检测结果。
采用本申请实施例中的基于多角度成像的缺陷检测系统,首先获取待检产品的原始图像;然后,根据原始图像获取待检产品的品类信息、根据原始图像获取待检产品的实际位置坐标以及建立用于多角度拍照的多角度参数库;然后,根据原始图像的品类信息、待检产品的实际位置坐标以及多角度参数库得到待检产品的多角度图像;最后,根据待检产品的多角度图像得到待检产品的缺陷检测结果。实现了实现产品“小批量、多批次”生产模式下产品的自适应智能质检,实现了产品三维的多面结构的多角度成像并基于此进行更为准确的缺陷检测,解决了现有技术中不能实现多批次产品基于多角度图像进行缺陷检测的问题。
实施例3
图9为本申请实施例提供的缺陷检测终端的结构示意图。如图9所示,本实施例提供的终端包括:存储器301、处理器302、以及计算机程序,其中,该计算机程序存储在存储器301中,并被配置为由处理器302执行以实现任一实施例提供的基于多角度成像的缺陷检测方法。
实施例4
本实施例还提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行以实现任一实施例提供的基于多角度成像的缺陷检测方法。
采用本申请实施例中的基于多角度成像的缺陷检测终端以及计算机介质,首先获取待检产品的原始图像;然后,根据原始图像获取待检产品的品类信息、根据原始图像获取待检产品的实际位置坐标以及建立用于多角度拍照的多角度参数库;然后,根据原始图像的品类信息、待检产品的实际位置坐标以及多角度参数库得到待检产品的多角度图像;最后,根据待检产品的多角度图像得到待检产品的缺陷检测结果。实现了实现产品“小批量、多批次”生产模式下产品的自适应智能质检,实现了产品三维的多面结构的多角度成像并基于此进行更为准确的缺陷检测,解决了现有技术中不能实现多批次产品基于多角度图像进行缺陷检测的问题。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。