CN111986126A - 一种基于改进vgg16网络的多目标检测方法 - Google Patents
一种基于改进vgg16网络的多目标检测方法 Download PDFInfo
- Publication number
- CN111986126A CN111986126A CN202010689421.5A CN202010689421A CN111986126A CN 111986126 A CN111986126 A CN 111986126A CN 202010689421 A CN202010689421 A CN 202010689421A CN 111986126 A CN111986126 A CN 111986126A
- Authority
- CN
- China
- Prior art keywords
- layer
- image
- function
- histogram
- pooling
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 26
- 238000000034 method Methods 0.000 claims abstract description 34
- 238000000605 extraction Methods 0.000 claims abstract description 28
- 230000000694 effects Effects 0.000 claims abstract description 5
- 238000005314 correlation function Methods 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 96
- 238000011176 pooling Methods 0.000 claims description 83
- 230000004913 activation Effects 0.000 claims description 20
- 230000008569 process Effects 0.000 claims description 14
- 238000009826 distribution Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000010586 diagram Methods 0.000 claims description 10
- 238000007476 Maximum Likelihood Methods 0.000 claims description 6
- 238000005315 distribution function Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 230000009467 reduction Effects 0.000 claims description 6
- 230000003014 reinforcing effect Effects 0.000 claims description 6
- 238000005728 strengthening Methods 0.000 claims description 4
- 230000003213 activating effect Effects 0.000 claims description 3
- 125000004432 carbon atom Chemical group C* 0.000 claims description 3
- 238000013145 classification model Methods 0.000 claims description 3
- 230000001186 cumulative effect Effects 0.000 claims description 3
- 230000008034 disappearance Effects 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 230000007547 defect Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 4
- 238000009432 framing Methods 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000036039 immunity Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
一种基于改进VGG16网络的多目标检测方法,包括:步骤一,样本图像增强处理;选择采用直方图均衡化和直方图匹配的方法,通过改变图像的灰度直方图来改变图像的显示效果;步骤二,构建特征提取模型,构建特征提取网络模型,由截断的VGGNet‑16网络和加强网络层组成,在每一层中将产生对应参数的不同尺度的特征图,则目标物体的检测是在这些不同尺度的特征图上同时进行的,不同尺度的特征图用于预测不同尺度大小的目标物体;步骤三,设置特征提取模型相关函数;步骤四,对所提取的特征图上的目标进行定位;步骤五,目标定位和特征分类损失函数的设定。本发明能够在提高识别精度的同时加快识别效率,从而解决检测难、分类难的问题。
Description
技术领域
本发明涉及一种基于改进VGG16网络的多目标检测方法。
技术背景
近几年随着计算机科学技术的飞速发展,基于计算机技术的图像处理、图像目标检测、等也获得了空前的快速发展,其中深度学习通过学习海量的数字图像特征,提取关键目标特征,在目标检测上已超过人类,给工业界带来了一个又一个惊喜。随着神经元网络的再度兴起,基于卷积神经元网络的视频图像法成为图像分割和识别的主流技术,采用模板匹配、边缘特征提取、梯度直方图等手段,实现对图像的精确识别。虽然基于神经网络的图像特征识别能够针对复杂场景的目标进行有效的特征识别,而且其效果远优于传统的方法,但也存在不足之处:(1)对噪声抗干扰性较弱;(2)通过使用Dropout方法解决了过拟合问题,改进了卷积神经网络模型和参数,但是精度却略有下降;(3)引入了可变型卷积与可分离卷积结构,提高了模型的泛化性,增强了网络模型特征提取能力,但对复杂场景的目标识别表现欠佳;(4)虽然目前提出的图像识别方法,能够直接预测图像像素分类信息,做到了目标物体的像素定位,但模型存在参数量大、效率慢、分割粗糙等问题。总之,传统的检测方法存在着操作繁琐、识别精度不高、识别效率慢等问题。
发明内容
为了克服现有技术的上述不足,本发明针对传统检测方法操作繁琐、识别精度不高、识别慢等问题提供了一种基于改进VGG16网络的多目标检测方法。
本发明先对采集到的样本图像进行图像增强处理,使样本图像的前景和背景更加鲜明;然后,使用改进后的VGG16构建特征提取模型,并合理的设计模型参数;随后,对所提取的特征图上的目标进行定位,从而框定候选边界;最后,对候选边界框损失进行计算,从而得到更加精确的边界框和对应的分类概率。
为实现上述目的,本发明采用以下技术方案:
一种基于改进VGG16网络的多目标检测方法,包括如下步骤:
步骤一,样本图像增强处理;
图像灰度直方图描述的是图像中具有该灰度级的像素点的个数。通常以横轴表示灰度级,以纵轴表示每一灰度级的像元数个数或该像元数占总像元数的比例值,以此做出的条形统计图即为灰度直方图。
每幅样本图像都可以做出灰度直方图,并且可以根据图像的直方图分布来确定图像质量,因此,本发明选择采用直方图均衡化和直方图匹配的方法,通过改变图像的灰度直方图来改变图像的显示效果,从而使图像中的缺陷更加明显,减少干扰因素的影响。
1.1)直方图均衡化
图像的直方图表现了图像的灰度分布情况,当直方图的灰度集中分布在低值区域时,图像的亮度较低;当直方图的灰度集中在高值区域时,图像亮度较高。当直方图集中在中值区域时,得到的是低对比度的图像;当直方图分布较为均匀且分布较广时,得到的是高对比度的图像。因此,可以采用使图像灰度级均匀分布的方法,来提高图像的对比度,使图像变得清晰。
直方图均衡化的具体操作步骤如下所示:
(1)统计直方图各灰度级;
首先,设变量r表示图像中像素灰度级,对灰度级进行归一化处理,若图像的灰度级为{0,1,2,...,L-1},则
其中,0≤r≤1,L为灰度级层次数。
(2)计算出对应的概率密度;
因为图像的像素灰度级是在[0,1]之间随机分布的,所以可用概率密度函数来表示图像灰度级的分布。而在离散形式下,用rk代表离散灰度,用Pr(rk)代表灰度rk出现的概率:
其中,nk为图像中出现rk这种灰度的像素数,n是图像中的像素总数,而nk/n表示频数。
(3)求累计分布函数;
图像进行直方图均衡化的函数表达式为:
其中,k为灰度级数。
(4)求出每个灰度级对应的输出灰度级;
经过下式的反变换过程得到输出灰度级:
ri=T-1(Si) (4)
(5)映射到新的图像,得到均衡化处理后的直方图。
1.2)直方图匹配
直方图匹配就是通过指定直方图形状,将一幅图像的直方图变成指定形状直方图的图像增强方法。该方法需要首先选定直方图形状,即选择一张图像的直方图作为匹配参考对象,然后通过映射函数,将目标图像与指定的参考对象匹配在一起,得到与参考对象直方图形状一致的直方图。
直方图匹配的需要对两个图像的直方图都做均衡化处理,使其变成归一化的均匀直方图。以此均匀直方图起到媒介作用,再对参考图像做均衡化的逆运算即可。可以说,直方图均衡化是直方图匹配的桥梁,需要先做直方图均衡化才可以做直方图匹配。
直方图匹配的具体操作步骤如下所示:
(S1)按照步骤1.1)将原始图像进行均衡化处理;
(S2)规定希望的灰度概率密度函数,计算它的累计分布函数G(z);
其中,z分别是匹配处理后的图像灰度级,Pz(z)表示希望得到的处理后图像的概率密度函数。
(S3)目标图像和参考图像具有相同的密度函数,因此,可以计算得到直方图匹配处理后的图像灰度值z。
z=G-1[T(r)]=G-1[s] (6)
其中,r是匹配处理前的图像灰度级,s是输入的图像做均衡化处理的结果。
将原始样本图像经过图像增强处理后,作为图像样本,用作以下步骤的输入。
步骤二,构建特征提取模型;
本发明使用改进后的VGGNet-16网络结构为主干,构建了特征提取网络模型。该网络结构由截断的VGGNet-16网络和加强网络层组成,在每一层中将产生对应参数的不同尺度的特征图,则目标物体的检测是在这些不同尺度的特征图上同时进行的,不同尺度的特征图用于预测不同尺度大小的目标物体。
本发明的特征提取模型网络结构具体参数如下所示:
(T1)输入层:分辨率为1024*1024像素大小的RGB三通道图像;
(T2)截断的VGGNet-16网络:该结构共分为5组13个卷积层,包括第一组:Conv1_1、Conv1_2;第二组:Conv2_1、Conv2_2;第三组:Conv3_1、Conv3_2、Conv3_3;第四组:Conv4_1、Conv4_2、Conv4_3;第5组:Conv5_1、Conv5_2、Conv5_3。其中,Conv5_3是最终的特征提取层。
设置每一层网络的卷积层和池化层的具体的参数。
卷积层的主要参数包括卷积核大小、卷积核个数、滑动步长以及存在的网络层数4个方面。5层卷积层的卷积核大小都是3*3,以1为滑动步长,卷积核的个数逐层增加,分别是64、128、256、512、512。前两组卷积层中分别有2个卷积分层,后三组卷积层则分别有3个卷积分层。
池化层的主要参数包括池化方式、池化核尺寸、滑动步长以及池化类型数4个方面。本发明的池化方式选择最大池化方式。池化核的大小关系到提取的特征图尺寸,本发明将前4个池化层Pool1、Pool2、Pool3、Pool4的池化核尺寸均设为2*2,又因为在经过第5层池化层Pool5池化操作后得到的特征图需要作为附加网络的输入数据,因此,将Pool5的池化核大小设置为3*3。最后,5层池化层的滑动步长均为1,池化类型为valid,valid类型的池化方式不提取特征矩阵的边界信息。
(T3)加强网络层:加强网络层包括6组卷积层、1层平均池化层和1层输出层,共计12层网络。其中,第2层卷积层Conv7、第三组卷积层的Conv8_2、第四组卷积层的Conv9_2、第五组卷积层的Conv10_2、第六组卷积层的Conv11_2作为特征提取层,分别提取不同尺寸大小的特征图。
加强网络层也是从卷积核大小、卷积核个数、滑动步长以及存在的网络层数4个方面来设置卷积层的网络参数。第6、7组卷积层均只有一层,第8、9、10、11组卷积层则均分别包括两个卷积分层。另外,加强网络层只在最后输出结果的时候设置了一层池化层,而且作为最后一层池化层,该层选择采用了最大池化的方式,降低特征图的维度,将结果输送到输出层。加强网络层的卷积核大小不仅限于3*3,在网络层Conv7、Conv8_1、Conv9_1、Conv10_1、Conv11_1这五个卷积层中,采用了1*1大小的卷积核,而且滑动步长也不再为1,将Conv8_1、Conv8_2、Conv9_1、Conv9_2网络层的滑动步长设置为2。
步骤三,设置特征提取模型相关函数;
3.1)中间层的激活函数;
中间层的激活函数即为两个卷积层之间的激活函数。为了有效缓解梯度消失的问题,本发明提供了网络模型的稀疏表达能力分段函数:
ReLU(x)=max(0,x) (7)
上式中,如果x为正,则其导数为1;如果x为负,则其导数为0,这样将使得此函数在整个实数域上有一半空间是不饱和的,那么在本发明构造的较深的网络模型中,其表现出来的泛化能力更好。
3.2)输出层的激活函数;
输出层的激活函数即为卷积层与池化层之间的激活函数。对于多目标检测输出问题,本发明使用了多项式回归函数,即Softmax函数对输出层进行激活。
则对于给定的输入z,可以求得每个分类的概率t=c,forc=1...C,其总的概率方程表示为:
其中,P(t=C|z)表示给定输入z时,该输入数据为C分类的概率。
3.3)池化降维函数;
在截断的VGGNet-16网络和加强网络层中,本发明均使用了最大池化的方式,对激活后的active数据矩阵进行降维,其计算公式如下所示:
经过池化降维后,其数据维度大小的计算公式为:
W'=W/Stride,H'=H/Stride (11)
其中,Stride为滑动距离;W'和H'分别为输出后的新宽度和新高度。
步骤四,对所提取的特征图上的目标进行定位;
通过上述特征提取网络模型,虽然能够对任意的目标进行判断,但在图像中目标往往融合在复杂的背景当中,盲目的识别会造成错误判断。为此,需要对目标位置进行更加精准定位用以解决错误判断的问题,则本发明设计了详细的定位方法:
先将k*k大小的特征图划分为s*s大小的网格,对于每个网格均预测B个边框信息,每个边框信息记为(x,y,w,h,score),其中,(x,y)为边框中心位置相对于其对应网格的偏移量,(w,h)为边框的宽和高,score表示置信度值。score用于反映该边框是否有目标物体以及其与真实目标的交并比的IoU值,其被定义为P(Object)*IoU,若没有真实目标,即边框对应原图上的位置为背景时,则置信度值定为0。最后每张特征图上预测出的结果维度为s*s*(B*5+C),其中C表示分类所得物体个数。与此同时,对于每个网格所预测的物体类别数满足条件概率P(Classi|Object),则总的预测概率公式表示为:
P(Classi|Object)*P(Object)*IoU=Pr(Classi)*IoU (12)
对于目标物体的定位流程具体表述为:
1.将特征图划分为s*s大小的网格,每个网格均预测B个边框信息,包括位置信息和置信度值;
2.每个边框对应的置信度分值为score,代表该边框所预测目标为前景或者背景的概率及定位结果与预设标签IoU的准确性;
3.每个网格对应C个类别的目标物体概率值,筛选出最大的类别概率,并判定目标物体的边框回归。
步骤五,目标定位和特征分类损失函数的设定;
5.1)边框回归损失函数的设定;
在步骤四中已经求得每个边框的信息,即(x,y,w,h,score),则根据预先标定,已知其边框内对应的真实目标的位置信息表示为(x*,y*,w*,h*),那么边框损失回归函数可以表示为如下公式:
5.2)多特征分类损失函数的设定;
为了将输出的多种目标特征进行分类,同时解决非线性划分的问题,本发明采用了多分类Softmax损失函数。
对于给定模型的参数组θ,可以得求得输入样本的正确预测,然后推导出参数组θ的最大似然估计:
利用联合概率对似然函数进行改写:P(t,z|θ),然后根据条件分布,求得如下条件分布公式:
P(t,z|θ)=P(t|z,θ)P(z|θ) (16)
然后将P(t,z|θ)转为l(θ|t,z)=P(t|z,θ),对于确定的θ,P(t|z,θ)则等价于P(t|z)。由于每一个ti都取决于z,而且仅激活一个ti,则得到如下式子:
最大化似然函数则表示为最小化它的负对数似然函数:
其中,ξ(t,z)代表交叉熵误差函数,其在Softmax函数中被定义为下式:
ξ(t,z)=-tc log(yc)-(1-tc)log(1-yc) (19)
在n个样本的处理过程中,交叉熵函数表示为:
上式中,当tic=1时,样本i是属于类别c,yic是样本i属于类别c的概率。
最后,由多分类模型回归输出得到目标边框,并显示其为某类别的概率。
本发明的优点是:
本发明针对传统检测方法操作繁琐、识别精度不高、识别慢等问题提供了一种基于改进VGG16网络的多目标检测方法。先对采集到的样本图像进行图像增强处理,使样本图像的前景和背景更加鲜明;然后,使用改进后的VGG16构建特征提取模型,并合理的设计模型参数;随后,对所提取的特征图上的目标进行定位,从而框定候选边界;最后,对候选边界框损失进行计算,从而得到更加精确的边界框和对应的分类概率。因此,本发明能够在提高识别精度的同时加快识别效率,从而解决检测难、分类难的问题。该发明方法可以应用于制造业车间质检过程中缺陷检测,也可以应用于物流行业快递分拣技术邻域,具有一定的应用前景。
附图说明
图1a~图1b是用于图像增强处理的灰度直方图,其中,图1a是图像的灰度值,图1b是根据图1a做出的灰度直方图;
图2是直方图均衡化变换函数;
图3是本发明的所用的截断的VGGNet-16网络结构图;
图4是本发明的加强网络层结构图;
图5是本发明网络模型的稀疏表达能力分段函数;
图6是本发明设计的具体定位流程图。
具体实施方式
下面结合附图,进一步说明本发明的技术方案。
为了克服现有技术的上述不足,本发明针对传统检测方法操作繁琐、识别精度不高、识别慢等问题提供了一种基于改进VGG16网络的多目标检测方法。先对采集到的样本图像进行图像增强处理,使样本图像的前景和背景更加鲜明;然后,使用改进后的VGG16构建特征提取模型,并合理的设计模型参数;随后,对所提取的特征图上的目标进行定位,从而框定候选边界;最后,对候选边界框损失进行计算,从而得到更加精确的边界框和对应的分类概率。
为实现上述目的,本发明采用以下技术方案:
一种基于改进VGG16网络的多目标检测方法,包括如下步骤:
步骤一,样本图像增强处理;
图像灰度直方图描述的是图像中具有该灰度级的像素点的个数。通常以横轴表示灰度级,以纵轴表示每一灰度级的像元数个数或该像元数占总像元数的比例值,以此做出的条形统计图即为灰度直方图。
每幅样本图像都可以做出灰度直方图,并且可以根据图像的直方图分布来确定图像质量,因此,本发明选择采用直方图均衡化和直方图匹配的方法,通过改变图像的灰度直方图来改变图像的显示效果,从而使图像中的缺陷更加明显,减少干扰因素的影响。
1.1)直方图均衡化
图像的直方图表现了图像的灰度分布情况,当直方图的灰度集中分布在低值区域时,图像的亮度较低;当直方图的灰度集中在高值区域时,图像亮度较高。当直方图集中在中值区域时,得到的是低对比度的图像;当直方图分布较为均匀且分布较广时,得到的是高对比度的图像。因此,可以采用使图像灰度级均匀分布的方法,来提高图像的对比度,使图像变得清晰。
直方图均衡化的具体操作步骤如下所示:
(1)统计直方图各灰度级;
首先,设变量r表示图像中像素灰度级,对灰度级进行归一化处理,若图像的灰度级为{0,1,2,...,L-1},则
其中,0≤r≤1,L为灰度级层次数。
(2)计算出对应的概率密度;
因为图像的像素灰度级是在[0,1]之间随机分布的,所以可用概率密度函数来表示图像灰度级的分布。而在离散形式下,用rk代表离散灰度,用Pr(rk)代表灰度rk出现的概率:
其中,nk为图像中出现rk这种灰度的像素数,n是图像中的像素总数,而nk/n表示频数。
(3)求累计分布函数;
图像进行直方图均衡化的函数表达式为:
其中,k为灰度级数。
(4)求出每个灰度级对应的输出灰度级;
经过下式的反变换过程得到输出灰度级:
ri=T-1(Si) (4)
(5)映射到新的图像,得到均衡化处理后的直方图。
1.2)直方图匹配
直方图匹配就是通过指定直方图形状,将一幅图像的直方图变成指定形状直方图的图像增强方法。该方法需要首先选定直方图形状,即选择一张图像的直方图作为匹配参考对象,然后通过映射函数,将目标图像与指定的参考对象匹配在一起,得到与参考对象直方图形状一致的直方图。
直方图匹配的需要对两个图像的直方图都做均衡化处理,使其变成归一化的均匀直方图。以此均匀直方图起到媒介作用,再对参考图像做均衡化的逆运算即可。可以说,直方图均衡化是直方图匹配的桥梁,需要先做直方图均衡化才可以做直方图匹配。
直方图匹配的具体操作步骤如下所示:
(S1)按照步骤1.1)将原始图像进行均衡化处理;
(S2)规定希望的灰度概率密度函数,计算它的累计分布函数G(z);
其中,z分别是匹配处理后的图像灰度级,Pz(z)表示希望得到的处理后图像的概率密度函数。
(S3)目标图像和参考图像具有相同的密度函数,因此,可以计算得到直方图匹配处理后的图像灰度值z。
z=G-1[T(r)]=G-1[s] (6)
其中,r是匹配处理前的图像灰度级,s是输入的图像做均衡化处理的结果。
将原始样本图像经过图像增强处理后,作为图像样本,用作以下步骤的输入。
步骤二,构建特征提取模型;
本发明使用改进后的VGGNet-16网络结构为主干,构建了特征提取网络模型。该网络结构由截断的VGGNet-16网络和加强网络层组成,在每一层中将产生对应参数的不同尺度的特征图,则目标物体的检测是在这些不同尺度的特征图上同时进行的,不同尺度的特征图用于预测不同尺度大小的目标物体。
本发明的特征提取模型网络结构具体参数如下所示:
(T1)输入层:分辨率为1024*1024像素大小的RGB三通道图像;
(T2)截断的VGGNet-16网络:该结构共分为5组13个卷积层,包括第一组:Conv1_1、Conv1_2;第二组:Conv2_1、Conv2_2;第三组:Conv3_1、Conv3_2、Conv3_3;第四组:Conv4_1、Conv4_2、Conv4_3;第5组:Conv5_1、Conv5_2、Conv5_3。其中,Conv5_3是最终的特征提取层。
设置每一层网络的卷积层和池化层的具体的参数。
卷积层的主要参数包括卷积核大小、卷积核个数、滑动步长以及存在的网络层数4个方面。5层卷积层的卷积核大小都是3*3,以1为滑动步长,卷积核的个数逐层增加,分别是64、128、256、512、512。前两组卷积层中分别有2个卷积分层,后三组卷积层则分别有3个卷积分层。
池化层的主要参数包括池化方式、池化核尺寸、滑动步长以及池化类型数4个方面。本发明的池化方式选择最大池化方式。池化核的大小关系到提取的特征图尺寸,本发明将前4个池化层Pool1、Pool2、Pool3、Pool4的池化核尺寸均设为2*2,又因为在经过第5层池化层Pool5池化操作后得到的特征图需要作为附加网络的输入数据,因此,将Pool5的池化核大小设置为3*3。最后,5层池化层的滑动步长均为1,池化类型为valid,valid类型的池化方式不提取特征矩阵的边界信息。
(T3)加强网络层:加强网络层包括6组卷积层、1层平均池化层和1层输出层,共计12层网络。其中,第2层卷积层Conv7、第三组卷积层的Conv8_2、第四组卷积层的Conv9_2、第五组卷积层的Conv10_2、第六组卷积层的Conv11_2作为特征提取层,分别提取不同尺寸大小的特征图。
加强网络层也是从卷积核大小、卷积核个数、滑动步长以及存在的网络层数4个方面来设置卷积层的网络参数。第6、7组卷积层均只有一层,第8、9、10、11组卷积层则均分别包括两个卷积分层。另外,加强网络层只在最后输出结果的时候设置了一层池化层,而且作为最后一层池化层,该层选择采用了最大池化的方式,降低特征图的维度,将结果输送到输出层。加强网络层的卷积核大小不仅限于3*3,在网络层Conv7、Conv8_1、Conv9_1、Conv10_1、Conv11_1这五个卷积层中,采用了1*1大小的卷积核,而且滑动步长也不再为1,将Conv8_1、Conv8_2、Conv9_1、Conv9_2网络层的滑动步长设置为2。
步骤三,设置特征提取模型相关函数;
3.1)中间层的激活函数;
中间层的激活函数即为两个卷积层之间的激活函数。为了有效缓解梯度消失的问题,本发明提供了网络模型的稀疏表达能力分段函数:
ReLU(x)=max(0,x) (7)
上式中,如果x为正,则其导数为1;如果x为负,则其导数为0,这样将使得此函数在整个实数域上有一半空间是不饱和的,那么在本发明构造的较深的网络模型中,其表现出来的泛化能力更好。
3.2)输出层的激活函数;
输出层的激活函数即为卷积层与池化层之间的激活函数。对于多目标检测输出问题,本发明使用了多项式回归函数,即Softmax函数对输出层进行激活。
则对于给定的输入z,可以求得每个分类的概率t=c,forc=1...C,其总的概率方程表示为:
其中,P(t=C|z)表示给定输入z时,该输入数据为C分类的概率。
3.3)池化降维函数;
在截断的VGGNet-16网络和加强网络层中,本发明均使用了最大池化的方式,对激活后的active数据矩阵进行降维,其计算公式如下所示:
经过池化降维后,其数据维度大小的计算公式为:
W'=W/Stride,H'=H/Stride (11)
其中,Stride为滑动距离;W'和H'分别为输出后的新宽度和新高度。
步骤四,对所提取的特征图上的目标进行定位;
通过上述特征提取网络模型,虽然能够对任意的目标进行判断,但在图像中目标往往融合在复杂的背景当中,盲目的识别会造成错误判断。为此,需要对目标位置进行更加精准定位用以解决错误判断的问题,则本发明设计了详细的定位方法:
先将k*k大小的特征图划分为s*s大小的网格,对于每个网格均预测B个边框信息,每个边框信息记为(x,y,w,h,score),其中,(x,y)为边框中心位置相对于其对应网格的偏移量,(w,h)为边框的宽和高,score表示置信度值。score用于反映该边框是否有目标物体以及其与真实目标的交并比的IoU值,其被定义为P(Object)*IoU,若没有真实目标,即边框对应原图上的位置为背景时,则置信度值定为0。最后每张特征图上预测出的结果维度为s*s*(B*5+C),其中C表示分类所得物体个数。与此同时,对于每个网格所预测的物体类别数满足条件概率P(Classi|Object),则总的预测概率公式表示为:
P(Classi|Object)*P(Object)*IoU=Pr(Classi)*IoU (12)
对于目标物体的定位流程具体表述为:
1.将特征图划分为s*s大小的网格,每个网格均预测B个边框信息,包括位置信息和置信度值;
2.每个边框对应的置信度分值为score,代表该边框所预测目标为前景或者背景的概率及定位结果与预设标签IoU的准确性;
3.每个网格对应C个类别的目标物体概率值,筛选出最大的类别概率,并判定目标物体的边框回归。
步骤五,目标定位和特征分类损失函数的设定;
5.1)边框回归损失函数的设定;
在步骤四中已经求得每个边框的信息,即(x,y,w,h,score),则根据预先标定,已知其边框内对应的真实目标的位置信息表示为(x*,y*,w*,h*),那么边框损失回归函数可以表示为如下公式:
5.2)多特征分类损失函数的设定;
为了将输出的多种目标特征进行分类,同时解决非线性划分的问题,本发明采用了多分类Softmax损失函数。
对于给定模型的参数组θ,可以得求得输入样本的正确预测,然后推导出参数组θ的最大似然估计:
利用联合概率对似然函数进行改写:P(t,z|θ),然后根据条件分布,求得如下条件分布公式:
P(t,z|θ)=P(t|z,θ)P(z|θ) (16)
然后将P(t,z|θ)转为l(θ|t,z)=P(t|z,θ),对于确定的θ,P(t|z,θ)则等价于P(t|z)。由于每一个ti都取决于z,而且仅激活一个ti,则得到如下式子:
最大化似然函数则表示为最小化它的负对数似然函数:
其中,ξ(t,z)代表交叉熵误差函数,其在Softmax函数中被定义为下式:
ξ(t,z)=-tc log(yc)-(1-tc)log(1-yc) (19)
在n个样本的处理过程中,交叉熵函数表示为:
上式中,当tic=1时,样本i是属于类别c,yic是样本i属于类别c的概率。
最后,由多分类模型回归输出得到目标边框,并显示其为某类别的概率。
本说明书实施例所述的内容仅仅是对发明构思的实现形式的列举,本发明的保护范围不应当被视为仅限于实施例所陈述的具体形式,本发明的保护范围也及于本领域技术人员根据本发明构思所能够想到的等同技术手段。
Claims (1)
1.一种基于改进VGG16网络的多目标检测方法,包括如下步骤:
步骤一,样本图像增强处理;
选择采用直方图均衡化和直方图匹配的方法,通过改变图像的灰度直方图来改变图像的显示效果;
1.1)直方图均衡化,具体包括:
(1)统计直方图各灰度级;
首先,设变量r表示图像中像素灰度级,对灰度级进行归一化处理,若图像的灰度级为{0,1,2,...,L-1},则
其中,0≤r≤1,L为灰度级层次数;
(2)计算出对应的概率密度;
因为图像的像素灰度级是在[0,1]之间随机分布的,所以用概率密度函数来表示图像灰度级的分布;而在离散形式下,用rk代表离散灰度,用Pr(rk)代表灰度rk出现的概率:
其中,nk为图像中出现rk这种灰度的像素数,n是图像中的像素总数,而nk/n表示频数;
(3)求累计分布函数;
图像进行直方图均衡化的函数表达式为:
其中,k为灰度级数;
(4)求出每个灰度级对应的输出灰度级;
经过下式的反变换过程得到输出灰度级:
ri=T-1(Si) (4)
(5)映射到新的图像,得到均衡化处理后的直方图;
1.2)直方图匹配;
直方图匹配是通过指定直方图形状,将一幅图像的直方图变成指定形状直方图的图像增强方法;首先选定直方图形状,即选择一张图像的直方图作为匹配参考对象,然后通过映射函数,将目标图像与指定的参考对象匹配在一起,得到与参考对象直方图形状一致的直方图;
直方图匹配的需要对两个图像的直方图都做均衡化处理,使其变成归一化的均匀直方图;以此均匀直方图起到媒介作用,再对参考图像做均衡化的逆运算即可;可以说,直方图均衡化是直方图匹配的桥梁,需要先做直方图均衡化才可以做直方图匹配;
直方图匹配的具体操作步骤如下:
(S1)按照步骤1.1)将原始图像进行均衡化处理;
(S2)规定希望的灰度概率密度函数,计算它的累计分布函数G(z);
其中,z分别是匹配处理后的图像灰度级,Pz(z)表示希望得到的处理后图像的概率密度函数;
(S3)目标图像和参考图像具有相同的密度函数,因此,可以计算得到直方图匹配处理后的图像灰度值z;
z=G-1[T(r)]=G-1[s] (6)
其中,r是匹配处理前的图像灰度级,s是输入的图像做均衡化处理的结果;
将原始样本图像经过图像增强处理后,作为图像样本,用作以下步骤的输入;
步骤二,构建特征提取模型;
使用改进后的VGGNet-16网络结构为主干,构建了特征提取网络模型;该网络结构由截断的VGGNet-16网络和加强网络层组成,在每一层中将产生对应参数的不同尺度的特征图,则目标物体的检测是在这些不同尺度的特征图上同时进行的,不同尺度的特征图用于预测不同尺度大小的目标物体;
特征提取模型网络结构具体参数如下所示:
(T1)输入层:分辨率为1024*1024像素大小的RGB三通道图像;
(T2)截断的VGGNet-16网络:该结构共分为5组13个卷积层,包括第一组:Conv1_1、Conv1_2;第二组:Conv2_1、Conv2_2;第三组:Conv3_1、Conv3_2、Conv3_3;第四组:Conv4_1、Conv4_2、Conv4_3;第5组:Conv5_1、Conv5_2、Conv5_3;其中,Conv5_3是最终的特征提取层;
设置每一层网络的卷积层和池化层的具体的参数;
卷积层的参数包括卷积核大小、卷积核个数、滑动步长以及存在的网络层数4个方面;5层卷积层的卷积核大小都是3*3,以1为滑动步长,卷积核的个数逐层增加,分别是64、128、256、512、512;前两组卷积层中分别有2个卷积分层,后三组卷积层则分别有3个卷积分层;
池化层的参数包括池化方式、池化核尺寸、滑动步长以及池化类型数4个方面;池化方式选择最大池化方式;池化核的大小关系到提取的特征图尺寸,将前4个池化层Pool1、Pool2、Pool3、Pool4的池化核尺寸均设为2*2,又因为在经过第5层池化层Pool5池化操作后得到的特征图需要作为附加网络的输入数据,因此,将Pool5的池化核大小设置为3*3;最后,5层池化层的滑动步长均为1,池化类型为valid,valid类型的池化方式不提取特征矩阵的边界信息;
(T3)加强网络层:加强网络层包括6组卷积层、1层平均池化层和1层输出层,共计12层网络;其中,第2层卷积层Conv7、第三组卷积层的Conv8_2、第四组卷积层的Conv9_2、第五组卷积层的Conv10_2、第六组卷积层的Conv11_2作为特征提取层,分别提取不同尺寸大小的特征图;
加强网络层也是从卷积核大小、卷积核个数、滑动步长以及存在的网络层数4个方面来设置卷积层的网络参数;第6、7组卷积层均只有一层,第8、9、10、11组卷积层则均分别包括两个卷积分层;另外,加强网络层只在最后输出结果的时候设置了一层池化层,而且作为最后一层池化层,该层选择采用了最大池化的方式,降低特征图的维度,将结果输送到输出层;加强网络层的卷积核大小不仅限于3*3,在网络层Conv7、Conv8_1、Conv9_1、Conv10_1、Conv11_1这五个卷积层中,采用了1*1大小的卷积核,而且滑动步长也不再为1,将Conv8_1、Conv8_2、Conv9_1、Conv9_2网络层的滑动步长设置为2;
步骤三,设置特征提取模型相关函数;
3.1)中间层的激活函数;
中间层的激活函数即为两个卷积层之间的激活函数;为了有效缓解梯度消失的问题,提供了网络模型的稀疏表达能力分段函数:
ReLU(x)=max(0,x) (7)
上式中,如果x为正,则其导数为1;如果x为负,则其导数为0,这样将使得此函数在整个实数域上有一半空间是不饱和的,在构造的较深的网络模型中,其表现出来的泛化能力更好;
3.2)输出层的激活函数;
输出层的激活函数即为卷积层与池化层之间的激活函数;对于多目标检测输出问题,使用了多项式回归函数,即Softmax函数对输出层进行激活;
则对于给定的输入z,可以求得每个分类的概率t=c,forc=1...C,其总的概率方程表示为:
其中,P(t=C|z)表示给定输入z时,该输入数据为C分类的概率;
3.3)池化降维函数;
在截断的VGGNet-16网络和加强网络层中,均使用了最大池化的方式,对激活后的active数据矩阵进行降维,其计算公式如下所示:
经过池化降维后,其数据维度大小的计算公式为:
W'=W/Stride,H'=H/Stride (11)
其中,Stride为滑动距离;W'和H'分别为输出后的新宽度和新高度;
步骤四,对所提取的特征图上的目标进行定位;
先将k*k大小的特征图划分为s*s大小的网格,对于每个网格均预测B个边框信息,每个边框信息记为(x,y,w,h,score),其中,(x,y)为边框中心位置相对于其对应网格的偏移量,(w,h)为边框的宽和高,score表示置信度值;score用于反映该边框是否有目标物体以及其与真实目标的交并比的IoU值,其被定义为P(Object)*IoU,若没有真实目标,即边框对应原图上的位置为背景时,则置信度值定为0;最后每张特征图上预测出的结果维度为s*s*(B*5+C),其中C表示分类所得物体个数;与此同时,对于每个网格所预测的物体类别数满足条件概率P(Classi|Object),则总的预测概率公式表示为:
P(Classi|Object)*P(Object)*IoU=Pr(Classi)*IoU (12)
对于目标物体的定位流程具体表述为:
1.将特征图划分为s*s大小的网格,每个网格均预测B个边框信息,包括位置信息和置信度值;
2.每个边框对应的置信度分值为score,代表该边框所预测目标为前景或者背景的概率及定位结果与预设标签IoU的准确性;
3.每个网格对应C个类别的目标物体概率值,筛选出最大的类别概率,并判定目标物体的边框回归;
步骤五,目标定位和特征分类损失函数的设定;
5.1)边框回归损失函数的设定;
在步骤四中已经求得每个边框的信息,即(x,y,w,h,score),则根据预先标定,已知其边框内对应的真实目标的位置信息表示为(x*,y*,w*,h*),那么边框损失回归函数可以表示为如下公式:
5.2)多特征分类损失函数的设定;
为了将输出的多种目标特征进行分类,同时解决非线性划分的问题,采用了多分类Softmax损失函数;
对于给定模型的参数组θ,可以得求得输入样本的正确预测,然后推导出参数组θ的最大似然估计:
利用联合概率对似然函数进行改写:P(t,z|θ),然后根据条件分布,求得如下条件分布公式:
P(t,z|θ)=P(t|z,θ)P(z|θ) (16)
然后将P(t,z|θ)转为l(θ|t,z)=P(t|z,θ),对于确定的θ,P(t|z,θ)则等价于P(t|z);由于每一个ti都取决于z,而且仅激活一个ti,则得到如下式子:
最大化似然函数则表示为最小化它的负对数似然函数:
其中,ξ(t,z)代表交叉熵误差函数,其在Softmax函数中被定义为下式:
ξ(t,z)=-tc log(yc)-(1-tc)log(1-yc) (19)
在n个样本的处理过程中,交叉熵函数表示为:
上式中,当tic=1时,样本i是属于类别c,yic是样本i属于类别c的概率;
最后,由多分类模型回归输出得到目标边框,并显示其为某类别的概率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010689421.5A CN111986126B (zh) | 2020-07-17 | 2020-07-17 | 一种基于改进vgg16网络的多目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010689421.5A CN111986126B (zh) | 2020-07-17 | 2020-07-17 | 一种基于改进vgg16网络的多目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111986126A true CN111986126A (zh) | 2020-11-24 |
CN111986126B CN111986126B (zh) | 2022-05-24 |
Family
ID=73439206
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010689421.5A Active CN111986126B (zh) | 2020-07-17 | 2020-07-17 | 一种基于改进vgg16网络的多目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111986126B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112818797A (zh) * | 2021-01-26 | 2021-05-18 | 厦门大学 | 一种面向在线考试答卷文档图像的一致性检测方法和存储设备 |
CN113609995A (zh) * | 2021-08-06 | 2021-11-05 | 中国工商银行股份有限公司 | 遥感图像的处理方法、装置和服务器 |
CN113807231A (zh) * | 2021-09-14 | 2021-12-17 | 西安电子科技大学 | 基于unet下采样卷积神经网络的x光违禁物检测方法 |
CN114758058A (zh) * | 2022-03-01 | 2022-07-15 | 深圳市小秤砣科技有限公司 | 3d模型评分方法、装置、设备及存储介质 |
CN115082446A (zh) * | 2022-07-25 | 2022-09-20 | 南京航空航天大学 | 一种基于图像边界提取的飞机蒙皮铆钉的测量方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018090912A1 (zh) * | 2016-11-15 | 2018-05-24 | 北京市商汤科技开发有限公司 | 目标对象检测方法、装置及系统和神经网络结构 |
CN108564097A (zh) * | 2017-12-05 | 2018-09-21 | 华南理工大学 | 一种基于深度卷积神经网络的多尺度目标检测方法 |
WO2019144575A1 (zh) * | 2018-01-24 | 2019-08-01 | 中山大学 | 一种快速行人检测方法及装置 |
CN110443778A (zh) * | 2019-06-25 | 2019-11-12 | 浙江工业大学 | 一种检测工业品不规则缺陷的方法 |
CN110503112A (zh) * | 2019-08-27 | 2019-11-26 | 电子科技大学 | 一种增强特征学习的小目标检测及识别方法 |
CN110610210A (zh) * | 2019-09-18 | 2019-12-24 | 电子科技大学 | 一种多目标检测方法 |
CN110660040A (zh) * | 2019-07-24 | 2020-01-07 | 浙江工业大学 | 一种基于深度学习的工业品不规则缺陷检测方法 |
CN111126472A (zh) * | 2019-12-18 | 2020-05-08 | 南京信息工程大学 | 一种基于ssd改进的目标检测方法 |
-
2020
- 2020-07-17 CN CN202010689421.5A patent/CN111986126B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018090912A1 (zh) * | 2016-11-15 | 2018-05-24 | 北京市商汤科技开发有限公司 | 目标对象检测方法、装置及系统和神经网络结构 |
CN108564097A (zh) * | 2017-12-05 | 2018-09-21 | 华南理工大学 | 一种基于深度卷积神经网络的多尺度目标检测方法 |
WO2019144575A1 (zh) * | 2018-01-24 | 2019-08-01 | 中山大学 | 一种快速行人检测方法及装置 |
CN110443778A (zh) * | 2019-06-25 | 2019-11-12 | 浙江工业大学 | 一种检测工业品不规则缺陷的方法 |
CN110660040A (zh) * | 2019-07-24 | 2020-01-07 | 浙江工业大学 | 一种基于深度学习的工业品不规则缺陷检测方法 |
CN110503112A (zh) * | 2019-08-27 | 2019-11-26 | 电子科技大学 | 一种增强特征学习的小目标检测及识别方法 |
CN110610210A (zh) * | 2019-09-18 | 2019-12-24 | 电子科技大学 | 一种多目标检测方法 |
CN111126472A (zh) * | 2019-12-18 | 2020-05-08 | 南京信息工程大学 | 一种基于ssd改进的目标检测方法 |
Non-Patent Citations (3)
Title |
---|
WEI LIU 等: "SSD: Single Shot MultiBox Detector", 《COMPUTER VISION – ECCV 2016 》 * |
程康: "基于深度学习的工业品不规则缺陷检测研究", 《中国硕士学位论文全文数据库》 * |
陈英义等: "基于FTVGG16卷积神经网络的鱼类识别方法", 《农业机械学报》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112818797A (zh) * | 2021-01-26 | 2021-05-18 | 厦门大学 | 一种面向在线考试答卷文档图像的一致性检测方法和存储设备 |
CN112818797B (zh) * | 2021-01-26 | 2024-03-01 | 厦门大学 | 一种面向在线考试答卷文档图像的一致性检测方法和存储设备 |
CN113609995A (zh) * | 2021-08-06 | 2021-11-05 | 中国工商银行股份有限公司 | 遥感图像的处理方法、装置和服务器 |
CN113807231A (zh) * | 2021-09-14 | 2021-12-17 | 西安电子科技大学 | 基于unet下采样卷积神经网络的x光违禁物检测方法 |
CN113807231B (zh) * | 2021-09-14 | 2024-02-13 | 西安电子科技大学 | 基于unet下采样卷积神经网络的x光违禁物检测方法 |
CN114758058A (zh) * | 2022-03-01 | 2022-07-15 | 深圳市小秤砣科技有限公司 | 3d模型评分方法、装置、设备及存储介质 |
CN115082446A (zh) * | 2022-07-25 | 2022-09-20 | 南京航空航天大学 | 一种基于图像边界提取的飞机蒙皮铆钉的测量方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111986126B (zh) | 2022-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111986126B (zh) | 一种基于改进vgg16网络的多目标检测方法 | |
CN111986125B (zh) | 一种用于多目标任务实例分割的方法 | |
CN110136154B (zh) | 基于全卷积网络与形态学处理的遥感图像语义分割方法 | |
CN111325152B (zh) | 一种基于深度学习的交通标志识别方法 | |
CN108416266B (zh) | 一种利用光流提取运动目标的视频行为快速识别方法 | |
CN111191583B (zh) | 基于卷积神经网络的空间目标识别系统及方法 | |
CN110322445B (zh) | 基于最大化预测和标签间相关性损失函数的语义分割方法 | |
CN107808138B (zh) | 一种基于FasterR-CNN的通信信号识别方法 | |
CN110610143B (zh) | 多任务联合训练的人群计数网络方法、系统、介质及终端 | |
CN112287941B (zh) | 一种基于自动字符区域感知的车牌识别方法 | |
CN111553837A (zh) | 一种基于神经风格迁移的艺术文本图像生成方法 | |
CN109993221B (zh) | 一种图像分类方法及装置 | |
CN109255326B (zh) | 一种基于多维信息特征融合的交通场景烟雾智能检测方法 | |
CN111242026B (zh) | 一种基于空间层次感知模块和度量学习的遥感图像目标检测方法 | |
CN113449784B (zh) | 基于先验属性图谱的图像多分类方法、装置、设备及介质 | |
CN112101364B (zh) | 基于参数重要性增量学习的语义分割方法 | |
CN113159045A (zh) | 一种结合图像预处理与卷积神经网络的验证码识别方法 | |
CN113221956B (zh) | 基于改进的多尺度深度模型的目标识别方法及装置 | |
CN116863194A (zh) | 一种足溃疡图像分类方法、系统、设备及介质 | |
CN114897782B (zh) | 基于生成式对抗网络的胃癌病理切片图像分割预测方法 | |
CN111860679A (zh) | 一种基于YOLO v3改进算法的车辆检测方法 | |
CN113838066A (zh) | 一种基于改进模糊c均值聚类算法的彩色图像分割方法 | |
CN113902966A (zh) | 一种针对电子元器件的无锚框目标检测网络及应用该网络的检测方法 | |
CN112819832A (zh) | 基于激光点云的城市场景语义分割细粒度边界提取方法 | |
CN114898417B (zh) | 一种基于协调注意力深度神经网络的菊头蝠识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |