CN112070181A - 一种基于图像流的协同检测方法及装置、存储介质 - Google Patents
一种基于图像流的协同检测方法及装置、存储介质 Download PDFInfo
- Publication number
- CN112070181A CN112070181A CN202011274877.1A CN202011274877A CN112070181A CN 112070181 A CN112070181 A CN 112070181A CN 202011274877 A CN202011274877 A CN 202011274877A CN 112070181 A CN112070181 A CN 112070181A
- Authority
- CN
- China
- Prior art keywords
- image
- sample
- sample image
- sample images
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 103
- 238000003860 storage Methods 0.000 title claims abstract description 12
- 230000007246 mechanism Effects 0.000 claims abstract description 17
- 230000006870 function Effects 0.000 claims description 54
- 238000000034 method Methods 0.000 claims description 40
- 230000009466 transformation Effects 0.000 claims description 33
- 238000012545 processing Methods 0.000 claims description 30
- 238000011176 pooling Methods 0.000 claims description 28
- 230000004927 fusion Effects 0.000 claims description 25
- 239000013598 vector Substances 0.000 claims description 15
- 238000005070 sampling Methods 0.000 claims description 7
- 238000002372 labelling Methods 0.000 claims description 6
- 230000001629 suppression Effects 0.000 claims description 4
- 230000015572 biosynthetic process Effects 0.000 claims description 3
- 238000012804 iterative process Methods 0.000 claims description 3
- 238000003786 synthesis reaction Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 abstract description 19
- 238000013527 convolutional neural network Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 12
- 241000283690 Bos taurus Species 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 8
- 230000011218 segmentation Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000005286 illumination Methods 0.000 description 5
- 238000007499 fusion processing Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 241000196324 Embryophyta Species 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 101100041593 Arabidopsis thaliana IREG2 gene Proteins 0.000 description 1
- 101100272279 Beauveria bassiana Beas gene Proteins 0.000 description 1
- 244000025254 Cannabis sativa Species 0.000 description 1
- 101000637813 Homo sapiens Solute carrier family 40 member 1 Proteins 0.000 description 1
- 102100032008 Solute carrier family 40 member 1 Human genes 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种基于图像流的协同检测方法及装置、存储介质,其中协同检测方法包括:从图像流中获取目标对象的多幅样本图像;提取多幅样本图像的特征,得到每幅样本图像的单张特有特征和多幅样本图像的组间共有特征;对单张特有特征和组间共有特征进行融合,得到每幅样本图像的语义检测结果。技术方案不仅会考虑了通道间的注意力机制,还会考虑尺度和位置间的注意力机制,从而保留有效特征信息,剔除单张图像的噪声信息,如此利于提高特征提取的准确性和图像检测的准确率。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于图像流的协同检测方法及装置、存储介质。
背景技术
当前,基于图像的深度学习检测和识别算法,多数是采用一张图像做输入,获取图像中的低级特征和高级特征,进而完成检测和识别,但是对于一些应用场景,仅仅考虑一张图片将无法做出来准确的判断。例如,在人脸识别中对于正脸很容易识别出来,但是对于侧脸或者一些斜视角度进行识别,其就存在一些问题和难度。对于物体表面的检测也存在一样的问题,例如划痕在某一个方向的照射下,可以在图像中获得清晰的呈现,在另外一个方向上就无法清晰成像,此时将对物体表面检测带来困难。
传统的协同检测,主要利用色彩信息、纹理以及SIFT特征描述子方式进行特征的融合,该方法依赖于工程师的先验经验,特征的选择过于主观;并且,将特征提取和检测被动的分割为两个独立的过程,致使特征的提取并不能够很好地为后续的检测做准备。
发明内容
本发明主要解决的技术问题是:如何克服现有图像检测中存在的检测准确率低的技术缺陷。为解决上述技术问题,本申请一种基于图像流的协同检测方法及装置、存储介质。
根据第一方面,一种实施例中提供一种基于图像流的协同检测方法,其包括:从图像流中获取目标对象的多幅样本图像;提取所述多幅样本图像的特征,得到每幅所述样本图像的单张特有特征和所述多幅样本图像的组间共有特征;对所述单张特有特征和所述组间共有特征进行融合,得到每幅所述样本图像的语义检测结果。
所述提取所述多幅样本图像的特征,得到每幅所述样本图像的单张特有特征和所述多幅样本图像的组间共有特征,包括:对所述多幅样本图像分别进行卷积网络处理,得到每幅所述样本图像对应的特征数据;对每幅所述样本图像对应的特征数据进行高级语义特征的抽取,得到每幅所述样本图像的单张特有特征;通过注意力机制对各幅所述样本图像对应的特征数据进行统一抽取,得到所述多幅样本图像的组间共有特征。
所述对每幅所述样本图像对应的特征数据进行高级语义特征的抽取,得到每幅所述样本图像的单张特有特征,包括:构建第一变换关系f 1,且满足公式
设定X n 为任意所述样本图像对应的特征数据,在输入至所述第一变换关系f 1后计算得到每幅所述样本图像的单张特有特征,且表示为S n ;其中,,为尺寸是H×W×C的所述样本图像中图像特征的集合,n为所述样本图像的序号,为所述样本图像的网络权重系数向量。
所述通过注意力机制对各幅所述样本图像对应的特征数据进行统一抽取,得到所述多幅样本图像的组间共有特征,包括:通过注意力机制构建第二变换关系f 2,且满足公式
利用所述第二变换关系f 2对各幅所述样本图像对应的特征数据进行迭代变换,计算得到所述多幅样本图像的组间共有特征,且表示为G N;其中,为X n 的集合,N为所述多幅样本图像的数目,为各幅所述样本图像之间的网络权重系数向量。
所述利用所述第二变换关系f 2对各幅所述样本图像对应的特征数据进行迭代变换,计算得到所述多幅样本图像的组间共有特征,包括:对各幅所述样本图像的特征数据分别进行噪声抑制,得到对应的去噪数据,所述去噪数据表示为
将每幅所述样本图像对应的池化层特征和单张特有特征输入至所述第三变换关系f 3,计算得到每幅所述样本图像对应的融合特征,且表示为;其中,为特征之间的融合权重系数向量;对每幅所述样本图像对应的融合特征进行卷积运算和上采样运算,计算得到每幅所述样本图像的语义检测结果,且表示为R n 。
所述将每幅所述样本图像对应的池化层特征和单张特有特征输入至所述第三变换关系f 3,计算得到每幅所述样本图像对应的融合特征,包括:对每幅所述样本图像对应的池化层特征和单张特有特征进行FPN网络的处理,将处理后的特征与所述多幅样本图像的组间共有特征进行特征组合,得到组合特征,且表示为D n ;对所述组合特征进行卷积运算和上采样运算,计算得到所述每幅所述样本图像对应的融合特征。
在得到每幅所述样本图像的语义检测结果之后,还包括训练步骤:根据每幅所述样本图像的语义检测结果建立对应的第一目标函数,且用公式表示为
其中,表示综合的特征信息,b为预设偏置量,为所述样本图像的语义检测结果中的前景信息,为所述样本图像的标注前景信息,为所述样本图像的标注背景信息,i、j均为所述样本图像的序号,Dist( )为距离加权函数;根据所述第一目标函数和所述第二目标函数建立一网络模型的损失函数,且用公式表示为
在得到所述网络模型之后还包括检测步骤:获取所述目标对象的待检测图像;将所述待检测图像输入至所述网络模型,处理得到所述目标对象的识别结果;所述识别结果包括所述目标对象所在图像区域内每个像素点的所属类别和置信度。
根据第二方面,一种实施例中提供一种图像检测装置,其包括;图像采集部件,用于采集目标对象的多幅样本图像和待检测图像;处理器,与所述图像采集部件连接,用于通过上述第一方面中所述的方法对所述多幅样本图像和所述待检测图像进行处理。
根据第三方面,一种实施例中提供一种计算机可读存储介质,其包括程序,所述程序能够被处理器执行以实现如上述第一方面中所述的方法。
本申请的有益效果是:
依据上述实施例的一种基于图像流的协同检测方法及装置、存储介质,其中协同检测方法包括:从图像流中获取目标对象的多幅样本图像;提取多幅样本图像的特征,得到每幅样本图像的单张特有特征和多幅样本图像的组间共有特征;对单张特有特征和组间共有特征进行融合,得到每幅样本图像的语义检测结果。第一方面,由于考虑到同类物体的尺度变化和位置变化情况,在图像流中可多个角度或者多个照射条件下对目标对象进行取像,从而通过一组样本图像来解决目标对象表面质量的稳定检测问题;第二方面,不仅提取得到每幅样本图像的单张特有特征,还提取得到多幅样本图像的组间共有特征,利于图像语义分析时综合考虑到单张图像信息和同组内其它环境下的图像信息;第三方面,由于抽取并学习了多幅样本图像的共有特征,那么利于建立多张图像综合并共同贡献于检测的机制,从而提高图像检测准确率;第四方面,由于通过特征融合得到每幅样本图像的语义检测结果,则在后续的训练和特征学习过程中,不仅能够反映各样本图像本身的特征信息,还反映了各样本图像之间的共有特征信息;第五方面,方案不仅会考虑了通道间的注意力机制,还会考虑尺度和位置间的注意力机制,从而保留有效特征信息,剔除单张图像的噪声信息,如此利于提高特征提取的准确性;第六方面,本申请通过使用通道、位置和尺度协同注意力描述符,使得多幅样本图像之间通过注意力的互相引导,有效且正确地选择了图像前景,保证组内图像协同分割的准确性,减少背景对通道描述符的影响,有效保证描述符对其它特征图引导的正确性;第七方面,技术方案充分利用不同角度和不同照射条件下所获得的物体与背景图像之间的相关性,以及同一图像上物体与背景之间所应具有的差异性等有效的先验信息,能够实现完全高效率、高可靠的物体检测功能。
附图说明
图1为本申请实施例一中基于图像流的协同检测方法的流程图;
图2为提取得到单张图像特征和组间共有特征的流程图;
图3为融合得到每幅样本图像的语义检测结果的流程图;
图4为本申请实施例二中训练步骤和检测步骤的流程图;
图5为协同检测方法的原理示意图;
图6为CNN网络的结构示意图;
图7为图像特征提取和融合处理的原理示意图;
图8为本申请实施例三中图像检测装置的结构示意图;
图9为本申请实施例四中图像检测装置的结构示意图。
具体实施方式
下面通过具体实施方式结合附图对本发明作进一步详细说明。其中不同实施方式中类似元件采用了相关联的类似的元件标号。在以下的实施方式中,很多细节描述是为了使得本申请能被更好的理解。然而,本领域技术人员可以毫不费力的认识到,其中部分特征在不同情况下是可以省略的,或者可以由其他元件、材料、方法所替代。在某些情况下,本申请相关的一些操作并没有在说明书中显示或者描述,这是为了避免本申请的核心部分被过多的描述所淹没,而对于本领域技术人员而言,详细描述这些相关操作并不是必要的,他们根据说明书中的描述以及本领域的一般技术知识即可完整了解相关操作。
另外,说明书中所描述的特点、操作或者特征可以以任意适当的方式结合形成各种实施方式。同时,方法描述中的各步骤或者动作也可以按照本领域技术人员所能显而易见的方式进行顺序调换或调整。因此,说明书和附图中的各种顺序只是为了清楚描述某一个实施例,并不意味着是必须的顺序,除非另有说明其中某个顺序是必须遵循的。
本文中为部件所编序号本身,例如“第一”、“第二”等,仅用于区分所描述的对象,不具有任何顺序或技术含义。而本申请所说“连接”、“联接”,如无特别说明,均包括直接和间接连接(联接)。
为准确理解本申请技术方案,这里将对一些术语进行说明。
视觉注意力,是指机器对人类感知行为中的注意力进行模拟以提高机器感知能力的手段。对于人工神经网络中的注意力模型,其目的是通过计算注意力概率分布,让神经网络在获得数据语义表示时能体现语义的位置特性,从而可重点关注那些需要注意的信息。
本申请技术方案的发明构思是:在图像特征的提取和检测中,综合考虑同组图像中的共性信息,同时保留不同图像的个性信息,从而提高检测准确率。技术方案模仿人了的注意力机制,给不同的图像赋予不同的权重,而权重的学习和训练需要综合考虑当前的图像信息,也需要考虑组间信息。技术方案可以模仿人的眼睛,从不同方位和角度对目标对象进行检测和识别,提取图像特征时涉及到了视觉注意力模型,尤其是协同视觉注意力机制,解决两个以上图像的特征提取问题,从而实现组间图像的训练和学习。技术方案是针对现有图像检测中存在的检测准确率低的技术缺陷,采用多幅样本图像输入,提取图像之间的相关性,并根据相关性引导对样本图像中需要关注的视觉信息进行加强处理,以提高后续处理效果。
接下来将结合一些实施例对本申请技术方案进行详细说明。
实施例一、
请参考图1,本实施例中公开一种基于图像流的协同检测方法,其包括步骤S100-S300,下面分别说明。
步骤S100,从图像流中获取目标对象的多幅样本图像。这里的图像流可以是从不同角度和不同照射条件下对目标对象拍摄的一帧帧图像,那么目标对象的多幅样本图像就是图像流中选取的若干帧图像。
需要说明的是,这里的目标对象可以是流水线上的产品、工具台上的零件,还可以是人、动物、植物等物体,这里不做具体限定。
需要说明的是,本实施例中由于考虑到同类物体的尺度变化和位置变化情况,在图像流中可多个角度或者多个照射条件下对目标对象进行取像,从而通过一组样本图像来解决目标对象表面质量的稳定检测问题。
步骤S200,提取多幅样本图像的特征,得到每幅样本图像的单张特有特征和多幅样本图像的组间共有特征。
由于多幅样本图像中均包含有目标对象的成像信息,那么该些样本图像可以归为一组样本图像,对其中的每个样本图像进行特有语义信息提取后便可得到针对该幅样本图样的单张特有特征,对一组内所有样本图像进行共有语义信息提取后便可得到针对该组样本图像的组间共有特征。
可以理解,这里不仅提取得到每幅样本图像的单张特有特征,还提取得到多幅样本图像的组间共有特征,那么利于图像语义分析时综合考虑到单张图像信息和同组内其它环境下的图像信息。并且,由于抽取并学习了多幅样本图像的共有特征,那么利于建立多张图像综合并共同贡献于检测的机制,从而提高图像检测准确率。此外,技术方案不仅会考虑了通道间的注意力机制,还会考虑尺度和位置间的注意力机制,从而保留有效特征信息,剔除单张图像的噪声信息,如此利于提高特征提取的准确性。
步骤S300,对单张特有特征和组间共有特征进行融合,得到每幅样本图像的语义检测结果。
由于每幅样本图像的单张特有特征反映的是单幅图像自身的特征信息,多幅样本图像的组间共有特征反映的是多幅图像共有的特征信息,那么将单张特有特征与组间共有特征进行融合后,既使得每幅样本图像的语义检测结果学习了该幅样本图像的特有特征信息,还学习了其它样本图像的共有特征信息,从而强化了每幅样本图像的特征表征性能,减少图像背景信息对目标对象区域的影响,保证组内图像协同分割的准确性,利于形成高质量的样本类图像,进而为网络模型的训练学习提供了很好的训练条件。
需要说明的是,本实施例中通过特征融合得到每幅样本图像的语义检测结果,则在后续的训练和特征学习过程中,不仅能够反映各样本图像本身的特征信息,还反映了各样本图像之间的共有特征信息。本实施例技术方案通过使用通道、位置和尺度协同注意力描述符,使得多幅样本图像之间通过注意力的互相引导,有效且正确地选择了图像前景,保证组内图像协同分割的准确性,减少背景对通道描述符的影响,有效保证描述符对其它特征图引导的正确性;并且,技术方案充分利用不同角度和不同照射条件下所获得的物体与背景图像之间的相关性,以及同一图像上物体与背景之间所应具有的差异性等有效的先验信息,能够实现完全高效率、高可靠的物体检测功能。
在本实施例中,参见图2,上述的步骤S200主要涉及提取得到单张特有特征和组间共有特征的过程,其可以具体包括步骤S210-S230,下面分别说明。
步骤S210,对多幅样本图像分别进行卷积网络处理,得到每幅样本图像对应的特征数据。
参见图5,对于以牛(Cow)作为目标对象的多幅样本图像,可以用进行统一表示,其中I表示样本图像,n表示图像序号,N表示图像数目。那么,可以将样本图像I 1、I 2、…、I N分别输入至卷积神经网络(CNN)进行语义特征的初步提取,在通过卷积网络处理之后分别得到每幅样本图像对应的特征数据,即低级语义特征。比如图5,对样本图像I 1进行卷积网络处理之后将得到对应的特征数据X 1,对样本图像I 2进行卷积网络处理之后将得到对应的特征数据X 2,以此类推,最终对样本图像I N进行卷积网络处理之后将得到对应的特征数据X N。
在一个实施例中,卷积神经网络(CNN)的网络结构可以参考图6,其分为六个网络模块,每个网络模块具有不同的尺度和通道数据,比如采用表1所示的网络模块和网络层构建卷积神经网络。
表1 卷积神经网络的网络模块和网络层参数
在表1中,Conv2D表示卷积+ReLU的运算处理过程,MaxPooling2D表示最大池化的运算处理过程;其中,ReLU为线性整流函数。
步骤S220,对每幅样本图像对应的特征数据进行高级语义特征的抽取,得到每幅样本图像的单张特有特征。由于每幅样本图像对应的特征数据是低级的语义特征,可能包含很多噪声信息,此时进行特征抽取,容易避免噪声信息的干扰,从而得到高级语义特征,也就是得到每幅样本图像的单张特有特征。
在一个具体实施例中,为实现高级语义特征的抽取操作,可以构建第一变换关系f 1,且满足公式
那么参见图5,将第n幅样本图像对应的特征数据 X n 输入至第一变换关系f 1后,即可计算得到每幅样本图像的单张特有特征,且表示为S n 。比如,样本图像I 1的特征数据X 1经过第一变换关系f 1处理后得到对应的单张特有特征S 1,样本图像I 2的特征数据X 2经过第一变换关系f 1处理后得到对应的单张特有特征S 2,以此类推,最终样本图像I N的特征数据X N经过第一变换关系f 1处理后得到对应的单张特有特征S N。
步骤S230,通过注意力机制对各幅样本图像对应的特征数据进行统一抽取,得到多幅样本图像的组间共有特征。由于各幅样本图像均包含有目标对象的成像信息,那么归为一组样本图像时各样本图像之间将存在一些共有特征信息,通过协同视觉的注意力机制就可以解决这些样本图像的共有特征提取问题,从而得到多幅样本图像的组间共有特征。
在一个实施例中,为实现共有特征信息的统一抽取操作,可以通过注意力机制构建第二变换关系f 2,且满足公式
那么,利用第二变换关系f 2对各幅样本图像对应的特征数据进行迭代变换,即可计算得到多幅样本图像的组间共有特征,且表示为G N。
在一个实施例中,参见图5,为计算得到多幅样本图像的组间共有特征G N时,可以具体采用如下方法:
(1)对各幅样本图像的特征数据分别进行噪声抑制,得到对应的去噪数据,这里去噪数据表示为
(2)利用各幅样本图像分别对应的去噪数据参与迭代计算,迭代过程表示为
在某些情况下,考虑到和的差别比较小,说明组间可以保留上一次的组间特征,因此权重应该比较大,这里从这个方面来考虑组间共有特征与单张特有特征的融合。那么,对于权重而言,其影响因素较多,若重点考虑空间特性和通道间的特性带来的影响,设空间带来的影响为,通道带来的影响为,综合考虑后定义。其中,和可以分别用公式表示为:
(3)将N次迭代计算的结果作为多幅样本图像的组间共有特征。
参见图5,在迭代计算的过程中,可以先将样本图像I 1的特征数据X 1输入第二变换关系f 2,经过计算后得到对应的共有特征G 1;然后将样本图像I 2的特征数据X 2输入至第二变换关系f 2,结合共有特征G 1并经过计算后得到对应的共有特征G 2;以此类推,最终将样本图像I N的特征数据X N输入至第二变换关系f 2,结合共有特征G N-1并经过计算后得到对应的共有特征G N。那么,此时可以将计算的G N作为多幅样本图像的组间共有特征。
需要说明的是,本实施例中以幅样本图像作为输入,通过模型产生的检测分割结果为,因此整个问题可以描述为,其中是模型函数且以一系列样本图像和对应的标注信息作为输入,为模型参数且通过端到端的训练获取。那么,基于分割结果就可以构建一个高效的网络结构,从而决定检测模型的适应性和能力。
在本实施例中,参见图3,上述的步骤S300主要涉及融合得到每幅样本图像的语义检测结果的过程,其可以具体包括步骤S310-S330,下面分别说明。
参见图5、图6、图7和表1,卷积神经网络(CNN)包括多个网络模块,且每个网络模块内包括卷积单元和最大池化单元,对于Block3、Block4、Block5中的最大池化运算处理过程,可以用池化层3、池化层4、池化层5进行分别表示,其中,表示的是池化层3和池化层4输出(其中,为池化层4的输出,为池化层3的输出),表示的是池化层5的输出。那么,将样本图像I 1输入卷积神经网络后处理得到的池化层特征为,将样本图像I 2输入卷积神经网络后处理得到的池化层特征为,以此类推,将样本图像I N输入卷积神经网络后处理得到的池化层特征为。
步骤S320,为实现特征融合操作,可以构建第三变换关系f 3,且满足公式
在一个具体实施例中,参见图7,计算得到每幅样本图像对应的融合特征过程采用以下方法:
(1)对每幅样本图像对应的池化层特征(即池化层3、池化层4的输出)和单张特有特征S n ((即池化层5的输出)进行FPN网络的处理,将处理后的特征与多幅样本图像的组间共有特征G N进行特征组合,得到组合特征,且表示为D n 。
将池化层5的输出经过FPN网络处理后得到Pool5,其与组间共有特征G N进行特征组合,在通过卷积运算(Cov)处理后即可得到组合特征;将池化层4的输出经过FPN网络处理后得到FPN1,其与组间共有特征G N进行特征组合,并通过卷积运算(Cov)处理后即可得到组合特征;将池化层3的输出经过FPN网络处理后得到FPN2,其与组间共有特征G N进行特征组合,并通过卷积运算(Cov)处理后即可得到组合特征。
需要说明的是,特征图金字塔网络(Feature Pyramid Networks,简称FPN)主要解决的是物体检测中的多尺度问题,通过简单的网络连接改变,在基本不增加原有模型计算量的情况下,大幅度提升了小物体检测的性能。由于低层的特征语义信息比较少,但是目标位置准确;高层的特征语义信息比较丰富,但是目标位置比较粗略;所以可以采用多尺度特征融合的方式,对融合后的特征做预测。
(2)对组合特征进行卷积运算和上采样运算,计算得到每幅样本图像对应的融合特征。
步骤S330,对每幅样本图像对应的融合特征进行卷积运算和上采样运算,计算得到每幅样本图像的语义检测结果,且表示为R n 。
参见图5和图7,对于样本图像I n,其对应的融合特征为,进行卷积运算(Cov)和上采样运算(up)之后即可得到样本图像I n的语义检测结果R n 。那么,样本图像I 1经过特征提取和融合处理后的语义检测结果为R 1,样本图像I 2经过特征提取和融合处理后的语义检测结果为R 2,以此类推,最终样本图像I N经过特征提取和融合处理后的语义检测结果为R N。
需要说明的是,得到各幅样本图像对应的语义检测结果之后,就可对图像中的目标对象进行分割。比如图5,若目标对象是牛,则在语义分割结果中,Cow表示牛,Grass表示草地,Sky表示天空,Tress表示树木。此外,由于语义检测结果中对图像特征信息进行了准确的标注,那么可以利用语义检测结果进行网络模型的训练,从而得到准确度高的图像识别模型,以便对待检测图像内的物体进行准确识别和分割。
实施例二、
本实施例对实施例一中公开的协同检测方法进行了改进,在得到每幅样本图像的语义检测结果之后,还包括训练步骤和检测步骤。
在本实施例中,参见图4,协同检测方法包括步骤S410-S430,下面分别说明。
步骤S410,处理得到每幅样本图像的语义检测结果。
对于多幅样本图像I 1、I 2、…、I N,处理得到语义检测结果的过程可以参考实施例一中的步骤S100-S300,这里不再进行赘述。
步骤S420,根据每幅样本图像的语义检测结果建立网络模型的损失函数,以及通过样本训练学习得到网络模型的网络参数。
在一个具体实施例中,该步骤S420采用以下方法进行实现:
(1)根据每幅样本图像的语义检测结果建立对应的第一目标函数,且用公式表示为
(2)根据各幅样本图像的语义检测结果建立第二目标函数,且用公式表示为
其中,表示综合的特征信息,b为预设偏置量,为任意样本图像的语义检测结果中的前景信息,为任意样本图像的标注前景信息,为任意样本图像的标注背景信息,i、j均为样本图像的序号,Dist( )为距离加权函数。
对于输入图像,由于检测得到的语义检测结果(即Mask信息)为,对应的标注信息为,则检测结果和标注信息可以表示为,对应的特征可以整体表示为,其中,为综合考虑函数的结果。对于单幅样本图像而言,需要尽可能地与标注信息接近,因此可以把单张特有特征的数据看成结果的中心,也就是说检测组间共有特征的结果应该围绕在单张特有特征的结果中心进行分布,并且方差应该尽可能越小越好。那么,第二目标函数可以很好地满足这一要求。
需要说明的是,由于距离加权函数Dist( )为表示的是两个特征向量的相似性,所以在采用余弦相似度或者马氏距离进行计算时,余弦相似度可以表示为
(3)根据第一目标函数和第二目标函数建立一网络模型的损失函数,且用公式表示为
(4)利用多幅样本图像参与训练损失函数,学习得到网络模型的网络参数。在得到网络模型的损失函数L的情况下,将多幅样本图像输入至网络模型进行模型训练,即可对损失函数L进行参数校正,从而学习得到网络模型的网络参数。可以理解,此时网络模型已经训练完成,接下来就可以借助该网络模型对待检测图像进行目标对象的检测处理。
需要说明的是,训练使用的网络模型可以采用深度神经网络(DNN),当然也可以采用其它的网络,比如CNN、VGG等,这里不做具体限定。
步骤S430,获取目标对象的待检测图像,根据构建的网络模型处理得到目标对象的识别结果。
在一个具体实施例中,为了对目标对象进行识别,这里需要首选获取目标对象的待检测图像,而目标对象需要和网络模型中训练识别的对象一致,比如为人、动物、植物、汽车等物体。接下来,只需要将待检测图像输入至网络模型,即可处理得到目标对象的识别结果。
需要说明的是,这里的识别结果包括目标对象所在图像区域内每个像素点的所属类别和置信度;在待检测图像内,如果某一像素区域内的各像素点具有同一所属类别且高置信度,那么能够确定该像素区域表示为同一个物体(比如图5中的牛),从而在待检测图像中分割出物体,进而完成了物体识别和像素分割。
实施例三、
在实施例一和实施例二中公开的协同检测方法的基础上,本实施例中公开一种图像检测装置,请参考图8,该图像检测装置包括图像采集部件11和处理器12。下面分别说明。
图像采集部件11可以采用摄像机、相机等设备,主要用于采集目标对象的多幅样本图像和待检测图像。
需要说明的是,目标对象的多幅样本图像用来构建网络模型和参与模型训练,而目标对象的待检测图像用来输入网络模型以识别出图像中存在的目标对象。此外,涉及的目标对象可以是流水线上的产品、工具台上的零件,还可以是人、动物、植物等物体,这里不做具体限定。
处理器12与图像采集部件11连接,用于通过上述实施例一中公开的协同检测方法对采集的多幅样本图像进行处理,和/或,通过上述实施二中公开的协同检测方法对采集的待检测图像进行处理。
在一个实施例中,参见图8,图像检测装置还包括显示器13,该显示器13与处理器12连接,用于对处理器12的处理结果进行显示,比如显示多幅样本图像和待检测图像,以及显示待检测图像中目标对象的识别结果。
实施例四、
在实施例一和实施例二中公开的基于图像流的协同检测方法的基础上,本实施例中公开一种图像检测装置。
请参考图9,图像检测装置2主要包括存储器21和处理器22。其中,存储器21作为计算机可读存储介质,用于存储程序,该程序可以是实施例一中协同检测方法S100-S300对应的程序代码,还可以是实施例二中协同检测方法S410-S430对应的程序代码。
处理器22与存储器21连接,用于执行存储器21中存储的程序以实现协同检测方法。处理器22实现的功能可以参考实施例三中的处理器12,这里不再进行详细说明。
本领域技术人员可以理解,上述实施方式中各种方法的全部或部分功能可以通过硬件的方式实现,也可以通过计算机程序的方式实现。当上述实施方式中全部或部分功能通过计算机程序的方式实现时,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器、随机存储器、磁盘、光盘、硬盘等,通过计算机执行该程序以实现上述功能。例如,将程序存储在设备的存储器中,当通过处理器执行存储器中程序,即可实现上述全部或部分功能。另外,当上述实施方式中全部或部分功能通过计算机程序的方式实现时,该程序也可以存储在服务器、另一计算机、磁盘、光盘、闪存盘或移动硬盘等存储介质中,通过下载或复制保存到本地设备的存储器中,或对本地设备的系统进行版本更新,当通过处理器执行存储器中的程序时,即可实现上述实施方式中全部或部分功能。
以上应用了具体个例对本发明进行阐述,只是用于帮助理解本发明,并不用以限制本发明。对于本发明所属技术领域的技术人员,依据本发明的思想,还可以做出若干简单推演、变形或替换。
Claims (11)
1.一种基于图像流的协同检测方法,其特征在于,包括:
从图像流中获取目标对象的多幅样本图像;
提取所述多幅样本图像的特征,得到每幅所述样本图像的单张特有特征和所述多幅样本图像的组间共有特征;
对所述单张特有特征和所述组间共有特征进行融合,得到每幅所述样本图像的语义检测结果。
2.如权利要求1所述的方法,其特征在于,所述提取所述多幅样本图像的特征,得到每幅所述样本图像的单张特有特征和所述多幅样本图像的组间共有特征,包括:
对所述多幅样本图像分别进行卷积网络处理,得到每幅所述样本图像对应的特征数据;
对每幅所述样本图像对应的特征数据进行高级语义特征的抽取,得到每幅所述样本图像的单张特有特征;
通过注意力机制对各幅所述样本图像对应的特征数据进行统一抽取,得到所述多幅样本图像的组间共有特征。
7.如权利要求6所述的方法,其特征在于,所述将每幅所述样本图像对应的池化层特征和单张特有特征输入至所述第三变换关系f 3,计算得到每幅所述样本图像对应的融合特征,包括:
对每幅所述样本图像对应的池化层特征和单张特有特征进行FPN网络的处理,将处理后的特征与所述多幅样本图像的组间共有特征进行特征组合,得到组合特征,且表示为D n ;
对所述组合特征进行卷积运算和上采样运算,计算得到所述每幅所述样本图像对应的融合特征。
8.如权利要求6所述的方法,其特征在于,在得到每幅所述样本图像的语义检测结果之后,还包括训练步骤:
根据每幅所述样本图像的语义检测结果建立对应的第一目标函数,且用公式表示为
根据各幅所述样本图像的语义检测结果建立第二目标函数,且用公式表示为
其中,表示综合的特征信息,b为预设偏置量,为所述样本图像的语义检测结果中的前景信息,为所述样本图像的标注前景信息,为所述样本图像的标注背景信息,i、j均为所述样本图像的序号,Dist( )为距离加权函数;
根据所述第一目标函数和所述第二目标函数建立一网络模型的损失函数,且用公式表示为
利用所述多幅样本图像参与训练所述损失函数,学习得到所述网络模型的网络参数。
9.如权利要求8所述的方法,其特征在于,在得到所述网络模型之后还包括检测步骤:
获取所述目标对象的待检测图像;
将所述待检测图像输入至所述网络模型,处理得到所述目标对象的识别结果;所述识别结果包括所述目标对象所在图像区域内每个像素点的所属类别和置信度。
10.一种图像检测装置,其特征在于,包括;
图像采集部件,用于采集目标对象的多幅样本图像和待检测图像;
处理器,与所述图像采集部件连接,用于通过权利要求1-8中任一项所述的方法对所述多幅样本图像进行处理,和/或通过权利要求9中所述的方法对所述待检测图像进行处理。
11.一种计算机可读存储介质,其特征在于,包括程序,所述程序能够被处理器执行以实现如权利要求1-9中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011274877.1A CN112070181B (zh) | 2020-11-16 | 2020-11-16 | 一种基于图像流的协同检测方法及装置、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011274877.1A CN112070181B (zh) | 2020-11-16 | 2020-11-16 | 一种基于图像流的协同检测方法及装置、存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112070181A true CN112070181A (zh) | 2020-12-11 |
CN112070181B CN112070181B (zh) | 2021-02-19 |
Family
ID=73655423
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011274877.1A Active CN112070181B (zh) | 2020-11-16 | 2020-11-16 | 一种基于图像流的协同检测方法及装置、存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112070181B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113496219A (zh) * | 2021-09-06 | 2021-10-12 | 首都师范大学 | 基于人脸图像分析的血缘关系自动识别方法和装置 |
CN115661584A (zh) * | 2022-11-18 | 2023-01-31 | 浙江莲荷科技有限公司 | 一种模型训练方法、开放域目标检测方法及相关装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107437246A (zh) * | 2017-07-05 | 2017-12-05 | 浙江大学 | 一种基于端到端全卷积神经网络的共同显著性检测方法 |
CN110163221A (zh) * | 2019-05-28 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 在图像中进行物体检测的方法、装置、车辆、机器人 |
CN110197206A (zh) * | 2019-05-10 | 2019-09-03 | 杭州深睿博联科技有限公司 | 图像处理的方法及装置 |
CN110390234A (zh) * | 2018-04-23 | 2019-10-29 | 佳能株式会社 | 图像处理装置和方法及存储介质 |
CN111369457A (zh) * | 2020-02-28 | 2020-07-03 | 西南电子技术研究所(中国电子科技集团公司第十研究所) | 稀疏判别张量鲁棒性pca的遥感图像去噪方法 |
CN111598183A (zh) * | 2020-05-22 | 2020-08-28 | 上海海事大学 | 一种多特征融合图像描述方法 |
CN111738780A (zh) * | 2020-07-31 | 2020-10-02 | 支付宝(杭州)信息技术有限公司 | 一种推荐对象的方法及系统 |
CN111862140A (zh) * | 2020-06-11 | 2020-10-30 | 中山大学 | 一种基于协同模块级搜索的全景分割网络及方法 |
-
2020
- 2020-11-16 CN CN202011274877.1A patent/CN112070181B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107437246A (zh) * | 2017-07-05 | 2017-12-05 | 浙江大学 | 一种基于端到端全卷积神经网络的共同显著性检测方法 |
CN110390234A (zh) * | 2018-04-23 | 2019-10-29 | 佳能株式会社 | 图像处理装置和方法及存储介质 |
CN110197206A (zh) * | 2019-05-10 | 2019-09-03 | 杭州深睿博联科技有限公司 | 图像处理的方法及装置 |
CN110163221A (zh) * | 2019-05-28 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 在图像中进行物体检测的方法、装置、车辆、机器人 |
CN111369457A (zh) * | 2020-02-28 | 2020-07-03 | 西南电子技术研究所(中国电子科技集团公司第十研究所) | 稀疏判别张量鲁棒性pca的遥感图像去噪方法 |
CN111598183A (zh) * | 2020-05-22 | 2020-08-28 | 上海海事大学 | 一种多特征融合图像描述方法 |
CN111862140A (zh) * | 2020-06-11 | 2020-10-30 | 中山大学 | 一种基于协同模块级搜索的全景分割网络及方法 |
CN111738780A (zh) * | 2020-07-31 | 2020-10-02 | 支付宝(杭州)信息技术有限公司 | 一种推荐对象的方法及系统 |
Non-Patent Citations (2)
Title |
---|
YANBIAO ZOU 等: "Automatic seam detection and tracking system for robots based on laser vision", 《MECHATRONICS》 * |
谢逸 等: "基于视频监控的地铁施工不安全行为检测预警", 《华中科技大学学报(自然科学版)》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113496219A (zh) * | 2021-09-06 | 2021-10-12 | 首都师范大学 | 基于人脸图像分析的血缘关系自动识别方法和装置 |
CN115661584A (zh) * | 2022-11-18 | 2023-01-31 | 浙江莲荷科技有限公司 | 一种模型训练方法、开放域目标检测方法及相关装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112070181B (zh) | 2021-02-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Laskar et al. | Camera relocalization by computing pairwise relative poses using convolutional neural network | |
Wang et al. | Detect globally, refine locally: A novel approach to saliency detection | |
CN111709409B (zh) | 人脸活体检测方法、装置、设备及介质 | |
CN113065558A (zh) | 一种结合注意力机制的轻量级小目标检测方法 | |
CN112446270A (zh) | 行人再识别网络的训练方法、行人再识别方法和装置 | |
CN114241422B (zh) | 一种基于ESRGAN和改进YOLOv5s的学生课堂行为检测方法 | |
CN110827312B (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
CN113111716B (zh) | 一种基于深度学习的遥感影像半自动标注方法和装置 | |
CN110263768A (zh) | 一种基于深度残差网络的人脸识别方法 | |
Saleh et al. | Adaptive uncertainty distribution in deep learning for unsupervised underwater image enhancement | |
CN110648331B (zh) | 用于医学图像分割的检测方法、医学图像分割方法及装置 | |
CN107766864B (zh) | 提取特征的方法和装置、物体识别的方法和装置 | |
CN110310305B (zh) | 一种基于bssd检测与卡尔曼滤波的目标跟踪方法与装置 | |
Huang et al. | Temporally coherent video harmonization using adversarial networks | |
CN112070181B (zh) | 一种基于图像流的协同检测方法及装置、存储介质 | |
CN113283334B (zh) | 一种课堂专注度分析方法、装置和存储介质 | |
CN111428664A (zh) | 一种基于人工智能深度学习技术的计算机视觉的实时多人姿态估计方法 | |
CN113284122B (zh) | 基于深度学习的卷纸包装缺陷检测方法、装置及存储介质 | |
CN112329662B (zh) | 基于无监督学习的多视角显著性估计方法 | |
CN117058232A (zh) | 一种改进YOLOv8模型的养殖鱼群中鱼类目标个体的位置检测方法 | |
CN111445496B (zh) | 一种水下图像识别跟踪系统及方法 | |
CN109919215B (zh) | 基于聚类算法改进特征金字塔网络的目标检测方法 | |
CN115862119B (zh) | 基于注意力机制的人脸年龄估计方法及装置 | |
CN114882372A (zh) | 一种目标检测的方法及设备 | |
CN114820755A (zh) | 一种深度图估计方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right |
Denomination of invention: A collaborative detection method, device, and storage medium based on image streams Effective date of registration: 20230908 Granted publication date: 20210219 Pledgee: Shenzhen hi tech investment small loan Co.,Ltd. Pledgor: SHENZHEN HUAHAN WEIYE TECHNOLOGY Co.,Ltd. Registration number: Y2023980055927 |