CN112818903B - 一种基于元学习和协同注意力的小样本遥感图像目标检测方法 - Google Patents
一种基于元学习和协同注意力的小样本遥感图像目标检测方法 Download PDFInfo
- Publication number
- CN112818903B CN112818903B CN202110198130.0A CN202110198130A CN112818903B CN 112818903 B CN112818903 B CN 112818903B CN 202110198130 A CN202110198130 A CN 202110198130A CN 112818903 B CN112818903 B CN 112818903B
- Authority
- CN
- China
- Prior art keywords
- image
- target
- prediction
- frame
- remote sensing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 67
- 238000000605 extraction Methods 0.000 claims abstract description 22
- 230000006870 function Effects 0.000 claims abstract description 18
- 238000009826 distribution Methods 0.000 claims abstract description 11
- 238000012545 processing Methods 0.000 claims abstract description 6
- 238000012549 training Methods 0.000 claims description 37
- 238000000034 method Methods 0.000 claims description 30
- 238000012360 testing method Methods 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 15
- 238000010586 diagram Methods 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000005070 sampling Methods 0.000 claims description 10
- 238000011156 evaluation Methods 0.000 claims description 8
- 238000011176 pooling Methods 0.000 claims description 7
- 238000002372 labelling Methods 0.000 claims description 6
- 238000005520 cutting process Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000012805 post-processing Methods 0.000 claims description 2
- 230000002194 synthesizing effect Effects 0.000 claims description 2
- 238000009825 accumulation Methods 0.000 claims 1
- 238000005728 strengthening Methods 0.000 abstract description 2
- 239000010410 layer Substances 0.000 description 14
- 230000004927 fusion Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000013434 data augmentation Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000002195 synergetic effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 229910052500 inorganic mineral Inorganic materials 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011707 mineral Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/5866—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A10/00—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
- Y02A10/40—Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Library & Information Science (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于元学习和协同注意力的小样本遥感图像目标检测方法,属于图像处理技术领域;首先,从元学习的思想出发对遥感图像进行one‑way one‑shot的任务划分;然后,将划分的支持集与查询集通入改进的特征提取网络,通过在特征提取网络中间的若干层添加协同注意力模块,实现通过支持集特征强化查询集上特征分布的目的。基于查询图像最终得到的特征图构建多分支检测头部,计算改进的特征提取网络的损失函数。最后,对于包含新类别目标的遥感图像,利用训练好的改进的特征提取网络进行目标预测。本发明引入元学习的思想构建多个小样本学习任务,增强检测模型的快速适应性需求。
Description
技术领域
本发明属于图像处理领域,具体涉及一种基于元学习和协同注意力的小样本遥感图像目标检测方法。
背景技术
近年来,航空遥感技术和无人机技术发展迅速。航空遥感图像作为一种有效的信息载体,可以扩展人眼的视野范围,被广泛应用于情报侦察等军事行动以及环境监测、矿产侦查、自然灾害预防、土地利用调查以及水资源保护等科学活动中。但是,通过航拍产生的大量高清图像数据已经超出人工实时判读和理解的能力范畴,难以通过人力及时准确的获取信息。针对遥感图像进行的目标检测任务,作为计算机视觉领域中的一个重点研究方向,是图像场景及语义理解的重要一环,对于后续民用项目及军事行动的开展具有重要的指导意义。
相较于通用领域的目标检测,遥感图像目标检测任务中面临着更为复杂的场景、更为艰难的数据采集和耗费更多人力物力的数据集标定。特别的,在一些应用中,无人机在执行任务时通常面临着新的地面场景和未知目标。不能够采集足够的任务区域遥感图像,同时又要求算法模型无需另行训练,快速对新场景新目标做出检测识别。因此,从以上需求出发,建立一个具备新任务快速适应性的小样本深度学习模型是遥感图像目标检测任务中所必需的。
现有的小样本学习研究多集中在图像分类任务中,小样本目标检测任务往往面临着更多的挑战。首先,目标检测不仅需要训练分类网络,还需要训练回归网络得到目标的位置和尺寸;其次,检测任务不仅需要关注高层语义信息,还需要底层网络中的像素级信息来实现目标定位;同时,目标检测任务中通常对背景类也有定义,当训练样本不足时,容易发生背景类和目标类别的混淆。因此相较于图像分类,小样本目标检测更加难以利用先验信息完成任务。
从以上问题出发,目前的小样本目标检测思路通常在两阶段目标检测框架的基础上,通过数据增广或者特征增强的方式加强先验知识。然而两阶段的检测算法通常面临着更多的计算复杂度和更慢的检测速度;数据增广的方法包括利用生成对抗网络来学习有限样本的特征分布,从而生成新数据用于训练,但数据增广的方法严重依赖生成网络的可靠性。特征增强的方法通过互注意力机制增强待测图像中的特征表达,然而空间和通道的互注意力处理通常是分开进行的,难以充分利用空间和通道之间的依赖性。
同时,现有的小样本目标检测算法通常是针对自然场景,城市场景及室内场景的图像。航空遥感图像成像距离远、视角特殊,与普通图像差异较大,已有的小样本目标检测算法难以获得好的检测效果。而且空间和通道信息丰富、目标具有多方向性是遥感图像的显著特点,同时在遥感图像目标检测实际应用中,通常面临着新场景下新目标的检测任务,要求检测模型对训练过程中未出现过的新类别也具有快速的适应性。
发明内容
一种基于元学习和协同注意力的小样本遥感图像目标检测方法。元学习通过构建训练和测试样本类别不同的小样本学习任务使模型具备新任务适应能力,而协同注意力模块弥补了小样本任务中先验信息不足的问题。因此,本方法既能一定程度上解决遥感图像目标检测中的小样本问题,也能满足遥感图像应用中对于新任务的快速适应性需求。
所述的小样本遥感图像目标检测算法,具体步骤如下:
步骤一、取若干类目标的遥感图像分别划分训练集和测试集;
具体为:对于包含若干个类别目标的遥感图像,取其中X个类别的样本作为训练集,其余类别样本作为测试集。
步骤二、从元学习的思想出发,对训练集进行one-way one-shot的任务划分,得到查询集和支持集;
即:每轮训练时从训练集中选取一个类别,并从该类别中任取一个图像作为支持图像,其余任意图像作为查询图像;所有的支持图像组成支持集S;所有的查询图像组成查询集Q。
假设支持图像的标注信息已知,而查询图像的标注信息未知,标注信息包括目标中心点、宽度、长度和角度。
步骤三、根据标注信息对支持集中的每个图像进行裁剪,得到各图像对应的仅保留目标的图像;
步骤四、将目标图像集和查询集,类似孪生网络双输入的形式输入改进的特征提取网络,输出修正后的查询集的特征分布;
改进的特征提取网络是指:在特征提取网络中的4倍、8倍、16倍和32倍下采样层中分别添加协同注意力模块;协同注意力模块分为空间域注意力和通道域注意力;
空间域注意力non-local模块的具体运算过程为:
首先,对于目标图像集和查询集图像Q,经过主干网络提取到的特征分别为α(S)和α(Q)。
最后,对互相关的两个特征θ和进行softmax操作归一化注意力权重,并将注意力权重与查询集的g特征和支持集的g特征分别做点乘;点乘后的查询集特征与原查询集图像Q做残差运算,同时,点乘后的支持集特征与原输入目标图像集做残差运算,两个残差结果作为non-local模块的输出。
通道域注意力squeeze模块的具体运算过程为:
首先,将non-local模块中输出的残差支持集特征分出两支:分别做全局平均池化和全局最大池化;
然后,将每个分支都进行1*1卷积与全连接操作,并将两个分支的结果求和,得到1*1*channels的权重特征;
最后,将1*1*channels的权重特征作为模板,与non-local模块输出的残差查询集特征进行卷积,从通道上修正查询集的特征分布;
步骤五、分别构建分类分支、边界框宽高分支、中心点补偿分支和方向分支,对修正后的查询集特征进行处理,构建基于各分支的多任务损失函数;
每个分支皆由一层3*3卷积和一层1*1卷积构成。
分类分支完成类别判断任务,输出通道数等于类别数的热力图,与真实框生成的热力图做focal loss(交叉熵损失函数的变形,分类损失函数);边框宽高分支和中心点补偿分支通过与真实框的对应信息做smooth L1 loss(回归损失函数)。
而方向分支对应的损失由Pixels-IoU计算得到,具体为:
首先,通过对各分支的预测信息进行提取,得到有向预测框;
有向预测框的获取方式为:从分类分支中提取各通道的目标中心点局部区域尖峰,如果某点是8邻域内的最大值,则保留这个点作为预测得到的未经修正的中心点位置。取其余各分支对应该位置的值,分别作为预测得到的中心点补偿值、宽高和方向值;将以上各预测信息结合得到有向预测框。
然后,通过像素计数的方式计算有向预测框与标注的真实框之间的Pixels-IoU:
具体为:
首先,对于像素点pij,利用像素点pij与有向预测框b的垂直距离和水平距离计算δ(pij|b);
计算公式为:
然后,判断δ(pij|b)是否为1,如果是,表示像素点pij在框b内,否则,像素点pij不在此框内。
最后,取真实框和预测框的最小外接矩形作为参考区域,选取共同位于真实框和预测框内的像素点数S’,以及两个框内的所有像素点数之和T’;S’与T’的比值即为Pixels-IoU损失,由Pixels-IoU损失计算方向预测损失。
最终,利用各分支对应的损失函数计算有向预测框的损失函数;
公式为:
Ldet=Lcls+λsizeLsize+λoffLoff+λangLang
其中,Lcls为分类损失,Lsize为边界框宽高尺度损失,Loff为中心点补偿损失。而Lang为方向预测损失。λsize为边界框尺度对应的损失权重;λoff为中心点补偿损失对应的损失权重;λang为方向预测损失对应的损失权重。
步骤六、对于测试集中包含新类别目标的遥感图像,利用训练好的改进的特征提取网络进行目标预测。
具体预测过程为:
步骤601、将包含新类别目标的遥感图像按照one-way one-shot的任务划分,得到查询图像和支持图像。
步骤602、将支持图像和查询图像通入训练好的改进的特征提取网络;
步骤603、对提取的特征进行处理,分类分支输出预测的中心点位置和类别,其余各分支对应该位置的值,分别预测中心点补偿值、宽高和方向值,并综合得到有向预测框。
步骤604、利用当前图像的真实标注信息和目标预测框做旋转IOU。
旋转IOU的计算方式如下:
其中Bpr为目标预测框,Bgt为标注中的真值边界框。
步骤605、利用旋转IOU计算精确率Precision和召回率Recall,并进一步计算评价指标F1。
具体计算公式为:
其中,true positive为某图像A目标预测框和真值边界框之间旋转IOU值大于设定的阈值后,此时图像A中目标预测框的标记,TP表示标记为true positive检测框的数量;
false positive为图像A目标预测框和真值边界框之间旋转IOU值小于等于设定的阈值后,此时图像A预测框的标记,FP表示标记为false positive检测框的数量;
false negative为图像A的真实框不存在与其旋转IOU大于设定阈值的检测框,此时图像A中此真实框的标记,FN表示标记为false negative真实框的数量;
步骤606、评价指标F1对包含新类别目标的遥感图像的预测结果进行评价。
本发明的优点在于:
1)、一种基于元学习和协同注意力的小样本遥感图像目标检测方法,针对遥感图像目标检测中面临的小样本问题,引入元学习的思想构建多个小样本学习任务,增强检测模型的快速适应性需求。
2)、一种基于元学习和协同注意力的小样本遥感图像目标检测方法,引入协同注意力模块增强查询集的特征表达,使检测模型更有针对性地利用先验信息,增强检测准确性。
3)、一种基于元学习和协同注意力的小样本遥感图像目标检测方法,针对遥感图像多方向性的特点,引入方向性预测分支,弥补无向框中检测框和真实目标间的背景空白。
附图说明
图1是本发明一种基于元学习和协同注意力的小样本遥感图像目标检测方法的流程图;
图2是本发明采用的改进的特征提取网络的结构图;
图3是本发明采用协同注意力中空间注意力的融合结构图;
图4是本发明采用协同注意力中通道注意力的融合结构图;
图5是本发明构建的带有方向分支的多分支检测头部结构示意图;
图6是本发明实施例中小样本遥感图像目标检测结果示例图。
具体实施方式
下面结合附图,对本发明的具体实施方法作进一步的详细说明。
针对遥感图像小样本的任务背景、快速适应的需求,结合遥感图像目标的多方向性和丰富的空间通道信息特点,本发明提出一种基于元学习和协同注意力的单阶段小样本遥感图像目标检测算法;具体包含训练阶段和测试阶段,两个阶段处理的目标种类互不相同。训练阶段包括小样本任务划分和协同检测网络训练。测试阶段同样对任务进行划分,利用训练好的协同检测网络对测试集中的查询样本进行检测。
整体流程如图1所示,包括以下步骤:
步骤一、从元学习的思想出发,取若干类目标的遥感图像分别划分训练集和测试集;
具体为:对于包含若干个类别目标的遥感图像,取其中X个类别的样本作为训练集,其余类别样本作为测试集。
步骤二、对训练集进行one-way one-shot的任务划分,得到查询集和支持集;
任务划分机制引入了元学习的思想,元学习期望机器对一个新的任务进行自主学习的时候,利用好先前学习到的元知识,来辅助和促进新任务的学习,而不是每次都从零开始,元知识可以一定程度上弥补小样本问题中匮乏的先验信息,因此元学习通常用来解决小样本问题。
本发明中使用的是one-way one-shot的任务划分方式,即:每轮训练时,从训练集中选取一个类别,并从该类别中任取一个图像作为支持图像,其余任意图像作为查询图像;查询集图像假设标注信息未知,而支持图像假设标注信息已知,标注信息包括目标中心点、宽度、长度和角度;所有的支持图像组成支持集S;所有的查询图像组成查询集Q。
任务要求为给定支持图像,查找查询图像中所有对应的对象。每个元任务中支持集样本数量较少,可设定为1、5或10等,由此每个元任务皆可视为一个小样本目标检测问题。
步骤三、根据标注信息对支持集中的每个图像进行裁剪,得到各图像对应的仅保留目标的图像;
步骤四、将目标图像集和查询集,类似孪生网络双输入的形式输入改进的特征提取网络,输出查询图像中该类目标的位置预测和分类结果。
常用的特征提取网络通常需要经过多倍下采样,若直接将大感受野的特征图通入检测头部会导致采样过于稀疏,不利于目标的检出。然而若直接将最终层小尺寸大感受野的特征图上采样,得到大尺寸小感受野的特征图用于检测,首先会不可避免地丢失一些高层语义信息,同时单独一层并不能提供足够的信息。因此选用DLA-34(Deep LayerAggregation)网络作为骨干网络将不同深度、不同block之间的信息进行融合,同时完成上采样操作,网络结构如图2所示。
由于骨干网络DLA-34的4倍、8倍、16倍和32倍下采样层都参与了上采样融合操作,所以在以上各层皆加入协同注意力模块,通过这种不同层级的协同注意特征增强,达到突出查询集中对应目标特征表达的目的。本发明对自注意力机制进行了改造,并从空间和通道两个方面将支持集和查询集的特征进行融合,符合小样本学习任务的需求。
注意力机制旨在让模型学会忽略无关信息,关注有关信息。协同注意力模块的目的是使查询图像中包含支持图像目标的部分得到强调,实现通过支持集特征强化查询集上特征分布的目的;协同注意力模块分为空间域注意力和通道域注意力;
空间域注意力non-local模块,如图3所示,具体运算过程为:
首先,对于目标图像集和查询集图像Q,经过主干网络提取到的特征分别为α(S)和α(Q)。
最后,对互相关的两个特征θ和进行softmax操作归一化注意力权重,并将注意力权重与查询集的g特征和支持集的g特征分别做点乘;点乘后的查询集特征与原查询集图像Q做残差运算,同时,点乘后的支持集特征与原输入目标图像集做残差运算,两个残差结果作为non-local模块的输出。
non-local模块对支持集和查询集的特征做了空间域上的融合,可以解决支持集特征和查询集特征具有一定差异性的问题。
然后,是通道域注意力squeeze模块,如图4所示,具体运算过程为:
首先,将non-local模块中输出的残差支持集特征分出两支:分别做全局平均池化和全局最大池化;
然后,全局池化可以对各通道上的特征信息进行整合,分别通过若干层卷积与全连接层后融合在一起,得到1*1*channels的权重特征;
最后,将1*1*channels的权重特征作为模板,与non-local模块输出的残差查询集特征进行卷积,从通道上修正查询集的特征分布;
在本过程中,用于修正查询集特征分布的支持集特征图是经过non-local空间注意融合后的特征,所以在进行通道域注意力计算时也融合了上步获得的空间域特征。
步骤五、分别构建分类分支、边界框宽高分支、中心点补偿分支和方向分支,对修正后的查询集特征进行后处理,构建基于各分支的多任务损失函数;
由于遥感图像的多方向性,为了补偿无向目标与真实目标间的背景空白,加入一个方向分支;其中分类分支完成类别判断任务,监督信息是由ground truth生成的热力图,目标中心点周围的热力图值遵守以目标中心点为中心的二维高斯分布,分布的方差和半径与目标的尺度相关。边界框宽高分支和中心点补偿分支完成位置回归任务,方向分支完成角度预测任务,三个分支的监督由ground truth中标记的目标边界框坐标计算得到;几个分支共享查询集最终得到的融合特征图;检测分支示意图如图5所示,每个分支皆由一层3*3卷积和一层1*1卷积构成。
分类分支完成类别判断任务,输出通道数等于类别数的热力图,与真实框生成的热力图做focal loss(交叉熵损失函数的变形,分类损失函数);边框宽高分支和中心点补偿分支输出通道数为2,通过与真实框的对应信息做smooth L1 loss(回归损失函数)。
而方向分支输出通道数为1,对应的回归损失由Pixels-IoU计算得到,Pixels-IoU函数通过像素计数的方式计算,可优化全局IOU,提高旋转角度和IOU的准确率。具体为:
首先,通过对各分支的预测信息进行提取,得到有向预测框;
有向预测框的获取方式为:从分类分支中提取各通道的目标中心点局部区域尖峰,如果某点是8邻域内的最大值,则保留这个点作为预测得到的未经修正的中心点位置。取其余各分支对应该位置的值,分别作为预测得到的中心点补偿值、宽高和方向值;将以上各预测信息结合得到有向预测框。
然后,通过像素计数的方式计算有向预测框与标注的真实框之间的Pixels-IoU:
具体为:
首先,对于像素点pij,利用像素点pij与框b的垂直距离和水平距离计算δ(pij|b);
计算公式为:
然后,判断δ(pij|b)是否为1,如果是,表示像素点pij在框b内,否则,像素点pij不在此框内。
最后,取真实框和预测框的最小外接矩形作为参考区域,选取同时在真实框和预测框内的像素点数S’,以及两个框内的所有像素点数之和T’;S’与T’的比值即为Pixels-IoU损失,由Pixels-IoU损失计算方向预测损失。
最终,利用各分支对应的损失函数计算有向预测框的损失函数;
公式为:
Ldet=Lcls+λsizeLsize+λoffLoff+λangLang
其中,Lcls为分类损失,Lsize为边界框宽高尺度损失,Loff为中心点补偿损失。而Lang为方向预测损失。λsize为边界框尺度对应的损失权重;λoff为中心点补偿损失对应的损失权重;λang为方向预测损失对应的损失权重。
步骤六、对于测试集中包含新类别目标的遥感图像,利用训练好的改进的特征提取网络进行目标预测。
具体预测过程为:
步骤601、将包含新类别目标的遥感图像按照one-way one-shot的任务划分,得到查询图像和支持图像。
步骤602、将支持图像和查询图像通入训练好的改进的特征提取网络;
步骤603、对提取的特征进行处理,分类分支输出预测的中心点位置和类别,其余各分支对应该位置的值,分别预测中心点补偿值、宽高和方向值,并综合得到有向预测框。
步骤604、利用当前图像的真实标注信息和目标预测框做旋转IOU。
旋转IOU的计算方式如下:
其中Bpr为目标预测框,Bgt为标注中的真值边界框。
步骤605、利用旋转IOU计算精确率Precision和召回率Recall,并进一步计算评价指标F1。
若得到的IOU值大于用户设定的阈值,则判断该检测框为true positive,TP表示标记为true positive检测框的数量;否则为false positive,FP表示标记为falsepositive检测框的数量;若真值边界框不存在一个同类的检测框与它的IOU大于这个阈值,则该真值框为false negative,FN表示标记为false negative真实框的数量;
由以上计算精确率Precision、召回率Recall和评价指标F1-Score。
其中精确率和召回率是相互矛盾的,所以在本实施例中考虑两者的加权平均F1-Score作为评价指标。
具体计算公式为:
步骤606、评价指标F1对包含新类别目标的遥感图像的预测结果进行评价。
实施例:
本实例对包含了4个类别186幅遥感图像数据集进行了测试,测试过程如下所述:
第一步,对待处理的遥感图像进行任务划分。
1)构建小规模的遥感图像目标检测数据集
从遥感图像目标检测数据集NWPU VHR-10中筛选了4类共186张带有方向性目标的图像,并进行了人工标注。角度是以12点钟方向为0度,顺时针旋转的角度。
本小规模数据集中包括含飞机的遥感图像56张、含桥梁的图像40张、含舰船的图像49张、含体育场的图像41张。
2)任务划分
取其中三类图像作为训练集,剩余一类作为测试集。对训练集进行one-way one-shot的任务划分。各任务中假设支持图像标注已知,查询图像标注未知。
第二步,将任务图像即支持集与查询集通入特征提取网络。
将支持图像中的目标按标注信息裁剪下来经过仿射变换将其调整成128*128大小。查询图像同样经过仿射变换调整成512*512。成对地通入特征提取网络后经过下采样和上采样特征融合过程分别得到32*32*channels和128*128*channels尺寸的特征图。
第三步,在特征提取网络中间的若干层添加协同注意力模块。
在4、8、16和32倍下采样层皆添加协同注意力模块用于查询图像中对应目标的特征增强。
第四步,基于查询集特征图构建多分支检测头部。
至此整体网络结构构建完成,训练时初始学习率为1.25e-4,并分别在第90轮和第120轮时削减至上一阶段的0.1倍,共训练150轮。其中各分支损失函数的权重分别为1、0.1、0.1、0.1。
第五步,对于包含新类别目标的遥感图像,利用训练得到的目标检测网络进行目标预测。
分别轮流取某类图像作为不参与训练过程的测试集,用另外三类作为训练集,由此测试时面临的是训练过程中未知的新类别目标图像。训练过程中存在参数更新,测试时仍按照支持图像和查询图像的任务划分成对地输入,但只进行推理,没有参数更新过程。IOU阈值设置为0.5,得到测试指标如下所示。
表1测试结果
各类别图像作为测试集时的目标检测结果如图6所示。
本实施例中的训练集和测试集类别和样本数目都较为稀少,并且训练集和测试集中的类别具有的高度的差异性,然而即使在测试时面对完全不同的目标类别,本算法仍体现出了一定的检测性能的优越性。
本发明针对遥感图像任务中的小样本问题,引入了元学习的思想构建任务学习机制;同时引入多层协同注意力模块从空间和通道两个方面增强查询图像中对应目标的特征表达,达到增强先验信息的目的。考虑到遥感图像中目标的多方向性,在检测分支中加入了方向分支,并利用Pixels-IoU优化全局损失,最终通过自主构建的小规模实施案例进行了实验。证明了即使在训练集种类和数量都严重不足的情况下,测试时面对新的目标种类、新的检测任务,此算法仍有较好的泛化能力,并且表现出一定的有效性。
Claims (6)
1.一种基于元学习和协同注意力的小样本遥感图像目标检测方法,其特征在于,具体步骤如下:
步骤一、取若干类目标的遥感图像分别划分训练集和测试集;
步骤二、从元学习的思想出发,对训练集进行one-way one-shot的任务划分,得到支持集和查询集;
步骤三、根据标注信息对支持集中的每个图像进行裁剪,得到各图像对应的仅保留目标的图像;
步骤四、将目标图像集和查询集,以孪生网络双输入的形式输入改进的特征提取网络,输出修正后的查询集的特征分布;
改进的特征提取网络是指:在特征提取网络中的4倍、8倍、16倍和32倍下采样层中分别添加协同注意力模块;协同注意力模块分为空间域注意力和通道域注意力;
空间域注意力non-local模块的具体运算过程为:
首先,对于目标图像集S和查询集图像Q,经过主干网络提取到的特征分别为α(S)和α(Q);
最后,对互相关的两个特征θ和进行softmax操作归一化注意力权重,并将注意力权重与查询集的g特征和支持集的g特征分别做点乘;点乘后的查询集特征与原查询集图像Q做残差运算,同时,点乘后的支持集特征与原输入目标图像集做残差运算,两个残差结果作为non-local模块的输出;
通道域注意力squeeze模块的具体运算过程为:
首先,将non-local模块中输出的残差支持集特征分出两支:分别做全局平均池化和全局最大池化;
然后,将每个分支都进行1*1卷积与全连接操作,并将两个分支的结果求和,得到1*1*channels的权重特征;
最后,将1*1*channels的权重特征作为模板,与non-local模块输出的残差查询集特征进行卷积,从通道上修正查询集的特征分布;
步骤五、分别构建分类分支、边界框宽高分支、中心点补偿分支和方向分支,对修正后的查询集特征进行后处理,构建基于各分支的多任务损失函数;
分类分支完成类别判断任务,输出通道数等于类别数的热力图,与真实框生成的热力图做分类损失;边框宽高分支和中心点补偿分支通过与真实框的对应信息做回归损失;而方向分支对应的损失由Pixels-IoU计算得到,具体为:
首先,通过对各分支的预测信息进行提取,得到有向预测框;
然后,通过像素计数的方式计算有向预测框与标注的真实框之间的Pixels-IoU:
具体为:
首先,对于像素点pij,利用像素点pij与有向预测框b的垂直距离和水平距离计算δ(pij|b);
计算公式为:
然后,判断δ(pij|b)是否为1,如果是,表示像素点pij在框b内,否则,像素点pij不在此框内;
最后,取真实框和预测框的最小外接矩形作为参考区域,选取同时在真实框和预测框内的像素点数S’,以及两个框内的所有像素点数之和T’;S’与T’的比值即为Pixels-IoU损失,由Pixels-IoU损失计算方向预测损失;
最终,利用各分支对应的损失函数计算有向预测框的损失函数;
公式为:
Ldet=Lcls+λsizeLsize+λoffLoff+λangLang
其中,Lcls为分类损失,Lsize为边界框宽高尺度损失,Loff为中心点补偿损失;而Lang为方向预测损失;λsize为边界框尺度对应的损失权重;λoff为中心点补偿损失对应的损失权重;λang为方向预测损失对应的损失权重;
步骤六、对于测试集中包含新类别目标的遥感图像,利用训练好的改进的特征提取网络进行目标预测。
2.如权利要求1所述的一种基于元学习和协同注意力的小样本遥感图像目标检测方法,其特征在于,所述步骤一具体为:对于包含若干个类别目标的遥感图像,取其中X个类别的样本作为训练集,其余类别样本作为测试集。
3.如权利要求1所述的一种基于元学习和协同注意力的小样本遥感图像目标检测方法,其特征在于,所述步骤二具体为:每轮训练时,从训练集中选取一个类别,并从该类别中任取一个图像作为支持图像,其余任意图像作为查询图像;所有的支持图像组成支持集S;所有的查询图像组成查询集Q;支持图像样本量少,假设支持图像的标注信息已知;查询图像的标注信息未知;标注信息包括目标中心点、宽度、长度和角度;每轮训练都将完成一个小样本检测任务,从而在训练中完成元知识的积累,达到测试时完成新任务学习的需求。
4.如权利要求1所述的一种基于元学习和协同注意力的小样本遥感图像目标检测方法,其特征在于,步骤五中所述分类分支、边界框宽高分支、中心点补偿分支和方向分支,每个分支皆由一层3*3卷积和一层1*1卷积构成。
5.如权利要求1所述的一种基于元学习和协同注意力的小样本遥感图像目标检测方法,其特征在于,步骤五中所述有向预测框的获取方式为:从分类分支中提取各通道的目标中心点局部区域尖峰,如果某点是8邻域内的最大值,则保留这个点作为预测得到的未经修正的中心点位置;取其余各分支对应该位置的值,分别作为预测得到的中心点补偿值、宽高和方向值;将以上各预测信息结合得到有向预测框。
6.如权利要求1所述的一种基于元学习和协同注意力的小样本遥感图像目标检测方法,其特征在于,步骤六具体预测过程为:
步骤601、将包含新类别目标的遥感图像按照one-way one-shot的任务划分,得到查询图像和支持图像;
步骤602、将支持图像和查询图像通入训练好的改进的特征提取网络;
步骤603、对提取的特征进行处理,分类分支输出预测的中心点位置,其余各分支对应该位置的值,分别预测中心点补偿值、宽高和方向值,并综合得到有向预测框;
步骤604、利用当前图像的真实标注信息和目标预测框做旋转IOU;
旋转IOU的计算方式如下:
其中Bpr为目标预测框,Bgt为标注中的真值边界框;
步骤605、利用旋转IOU计算精确率Precision和召回率Recall,并进一步计算评价指标F1;
具体计算公式为:
true positive为某图像A目标预测框和真值边界框之间旋转IOU值大于设定的阈值后,此时图像A中目标预测框的标记,TP表示标记为true positive检测框的数量;
false positive为图像A目标预测框和真值边界框之间旋转IOU值小于等于设定的阈值后,此时图像A预测框的标记,FP表示标记为false positive检测框的数量;
false negative为图像A的真实框不存在与其旋转IOU大于设定阈值的检测框,此时图像A中此真实框的标记,FN表示标记为false negative真实框的数量;
步骤606、评价指标F1对包含新类别目标的遥感图像的预测结果进行评价。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2020114541056 | 2020-12-10 | ||
CN202011454105 | 2020-12-10 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112818903A CN112818903A (zh) | 2021-05-18 |
CN112818903B true CN112818903B (zh) | 2022-06-07 |
Family
ID=75864828
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110198130.0A Active CN112818903B (zh) | 2020-12-10 | 2021-02-22 | 一种基于元学习和协同注意力的小样本遥感图像目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112818903B (zh) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113177528B (zh) * | 2021-05-27 | 2024-05-03 | 南京昊烽信息科技有限公司 | 基于多任务学习策略训练网络模型的车牌识别方法及系统 |
CN113240039B (zh) * | 2021-05-31 | 2023-08-15 | 西安电子科技大学 | 基于空间位置特征重加权的小样本目标检测方法及系统 |
CN113408546B (zh) * | 2021-06-21 | 2023-03-07 | 武汉工程大学 | 基于相互全局上下文注意力机制的单样本目标检测方法 |
CN113627245B (zh) * | 2021-07-02 | 2024-01-19 | 武汉纺织大学 | Crts目标检测方法 |
CN113343991B (zh) * | 2021-08-02 | 2023-06-09 | 四川新网银行股份有限公司 | 一种特征内增强的弱监督学习方法 |
CN113780345A (zh) * | 2021-08-06 | 2021-12-10 | 华中科技大学 | 面向中小企业的基于张量注意力的小样本分类方法和系统 |
CN113706487B (zh) * | 2021-08-17 | 2024-09-06 | 西安电子科技大学 | 基于自监督特征小样本学习的多器官分割方法 |
CN113743363B (zh) * | 2021-09-17 | 2022-05-24 | 中国人民解放军国防科技大学 | 一种基于无人机系统小样本的遮挡目标识别方法 |
CN113835964B (zh) * | 2021-09-26 | 2023-07-18 | 湘潭大学 | 基于小样本学习的云数据中心服务器能耗预测方法 |
CN113838058B (zh) * | 2021-10-11 | 2024-03-19 | 重庆邮电大学 | 一种基于小样本分割的医学图像自动标注方法及系统 |
CN113887489A (zh) * | 2021-10-21 | 2022-01-04 | 西南交通大学 | 基于位置增强和多尺度融合网络的车厢内人群计数方法 |
CN113971764B (zh) * | 2021-10-29 | 2024-05-14 | 燕山大学 | 一种基于改进YOLOv3的遥感图像小目标检测方法 |
CN114067160B (zh) * | 2021-11-22 | 2023-04-07 | 重庆邮电大学 | 基于嵌入平滑图神经网络的小样本遥感图像场景分类方法 |
CN114169442B (zh) * | 2021-12-08 | 2022-12-09 | 中国电子科技集团公司第五十四研究所 | 基于双原型网络的遥感图像小样本场景分类方法 |
CN113971746B (zh) * | 2021-12-24 | 2022-03-11 | 季华实验室 | 基于单次人手示教的垃圾分类方法、装置及分拣智能系统 |
CN114283345B (zh) * | 2021-12-30 | 2024-10-25 | 武汉大学 | 基于元学习和注意力的小样本城市遥感影像信息提取方法 |
CN114022558B (zh) * | 2022-01-05 | 2022-08-26 | 深圳思谋信息科技有限公司 | 图像定位方法、装置、计算机设备和存储介质 |
CN114155365B (zh) * | 2022-02-07 | 2022-06-14 | 北京航空航天大学杭州创新研究院 | 模型训练方法、图像处理方法及相关装置 |
CN114818963B (zh) * | 2022-05-10 | 2023-05-09 | 电子科技大学 | 一种基于跨图像特征融合的小样本检测方法 |
CN115115825B (zh) * | 2022-05-27 | 2024-05-03 | 腾讯科技(深圳)有限公司 | 图像中的对象检测方法、装置、计算机设备和存储介质 |
CN115049944B (zh) * | 2022-06-02 | 2024-05-28 | 北京航空航天大学 | 一种基于多任务优化的小样本遥感图像目标检测方法 |
CN115240078B (zh) * | 2022-06-24 | 2024-05-07 | 安徽大学 | 一种基于轻量化元学习的sar图像小样本目标检测方法 |
CN115100532B (zh) * | 2022-08-02 | 2023-04-07 | 北京卫星信息工程研究所 | 小样本遥感图像目标检测方法和系统 |
CN115100432B (zh) * | 2022-08-23 | 2022-11-18 | 浙江大华技术股份有限公司 | 一种小样本目标检测方法、设备及计算机可读存储介质 |
CN116071609B (zh) * | 2023-03-29 | 2023-07-18 | 中国科学技术大学 | 基于目标特征动态自适应提取的小样本图像分类方法 |
CN116188995B (zh) * | 2023-04-13 | 2023-08-15 | 国家基础地理信息中心 | 一种遥感图像特征提取模型训练方法、检索方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110020682A (zh) * | 2019-03-29 | 2019-07-16 | 北京工商大学 | 一种基于小样本学习的注意力机制关系对比网络模型方法 |
CN110569886A (zh) * | 2019-08-20 | 2019-12-13 | 天津大学 | 一种双向通道注意力元学习的图像分类方法 |
CN111191566A (zh) * | 2019-12-26 | 2020-05-22 | 西北工业大学 | 基于像素分类的光学遥感图像多目标检测方法 |
CN111563473A (zh) * | 2020-05-18 | 2020-08-21 | 电子科技大学 | 基于密集特征融合和像素级注意力的遥感舰船识别方法 |
-
2021
- 2021-02-22 CN CN202110198130.0A patent/CN112818903B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110020682A (zh) * | 2019-03-29 | 2019-07-16 | 北京工商大学 | 一种基于小样本学习的注意力机制关系对比网络模型方法 |
CN110569886A (zh) * | 2019-08-20 | 2019-12-13 | 天津大学 | 一种双向通道注意力元学习的图像分类方法 |
CN111191566A (zh) * | 2019-12-26 | 2020-05-22 | 西北工业大学 | 基于像素分类的光学遥感图像多目标检测方法 |
CN111563473A (zh) * | 2020-05-18 | 2020-08-21 | 电子科技大学 | 基于密集特征融合和像素级注意力的遥感舰船识别方法 |
Non-Patent Citations (5)
Title |
---|
S. Reed etc..Few-Shot Autoregressive Density Estimation: Towards Learning To Learn Distributions.《ICLR 2018》.2018,全文. * |
Xianqin Ma etc..Few-Shot Learning based on Attention Relation Compare Network.《2019 International Conference on Data Mining Workshops》.2019,全文. * |
Yunxiao Qin etc..Representation based and Attention augmented Meta learning.《arXiv:1811.07545v3》.2018,全文. * |
李红光等.基于深度学习的小目标检测研究进展.《航空学报》.2020,全文. * |
汪荣贵等.多级注意力特征网络的小样本学习.《电子与信息学报》.2020,(第03期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN112818903A (zh) | 2021-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112818903B (zh) | 一种基于元学习和协同注意力的小样本遥感图像目标检测方法 | |
Mahaur et al. | Small-object detection based on YOLOv5 in autonomous driving systems | |
Guo et al. | Scene-driven multitask parallel attention network for building extraction in high-resolution remote sensing images | |
CN110188705B (zh) | 一种适用于车载系统的远距离交通标志检测识别方法 | |
CN113095152B (zh) | 一种基于回归的车道线检测方法及系统 | |
Li et al. | A review of deep learning methods for pixel-level crack detection | |
CN113609896A (zh) | 基于对偶相关注意力的对象级遥感变化检测方法及系统 | |
CN115205264A (zh) | 一种基于改进YOLOv4的高分辨率遥感船舶检测方法 | |
CN110287798B (zh) | 基于特征模块化和上下文融合的矢量网络行人检测方法 | |
Sun et al. | IRDCLNet: Instance segmentation of ship images based on interference reduction and dynamic contour learning in foggy scenes | |
Liao et al. | Unsupervised cluster guided object detection in aerial images | |
Manssor et al. | Real-time human detection in thermal infrared imaging at night using enhanced Tiny-yolov3 network | |
CN110490155B (zh) | 一种禁飞空域无人机检测方法 | |
Xu et al. | AMCA: Attention-guided multiscale context aggregation network for remote sensing image change detection | |
CN116311353A (zh) | 基于特征融合的密集行人多目标跟踪方法、计算机设备和存储介质 | |
CN114241250A (zh) | 一种级联回归目标检测方法、装置及计算机可读存储介质 | |
Fu et al. | A case study of utilizing YOLOT based quantitative detection algorithm for marine benthos | |
CN116596966A (zh) | 一种基于注意力和特征融合的分割与跟踪方法 | |
Sun et al. | Decoupled feature pyramid learning for multi-scale object detection in low-altitude remote sensing images | |
Li et al. | Object detection for uav images based on improved yolov6 | |
CN116740516A (zh) | 基于多尺度融合特征提取的目标检测方法及系统 | |
Shi et al. | Cpa-yolov7: Contextual and pyramid attention-based improvement of yolov7 for drones scene target detection | |
Yang et al. | An effective and lightweight hybrid network for object detection in remote sensing images | |
Shi et al. | Anchor free remote sensing detector based on solving discrete polar coordinate equation | |
Ouyang et al. | An anchor-free detector with channel-based prior and bottom-enhancement for underwater object detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |