CN113989612A - 基于注意力及生成对抗网络的遥感影像目标检测方法 - Google Patents
基于注意力及生成对抗网络的遥感影像目标检测方法 Download PDFInfo
- Publication number
- CN113989612A CN113989612A CN202110524297.1A CN202110524297A CN113989612A CN 113989612 A CN113989612 A CN 113989612A CN 202110524297 A CN202110524297 A CN 202110524297A CN 113989612 A CN113989612 A CN 113989612A
- Authority
- CN
- China
- Prior art keywords
- network
- mask
- attention
- remote sensing
- target detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供基于注意力及生成对抗网络的遥感影像目标检测方法,包括对数据进行初始处理,之后将处理过的数据集输入到算法网络,输入图像流经由卷积神经网络构成的图像特征提取网络;由网络生成影像目标候选区域;将候选区域位置信息映射到对应的特征图;映射特征图输入全连接网络预测出准确的边界框位置并完成目标的分类,掩码生成分支则继续根据候选区域生成目标掩码,本发明用于解决一些特定目标数据稀缺,遥感图像中的飞机船只的目标检测问题。
Description
技术领域
本发明涉及人工智能、深度学习、目标检测技术领域,尤其涉及基于注意 力及生成对抗网络的遥感影像目标检测方法。
背景技术
早期因为卫星遥感图像的空间分辨率较低,对于图像中一些较小的物体, 无法进行精确检测,对于遥感图像的检测主要集中在提取某一块区域的空间地 理属性,例如图像中的森林,湖泊,植被分布等。近几年,得益于遥感技术快 速发展,航空遥感图像的空间分辨率也可以达到亚米级别,使得检测图像中的 单独个体成为可能。
在海量高分辨率的遥感图像数据支持下,一些应用在遥感图像上的目标检 测技术开始相继涌现,尤其基于深度学习技术的目标检测更是发展快速。虽然 基于深度学习的分类和检测模型已经被广泛的应用在遥感图像领域,但大多数 还是关注在日常的物体检测中,日常物体的检测与遥感图像目标检测的区别在 于其容易获取,尺度变化比较小,一般一张图片中需要检测的目标也比较少, 这些深度学习的模型对于遥感图像这种目标变化尺度大,样本分布不均衡,背 景复杂的图像检测并不能体现出来其在自然图像识别上的出色学习性能。
发明内容
有鉴于此,本发明目的是提供一种基于注意力及生成对抗网络的遥感影像 目标检测方法,用以解决普通的卷积神经网络在检测遥感影像中飞机、舰船、 车辆等小目标的检测效果不理想问题;具体步骤如下:
S1、利用现有的Mask R-CNN模型,在骨干网络ResNet101上嵌入注意力 机制、特征金字塔FPN,在Mask掩码分支进行GAN对抗训练,得到训练好的 目标检测识别深度网络;
S2、对收集制作的遥感影像数据集上使用数据增强方法对数据集进行样本 扩充;
S3、将S2中扩充之后的遥感影像数据集送入S1中以ResNet101以及FPN 作为骨干网络的深度卷积层生成特征图;
S4、将S3中生成的特征图送入MaskR-CNN中的区域推荐网络,使用卷积 神经网络做分类与目标检测框回归,得到候选区域;
S5、对S4中生成的候选区域做感兴趣区域对齐,重塑特征图的尺寸;
S6、对S5中重塑尺寸后的特征图送入三个全连接网络,分别对图像做目标 分类、目标检测框回归以及掩码生成。
本发明提供的技术方案带来的有益效果是:本发明将高性能目标检测算法 应用到了飞机舰船等小的军事目标的检测,提高了识别的效率和准确度,可帮 助指挥人员做出正确的决策,对军事作战及指挥有着重要的意义。而在民用领 域,对农田、建筑物的有效识别也可用于监测农业产量,违章建筑识别等场景。
附图说明
图1是本发明基于注意力及生成对抗网络的遥感影像目标检测方法的流程 图;
图2是本发明基于注意力及生成对抗网络的遥感影像目标检测方法的网络 架构图;
图3是本发明基于注意力及生成对抗网络的遥感影像目标检测方法的检测 效果图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明 实施方式作进一步地描述。
请参考图1,本发明提供了基于注意力及生成对抗网络的遥感影像目标检测 方法,构建了由MASK-RCNN+RPN+RA-ATTENTION+GAN组成的解决方案, 可以准确的提取图像中目标的特征信息,有效提高遥感图像中的目标检测精度。
针对高分辨率遥感图像中目标复杂,数据规模、数据量过少,以及军事目标 检测需求,在数据预处理阶段构建一个完整的飞机目标检测数据集,用于卷积 神经网络的输入,针对军事目标检测的精度要求,对数据进行初始处理,数据 增强,数据集扩充等,在数据增强阶段使用“马赛克”增强技术对图像进行处理, 提高模型的识别精度和泛化能力。
主干网络拟选择Dense Net思路对block进行联接,同时将网络中的block替 换成RA-Attention module,请参考图2。由于输入数据中有部分占比低于1%的 小目标,为让模型可以更好的检测出这类目标,在主体网络中结合了FPN(Feature PyramidNetwork,特征金字塔网络),以减少因尺度变化而导致的特征丢失,并在 FPN中添加RA-Attention(循环注意力机制),将不被经常使用的上下文信息进行 融合,保证数据上下文信息的完整性。在MASK分支中使用GAN网络对MASK 判别器进行预训练提升掩膜输出精度。
本发明具体步骤如下:
S1、利用现有的Mask R-CNN模型,在骨干网络ResNet101上嵌入注意力 机制、特征金字塔FPN,在Mask掩码分支进行GAN对抗训练,得到训练好的 目标检测识别深度网络;
S2、对收集制作的遥感影像数据集上使用数据增强方法对数据集进行样本 扩充;
S3、将S2中扩充之后的遥感影像数据集送入S1中以ResNet101以及FPN 作为骨干网络的深度卷积层生成特征图;
S4、将S3中生成的特征图送入MaskR-CNN中的区域推荐网络,使用卷积 神经网络做分类与目标检测框回归,得到候选区域;
S5、对S4中生成的候选区域做感兴趣区域对齐,重塑特征图的尺寸;
S6、对S5中重塑尺寸后的特征图送入三个全连接网络,分别对图像做目标 分类、目标检测框回归以及掩码生成。
首先,输入待处理的图片,然后进行对应的预处理操作,或者预处理后的 图片;然后,将其输入到一个预训练好的神经网络中(ResNet50/ResNet101)获得 对应的特征图;接着,根据这个特征图中的每一点设定的RoI数量,获得多个 候选RoI;将这些候选的RoI送入RPN网络进行二值分类(前景或背景)和bbox 回归,过滤掉一部分候选的RoI;接着,对这些剩下的RoI进行RoIAlign操作(即 先将原图和特征图的像素对应起来,然后将特征图和固定的特征对应起来);
最后,对这些RoI进行分类(N类别分类)、bbox回归和Mask生成(在每一 个RoI里面进行FCN操作)其中Mask分支添加生成对抗网络结构,将Mask生 成器中添加一层判别器以提升Mask生成的精确度,请参考图3。
所述Mask R-CNN网络中用到RoIAlign,在原始池化操作上引入双线性内 插算法,具体算法公式如下:
xi代表池化前特征图上的像素点;yrj代表池化后的第r个候选区域的第j个 点;i*(r,j)代表点yrj像素值的来源,最大池化的时候选出的最大像素值所在点的 坐标,d(.)表示两点之间的距离,Δh和Δw表示xi与xi*(r,j)横纵坐标的差值,这 里作为双线性内插的系数乘在原始的梯度上。
所述Mask R-CNN基础网络中用到的损失函数为分类损失、边界框回归损 失、掩膜损失的和,具体算法公式如下:
L=Lcls+Lbox+Lmask
其中,L表示模型总损失,Lcls表示分类损失,Lbox表示边界框损失, Lmask表示掩膜损失。
所述Mask R-CNN基础网络中用到注意力模块,具体算法公式如下:
σ表示sigmoid函数,MLP表示多层感知器,用于共享参数,和分别 代表全局平均池化和全局最大值池化输出的特征,f7*7表示在拼接后的特征图上 做7*7的卷积,Ms(F)表示最终生成的空间注意力特征。
所述Mask R-CNN基础网络中用到Mask分支网络用于构建生成对抗网络, 具体的优化目标函数如下所示:
对应的损失函数公式如下,其中Pdata(x)为真实样本的分布,D(x)为判别 器,G(z)为生成器;
其中,LD为判别器的损失函数,LG为生成器的损失函数;n为样本数。
在深度学习的过程中,输入图像经过神经网络模型后,将获得一个描述输 入图像的特征矩阵,然后根据拟解决任务的不同,使用该特征矩阵完成图像分 类、分割等任务。但是在刚开始进行模型训练时,该特征矩阵并不能很好的描 述输入图像,因此需要根据训练集每次训练的结果,调整模型中各层的参数, 使模型能通过特征矩阵较好地描述输入图像。神经网络模型需要使用损失函数, 通过该函数将得到的神经网络输出结果与训练集所标识的实际值相对比,得到 损失值,当损失函数为0时,表示该神经网络模型能完美拟合所有输入数据, 因此损失函数为0的模型为一个理想模型。训练神经网络模型的目的是尽可能 减小损失值。
神经网络方法通过反向传播算法进行模型的训练,也就是根据损失函数计 算得到的损失值,沿着神经网络模型反向的向前传播,在该传播过程中根据梯 度下降的方向,调整每一层的卷积参数权重参数w和偏置量b。通过不断迭代, 得到收敛的神经网络模型。为了提高网络模型的收敛速度和特征结果的鲁棒性, 本文采用小批量随机梯度下降方法进行训练。
在改进后的Mask R-CNN神经网络模型的训练过程中,设置输入批大小为 2,网络迭代次数与原Mask R-CNN一致,为90000。参数更新策略为动量梯度 下降优化方法和学习率衰减方法,动量梯度下降优化方法如公式所示:
其中Vdw表示权重w下降速率,Vdb表示偏置b下降速率,β为 梯度更新动量值,α为学习率。学习率衰减方法如公式所示:
其中α为学习率,d为衰减率,n为迭代次数,α0为初始学习率。
在训练改进后的MaskR-CNN时,α0=0.0025,β=0.9,d=0.0001,使用 分段常数学习率衰减方法,设置n为60000和80000,该方法如公式所示:
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本 发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的, 本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它 实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要 符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (7)
1.基于注意力及生成对抗网络的遥感影像目标检测方法,其特征在于,包括以下几个步骤:
S1、利用现有的Mask R-CNN模型,在骨干网络ResNet101上嵌入注意力机制、特征金字塔FPN,在Mask掩码分支进行GAN对抗训练,得到训练好的目标检测识别深度网络;
S2、对收集制作的遥感影像数据集上使用数据增强方法对数据集进行样本扩充;
S3、将S2中扩充之后的遥感影像数据集送入S1中以ResNet101以及FPN作为骨干网络的深度卷积层生成特征图;
S4、将S3中生成的特征图送入MaskR-CNN中的区域推荐网络,使用卷积神经网络做分类与目标检测框回归,得到候选区域;
S5、对S4中生成的候选区域做感兴趣区域对齐,重塑特征图的尺寸;
S6、对S5中重塑尺寸后的特征图送入三个全连接网络,分别对图像做目标分类、目标检测框回归以及掩码生成。
2.根据权利要求1所述的基于注意力及生成对抗网络的遥感影像目标检测方法,其特征在于,所述增强方法包括尺度变换、旋转以及马赛克。
3.根据权利要求1所述的基于注意力及生成对抗网络的遥感影像目标检测方法,其特征在于,所述目标检测框的获得具体包括:
S11、对初始图片进行尺寸归一化处理;
S12、利用ResNet101进行图片特征提取,在骨干网络中加入注意力模块,计算图像的卷积特征,将最后一层卷积特征输入特征金字塔网络,构建包含语义与位置的特征图,最后以特征金字塔网络的输出特征图构建候选区域生成网络推荐图,生成候选区域;
S13、将候选区域与感兴趣区域对齐,将其输入到全连层进行预测,得到多个目标检测候选框;
S14、采用非极大值抑制算法,剔除多余的目标检测框,得到最终的目标检测框。
5.根据权利要求1所述的基于注意力及生成对抗网络的遥感影像目标检测方法,其特征在于,所述Mask R-CNN基础网络中用到的损失函数为分类损失、边界框回归损失、掩膜损失的和,具体算法公式如下:
L=Lcls+Lbox+Lmask
其中,L表示模型总损失,Lcls表示分类损失,Lbox表示边界框损失,Lmask表示掩膜损失。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110524297.1A CN113989612A (zh) | 2021-05-13 | 2021-05-13 | 基于注意力及生成对抗网络的遥感影像目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110524297.1A CN113989612A (zh) | 2021-05-13 | 2021-05-13 | 基于注意力及生成对抗网络的遥感影像目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113989612A true CN113989612A (zh) | 2022-01-28 |
Family
ID=79731739
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110524297.1A Pending CN113989612A (zh) | 2021-05-13 | 2021-05-13 | 基于注意力及生成对抗网络的遥感影像目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113989612A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114764880A (zh) * | 2022-04-02 | 2022-07-19 | 武汉科技大学 | 多成分gan重建的遥感图像场景分类方法 |
CN114998242A (zh) * | 2022-05-26 | 2022-09-02 | 电子科技大学 | 一种卫星图像中输电线路杆塔检测方法 |
CN118628294A (zh) * | 2024-08-14 | 2024-09-10 | 广东省建筑设计研究院集团股份有限公司 | 一种基于既有建筑结构的建筑巡检方法及系统 |
-
2021
- 2021-05-13 CN CN202110524297.1A patent/CN113989612A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114764880A (zh) * | 2022-04-02 | 2022-07-19 | 武汉科技大学 | 多成分gan重建的遥感图像场景分类方法 |
CN114764880B (zh) * | 2022-04-02 | 2024-04-26 | 武汉科技大学 | 多成分gan重建的遥感图像场景分类方法 |
CN114998242A (zh) * | 2022-05-26 | 2022-09-02 | 电子科技大学 | 一种卫星图像中输电线路杆塔检测方法 |
CN118628294A (zh) * | 2024-08-14 | 2024-09-10 | 广东省建筑设计研究院集团股份有限公司 | 一种基于既有建筑结构的建筑巡检方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Remote sensing image spatiotemporal fusion using a generative adversarial network | |
CN109919108B (zh) | 基于深度哈希辅助网络的遥感图像快速目标检测方法 | |
CN109584248B (zh) | 基于特征融合和稠密连接网络的红外面目标实例分割方法 | |
CN110335290B (zh) | 基于注意力机制的孪生候选区域生成网络目标跟踪方法 | |
CN108647655B (zh) | 基于轻型卷积神经网络的低空航拍影像电力线异物检测方法 | |
CN112488210A (zh) | 一种基于图卷积神经网络的三维点云自动分类方法 | |
CN111079739B (zh) | 一种多尺度注意力特征检测方法 | |
CN108537824B (zh) | 基于交替反卷积与卷积的特征图增强的网络结构优化方法 | |
CN112561796B (zh) | 基于自注意生成对抗网络的激光点云超分辨率重建方法 | |
CN109029363A (zh) | 一种基于深度学习的目标测距方法 | |
CN113239830B (zh) | 一种基于全尺度特征融合的遥感图像云检测方法 | |
CN113989612A (zh) | 基于注意力及生成对抗网络的遥感影像目标检测方法 | |
CN110136162B (zh) | 无人机视角遥感目标跟踪方法及装置 | |
CN113888461A (zh) | 基于深度学习的小五金件缺陷检测方法、系统及设备 | |
CN113610905B (zh) | 基于子图像匹配的深度学习遥感图像配准方法及应用 | |
CN113591617B (zh) | 基于深度学习的水面小目标检测与分类方法 | |
CN116091946A (zh) | 一种基于YOLOv5的无人机航拍图像目标检测方法 | |
CN117557774A (zh) | 一种基于改进YOLOv8的无人机图像小目标检测方法 | |
CN117576724A (zh) | 一种无人机飞鸟检测方法、系统、设备和介质 | |
CN116385281A (zh) | 一种基于真实噪声模型与生成对抗网络的遥感图像去噪方法 | |
CN114565824B (zh) | 基于全卷积网络的单阶段旋转舰船检测方法 | |
CN118314353B (zh) | 一种基于双分支多尺度特征融合的遥感图像分割方法 | |
Yin et al. | M2F2-RCNN: Multi-functional faster RCNN based on multi-scale feature fusion for region search in remote sensing images | |
CN112785629A (zh) | 一种基于无监督深度光流网络的极光运动表征方法 | |
CN115063428B (zh) | 一种基于深度强化学习的空间暗弱小目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |