CN113780149B - 一种基于注意力机制的遥感图像建筑物目标高效提取方法 - Google Patents
一种基于注意力机制的遥感图像建筑物目标高效提取方法 Download PDFInfo
- Publication number
- CN113780149B CN113780149B CN202111042674.4A CN202111042674A CN113780149B CN 113780149 B CN113780149 B CN 113780149B CN 202111042674 A CN202111042674 A CN 202111042674A CN 113780149 B CN113780149 B CN 113780149B
- Authority
- CN
- China
- Prior art keywords
- remote sensing
- sparse
- sensing image
- network
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 43
- 230000007246 mechanism Effects 0.000 title claims abstract description 20
- 238000000034 method Methods 0.000 claims abstract description 38
- 238000012549 training Methods 0.000 claims abstract description 36
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 238000013528 artificial neural network Methods 0.000 claims abstract description 4
- 238000012360 testing method Methods 0.000 claims description 16
- 230000011218 segmentation Effects 0.000 claims description 15
- 230000000007 visual effect Effects 0.000 claims description 13
- 238000005070 sampling Methods 0.000 claims description 11
- 238000013527 convolutional neural network Methods 0.000 claims description 9
- 239000013598 vector Substances 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 8
- 238000013135 deep learning Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 claims description 5
- 239000003550 marker Substances 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 101100481876 Danio rerio pbk gene Proteins 0.000 claims description 4
- 101100481878 Mus musculus Pbk gene Proteins 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 4
- 238000010200 validation analysis Methods 0.000 claims description 3
- 238000012795 verification Methods 0.000 claims description 3
- 230000009286 beneficial effect Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000005065 mining Methods 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims description 2
- 238000012805 post-processing Methods 0.000 claims description 2
- 230000009467 reduction Effects 0.000 claims description 2
- 238000004458 analytical method Methods 0.000 abstract description 2
- 230000008901 benefit Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000010339 dilation Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于注意力机制的遥感图像建筑物目标高效提取方法。具体步骤如下:一、读入图像数据并进行预处理;二、构造基于注意力机制的遥感图像建筑物目标高效提取网络;三、训练神经网络,得到模型参数;四、就行遥感图像建筑物目标提取。本发明的网络模型是在浅层特征图的稀疏特征上利用Transformer构建全局上下文特征。在浅层特征图上应用Transformer可以很好的保留局部细节用于识别边界;只使用稀疏的语义单词可以显著提高网络的速度并降低计算机的内存消耗;同时构建的全局感受野可以很大程度减少复杂背景的干扰。本发明的遥感图像建筑物提取方法输入为遥感图像,输出为建筑物目标的二值掩模,自动化程度高,信息解析速度快,能够大幅度提高效率,降低成本。
Description
技术领域
本发明是一种基于注意力机制的遥感图像建筑物目标高效提取方法,涉及遥感图像处理和深度学习的理论方法,属于高分辨率遥感图像目标分割技术领域。
背景技术
遥感图像建筑物提取是自动识别遥感图像中每个像素的是否属于建筑物的过程,它在城市规划、人口估计、经济活动分布、灾害报告、违章建筑检测等方面都发挥着重要作用。同时它也可以作为下游任务的先决条件,例如在遥感图像变化检测领域可以先进行不同时相的建筑物检测,然后再分析变化区域。近年来随着硬件的发展,高分辨率遥感影像数据量呈指数级增长。基于深度学习的建筑物自动提取方法已成为一种便捷高效获取建筑物分布的方式。但是,也存在一些挑战,由于特殊的成像方式,遥感图像经常受到光照、大气和云层的影响。同一建筑物在不同的时空表现为隐空间的不同流形。网络需要强大的特征提取能力才能在不同的时间和空间中获得鲁棒的特征。而且,建筑物在颜色、大小和形状上表现出明显的差异,类内差异很大。大部分建筑物都处于一个复杂的背景中,很多建筑物的边界被周围的树木遮挡,很难提取出准确完整的建筑物边界。现有的建筑物提取方法大多侧重于提高准确性,很少考虑实际应用中出现的效率问题。
以卷积神经网络为代表的深度学习方法受到研究人员的青睐。由于其强大的特征学习和特征表达能力,它们在很多计算机视觉任务中表现出很高的性能。研究人员提出了大量的创新算法对分割任务做出了很大的贡献。FCN曾经广泛用于像素级的标注任务。它在端到端的学习框架中显著提高了训练和推理效率,并取得了可观的性能。许多建筑物提取方法通过修改FCN的结构以改善分割结果。SRI-Net设计了一个空间残差感知模块并将该模块集成到FCN网络中以提取多层次的语义特征。它在多尺度的建筑物检测上取得了良好的性能。
随着网络层加深,感受野逐渐增大,全局信息得到增强,但是局部细节会逐渐消失。这会使得分割的边缘不完整或不连贯。UNet通过在编码器和解码器之间构建连接桥来处理这个问题,在边界敏感的任务上取得良好的表现。DeepLab系列以通过带洞卷积和多感受野空间金字塔池化(ASPP)来解决多尺度问题。
许多研究人员致力于设计好的网络架构来提高建筑物提取性能,像深浅特征融合、多感受野结构、残差连接等。MAP-Net通过多条并行路径来捕获空间定位保留的多尺度特征来缓解尺度问题。BRRNet设计了一个预测模块来通过不同扩张率的空洞卷积提取全局上下文和一个残差细化模块来提高分割准确性。ESFNet旨在通过可分离的残差块和扩张卷积来降低计算复杂度和内存使用量。这些方法根据建筑物提取的特点,来设计网络模型,确实取得了更好的性能。
另外一些方法利用注意力模块对关键特征和区域进行建模。DANe在传统的FCN架构中提出了两种类型的自注意力模块来捕获丰富的上下文依赖关系,在计算机视觉取得了很好的性能。DAN-Net采用空间注意力融合模块来增强建筑物提取中的不同级别特征。
这些方法通过设计多个滤波器、注意力机制、扩张卷积、跳线连接等取得了显着的性能提升。然而,仅通过卷积来建立全局依赖可能不是一个最好的选择。因为通过堆叠卷积层实现大感受野时,不仅会影响模型效率,而且局部细节也会逐层消失。
最近,基于Transformer的方法摆脱了卷积的限制,在遥感领域得到了广泛的应用,包括图像分类、变化检测、图像标题生成、高光谱图像分类、图像分割等。Transformer可以学习长距离依赖关系,这对位置无约束的遥感图像语义分割任务非常有效。SETR首先将语义分割视为一个序列到序列的任务,并通过Transformers获得很好的分割结果。Bazi等人将ViT应用于遥感场景分类。陈浩等人采用Transformer方法进行遥感图像变化高效检测。他们认为感兴趣的变化区域可以用少量的视觉单词来表达。我们可以从Transformer捕捉全局依赖的强大能力中受益。然而,普通的基于Transformer的方法具有很高的计算复杂度和内存使用量。
发明内容
本发明的目的在于设计一种高效精准的遥感图像建筑物提取方法。该方法可以让网络模型能够在常规图形处理器(Graphics Processing Unit,GPU)上高效训练、测试和使用,并能够获得高质量的建筑物提取结果。
本发明是通过以下技术方案实现的:
本发明是一种基于注意力机制的遥感图像建筑物目标高效提取方法。该方法通过构建一个应用于低级特征图的稀疏特征采样器,利用采样器采样得到建筑物富含局部细节的稀疏表达,然后利用Transformer在这些稀疏表达上高效建模全局感受野,提高建筑物提取的效率和准确度。
该方法的具体步骤如下:
步骤一:计算机读取数据。使用计算机读取遥感图像数据,并对图像数据进行预处理。
步骤二:构造基于注意力机制的遥感图像建筑物目标高效提取网络。
本发明提出名为稀疏语义单词Transformer(Sparse Tokens Transformer,STT)的网络来挖掘基于注意力机制的Transformer在遥感图像建筑物目标提取任务上的潜力。遥感图像中建筑物目标不像自然图像中的目标,它只占有图片的一小部分。所以建筑物可以由卷积网络提取的特征图中的稀疏向量(视为视觉单词)很好地表示。在稀疏视觉单词之间学习长距离依赖关系,而不是在密集的像素特征或图像块之间学习,可以高效地应用Transformer实现大感受野以提高准确率。
本发明提出的STT保留了卷积神经网络(Convolutional Neural Networks,CNN)和Transformer的混合架构来充分利用卷积和注意力机制的优势。STT有三个主要组件:一个稀疏语义特征采样器,它可以根据空间和通道概率图中的高响应位置生成稀疏的语义单词。一个Transformer编码器,它是为了挖掘稀疏语义单词之间的潜在依赖关系,得到含上下文语义的稀疏单词。一个Transformer解码器,它用于将原始特征与由Transformer编码器编码的信息融合,并将稀疏单词恢复到原始的分辨率大小。
步骤三:训练神经网络。利用Pytorch深度学习框架构造好网络后,利用带标签的训练数据对网络进行训练,同时根据测试数据选择最优的网络参数,保存此时的网络参数。
步骤四:遥感图像建筑物目标提取。利用步骤三训练好的网络模型对遥感图像中的建筑物目标进行分割提取,得到建筑物目标的二值掩模。
本发明的优点在于:本发明的网络模型是在浅层特征图的稀疏特征上利用Transformer构建全局上下文特征。在浅层特征图上应用Transformer可以很好的保留局部细节用于识别边界;只使用稀疏的语义单词可以显著提高网络的速度并降低计算机的内存消耗;同时构建的全局感受野可以很大程度减少复杂背景的干扰。本发明的遥感图像建筑物提取方法输入为遥感图像,输出为建筑物目标的二值掩模,自动化程度高,信息解析速度快,能够大幅度提高效率,降低成本。
附图说明
图1a和图1b是两个数据集的样例图,图1a取自武汉大学建筑数据集;图1b取自Inria航空影像标记数据集。
图2是本发明方法的网络结构图。
图3a-图3h是本发明方法建筑物分割效果图。
图4是本发明数据处理流程图。
表1是空间概率图生成器和通道概率图生成器的组成。
具体实施方式
为了更好地理解本发明的技术方案,以下结合附图1-4对本发明的具体实施方式作进一步描述:
本发明在Pytorch框架下,使用Python语言编程实现。首先准备训练和测试的数据,然后完成网络的搭建,并配置相关的参数;再利用训练数据进行网络的训练,获得最优的网络参数;最后利用训练好的网络模型参数对测试数据进行测试,得到建筑物提取结果。在实施过程中,计算机的配置是:处理器为Intel(R)Core(TM)i7-8700K CPU,主频3.70GHz,内存56GB,显卡是NVIDIA GeForce GTX 2080Ti,显存为11GB。本发明的遥感图像建筑物目标提取方法包括如下步骤:
步骤一:计算机读取数据。本发明使用的数据来自于Inria航空影像标记数据集和武汉大学建筑数据集。Inria航空影像标记数据集包含360张高分辨率(0.3m)遥感图像。这些图像涵盖了不同城市的住区,从人口稠密的地区(例如旧金山的金融区)到高山城镇(例如奥地利蒂罗尔的利恩茨)。每张图像的分辨率为5000×5000像素。数据集分为训练集和测试集,分别包含180张图像。由于测试集是无标签的,我们把训练集按照6∶2∶2分为训练子集、验证子集和测试子集。为了满足网络的输入要求和GPU内存容量的限制,我们将所有图像切成小块512×512,重叠率为0.9。武汉大学建筑数据集包含航空影像数据集和卫星数据集。在我们的工作中,我们只在航空影像子集上使用STT进行评测。该子集由8188个非重叠图块组成,像素为512×512,分辨率为0.0075m到0.3m。数据集分为训练集(4736张,130500座建筑物)、验证集(包含1036张,14500座建筑物)和测试集(2416张,42000座建筑物)。图1a和图1b给出了来自两个数据集的图像实例。
在训练过程中应用图像失真、随机扩展、随机裁剪、随机镜像、随机翻转、调整大小和归一化等图像预处理方法。
步骤二:构造基于注意力机制的遥感图像建筑物目标高效提取网络。
图2显示了所提出方法的整体描述。本发明使用CNN与Transformer的混合架构来利用卷积和注意力机制的优势。本发明的动机是遥感图像中的单个建筑物仅占整个图像的一小部分。因此,建筑区域可以由特征图中的稀疏向量表达。基于这个想法,本方法学习潜在的重要空间位置和通道索引,并基于空间和通道概率图采样得到稀疏的视觉单词。本方法将排名靠前的k个高响应位置作为候选位置。候选特征包含足够的信息来使用自注意力层挖掘长距离依赖关系。所提出的方法主要由三个部分组成:一个稀疏语义特征采样器,一个Transformer编码器,一个Transformer解码器。三个部分的组成方式由图2给出,为串联结构。下面将分别进行介绍。稀疏语义特征采样器:
为了以高效的方式提取全局上下文信息,本方法在稀疏的视觉单词而不是整个特征图上应用多头注意机制。建筑物可以由稀疏视觉单词很好地表示,这些选定的视觉单词用于对上下文关系进行建模。稀疏空间可以通过空间和通道概率图中的高响应位置启发式描述。为了得到给定特征图的稀疏特征表示,本方法遵循以下步骤来建立采样器。表示CNN骨干提取到的一个特征图,首先用卷积层将通道数将为原来的1/4,把该特征图记为X,减少通道数有利于高效建立全局依赖关系。然后设计了一个生成空间概率图和通道概率图的模块,它的步骤如表1所示。
表1空间概率图生成器和通道概率图生成器的组成
上表中的C,H,W分别表示特征图的通道数、高度和宽度。
将空间概率图和通道概率图定义为Ai,i∈{s,c}。根据概率图从原始特征图X中采样得到ki个高响应的特征组成稀疏特征表达Ti,以通道稀疏特征的采样过程为例,由下式采样得到:
idxc=topk(Ac,kc)
Tc=gather(reshape(X),idxc)上式中topk(·,·)表示从某一个张量固定维度中得到最大k个值和对应的索引坐标,idxc是计算得到的索引坐标,Ac是通道概率图,kc是所需高响应位置的数目,reshape(·)表示将C×H×W改变为C×(HW),gather(·,·)表示根据索引从某一个固定维度抽出元素组成新的张量。通过上述方式就能够得到空间稀疏的语义特征Ts和通道稀疏的语义特征Tc。
Transformer编码器:
本方法分别用一个Transformer的编码器来建立空间稀疏语义特征和通道稀疏语义特征的依赖关系。首先建立位置和内容的依赖关系,那么需要位置的编码向量。空间稀疏位置嵌入向量的获取遵循以下步骤,先用可学习的参数初始化一个空间位置嵌入向量
Poss∈RH×W×C,然后根据下式采样得到
同样可以得到,Posc∈RC×(HW),和/>当得到稀疏位置编码后,通过下式建立长距离依赖关系。
Q,K,V=g(Iq,k,v;Wg)
在编码器中,式中的Iq,k,v表示Tc和Ts,i∈{s,c}代表是使用空间稀疏视觉单词还是通道稀疏视觉单词,g是线性层,Q,K,V是经过线性映射得到的矩阵,d是视觉单词的维度,σ表示softmax操作,Γ代表后处理操作,包括一个线性映射层,一个Dropout层,一个跳线连接和一个层正则化。是经过Transformer编码器得到的富含上下文信息的特征单词。
Transformer解码器:
在得到之后,使用解码器在原始特征中融入全局的信息。解码器按下述步骤进行,首先调整原始特征X的维度来适应Transformer解码器的输入,将三维张量X∈RC×H×W调整为Zs∈R(HW)×C和Zc∈RC×(HW),Zs和Zc由X调整变形得到。然后将Zi,i∈(s,c)视为查询集,将编码器的输出/>视为键和值,通过编码器中的表达式,能够得到编码的输出为/>它同时含有细节和全局信息。最后恢复/>的维度为(C,H,W)。
由于ResNet强大的特征学习能力,本网络使用ResNet18作为CNN主干来提取主要特征。ResNet18是专为分类任务而设计,具有5个阶段,每个阶段在分辨率上下采样2倍。为了避免在特征提取过程中丢失空间细节,在本方法中只使用前四个阶段作为SST的主干,所以最后一个特征图的分辨率是32×32×256。此外,我们还试验了其他不同的主干网络,性能比较结果在后面描述。
为了得到分割的掩模,本方法设计了一个简单的上采样头来恢复像素级分类的分辨率。首先通过卷积层减少分割头输入的通道数,然后通过连续两次上采样及卷积操作得到和原始图像相同大小的分割掩模。
步骤三:训练神经网络。如步骤二构造好网络后,在Pytorch深度学习框架下,利用带标签的训练数据对网络进行训练,选择在验证集表现最好的网络参数并保存。在训练的时候采用交叉熵损失,将总迭代Epoch设置为200,使用Warmup的策略开展训练,在前20个Epoch采用线性学习率,后180个Epoch使用多项式衰减策略继续训练。使用初始学习率为0.01的SGD优化器进行训练,动量和权重衰减分别设置为0.9和0.0001。使用ImageNet上的预训练模型初始化所有的主干部分,其余层用正态分布初始化参数。
步骤四:遥感图像建筑物目标提取。利用步骤三训练好的网络模型对测试数据进行建筑物目标提取,输出遥感图像每个像素值属于建筑物的概率,通过固定的阈值判断输出建筑物的二值掩模,为海量遥感数据的自动化数据分析和信息提取提供便利。
图3a-图3h显示了在两个数据集上的分割效果图。其中图3a和图3c来自武汉大学建筑数据集,将它们作为网络的输入,得到网络最终的建筑物提取结果为图3b和图3d;图3e和图3f来自Inria航空影像标记数据集,图3b和图3d是对应的建筑物提取结果图。从建筑物提取结果来看,本算法提取精度高,能够完整提取出目标建筑物,受周围树木遮挡和环境干扰的影响小,同时在提取过程中的速度非常快。
图4是本发明算法的整体流程,主要分为训练阶段和测试阶段。在训练阶段是为了利用已标注的建筑物图像训练本网络,得到网络的模型参数;在测试阶段,利用训练好的网络参数对本网络进行参数初始化,然后对实际产生的遥感图像进行建筑物提取得到提取结果,供后续生产单位使用。
Claims (5)
1.一种基于注意力机制的遥感图像建筑物目标高效提取方法,其特征在于:该方法的具体步骤如下:
步骤一:计算机读取数据;使用计算机读取遥感图像数据,并对图像数据进行预处理;
步骤二:构造基于注意力机制的遥感图像建筑物目标高效提取网络;
步骤三:训练神经网络;利用Pytorch深度学习框架构造好网络后,利用带标签的训练数据对网络进行训练,同时根据测试数据选择最优的网络参数,保存此时的网络参数;
步骤四:遥感图像建筑物目标提取;利用步骤三训练好的网络模型对遥感图像中的建筑物目标进行分割提取,得到建筑物目标的二值掩模;
其中,利用稀疏语义单词Transformer(Sparse Tokens Transformer,STT)的网络来挖掘基于注意力机制的Transformer在遥感图像建筑物目标提取任务上的潜力;遥感图像中建筑物目标不像自然图像中的目标,它只占有图片的一小部分;所以建筑物由卷积网络提取的特征图中的稀疏向量表示;在稀疏视觉单词之间学习长距离依赖关系,而不是在密集的像素特征或图像块之间学习,应用Transformer实现大感受野,提高准确率;
其中,STT有三个组件:一个稀疏语义特征采样器,它根据空间和通道概率图中的高响应位置生成稀疏的语义单词;一个Transformer编码器,它是为了挖掘稀疏语义单词之间的潜在依赖关系,得到含上下文语义的稀疏单词;一个Transformer解码器,它用于将原始特征与由Transformer编码器编码的信息融合,并将稀疏单词恢复到原始的分辨率大小;
其中,稀疏语义特征采样器:
X*∈RC*×H×W表示CNN骨干提取到的一个特征图,首先用卷积层将通道数将为原来的1/4,把该特征图记为X,减少通道数有利于高效建立全局依赖关系;然后设计了一个生成空间概率图和通道概率图的模块,C,H,W分别表示特征图的通道数、高度和宽度;
将空间概率图和通道概率图定义为Ai,i∈{s,c};根据概率图从原始特征图X中采样得到ki个高响应的特征组成稀疏特征表达Ti,以通道稀疏特征的采样过程为例,由下式采样得到:
idxc=topk(Ac,kc)
Tc=gather(reshape(X),idxc)
上式中topk(·,·)表示从某一个张量固定维度中得到最大k个值和对应的索引坐标,idxc是计算得到的索引坐标,Ac是通道概率图,kc是所需高响应位置的数目,reshape(·)表示将C×H×W改变为C×(HW),gather(·,·)表示根据索引从某一个固定维度抽出元素组成新的张量;通过上述方式就能够得到空间稀疏的语义特征Ts和通道稀疏的语义特征Tc;
其中,Transformer编码器:
首先建立位置和内容的依赖关系,那么需要位置的编码向量;空间稀疏位置嵌入向量的获取遵循以下步骤,先用可学习的参数初始化一个空间位置嵌入向量Poss∈RH×W×C,然后根据下式采样得到/>
同样得到,Posc∈RC×(HW),和/>当得到稀疏位置编码后,通过下式建立长距离依赖关系;
Q,K,V=g(Iq,k,v;Wg)
在编码器中,式中的Iq,k,v表示Tc和Ts,i∈{s,c}代表是使用空间稀疏视觉单词还是通道稀疏视觉单词,g是线性层,Q,K,V是经过线性映射得到的矩阵,d是视觉单词的维度,σ表示softmax操作,Γ代表后处理操作,包括一个线性映射层,一个Dropout层,一个跳线连接和一个层正则化;是经过Transformer编码器得到的富含上下文信息的特征单词;
其中,Transformer解码器:
在得到之后,使用解码器在原始特征中融入全局的信息;解码器按下述步骤进行,首先调整原始特征X的维度来适应Transformer解码器的输入,将三维张量X∈RC×H×W调整为Zs∈R(HW)×C和Zc∈RC×(HW),Zs和Zc由X调整变形得到;然后将Zi,i∈{s,c}视为查询集,将编码器的输出/>视为键和值,通过编码器中的表达式,能够得到编码的输出为/>它同时含有细节和全局信息;最后恢复/>的维度为(C,H,W)。
2.根据权利要求1所述的一种基于注意力机制的遥感图像建筑物目标高效提取方法,其特征在于:在Pytorch框架下,使用Python语言编程实现;在训练过程中应用图像失真、随机扩展、随机裁剪、随机镜像、随机翻转、调整大小和归一化的图像预处理方法。
3.根据权利要求1所述的一种基于注意力机制的遥感图像建筑物目标高效提取方法,其特征在于:在步骤一中,使用的数据来自于Inria航空影像标记数据集和武汉大学建筑数据集;Inria航空影像标记数据集包含360张高分辨率(0.3m)遥感图像;这些图像涵盖了不同城市的住区,从人口稠密的地区到高山城镇;每张图像的分辨率为5000×5000像素;数据集分为训练集和测试集,分别包含180张图像;由于测试集是无标签的,把训练集按照6:2:2分为训练子集、验证子集和测试子集;为了满足网络的输入要求和GPU内存容量的限制,将所有图像切成小块512×512,重叠率为0.9;只在航空影像子集上使用STT进行评测;该子集由8188个非重叠图块组成,像素为512×512,分辨率为0.0075m到0.3m;数据集分为训练集、验证集和测试集。
4.根据权利要求1所述的一种基于注意力机制的遥感图像建筑物目标高效提取方法,其特征在于:由于ResNet强大的特征学习能力,使用ResNet18作为CNN主干来提取主要特征;ResNet18是专为分类任务而设计,具有5个阶段,每个阶段在分辨率上下采样2倍;为了避免在特征提取过程中丢失空间细节,只使用前四个阶段作为SST的主干,所以最后一个特征图的分辨率是32×32×256;
为了得到分割的掩模,设计了一个上采样头来恢复像素级分类的分辨率;首先通过卷积层减少分割头输入的通道数,然后通过连续两次上采样及卷积操作得到和原始图像相同大小的分割掩模。
5.根据权利要求1所述的一种基于注意力机制的遥感图像建筑物目标高效提取方法,其特征在于:在Pytorch深度学习框架下,利用带标签的训练数据对网络进行训练,选择在验证集表现最好的网络参数并保存;在训练的时候采用交叉熵损失,将总迭代Epoch设置为200,使用Warmup的策略开展训练,在前20个Epoch采用线性学习率,后180个Epoch使用多项式衰减策略继续训练;使用初始学习率为0.01的SGD优化器进行训练,动量和权重衰减分别设置为0.9和0.0001;使用ImageNet上的预训练模型初始化所有的主干部分,其余层用正态分布初始化参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111042674.4A CN113780149B (zh) | 2021-09-07 | 2021-09-07 | 一种基于注意力机制的遥感图像建筑物目标高效提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111042674.4A CN113780149B (zh) | 2021-09-07 | 2021-09-07 | 一种基于注意力机制的遥感图像建筑物目标高效提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113780149A CN113780149A (zh) | 2021-12-10 |
CN113780149B true CN113780149B (zh) | 2023-11-17 |
Family
ID=78841371
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111042674.4A Active CN113780149B (zh) | 2021-09-07 | 2021-09-07 | 一种基于注意力机制的遥感图像建筑物目标高效提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113780149B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114943893B (zh) * | 2022-04-29 | 2023-08-18 | 南京信息工程大学 | 一种土地覆盖分类的特征增强方法 |
CN114943963B (zh) * | 2022-04-29 | 2023-07-04 | 南京信息工程大学 | 一种基于双分支融合网络的遥感图像云和云影分割方法 |
CN114842343B (zh) * | 2022-05-17 | 2024-11-01 | 武汉理工大学 | 一种基于ViT的航空图像识别方法 |
CN114998653B (zh) * | 2022-05-24 | 2024-04-26 | 电子科技大学 | 一种基于ViT网络的小样本遥感图像分类方法、介质及设备 |
CN114998361A (zh) * | 2022-06-07 | 2022-09-02 | 山西云时代智慧城市技术发展有限公司 | 一种基于Transformers-MulMLA的农业土地覆盖时空语义分割方法 |
CN114882014B (zh) * | 2022-06-16 | 2023-02-03 | 深圳大学 | 基于双模型的眼底图像质量评价方法、装置及相关介质 |
CN115356740B (zh) * | 2022-08-09 | 2024-09-10 | 群周科技(上海)有限公司 | 一种机载环境下的可降落区域降落定位方法 |
CN115424059B (zh) * | 2022-08-24 | 2023-09-01 | 珠江水利委员会珠江水利科学研究院 | 一种基于像素级对比学习的遥感土地利用分类方法 |
CN115439436B (zh) * | 2022-08-31 | 2023-07-28 | 成都建工第七建筑工程有限公司 | 一种建筑结构多类型质量缺陷移动感知系统 |
CN115601662A (zh) * | 2022-11-21 | 2023-01-13 | 华中科技大学(Cn) | 一种高分辨率遥感影像提取建筑物的模型构建方法及应用 |
CN116486169B (zh) * | 2023-04-27 | 2023-12-19 | 北京卫星信息工程研究所 | 遥感图像目标动向判别方法 |
CN117011669B (zh) * | 2023-07-03 | 2024-11-01 | 安徽大学 | 一种红外小目标检测方法及系统 |
CN117011711A (zh) * | 2023-08-07 | 2023-11-07 | 长安大学 | 一种海绵城市绿色基础设施多类别识别与分类方法 |
CN118279640B (zh) * | 2024-01-29 | 2024-10-18 | 中国人民解放军陆军炮兵防空兵学院 | 基于fpga的大目标关键特征识别方法及设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110705457A (zh) * | 2019-09-29 | 2020-01-17 | 核工业北京地质研究院 | 一种遥感影像建筑物变化检测方法 |
CN111126282A (zh) * | 2019-12-25 | 2020-05-08 | 中国矿业大学 | 一种基于变分自注意力强化学习的遥感图像内容描述方法 |
KR20200056339A (ko) * | 2018-11-14 | 2020-05-22 | 한국과학기술원 | 타겟 인식 방법 및 장치 |
CN112215844A (zh) * | 2020-11-26 | 2021-01-12 | 南京信息工程大学 | 基于ACU-Net的MRI多模态图像分割方法和系统 |
AU2020103901A4 (en) * | 2020-12-04 | 2021-02-11 | Chongqing Normal University | Image Semantic Segmentation Method Based on Deep Full Convolutional Network and Conditional Random Field |
CN112862690A (zh) * | 2021-03-09 | 2021-05-28 | 湖北工业大学 | 一种基于Transformers的低分辨率图像超分辨方法及系统 |
CN113191285A (zh) * | 2021-05-08 | 2021-07-30 | 山东大学 | 基于卷积神经网络和Transformer的河湖遥感图像分割方法及系统 |
-
2021
- 2021-09-07 CN CN202111042674.4A patent/CN113780149B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200056339A (ko) * | 2018-11-14 | 2020-05-22 | 한국과학기술원 | 타겟 인식 방법 및 장치 |
CN110705457A (zh) * | 2019-09-29 | 2020-01-17 | 核工业北京地质研究院 | 一种遥感影像建筑物变化检测方法 |
CN111126282A (zh) * | 2019-12-25 | 2020-05-08 | 中国矿业大学 | 一种基于变分自注意力强化学习的遥感图像内容描述方法 |
CN112215844A (zh) * | 2020-11-26 | 2021-01-12 | 南京信息工程大学 | 基于ACU-Net的MRI多模态图像分割方法和系统 |
AU2020103901A4 (en) * | 2020-12-04 | 2021-02-11 | Chongqing Normal University | Image Semantic Segmentation Method Based on Deep Full Convolutional Network and Conditional Random Field |
CN112862690A (zh) * | 2021-03-09 | 2021-05-28 | 湖北工业大学 | 一种基于Transformers的低分辨率图像超分辨方法及系统 |
CN113191285A (zh) * | 2021-05-08 | 2021-07-30 | 山东大学 | 基于卷积神经网络和Transformer的河湖遥感图像分割方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113780149A (zh) | 2021-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113780149B (zh) | 一种基于注意力机制的遥感图像建筑物目标高效提取方法 | |
Zhang et al. | Remote sensing image spatiotemporal fusion using a generative adversarial network | |
Guo et al. | CDnetV2: CNN-based cloud detection for remote sensing imagery with cloud-snow coexistence | |
CN112668494A (zh) | 基于多尺度特征提取的小样本变化检测方法 | |
CN110111345B (zh) | 一种基于注意力网络的3d点云分割方法 | |
Liu et al. | Multi-scale attention integrated hierarchical networks for high-resolution building footprint extraction | |
CN110929080B (zh) | 基于注意力和生成对抗网络的光学遥感图像检索方法 | |
Guo et al. | Transformer based on channel-spatial attention for accurate classification of scenes in remote sensing image | |
CN109635726B (zh) | 一种基于对称式深度网络结合多尺度池化的滑坡识别方法 | |
CN112633140A (zh) | 多光谱遥感图像城中村多类别建筑物语义分割方法及系统 | |
CN117496347A (zh) | 遥感影像建筑物提取方法、装置及介质 | |
Song et al. | PSTNet: Progressive sampling transformer network for remote sensing image change detection | |
Hu et al. | Supervised multi-scale attention-guided ship detection in optical remote sensing images | |
Li et al. | VD-LAB: A view-decoupled network with local-global aggregation bridge for airborne laser scanning point cloud classification | |
CN116524189A (zh) | 一种基于编解码索引化边缘表征的高分辨率遥感图像语义分割方法 | |
Chen et al. | MSF-Net: A multiscale supervised fusion network for building change detection in high-resolution remote sensing images | |
CN115376019A (zh) | 一种异源遥感影像对象级变化检测方法 | |
Liu et al. | High-resolution remote sensing image information extraction and target recognition based on multiple information fusion | |
Li et al. | Attention residual U-Net for building segmentation in aerial images | |
Wang et al. | Multi‐scale network for remote sensing segmentation | |
Zhao et al. | Squnet: An high-performance network for crater detection with dem data | |
CN114550014A (zh) | 道路分割方法及计算机装置 | |
CN114511787A (zh) | 一种基于神经网络的遥感图像地物信息生成方法及其系统 | |
CN117876679A (zh) | 一种基于卷积神经网络的遥感图像场景分割方法 | |
CN117333672A (zh) | 基于空间细节和注意力的遥感图像分割网络结构及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |