CN117351374B - 一种遥感图像显著性目标检测方法、系统、设备及介质 - Google Patents
一种遥感图像显著性目标检测方法、系统、设备及介质 Download PDFInfo
- Publication number
- CN117351374B CN117351374B CN202311647856.3A CN202311647856A CN117351374B CN 117351374 B CN117351374 B CN 117351374B CN 202311647856 A CN202311647856 A CN 202311647856A CN 117351374 B CN117351374 B CN 117351374B
- Authority
- CN
- China
- Prior art keywords
- graph
- image
- attention
- feature
- hca
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 46
- 230000004927 fusion Effects 0.000 claims abstract description 51
- 230000003287 optical effect Effects 0.000 claims abstract description 40
- 238000000605 extraction Methods 0.000 claims abstract description 37
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 26
- 238000013528 artificial neural network Methods 0.000 claims abstract description 19
- 230000000750 progressive effect Effects 0.000 claims abstract description 14
- 238000000034 method Methods 0.000 claims description 34
- 239000011159 matrix material Substances 0.000 claims description 16
- 238000010586 diagram Methods 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 10
- 238000011176 pooling Methods 0.000 claims description 7
- 238000000547 structure data Methods 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 5
- 230000008447 perception Effects 0.000 claims description 5
- 230000002708 enhancing effect Effects 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 4
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims description 3
- 230000004931 aggregating effect Effects 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 238000005096 rolling process Methods 0.000 claims description 3
- 238000003860 storage Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000009826 distribution Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 4
- 230000000007 visual effect Effects 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 230000003416 augmentation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Remote Sensing (AREA)
- Astronomy & Astrophysics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种遥感图像显著性目标检测方法、系统、设备及介质,属于计算机视觉和图像处理技术领域,包括:利用卷积神经网络对给定光学遥感图像进行特征提取并得到图像特征;利用图卷积神经网络对给定光学遥感图像进行特征提取并得到图像特征;通过构建的注意力增强的渐进嵌套融合网络对得到的两种图像特征进行渐进嵌套融合和特征增强,得到最终的显著性目标检测图。本发明对于具有多个尺寸显著性目标、复杂拓扑结构的显著性目标、以及复杂背景干扰等情况下的光学遥感图像也能做出很好的显著性目标检测。
Description
技术领域
本发明涉及一种遥感图像显著性目标检测方法、系统、设备及介质,属于计算机视觉和图像处理技术领域。
背景技术
近年来,随着世界各国航空航天事业的跨越式发展,卫星遥感图像的智能化解析任务得到广泛地关注。在自然灾害搜救、海洋资源勘探、渔业管理与国防军事等领域的需求日益增长。然而,卫星遥感图像往往包含大量特点各异的多类别物体,如飞机、汽车、油罐、岛屿、河流、建筑物、植被、农田等类别各异的地物和地貌要素信息,使得实施快速精准的地物要素自动化检测充满挑战性。
光学遥感图像显著性目标检测(Salient Object Detection in Optical RemoteSensing Images, ORSI-SOD)任务是从遥感图像中区分定位出具有视觉吸引力且类别独立的目标,并将其物体完整轮廓从遥感图像中分离出来的过程。现有ORSI-SOD方法主要分为:1)基于传统机器学习的方法,通过传统机器学习方法与启发式图像处理技术的融合,来凸出显著性目标;2)基于单分支的深度卷积神经网络的方法,利用卷积神经网络骨干模型搭建编码器-解码器架构,检测视觉显著性目标;3)基于跨模型网络融合的深度学习方法,利用多个分支网络特征的异构性和互补性,实现显著性目标的快速准确检测。虽然现有方法在一些简单场景下已经取得较好的检测效果,但当光学遥感图像具有多个不同尺度的显著性目标、显著性目标具有复杂的几何拓扑结构、或遥感图像具有复杂的背景干扰信息时,现有方法还难以做出精准地预测。因此,如何应对复杂光学遥感图像的上述挑战并提升算法性能和应用效果,仍然是当前该领域研究的热点和难点。
基于跨模型网络融合的深度学习方法,利用多个异构神经网络在不同的特征抽取模式下抽取多种异构特征,然后分析这些异构特征各自的优缺点,并构建异构特征融合方法,实现各自丰富的上下文语义信息的优势互补融合。然而,现有的跨模型网络融合深度学习方法仍存在未能有效感知不同尺度的显著性目标、无法很好地建模具有复杂几何拓扑结构的显著性目标、无法排除复杂背景的干扰等问题。
发明内容
针对现有技术的不足,本发明提供了基于跨模型嵌套融合的遥感图像显著性目标检测方法;
本发明还提供了基于跨模型嵌套融合的遥感图像显著性目标检测系统。
本发明重点关注构建不同的网络分支增强网络实现对多尺度显著性目标、复杂几何拓扑结构的感知能力,并设计高效的异构特征融合方法,实现异构特征的互补融合以降低背景噪声的干扰,提升光学遥感图像显著性目标检测性能。
本发明通过构建一个基于跨模型嵌套融合的显著性目标检测方法,对给定的光学遥感图像中的显著性目标进行预测。为此,本发明首先构建双流的图像特征编码器,分别通过卷积神经网络和图卷积神经网络对图像进行异构特征提取。对于图卷积神经网络编码器,不同于现有方法,我们提出了“局部图推理+全局图推理”的并行图卷积操作,通过两个并行图推理操作中不同的感受野,感知不同尺寸以及具有复杂拓扑结构的显著性目标;其次,本发明通过构建一个基于注意力增强的跨模型嵌套融合模块,将卷积神经网络与图卷积神经网络中各自提取的异构特性信息进行渐进且自适应地融合,以期望最终得到的特征能最大程度地保留来自不同模型的有用信息,避免不同模式异构特征信息间不交融的问题,有效降低背景干扰,从而提升复杂光学遥感图像中显著性目标检测性能。
术语解释:
VGG-16模型,是一种深度卷积神经网络,该模型整体上可划分为5个卷积块,如图1中的E-VGG-x(x∈{1,2,3,4,5}是卷积块索引)所示,每个卷积块由多个卷积层和池化层组成。VGG-16网络共有16层卷积层,主要使用3x3的卷积核进行卷积操作,用于图像特征提取。在本网络架构中,为了降低计算复杂度,本发明通过补充额外的卷积操作将VGG-16网络的最后两个卷积块通道维度从512降为256,以便降低在后续特征融合过程中高通道维度带来的高计算复杂度,提升网络的计算效率。
本发明的技术方案如下:
基于跨模型嵌套融合的遥感图像显著性目标检测方法,包括:
利用卷积神经网络对给定光学遥感图像进行特征提取并得到图像特征;
利用图卷积神经网络对给定光学遥感图像进行特征提取并得到图像特征;
通过构建的注意力增强的渐进嵌套融合网络对得到的两种图像特征进行渐进嵌套融合和特征增强,得到最终的显著性目标检测图。
根据本发明优选的,利用卷积神经网络对给定光学遥感图像进行特征提取并得到图像特征,包括:去除VGG-16模型的最后一个最大全局池化层和三个全连接层;将给定光学遥感图像预处理之后,送入VGG-16模型,VGG-16模型分别对输入图像进行不同深度的特征提取,获得五个阶段的不同的图像特征。
根据本发明优选的,利用图卷积神经网络对给定光学遥感图像进行特征提取并得到图像特征,包括:图卷积神经网络包括五个特征提取块,前两个特征提取块用来缩小图像尺寸并抽取局部特征,后三个特征提取块是图卷积块,使用该图卷积块进行多尺度感知与复杂几何拓扑结构建模。
进一步优选的,使用该图卷积块进行多尺度感知与复杂几何拓扑结构建模,包括:
在图卷积块中,将图像分成相同大小的4个图像块,将每个图像块映射成若干个图节点;
通过对同一块的所有图节点进行连接构建局部图;通过对不同块之间的所有图节点连接构建全局图;在局部图和全局图内分别进行图推理操作来进行特征提取,并将各自提取到的信息进行加权融合,感知不同尺寸和具有复杂几何拓扑结构的显著性目标;将图结构数据重新映射成规则的二维网格特征图。
进一步优选的,将每个图像块映射成图节点,包括:在每个图像块内计算图像块内每个像素点与特定图锚点之间的特征距离,如下式(1)所示:
其中,表示第个图像块内的(i,j)位置像素点,表示第个图像块内的第k个图节点初始特征;计算像素点到图节点的软分配矩阵Q,其元素计算方法如下式(2)所示:
其中,表示可学习的列向量,表示L2范数;利用像素点特征及软分配矩阵来映射生成图节点特征,计算方法如下式(3)所示:
其中,表示第个图像块内的第k个图节点特征。
进一步优选的,通过对同一块的所有图节点进行连接构建局部图,如式(4)所示:
第个图像块内的局部图为:
其中,,L即局部图;指第个图像块构建的局部图,指第个图像块的图节点特征;指第个图像块的图节点边特征;邻接矩阵由式(5)计算得到:
其中,表示矩阵的转置。
进一步优选的,通过对不同块之间的所有图节点连接构建全局图,如式(6)所示:
其中,G即全局图;d代表图节点的特征维度大小;V代表图节点的总数;GG代表全局图;VG指图节点特征;代表维度大小为;指图节点边特征;邻接矩阵由式(7)计算得到:
。
进一步优选的,在局部图和全局图内分别进行图推理操作来进行特征提取,并将各自提取到的信息进行加权融合,包括:使用边缘门控图卷积操作,分别进一步聚合局部图、全局图中的重要信息,如式(8)所示:
其中,表示第层的第i个图节点最近更新的特征,和表示第层的第i个和第j个图节点的特征,代表逐元素哈达玛积操作,是边缘门控过滤器,传递重要信息并抑制无用信息,和,和是可学习参数,表示第i个中心图节点的邻居节点集合。
进一步优选的,将图结构数据重新映射成规则的二维网格特征图,包括:如给定第个图像块,通过软分配矩阵重新线性加权第个图像块内的图节点特征来计算第个图像块内的像素点特征,具体计算公式如下式(9):
其中,代表像素级特征,指第个图像块;指更新后的属于第个图像块的图节点嵌入特征;指第个图像块的软分配矩阵;view表示维度变换操作,将其转换为二维网格特征图。
根据本发明优选的,每个注意力增强解码子模块接收三个或两个来自前面注意力增强解码子模块输入,并将输入的特征信息进行交替的混合空间注意力和通道注意力操作,实现对特征在空间维度和通道维度上的优化及增强;具体包括:对于给定不同模式下抽取的异构特征x1、x2、x3,对特征x1进行空间注意力生成空间注意力权重SA,如式(10)所示:
使用注意力增强(AE)模块和空间注意力SA对特征进行增强,得到,如式(11)所示:
通过执行两个卷积操作对增强特征进行连接和融合,如式(12)所示:
其中,表示普通的空间注意力操作,concat表示在通道维度上拼接不同特征操作,conv表示卷积层;AE表示注意力增强。
根据本发明优选的,注意力增强模块通过混合通道注意力模块HCA-M和普通空间注意力模块PSA-M来分别增强特征,包括:对于特征通道,混合通道注意力来抑制其背景信息通道而突出前景信息通道;对于特征空间图,通过聚焦空间位置上的重要前景信息,进而实现突出前景并抑制背景。
进一步优选的,混合通道注意力模块HCA-M计算方法如式(13)所示:
其中,HCA和PSA表示混合通道注意力(Hybrid Channel Attention)子模块和普通空间注意力子模块(Plain Spatial Attention); 计算逐通道的最大值,如式(14)所示:
其中,代表特征图,代表空间维度上的最大池化操作;通过式(15)获取相反的特征图:
其中,max表示每个通道的最大值,表示反转后的特征图;原始特征图与反转后的特征图进行加权平均,如式(16)所示:
其中,是可学习参数并且每个值代表每个通道的重要性;则是增强后的特征图;新的通道注意力权重在的基础上产生,如式(17)所示:
其中,FCL代表全连接层;新的特征图通过通道注意力增强获得,如式(18)所示:
其中,代表逐元素哈达玛积乘法,指通道注意力权值;对于PSA,对进行卷积操作得到空间注意力图,如式(19)所示:
其中,conv代表基本的卷积操作,指sigmoid激活函数;使用式(20)得到空间注意力增强的特征图:
其中,代表逐元素哈达玛积操作。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现基于跨模型嵌套融合的遥感图像显著性目标检测方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现基于跨模型嵌套融合的遥感图像显著性目标检测方法的步骤。
基于跨模型嵌套融合的遥感图像显著性目标检测系统,包括:卷积神经网络获取图像特征模块,被配置为:利用卷积神经网络对给定光学遥感图像进行特征提取并得到图像特征;图卷积神经网络获取图像特征模块,被配置为:利用图卷积神经网络对给定光学遥感图像进行特征提取并得到图像特征;显著性目标检测模块,被配置为:通过构建的注意力增强的渐进嵌套融合网络对得到的两种图像特征进行渐进嵌套融合和特征增强,得到最终的显著性目标检测图。
本发明的有益效果为:
1.本发明构建的基于图卷积神经子网络的辅助编码器,可以将规则网格特征投影到两个不规则的图结构数据中,并在具有不同感受野的不同语义空间中进行并行的图卷积操作,实现对具有不同尺寸和复杂几何拓扑结构的显著性目标的感知与建模。
2.本发明提出了一种新颖的注意力增强的跨模型嵌套融合子网络,能够逐步自适应地完成异构特征的融合。本发明创新地将注意力模块引入到网状融合子网络中,通过逐步选择两个异构特征来编码强鲁棒的显著特征。
3.在不同的具有挑战性的数据集上进行的大量而全面的实验,可以验证本发明所提供的模型不仅可以对常规的光学遥感图像做出很好的显著性目标检测,对于具有多个尺寸显著性目标、复杂拓扑结构的显著性目标、以及复杂背景干扰等情况下的光学遥感图像也能做出很好的显著性目标检测。
附图说明
图1是本发明图卷积神经网络的整体网络架构示意图;
图2是本发明图卷积神经网络中图卷积块E-GCN的网络架构示意图;
图3是本发明图卷积神经网络中DE-AE3的网络架构示意图;
图4是本发明图卷积神经网络中DE-AE2的网络架构示意图;
图5是本发明的不同图推理模块的内部结构图;
图6是本发明的注意力增强模块的整体网络架构示意图;
图7是本发明的注意力增强模块中混合通道注意力模块HCA-M的网络架构示意图;
图8是本发明的注意力增强模块中普通空间注意力模块PSA-M的网络架构示意图;
图9是本发明与现有先进方法的视觉对比效果图。
具体实施方式
下面结合说明书附图和实施例对本发明作进一步限定,但不限于此。
实施例1
基于跨模型嵌套融合的遥感图像显著性目标检测方法,包括:利用传统卷积神经网络对给定光学遥感图像进行特征提取并得到不同卷积层的图像特征;光学遥感图像是利用光学传感器获取的地球表面图像。这些光学传感器可以通过记录反射或辐射的能量来捕捉地球表面的信息。光学遥感图像可以通过卫星、飞机或其他遥感平台获取。
利用独特设计的图卷积神经网络对给定光学遥感图像进行特征提取并得到不同卷积层的图像特征;通过构建的注意力增强的渐进嵌套融合网络对得到的两种图像特征进行渐进嵌套融合和特征增强,得到最终的显著性目标检测图。
实施例2
根据实施例1所述的基于跨模型嵌套融合的遥感图像显著性目标检测方法,其区别在于:
利用卷积神经网络对给定光学遥感图像进行特征提取并得到图像特征,包括:去除VGG-16模型的最后一个最大全局池化层和三个全连接层;将给定光学遥感图像预处理之后,送入VGG-16模型,VGG-16模型的五个特征提取层分别对输入图像进行不同深度的特征提取,获得五个阶段的不同的图像特征。
图像预处理是指图像数据增强处理。通过对图像进行旋转(如对图像进行45°、90°135°180°、225°、270°、315°、360°旋转)、高斯模糊等操作,实现对现有数据的有效增广。
利用图卷积神经网络对给定光学遥感图像进行特征提取并得到图像特征,包括:如图1所示,图卷积神经网络包括五个特征提取块,将给定光学遥感图像预处理之后,送入图卷积神经网络,图卷积神经网络的五个特征提取块分别对输入图像进行不同深度的特征提取;其中,前两个特征提取块是普通卷积块,用来缩小图像尺寸并抽取局部特征,如图2中的E-CNN-x(x∈{1,2}是卷积块索引)所示,其是使用3×3大小的卷积核并辅以批注意力和ReLU激活函数的卷积层;后三个特征提取块是本发明特殊设计的图卷积块,如图2中的E-GCN-x(x∈{3,4,5}是卷积块索引)所示,使用该图卷积块进行多尺度感知与复杂几何拓扑结构建模。
使用该图卷积块进行多尺度感知与复杂几何拓扑结构建模,包括:如图5所示,对于前两个特征提取块得到的网格特征图,在特殊设计的图卷积块中,通过分块操作将图像分成相同大小的4个图像块,将每个图像块映射成K(默认K=3)个图节点;通过对同一块的所有图节点进行连接构建局部图;通过对不同块之间的所有图节点连接构建全局图;在局部图和全局图内分别进行图推理操作来进行特征提取,并将各自提取到的信息进行加权融合,感知不同尺寸和具有复杂几何拓扑结构的显著性目标;将图结构数据重新映射成规则的二维网格特征图。
将每个图像块映射成图节点,包括:
如图5所示,对于给定的二维特征图,将其分割成2×2共4个图像块,在每个图像块内计算图像块内每个像素点与特定图锚点之间的特征距离,如下式(1)所示:
其中,表示第个图像块内的(i,j)位置像素点,表示第个图像块内的第k个图节点初始特征;计算像素点到图节点的软分配矩阵Q,其元素计算方法如下式(2)所示:
其中,表示可学习的列向量,表示L2范数;利用像素点特征及软分配矩阵来映射生成图节点特征,计算方法如下式(3)所示:
其中,表示第个图像块内的第k个图节点特征。常用V来表示获取到的图节点嵌入特征。
通过对同一块的所有图节点进行连接构建局部图,如式(4)所示:第个图像块内的局部图为:
其中,,L代表“Local Graph”,即局部图;指第个图像块构建的局部图,指第个图像块的图节点特征;指第个图像块的图节点边特征;邻接矩阵由式(5)计算得到:
其中,表示矩阵的转置。
通过对不同块之间的所有图节点连接构建全局图,如式(6)所示:
其中,G代表“Global Graph”,即全局图;d代表图节点的特征维度大小;V代表图节点的总数;GG代表全局图;VG指图节点特征;代表维度大小为;指图节点边特征;邻接矩阵由式(7)计算得到:
。
在局部图和全局图内分别进行图推理操作来进行特征提取,并将各自提取到的信息进行加权融合,包括:使用边缘门控图卷积操作,分别进一步聚合局部图、全局图中的重要信息,如式(8)所示:
(8)
其中,表示第层的第i个图节点最近更新的特征,和表示第层的第i个和第j个图节点的特征,代表逐元素哈达玛积操作,是边缘门控过滤器,传递重要信息并抑制无用信息,和,和是可学习参数,表示第i个中心图节点的邻居节点集合。
将图结构数据重新映射成规则的二维网格特征图,增强网络对具有多尺寸显著性目标和具有复杂几何拓扑结构的显著性目标感知与建模能力。包括:如给定第个图像块,通过软分配矩阵重新线性加权第个图像块内的图节点特征来计算第个图像块内的像素点特征,具体计算公式如下式(9):
其中,代表像素级特征,指第个图像块;指更新后的属于第个图像块的图节点嵌入特征;指第个图像块的软分配矩阵;view表示维度变换操作,将其转换为二维网格特征图。
图3、图4分别表示三输入的DE-AE3解码块、二输入的DE-AE2解码块。每个注意力增强解码子模块(DE-AE ,Attention-Enhanced Decoder Sub-module)接收三个或两个来自前面注意力增强解码子模块输入,并将输入的特征信息进行交替的混合空间注意力和通道注意力操作,实现对特征在空间维度和通道维度上的优化及增强;具体包括:以DE-AE3为例,对于给定不同模式下抽取的异构特征x1、x2、x3,对特征x1进行空间注意力生成空间注意力权重SA,如式(10)所示:
使用注意力增强(AE)模块和空间注意力SA对特征进行增强,得到,如式(11)所示:
通过执行两个卷积操作对增强特征进行连接和融合,如式(12)所示:
其中,表示普通的空间注意力操作,concat表示在通道维度上拼接不同特征操作,conv表示卷积层;AE表示注意力增强。
注意力增强模块通过混合通道注意力模块HCA-M(如图7所示)和普通空间注意力模块PSA-M(如图8所示)来分别增强特征,包括:对于特征通道,混合通道注意力来抑制其背景信息通道而突出前景信息通道;以增强特征的有效性。对于特征空间图,通过聚焦空间位置上的重要前景信息,进而实现突出前景并抑制背景。
混合通道注意力模块HCA-M计算方法如式(13)所示:
其中,HCA和PSA表示混合通道注意力(Hybrid Channel Attention)子模块和普通空间注意力子模块(Plain Spatial Attention);如图6所示,对AE的输入特征x进行特征增强时,操作HCA在所有通道上保持有效的特征图不变,同时反转特征图,希望尽可能地获得更多的有效特征图信息。计算逐通道的最大值,如式(14)所示:
其中,代表特征图,代表空间维度上的最大池化操作;通过式(15)获取相反的特征图:
其中,max表示每个通道的最大值,表示反转后的特征图;原始特征图与反转后的特征图进行加权平均,如式(16)所示:
其中,是可学习参数并且每个值代表每个通道的重要性;则是增强后的特征图;新的通道注意力权重在的基础上产生,如式(17)所示:
其中,FCL代表全连接层;新的特征图通过通道注意力增强获得,如式(18)所示:
其中,代表逐元素哈达玛积乘法,指通道注意力权值;对于PSA,对进行卷积操作得到空间注意力图,如式(19)所示:
其中,conv代表基本的卷积操作,指sigmoid激活函数;使用式(20)得到空间注意力增强的特征图:
其中,代表逐元素哈达玛积操作。
通过以上这样嵌套渐进融合策略,可以对来自不同特征提取网络的异构特征信息进行互补融合,得到增强后的特征图,降低复杂背景干扰,提升遥感图像显著性检测性能。
本发明与现有先进方法的性能比对如表4所示,部分案例的输出可视化如图9所示。
性能评估过程如下:
本发明在ORSSD、EORSSD和ORSI三个数据集上分别进行了训练与测试,最终性能如表4所示。表4数据显示,本发明在使用两种经典卷积神经网络为骨干网络的模型对比中占有明显优势,在所有三个数据集12个指标中,本发明方法有9个指标排名第一,3个指标排名第二,这说明本发明方法的先进性。
本发明在ORSSD、EORSSD和ORSI三个数据集上的检测结果部分可视化图如图9所示,所有视觉可视化结果包含了各种复杂的场景,如背景干扰(ORSSD-1,EORSSD-2),同一张图内不同尺寸的多个显著性目标(ORSSD-3、EORSSD-1和EORSSD-3),复杂的拓扑结构(ORSSD-2、ORSI-1、ORSI-2和ORSI-3)。从图4可以看出,与现有先进方法对比,本发明方法能够有效抑制背景干扰、识别不同尺寸的多个显著性目标、并有效感知具有复杂拓扑结构的显著性目标。
表1为本发明对比模型介绍;如表1所示:
表1
表2为本发明评测性能的国际标准数据集;如表2所示:
表2
表3为本发明评测性能的评价指标;如表3所示:
表3
表4为模型的检测精度对比数据;如表4所示:
表4
表5为本发明模型的在不同属性数据上的性能分析数据;如表5所示:
表5
。
实施例3
一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现实施例1或2所述的基于跨模型嵌套融合的遥感图像显著性目标检测方法的步骤。
实施例4
一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现实施例1或2所述的基于跨模型嵌套融合的遥感图像显著性目标检测方法的步骤。
实施例5
基于跨模型嵌套融合的遥感图像显著性目标检测系统,包括:卷积神经网络获取图像特征模块,被配置为:利用传统卷积神经网络对给定光学遥感图像进行特征提取并得到不同卷积层的图像特征;图卷积神经网络获取图像特征模块,被配置为:利用独特设计的图卷积神经网络对给定光学遥感图像进行特征提取并得到不同卷积层的图像特征;显著性目标检测模块,被配置为:通过构建的注意力增强的渐进嵌套融合网络对得到的两种图像特征进行渐进嵌套融合和特征增强,得到最终的显著性目标检测图。
Claims (8)
1.基于跨模型嵌套融合的遥感图像显著性目标检测方法,其特征在于,包括:
利用卷积神经网络对给定光学遥感图像进行特征提取并得到图像特征;
利用图卷积神经网络对给定光学遥感图像进行特征提取并得到图像特征;
通过构建的注意力增强的渐进嵌套融合网络对得到的两种图像特征进行渐进嵌套融合和特征增强,得到最终的显著性目标检测图;
每个注意力增强解码子模块接收三个或两个来自前面注意力增强解码子模块输入,并将输入的特征信息进行交替的混合空间注意力和通道注意力操作,实现对特征在空间维度和通道维度上的优化及增强;具体包括:
对于给定不同模式下抽取的异构特征x1、x2、x3,对特征x1进行空间注意力Fpsa生成空间注意力权重SA,如式(10)所示:
SA=Fpsa(x1) (10)
使用注意力增强模块和空间注意力SA对特征进行增强,得到如式(11)所示:
通过执行两个卷积操作对增强特征进行连接和融合,如式(12)所示:
其中,Fpsa表示普通的空间注意力操作,concat表示在通道维度上拼接不同特征操作,conv表示卷积层;AE表示注意力增强;
注意力增强模块通过混合通道注意力模块HCA-M和普通空间注意力模块PSA-M来分别增强特征,包括:
对于特征通道,混合通道注意力来抑制其背景信息通道而突出前景信息通道;
对于特征空间图,通过聚焦空间位置上的重要前景信息,进而实现突出前景并抑制背景;
混合通道注意力模块HCA-M计算方法如式(13)所示:
AE=PSA(HCA(x)) (13)
其中,HCA和PSA表示混合通道注意力子模块和普通空间注意力子模块;
计算逐通道的最大值,如式(14)所示:
max=max_Pool(x) (14)
其中,x∈Rd×H×W代表特征图,max_Pool代表空间维度上的最大池化操作;
通过式(15)获取相反的特征图:
xr=max-x (15)
其中,max表示每个通道的最大值,xr∈Rd×H×W表示反转后的特征图;
原始特征图与反转后的特征图进行加权平均,如式(16)所示:
xe=x+α⊙(conv(xr)⊙x) (16)
其中,α是可学习参数并且每个值代表每个通道的重要性;xe∈Rd×H×W则是增强后的特征图;新的通道注意力权重在xe的基础上产生,如式(17)所示:
whca=FCL(max_Pool(xe)) (17)
其中,FCL代表全连接层;新的特征图xhca通过通道注意力增强获得,如式(18)所示:
xhca=xe+whca⊙xe (18)
其中,⊙代表逐元素哈达玛积乘法,whca指通道注意力权值;
对于PSA,对xhca进行卷积操作得到空间注意力图,如式(19)所示:
Fpsa=σ(conv(xhca)) (19)
其中,conv代表卷积操作,σ指sigmoid激活函数;
使用式(20)得到空间注意力增强的特征图:
xpsa=xhca+Fpsa(xhca)⊙xhca (20)
其中,⊙代表逐元素哈达玛积操作。
2.根据权利要求1所述的基于跨模型嵌套融合的遥感图像显著性目标检测方法,其特征在于,利用卷积神经网络对给定光学遥感图像进行特征提取并得到图像特征,包括:
去除VGG-16模型的最后一个最大全局池化层和三个全连接层;
将给定光学遥感图像预处理之后,送入VGG-16模型,VGG-16模型分别对输入图像进行不同深度的特征提取,获得五个阶段的不同的图像特征。
3.根据权利要求1所述的基于跨模型嵌套融合的遥感图像显著性目标检测方法,其特征在于,利用图卷积神经网络对给定光学遥感图像进行特征提取并得到图像特征,包括:
图卷积神经网络包括五个特征提取块,前两个特征提取块用来缩小图像尺寸并抽取局部特征,后三个特征提取块是图卷积块,使用该图卷积块进行多尺度感知与复杂几何拓扑结构建模。
4.根据权利要求3所述的基于跨模型嵌套融合的遥感图像显著性目标检测方法,其特征在于,使用该图卷积块进行多尺度感知与复杂几何拓扑结构建模,包括:
在图卷积块中,将图像分成相同大小的图像块,将每个图像块映射成若干个图节点;
通过对同一块的所有图节点进行连接构建局部图;
通过对不同块之间的所有图节点连接构建全局图;
在局部图和全局图内分别进行图推理操作来进行特征提取,并将各自提取到的信息进行加权融合,感知不同尺寸和具有复杂几何拓扑结构的显著性目标;
将图结构数据重新映射成规则的二维网格特征图;
将每个图像块映射成图节点,包括:
在每个图像块内计算图像块内每个像素点与图锚点之间的特征距离如下式(1)所示:
其中,表示第p个图像块内的(i,j)位置像素点,表示第p个图像块内的第k个图节点初始特征;
计算像素点到图节点的软分配矩阵Q,其元素计算方法如下式(2)所示:
其中,表示可学习的列向量,表示L2范数;
利用像素点特征及软分配矩阵来映射生成图节点特征,计算方法如下式(3)所示:
其中,表示第p个图像块内的第k个图节点特征;
通过对同一块的所有图节点进行连接构建局部图,如式(4)所示:
第p个图像块内的局部图为:
其中,p∈{1,2,3,4},L即局部图;指第p个图像块构建的局部图,指第p个图像块的图节点特征;指第p个图像块的图节点边特征;
邻接矩阵由式(5)计算得到:
其中,(·)T表示矩阵的转置;
通过对不同块之间的所有图节点连接构建全局图,如式(6)所示:
GG=(VG,δG)∈Rd×|V| (6)
其中,G即全局图;d代表图节点的特征维度大小;V代表图节点的总数;GG代表全局图;VG指图节点特征;Rd×|V|代表维度大小为d×|V|;εG指图节点边特征;
邻接矩阵AdjG∈R|V|×|V|由式(7)计算得到:
AdjG=(GG)TGG (7)。
5.根据权利要求4所述的基于跨模型嵌套融合的遥感图像显著性目标检测方法,其特征在于,在局部图和全局图内分别进行图推理操作来进行特征提取,并将各自提取到的信息进行加权融合,包括:
使用边缘门控图卷积操作,分别进一步聚合局部图、全局图中的重要信息,如式(8)所示:
其中,表示第l+1层的第i个图节点最近更新的特征,和表示第l层的第i个和第j个图节点的特征,⊙代表逐元素哈达玛积操作,egi,j是边缘门控过滤器,传递重要信息并抑制无用信息,Hl∈Rd×d和Ul∈Rd×d,Hl和Ul是可学习参数,表示第i个中心图节点的邻居节点集合;
将图结构数据重新映射成规则的二维网格特征图,包括:
如给定第p个图像块,通过软分配矩阵Qp重新线性加权第p个图像块内的图节点特征来计算第p个图像块内的像素点特征,具体计算公式如下式(9):
其中,代表像素级特征,p指第p个图像块;指更新后的属于第p个图像块的图节点嵌入特征;Qp指第p个图像块的软分配矩阵;view表示维度变换操作,将其转换为二维网格特征图。
6.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1-5任一所述的基于跨模型嵌套融合的遥感图像显著性目标检测方法的步骤。
7.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-5任一所述的基于跨模型嵌套融合的遥感图像显著性目标检测方法的步骤。
8.基于跨模型嵌套融合的遥感图像显著性目标检测系统,其特征在于,包括:
卷积神经网络获取图像特征模块,被配置为:利用卷积神经网络对给定光学遥感图像进行特征提取并得到图像特征;
图卷积神经网络获取图像特征模块,被配置为:利用图卷积神经网络对给定光学遥感图像进行特征提取并得到图像特征;
显著性目标检测模块,被配置为:通过构建的注意力增强的渐进嵌套融合网络对得到的两种图像特征进行渐进嵌套融合和特征增强,得到最终的显著性目标检测图;
每个注意力增强解码子模块接收三个或两个来自前面注意力增强解码子模块输入,并将输入的特征信息进行交替的混合空间注意力和通道注意力操作,实现对特征在空间维度和通道维度上的优化及增强;具体包括:
对于给定不同模式下抽取的异构特征x1、x2、x3,对特征x1进行空间注意力Fpsa生成空间注意力权重SA,如式(10)所示:
SA=Fpsa(x1) (10)
使用注意力增强模块和空间注意力SA对特征进行增强,得到如式(11)所示:
通过执行两个卷积操作对增强特征进行连接和融合,如式(12)所示:
其中,Fpsa表示普通的空间注意力操作,concat表示在通道维度上拼接不同特征操作,conv表示卷积层;AE表示注意力增强;
注意力增强模块通过混合通道注意力模块HCA-M和普通空间注意力模块PSA-M来分别增强特征,包括:
对于特征通道,混合通道注意力来抑制其背景信息通道而突出前景信息通道;
对于特征空间图,通过聚焦空间位置上的重要前景信息,进而实现突出前景并抑制背景;
混合通道注意力模块HCA-M计算方法如式(13)所示:
AE=PSA(HCA(x)) (13)
其中,HCA和PSA表示混合通道注意力子模块和普通空间注意力子模块;
计算逐通道的最大值,如式(14)所示:
max=max_Pool(x) (14)
其中,x∈Rd×H×W代表特征图,max_Pool代表空间维度上的最大池化操作;
通过式(15)获取相反的特征图:
xr=max-x (15)
其中,max表示每个通道的最大值,xr∈Rd×H×w表示反转后的特征图;
原始特征图与反转后的特征图进行加权平均,如式(16)所示:
xe=x+α⊙(conv(xr)⊙x) (16)
其中,α是可学习参数并且每个值代表每个通道的重要性;xe∈Rd×H×W则是增强后的特征图;新的通道注意力权重在xe的基础上产生,如式(17)所示:
whca=FCL(max_Pool(xe)) (17)
其中,FCL代表全连接层;新的特征图xhca通过通道注意力增强获得,如式(18)所示:
xhca=xe+whca⊙xe (18)
其中,⊙代表逐元素哈达玛积乘法,whca指通道注意力权值;
对于PSA,对xhca进行卷积操作得到空间注意力图,如式(19)所示:
Fpsa=σ(conv(xhca)) (19)
其中,conv代表卷积操作,σ指sigmoid激活函数;
使用式(20)得到空间注意力增强的特征图:
xpsa=xhca+Fpsa(xhca)⊙xhca (20)
其中,⊙代表逐元素哈达玛积操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311647856.3A CN117351374B (zh) | 2023-12-05 | 2023-12-05 | 一种遥感图像显著性目标检测方法、系统、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311647856.3A CN117351374B (zh) | 2023-12-05 | 2023-12-05 | 一种遥感图像显著性目标检测方法、系统、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117351374A CN117351374A (zh) | 2024-01-05 |
CN117351374B true CN117351374B (zh) | 2024-03-08 |
Family
ID=89357913
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311647856.3A Active CN117351374B (zh) | 2023-12-05 | 2023-12-05 | 一种遥感图像显著性目标检测方法、系统、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117351374B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117994506B (zh) * | 2024-04-07 | 2024-08-20 | 厦门大学 | 一种动态知识集成的遥感图像显著性目标检测方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112347859A (zh) * | 2020-10-15 | 2021-02-09 | 北京交通大学 | 一种光学遥感图像显著性目标检测方法 |
US11222217B1 (en) * | 2020-08-14 | 2022-01-11 | Tsinghua University | Detection method using fusion network based on attention mechanism, and terminal device |
WO2022052750A1 (zh) * | 2020-09-08 | 2022-03-17 | 上海交通大学 | 360度图像的显著性预测方法及系统 |
CN114943709A (zh) * | 2022-05-27 | 2022-08-26 | 浙江工业大学 | 一种光学遥感图像显著目标检测方法 |
CN115063352A (zh) * | 2022-05-24 | 2022-09-16 | 哈尔滨工业大学 | 一种基于多图神经网络协同学习架构的显著性物体检测装置及方法 |
CN116129289A (zh) * | 2023-03-06 | 2023-05-16 | 江西理工大学 | 一种注意力边缘交互的光学遥感图像显著性目标检测方法 |
WO2023111819A1 (en) * | 2021-12-15 | 2023-06-22 | Leonardo S.P.A. | Saliency-based automatic target detection system |
CN116681978A (zh) * | 2023-06-07 | 2023-09-01 | 上海理工大学 | 一种基于注意力机制和多尺度特征融合的显著性目标检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12026930B2 (en) * | 2021-02-01 | 2024-07-02 | Inception Institute of Artificial Intelligence Ltd | Complementary learning for multi-modal saliency detection |
-
2023
- 2023-12-05 CN CN202311647856.3A patent/CN117351374B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11222217B1 (en) * | 2020-08-14 | 2022-01-11 | Tsinghua University | Detection method using fusion network based on attention mechanism, and terminal device |
WO2022052750A1 (zh) * | 2020-09-08 | 2022-03-17 | 上海交通大学 | 360度图像的显著性预测方法及系统 |
CN112347859A (zh) * | 2020-10-15 | 2021-02-09 | 北京交通大学 | 一种光学遥感图像显著性目标检测方法 |
WO2023111819A1 (en) * | 2021-12-15 | 2023-06-22 | Leonardo S.P.A. | Saliency-based automatic target detection system |
CN115063352A (zh) * | 2022-05-24 | 2022-09-16 | 哈尔滨工业大学 | 一种基于多图神经网络协同学习架构的显著性物体检测装置及方法 |
CN114943709A (zh) * | 2022-05-27 | 2022-08-26 | 浙江工业大学 | 一种光学遥感图像显著目标检测方法 |
CN116129289A (zh) * | 2023-03-06 | 2023-05-16 | 江西理工大学 | 一种注意力边缘交互的光学遥感图像显著性目标检测方法 |
CN116681978A (zh) * | 2023-06-07 | 2023-09-01 | 上海理工大学 | 一种基于注意力机制和多尺度特征融合的显著性目标检测方法 |
Non-Patent Citations (4)
Title |
---|
Mingzhu Xu et al..Multi-Stream Attention-Aware Graph Convolution Network for Video Salient Object Detection.《IEEE Transactions on Image Processing》.2021,第30卷第4183-4197页. * |
TianTian Wang et al..Salient Object Detection Based on Unified Graph Neural Network Joint Learning.《2022 International Conference on Sensing, Measurement & Data Analytics in the era of Artificial Intelligence (ICSMD)》.2023,第1-6页. * |
孙君顶 等.基于渐进式嵌套特征的融合网络.《模式识别与人工智能》.2023,第36卷(第1期),第70-80页. * |
徐明珠.图模型融合时空特征的视觉显著性目标检测算法研究.《中国博士学位论文全文数据库 信息科技辑》.2022,(第2期),第I138-48页. * |
Also Published As
Publication number | Publication date |
---|---|
CN117351374A (zh) | 2024-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110378844B (zh) | 基于循环多尺度生成对抗网络的图像盲去运动模糊方法 | |
CN112016507B (zh) | 基于超分辨率的车辆检测方法、装置、设备及存储介质 | |
CN112149591B (zh) | 用于sar图像的ssd-aeff自动桥梁检测方法及系统 | |
CN113222819B (zh) | 一种基于深度卷积神经网络的遥感图像超分辨重建方法 | |
US11615612B2 (en) | Systems and methods for image feature extraction | |
CN115345866B (zh) | 一种遥感影像中建筑物提取方法、电子设备及存储介质 | |
CN110909591A (zh) | 用编码向量的行人图像检测自适应非极大值抑制处理方法 | |
CN114581752A (zh) | 一种基于上下文感知和边界细化的伪装目标检测方法 | |
CN117351374B (zh) | 一种遥感图像显著性目标检测方法、系统、设备及介质 | |
CN117422971A (zh) | 一种基于跨模态注意力机制融合的双模态目标检测方法与系统 | |
CN112669249A (zh) | 结合改进nsct变换和深度学习的红外与可见光图像融合方法 | |
CN117475145A (zh) | 融合多重注意力机制的多尺度遥感影像语义分割方法及系统 | |
CN118072196A (zh) | 一种基于YOLOv5改进的远距离岸滩障碍物目标识别方法及系统 | |
CN117710255A (zh) | 一种基于教师-学生网络与课程学习的点云补全方法 | |
CN117351360A (zh) | 一种基于注意力机制改进的遥感图像道路提取方法 | |
CN117576483A (zh) | 基于多尺度卷积自编码器的多源数据融合地物分类方法 | |
CN116863293A (zh) | 一种基于改进YOLOv7算法的可见光下海上目标检测方法 | |
CN116704367A (zh) | 一种多尺度特征融合耕地变化检测方法及系统 | |
CN116681976A (zh) | 用于红外小目标检测的渐进式特征融合方法 | |
CN115471676A (zh) | 一种基于多尺度胶囊与Bi-FPN的多模态海上目标检测方法 | |
CN113780305A (zh) | 一种基于两种线索交互的显著性目标检测方法 | |
CN117523267B (zh) | 一种基于改进YOLOv5的小目标检测系统及方法 | |
CN116486203B (zh) | 一种基于孪生网络和在线模板更新的单目标跟踪方法 | |
CN113553919B (zh) | 基于深度学习的目标频率特征表达方法、网络和图像分类方法 | |
CN117893413B (zh) | 基于图像增强的车载终端人机交互方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |