CN114492631B - 一种基于通道注意力的空间注意力计算方法 - Google Patents
一种基于通道注意力的空间注意力计算方法 Download PDFInfo
- Publication number
- CN114492631B CN114492631B CN202210087706.0A CN202210087706A CN114492631B CN 114492631 B CN114492631 B CN 114492631B CN 202210087706 A CN202210087706 A CN 202210087706A CN 114492631 B CN114492631 B CN 114492631B
- Authority
- CN
- China
- Prior art keywords
- channel
- attention
- important
- feature
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 238000011176 pooling Methods 0.000 claims description 32
- 238000000926 separation method Methods 0.000 claims description 17
- 230000002776 aggregation Effects 0.000 claims description 11
- 238000004220 aggregation Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 4
- 238000009795 derivation Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 abstract description 7
- 238000013527 convolutional neural network Methods 0.000 abstract description 6
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000009977 dual effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 2
- 238000005728 strengthening Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于通道注意力的空间注意力计算方法,涉及深度卷积神经网络技术领域,设计通道注意力模块前向推导出通道注意力图和通道细化特征图。本发明根据通道注意力图,双分支空间注意力模块将通道细化特征图的通道分组,分为重要通道和次重要通道。这使得空间注意力和通道注意力有机地联系起来。接着将分好的通道组进行一系列的非线性操作,进而获得一个二维空间注意力图。本发明使得空间注意力和通道注意力紧密有机的联系起来,便于嵌入到目前任意主流的深度卷积神经网络中,提升网络模型的性能表现。
Description
技术领域
本发明涉及深度卷积神经网络、通道注意力以及空间注意力技术领域,尤其是一种基于通道注意力的空间注意力计算方法。
背景技术
在过去的几年里,许多学者都热衷于探索更深的神经网络来提升模型在视觉任务上的性能表现。然而,随着神经网络层数的加深,其在图像分类,目标检测等视觉任务上的精度并没有显著提升,即网络性能表现的提升幅度与网络层数的加深程度并不是正比关系。
在生物医学界有研究者发现,在人类视觉系统中,注意力机制在获取重要信息方面发挥着重要作用。受到这种现象的启发,许多学者尝试着在深度卷积神经网络中结合注意力机制来提升模型性能。在这些学者的工作中,其中最具代表性的就是2017年由Hu etal.提出的Squeeze-and-Excitation(SENet)。该注意力模块针对特征图的通道维度进行关键特征的加强,进而在图像分类任务上提升模型性能表现。SENet是一个较轻量化嵌入式注意力模块,该模块可以嵌入当前任意主流的深度卷积网络架构中。在SENet模块基础上,2020年由Wang et al.提出了Efficient Channel Attention(ECA)。该模块采用一维卷积代替了原SENet中的全连接层,使得通道注意力的推导速度大幅提升,并且克服了通道降维带来的精度损失。
SENet和ECA模块均揭示了特征图通道之间的关系,但是二者都没有考虑空间注意力的重要性,即没有考虑特征图在空间维度上的关键特征加强。空间注意力是对特征图的关键像素的加强。2018年由Woo et al.提出了Convolutional Block Attention Module(CBAM)。该注意力模块是首个考虑同时使用通道注意力和空间注意力的模块,以顺序连接的方式连接了通道注意力子模块和空间注意力子模块,即先通过通道注意力模块进行通道维度上关键特征的加强,再通过空间注意力模块进行空间维度上关键特征的加强。然而,在CBAM模块中的空间注意力子模块并没有和通道注意力子模块有机的结合,即空间注意力依然将重要通道和次重要通道放在一起进行池化操作。这会使得特征图中原关键特征随着平均池化操作减弱,进而使得网络模型的性能表现没有得到充分发挥。
发明内容
本发明需要解决的技术问题是提供一种基于通道注意力的空间注意力计算方法,提出的通道分离技术,使得空间注意力和通道注意力紧密有机的联系起来,便于嵌入到目前任意主流的深度卷积神经网络中,提升网络模型的性能表现。
为解决上述技术问题,本发明所采用的技术方案是:
一种基于通道注意力的空间注意力计算方法,包括以下步骤:
步骤1:获取通道注意力图和通道细化特征图;
步骤2:对对步骤1中得到的通道细化特征图的通道进行分组,将通道细化特征图的通道分为重要特征和次重要特征;
步骤3:对步骤2中得到的重要特征和次重要特征均进行通道轴方向的平均池化和最大池化操作;将各自的两种池化结果进行特征聚合;
步骤4:将步骤3中得到的聚合后的结果经过一层共享卷积层,进而生成一对空间特征描述符;
步骤5:对步骤4中获得的这对空间特征描述符进行非线性操作,即经过BN层和ReLU层;
步骤6:将步骤5中得到的这两个空间特征描述符进行通道维度上的聚合,再经过一层卷积层,进而获得空间注意力描述子;
步骤7:将步骤6中得到的空间注意力描述子经过BN层,ReLU层和Sigmoid层,进而获得了一个2D的空间注意力图。
本发明技术方案的进一步改进在于:在步骤1中获取的通道注意力图和通道细化特征均由SENet或ECA模块前向推导生成;其中,通道注意力图是一个1D向量,向量中的每一个值对应于通道细化特征中对应通道的重要程度。
本发明技术方案的进一步改进在于:在步骤2中采用通道分离技术对通道细化特征的通道分组,分为重要特征和次重要特征,具体操作步骤包括:
(1)获得通道细化特征图的通道维度,即通道数C;
(2)引入超参数:分离率λ,该参数是重要通道和次重要通道的分界线;将通道数和分离率相乘,取乘积的最近偶数,获得重要通道的数量Cin;使用通道数减去重要通道数,获得次重要通道数Csubin;上述的计算过程如公式(1)和(2)所示:
Cim=|C·λ|even (1)
Csubim=C-Cim (2)
其中|t|even表示距离t值最近的偶数;
(3)在通道注意力图中找到前Cin个最大的值,同时在这Cin个大值里面确定最小的值m;
(4)将通道注意力图中的值和m进行比较,大于或等于m的值重新赋为1,小于m的值重新赋为0,从而获得了重要通道掩码important_mask;
(5)将通道注意力图中的值和m进行比较,大于或等于m的值重新赋为0,小于m的值重新赋为1,从而获得了次重要通道掩码sub-important_mask;
(6)将重要通道掩码和次重要通道掩码分别和通道细化特征图进行元素相乘,进而获得重要特征和次重要特征。
本发明技术方案的进一步改进在于:在步骤3中对重要特征和次重要特征均沿着通道轴方向进行平均池化和最大池化操作;池化操作结束后,将各自的两种池化结果进行通道维度上的聚合。
本发明技术方案的进一步改进在于:在步骤4中对聚合结果使用一层共用卷积层,从而获得一对空间特征描述符,卷积层的卷积核大小为7×7。
本发明技术方案的进一步改进在于:步骤5中对步骤4中获得的这两个空间特征描述符进行批量归一化和使用ReLU函数激活。
本发明技术方案的进一步改进在于:在步骤6中将经过非线性操作后的空间特征描述符在通道维度上进行特征聚合,再经过一层卷积层,得到空间注意力描述子;该卷积层不同于之前的共享卷积层,其卷积核的大小依然为7×7,卷积核尺寸的选择和选择共享卷积层卷积核尺寸的思想一致。
本发明技术方案的进一步改进在于:在在所述步骤7中对空间注意力描述子进行一系列的非线性操作,非线性操作顺序为BN层,ReLU层和Sigmoid层,最终获得一个2D的空间注意力图;该注意力图是一个二维矩阵,大小和原通道细化特征图大小一致;
将上述步骤用数学公式进行表示,如公式(3),(4),(5),(6)所示:
F’=F’1+F’2 (3)
S1=Φ1(C2D1,7×7[AvgPool(F'1);MaxPool(F'1)]) (4)
S2=Φ1(C2D1,7×7[AvgPool(F'2);MaxPool(F'2)]) (5)
AS=Φ2(C2D2,7×7[S1;S2]) (6)
其中,(3)式表示通道分离的过程,F’表示通道细化特征,F’1表示重要特征,F’2表示次重要特征;(4)式中Φ1表示BN层和ReLU层的集合,即非线性操作;C2D1,7×7表示共享卷积层,其卷积核大小为7×7;[a;b]表示将a,b两个特征聚合起来;AvgPool表示平均池化操作;MaxPool表示最大池化操作;(4)式生成的是重要特征对应的空间特征描述符S1,(5)式生成的是次重要特征对应的空间特征描述符S2;(6)式中Φ2表示BN层,ReLU层和Sigmoid层的集合;C2D2,7×7表示第二个卷积层,其卷积核尺寸为7×7。
本发明技术方案的进一步改进在于:
由于采用了上述技术方案,本发明取得的技术进步是:
本发明提出的通道分离技术,在保持原通道顺序的同时,将重要通道和次重要通道分成两部分。这使得空间注意力和通道注意力紧密有机的联系起来。
本发明提出的双分支空间注意力模块可以无缝地连接在通道注意力模块后,即可以嵌入到目前任意主流的深度卷积神经网络中。
本发明提出的双分支空间注意力模块可以在空间维度上进一步加强关键特征,从而提升网络模型的性能表现。
步骤5中对这两个空间特征描述符进行批量归一化和使用ReLU函数激活,便于加速网络训练速度。
附图说明
图1为本发明的双分支空间注意力模块的结构示意图;
图2为发明的双分支空间注意力模块实现的流程图;
图3为在残差单元已有通道注意力模块的情况下,嵌入双分支空间注意力模块的示意图。
具体实施方式
下面结合实施例对本发明做进一步详细说明:
如图1至图3所示,一种基于通道注意力的空间注意力计算方法,是一种一种新的空间注意力模块,双分支空间注意力模块。通道注意力模块前向推导出通道注意力图(Channel attention map)和通道细化特征图(Channel refined feature map)。根据通道注意力图,双分支空间注意力模块将通道细化特征图的通道分组,分为重要通道和次重要通道。这使得空间注意力和通道注意力有机地联系起来。接着将分好的通道组进行一系列的非线性操作,进而获得一个二维空间注意力图。本发明对于计算基于通道注意力的空间注意力具有重要指导意义。
其结构图如图1所示,包括以下步骤:
步骤1:获取通道注意力模块前向推导得出的结果:通道注意力图(Channelattention map)和通道细化特征图(Channel refined feature map)。
通道注意力图是一维向量,每个值都在0和1之间。在这里,我们将其中的每个值看成通道细化特征图对应通道的重要程度。这是空间注意力和通道注意力紧密有机联系起来的关键。
步骤2:根据通道注意力图中每个值的物理意义,采用本发明提出的通道分离技术将通道细化特征图的通道进行分组,分成两组:重要通道(important channels)和次重要通道(sub-important channels),即重要特征和次重要特征。我们将这种通道分组方法命名为通道分离技术,具体操作如下:
(1)首先获得通道细化特征图的通道维度,即通道数C;
(2)引入超参数:分离率λ,该参数是重要通道和次重要通道的分界线。将通道数和分离率相乘,取乘积的最近偶数,即可获得重要通道的数量Cim。使用通道数减去重要通道数,即可获得次重要通道数Csubim。上述的计算过程如公式(1)和(2)所示:
Cim=|C·λ|even (1)
Csubim=C-Cim (2)
其中|t|even表示距离t值最近的偶数。
(3)在通道注意力图中找到前Cim个最大的值,同时在这Cim个大值里面确定最小的值m。
(4)将通道注意力图中的值和m进行比较,大于或等于m的值重新赋为1,小于m的值重新赋为0,从而获得了重要通道掩码important_mask。
(5)将通道注意力图中的值和m进行比较,大于或等于m的值重新赋为0,小于m的值重新赋为1,从而获得了次重要通道掩码sub-important_mask。
(6)将重要通道掩码和次重要通道掩码分别和通道细化特征图进行元素相乘,进而获得重要特征和次重要特征。
值得注意的是,经过通道分离后,原通道细化特征图中的通道顺序是不变的,重要特征保持了重要通道信息,仅仅将次重要通道中数值变为0。反之,次重要特征保持了次重要通道信息,仅仅将重要通道中数值变为0。
步骤3:对重要特征和次重要特征均沿着通道轴的方向进行平均池化和最大池化操作。由此可以获得重要特征的平均池化和最大池化特征描述子,次重要特征的平均池化和最大池化特征描述子。将重要特征的平均池化和最大池化特征描述子在通道维度进行聚合。同样地,将次重要特征的平均池化和最大池化特征描述子在通道维度进行聚合。
步骤4:对特征聚合后的结果使用一层共享卷积层,进而获得一对空间特征描述符。共享卷积层的大小为7×7。值得注意的是,更大的卷积核意味着更大的感受野,但模块的性能并不是随着共享卷积核的尺寸变大而提升,需要同时考虑最后特征图的尺寸大小。
步骤5:对这两个空间特征描述符进行批量归一化,对这对空间特征描述符进行非线性操作,即经过BN层和使用ReLU函数激活。
步骤6:将经过非线性操作后的空间特征描述符在通道维度上进行特征聚合,经过一层卷积层,得到空间注意力描述子。该卷积层的大小依然为7×7,卷积核尺寸的选择和选择共享卷积层卷积核尺寸的思想一致,这里不再赘述。
步骤7:对空间注意力描述子进行一系列的非线性操作,非线性操作顺序为BN层,ReLU层,Sigmoid层。至此获得了空间注意力图AS。该注意力图是二维矩阵,其大小和通道细化特征图大小一致。
将上述步骤用数学公式进行表示,如公式(3),(4),(5),(6)所示:
F’=F’1+F’2 (3)
S1=Φ1(C2D1,7×7[AvgPool(F'1);MaxPool(F'1)]) (4)
S2=Φ1(C2D1,7×7[AvgPool(F'2);MaxPool(F'2)]) (5)
AS=Φ2(C2D2,7×7[S1;S2]) (6)
其中(3)式表示通道分离的过程,F'表示通道细化特征,F'1表示重要特征,F'2表示次重要特征。(4)式中Φ1表示BN层和ReLU层的集合,即非线性操作;C2D1,7×7表示共享卷积层,其卷积核大小为7×7;[a;b]表示将a,b两个特征聚合起来;AvgPool表示平均池化操作;MaxPool表示最大池化操作。(5)式和(4)式中的符号同理,这里不在赘述。(4)式生成的是重要特征对应的空间特征描述符S1,(5)式生成的是次重要特征对应的空间特征描述符S2。(6)式中Φ2表示BN层,ReLU层和Sigmoid层的集合;C2D2,7×7表示第二个卷积层,其卷积核尺寸为7×7。
步骤8:将通道细化特征图和空间注意力图进行元素相乘,即可获得最终细化特征图。
最终细化特征图可以用如下公式表示,如公式(7):
其中F”表示最终细化特征;表示矩阵元素相乘。
在这里,以目前主流的残差卷积神经网络为例,将双分支空间注意力模块嵌入已有通道注意力模块的残差单元中,其结构如附图中图3所示。双分支空间注意力模块将在通道注意力模块后,进一步在空间维度上对特征图的关键特征进行加强,从而使得网络模型的性能得到进一步提升。
Claims (7)
1.一种基于通道注意力的空间注意力计算方法,其特征在于:包括以下步骤:
步骤1:获取通道注意力图和通道细化特征图;
步骤2:对步骤1中得到的通道细化特征图的通道进行分组,将通道细化特征图的通道分为重要特征和次重要特征;采用通道分离技术对通道细化特征的通道分组,分为重要特征和次重要特征,具体操作步骤包括:
(1)获得通道细化特征图的通道维度,即通道数C;
(2)引入超参数:分离率λ,该参数是重要通道和次重要通道的分界线;将通道数和分离率相乘,取乘积的最近偶数,获得重要通道的数量Cim;使用通道数减去重要通道数,获得次重要通道数Csubim;上述的计算过程如公式(1)和(2)所示:
Cim=|C · λ|even (1)
Csubim=C - Cim (2)
其中|t|even表示距离t值最近的偶数;
(3)在通道注意力图中找到前Cim个最大的值,同时在这Cim个大值里面确定最小的值m;
(4)将通道注意力图中的值和m进行比较,大于或等于m的值重新赋为1,小于m的值重新赋为0,从而获得了重要通道掩码important_mask;
(5)将通道注意力图中的值和m进行比较,大于或等于m的值重新赋为0,小于m的值重新赋为1,从而获得了次重要通道掩码sub-important_mask;
(6)将重要通道掩码和次重要通道掩码分别和通道细化特征图进行元素相乘,进而获得重要特征和次重要特征;
步骤3:对步骤2中得到的重要特征和次重要特征均进行通道轴方向的平均池化和最大池化操作;将各自的两种池化结果进行特征聚合;
步骤4:将步骤3中得到的聚合后的结果经过一层共享卷积层,进而生成一对空间特征描述符;
步骤5:对步骤4中获得的这对空间特征描述符进行非线性操作,即经过BN层和ReLU层;
步骤6:将步骤5中得到的这两个空间特征描述符进行通道维度上的聚合,再经过一层卷积层,进而获得空间注意力描述子;
步骤7:将步骤6中得到的空间注意力描述子经过BN层,ReLU层和Sigmoid层,进而获得了一个2D的空间注意力图。
2.根据权利要求1所述的一种基于通道注意力的空间注意力计算方法,其特征在于:在步骤1中获取的通道注意力图和通道细化特征均由SENet或ECA模块前向推导生成;其中,通道注意力图是一个1D向量,向量中的每一个值对应于通道细化特征中对应通道的重要程度。
3.根据权利要求1所述的一种基于通道注意力的空间注意力计算方法,其特征在于:在步骤3中对重要特征和次重要特征均沿着通道轴方向进行平均池化和最大池化操作;池化操作结束后,将各自的两种池化结果进行通道维度上的聚合。
4.根据权利要求1所述的一种基于通道注意力的空间注意力计算方法,其特征在于:在步骤4中对聚合结果使用一层共用卷积层,从而获得一对空间特征描述符,卷积层的卷积核大小为7×7。
5.根据权利要求1所述的一种基于通道注意力的空间注意力计算方法,其特征在于:步骤5中对步骤4中获得的这两个空间特征描述符进行批量归一化和使用ReLU函数激活。
6.根据权利要求1所述的一种基于通道注意力的空间注意力计算方法,其特征在于:在步骤6中将经过非线性操作后的空间特征描述符在通道维度上进行特征聚合,再经过一层卷积层,得到空间注意力描述子;该卷积层不同于之前的共享卷积层,其卷积核的大小依然为7×7,卷积核尺寸的选择和选择共享卷积层卷积核尺寸的思想一致。
7.根据权利要求1所述一种基于通道注意力的空间注意力计算方法,其特征在于:在在所述步骤7中对空间注意力描述子进行一系列的非线性操作,非线性操作顺序为BN层,ReLU层和Sigmoid层,最终获得一个2D的空间注意力图;该注意力图是一个二维矩阵,大小和原通道细化特征图大小一致;
将上述步骤用数学公式进行表示,如公式(3),(4),(5),(6)所示:
F'= F'1 + F'2 (3)
S1= Φ1(C2D1,7×7[AvgPool(F'1); MaxPool(F'1)]) (4)
S2= Φ1(C2D1,7×7[AvgPool(F'2); MaxPool(F'2)]) (5)
AS = Φ2(C2D2,7×7[S1; S2]) (6)
其中,(3)式表示通道分离的过程,F'表示通道细化特征,F'1表示重要特征,F'2表示次重要特征;(4)式中Φ1表示BN层和ReLU层的集合,即非线性操作;
C2D1,7×7表示共享卷积层,其卷积核大小为7×7;[a;b]表示将a,b两个特征聚合起来;AvgPool表示平均池化操作;MaxPool表示最大池化操作;(4)式生成的是重要特征对应的空间特征描述符S1,(5)式生成的是次重要特征对应的空间特征描述符S2;(6)式中Φ2表示BN层,ReLU层和Sigmoid层的集合;C2D2,7×7表示第二个卷积层,其卷积核尺寸为7×7。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210087706.0A CN114492631B (zh) | 2022-01-25 | 2022-01-25 | 一种基于通道注意力的空间注意力计算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210087706.0A CN114492631B (zh) | 2022-01-25 | 2022-01-25 | 一种基于通道注意力的空间注意力计算方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114492631A CN114492631A (zh) | 2022-05-13 |
CN114492631B true CN114492631B (zh) | 2024-11-08 |
Family
ID=81475476
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210087706.0A Active CN114492631B (zh) | 2022-01-25 | 2022-01-25 | 一种基于通道注意力的空间注意力计算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114492631B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115331015A (zh) * | 2022-08-12 | 2022-11-11 | 广州紫为云科技有限公司 | 一种基于注意力机制的选择卷积方法、装置及介质 |
CN116503428B (zh) * | 2023-06-27 | 2023-09-08 | 吉林大学 | 基于精细化全局注意力机制图像特征提取方法和分割方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111626300A (zh) * | 2020-05-07 | 2020-09-04 | 南京邮电大学 | 基于上下文感知的图像语义分割模型及建模方法 |
CN113344188A (zh) * | 2021-06-18 | 2021-09-03 | 东南大学 | 基于通道注意力模块的轻量级神经网络模型 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190113119A (ko) * | 2018-03-27 | 2019-10-08 | 삼성전자주식회사 | 합성곱 신경망을 위한 주의집중 값 계산 방법 |
CN113642634B (zh) * | 2021-08-12 | 2024-10-29 | 南京邮电大学 | 一种基于混合注意力的阴影检测方法 |
-
2022
- 2022-01-25 CN CN202210087706.0A patent/CN114492631B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111626300A (zh) * | 2020-05-07 | 2020-09-04 | 南京邮电大学 | 基于上下文感知的图像语义分割模型及建模方法 |
CN113344188A (zh) * | 2021-06-18 | 2021-09-03 | 东南大学 | 基于通道注意力模块的轻量级神经网络模型 |
Also Published As
Publication number | Publication date |
---|---|
CN114492631A (zh) | 2022-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109949255B (zh) | 图像重建方法及设备 | |
CN114492631B (zh) | 一种基于通道注意力的空间注意力计算方法 | |
CN111507993A (zh) | 一种基于生成对抗网络的图像分割方法、装置及存储介质 | |
CN109858623A (zh) | 用于执行人工神经网络正向运算的装置和方法 | |
Zhang et al. | Learning adaptive sparse spatially-regularized correlation filters for visual tracking | |
CN112183675B (zh) | 一种基于孪生网络的针对低分辨率目标的跟踪方法 | |
WO2023019899A1 (zh) | 神经网络实时剪枝方法、系统及神经网络加速器 | |
Liu et al. | A multiscale image denoising algorithm based on dilated residual convolution network | |
CN114049251A (zh) | 一种用于ai视频分析的模糊图像超分辨率重建方法及装置 | |
CN110517272A (zh) | 基于深度学习的血细胞分割方法 | |
CN114022371B (zh) | 基于空间和通道注意力残差网络的去雾装置及其去雾方法 | |
Huang et al. | BSCF: Learning background suppressed correlation filter tracker for wireless multimedia sensor networks | |
Li et al. | FA-GAN: A feature attention GAN with fusion discriminator for non-homogeneous dehazing | |
Luo et al. | A fast denoising fusion network using internal and external priors | |
CN109087247A (zh) | 一种对立体图像进行超分的方法 | |
Tang et al. | Lightweight network with one-shot aggregation for image super-resolution | |
Wu et al. | Lightweight stepless super-resolution of remote sensing images via saliency-aware dynamic routing strategy | |
Gao et al. | Segmentation-based background-inference and small-person pose estimation | |
CN110211059A (zh) | 一种基于深度学习的图像重建方法 | |
CN116343017A (zh) | 基于自适应交叉注意力的水下目标跟踪方法与系统 | |
Ying et al. | Multi-directional broad learning system for the unsupervised stereo matching method | |
Zhao et al. | Residual Dense Blocks and Contrastive Regularization Integrated Underwater Image Enhancement Network | |
CN114881843B (zh) | 一种基于深度学习的流体艺术控制方法 | |
Liu | Lightweight single image super-resolution by channel split residual convolution | |
Chu et al. | Super-resolution Reconstruction of Airborne Remote Sensing Images based on Multi-scale Fusion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |