CN113378938B - 一种基于边Transformer图神经网络的小样本图像分类方法及系统 - Google Patents
一种基于边Transformer图神经网络的小样本图像分类方法及系统 Download PDFInfo
- Publication number
- CN113378938B CN113378938B CN202110657352.4A CN202110657352A CN113378938B CN 113378938 B CN113378938 B CN 113378938B CN 202110657352 A CN202110657352 A CN 202110657352A CN 113378938 B CN113378938 B CN 113378938B
- Authority
- CN
- China
- Prior art keywords
- edge
- layer
- sample
- graph
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 63
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000009826 distribution Methods 0.000 claims description 31
- 238000010586 diagram Methods 0.000 claims description 23
- 238000005070 sampling Methods 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 14
- 230000004927 fusion Effects 0.000 claims description 13
- 238000012360 testing method Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000001537 neural effect Effects 0.000 claims 1
- 230000007246 mechanism Effects 0.000 abstract description 7
- 238000002474 experimental method Methods 0.000 abstract description 3
- 238000003860 storage Methods 0.000 description 14
- 238000004590 computer program Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000004088 simulation Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000000052 comparative effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于边Transformer图神经网络的小样本图像分类方法及系统,引入transformer模型来对图中的边特征进行更新,通过将结点之间的差值特征图拆分成特征块序列输入到transformer模块得到更新后的边特征,使得每一个像素位置会被分配不同的注意力权重以突出关键区域。本发明的思想是利用transformer中的自注意力机制来自动聚焦到用于衡量结点间相似性的关键区域,从而达到抑制背景信息并突出关键区域的目的。本发明在miniImageNet数据集上进行的对比实验证明了本发明可以提高小样本图像分类的精度。
Description
技术领域
本发明属于计算机视觉技术领域,具体涉及一种基于边Transformer图神经网络的小样本图像分类方法及系统。
背景技术
近年来,得益于计算机算力的飞速提升,深度学习成为了人工智能领域研究的热门。然而深度学习繁荣发展的背后是大规模人工标注的数据集的支撑,并且越加复杂的网络就越需要更加庞大的数据集来训练。但是在一些特殊的领域数据是非常匮乏的,如医学中罕见病例的判别,其现有的有限医学图像是远远不够用于训练一个良好的深度模型的。这时就希望模型可以减少对数据的依赖,像人类一样可以进行快速的学习,那么将会大大减少数据的人工标注成本,基于此小样本学习渐渐得到了许多研究者的关注。小样本学习顾名思义就是在带标注数据不充足的情况下进行的学习任务,一个优秀的小样本学习模型通过一定量任务的训练后,不需要进行额外的训练就可以泛化到新的任务上。现有的小样本学习方法大致可以分为基于度量学习、基于元学习、基于数据增强以及基于图神经网络四种。
现有的基于图神经网络的小样本学习模型基于全局相似度来进行结点特征的聚合,这种方式会聚合许多背景信息进而引起语义上的歧义,为了解决这一问题,受transformer模型的启发,本发明提出一种利用transformer感知关键区域的小样本学习方法,抛弃了CNN转而使用transformer编码器来对GNN中的边特征进行更新。动机来自于transformer模型结构中含有的自注意力层,使得模型天生具有感知关键区域的能力,所以本章的方法利用其中的自注意力机制来自动学习为不同的像素位置分配不同的注意力,进而在结点特征聚合的时候给予关键区域更多的关注。
发明内容
本发明所要解决的技术问题在于针对上述现有技术中的不足,提供一种基于边Transformer图神经网络的小样本图像分类方法及系统,通过利用transformer模型结构中含有的自注意力层,使得模型天生具有感知关键区域的能力,进而增强模型在小样本图像分类任务上的表现。
本发明采用以下技术方案:
一种基于边Transformer图神经网络的小样本图像分类方法,包括以下步骤:
S1、采样小样本学习任务T;
S2、将步骤S1得到的小样本学习任务T中的每一个样本xi送入构建的嵌入网络Femb中,得到每一个样本的特征图fi;
S4、将步骤S3构建的全连接图GT输入到由L层边Transformer图神经网络构成的ETGNN中迭代进行结点特征更新,利用Transformer图神经网络的边transformer模块进行边特征更新,得到每一层的边特征
S6、根据步骤S5得到的查询结点的类别概率分布以及查询结点的标签yi计算小样本分类损失Lfl,端到端地训练嵌入网络Femb以及边Transformer图神经网络ETGNN,测试时利用类别概率分布对查询样本进行类别预测以实现小样本分类。
进一步的,嵌入网络Femb包括依次相连接的输入层、第一卷积层、第二卷积层、第三卷积层、第四卷积层以及输出层。
具体的,步骤S3中,全连接图GT=(V,E),V={v1,…,vN**K+r}表示图中的结点,E={eij;vi,vj∈V}表示图中的边,且表示图中相邻结点vi和vj之间每一对应像素位置即vid∈R1*与vjd∈R1**之间的相似性;将步骤S2得到的特征图作为图GT=(V,E)的初始结点特征然后进行边特征初始化。
进一步的,边特征初始化具体为:
其中,yi和yj分别表示结点vi和vj的类别标签。
具体的,步骤S4具体为:
S401、输入步骤S3中得到的图GT到边transformer图神经网络SGNN进行3层图更新,对于边transformer图神经网络SGNN中的每一层,根据边特征更新结点特征;
S402、将每一层更新后的结点特征输入到边Transformer模块更新边特征,通过边Transformer模块计算相邻结点特征间的差值特征图然后将差值特征图进行拆分,得到w*h个差值特征块组成的序列pl,引入可学习的位置编码然后将序列pl和位置编码进行级联得到序列最后将序列送入到边Transformer模块得到更新后的边特征
进一步的,边Transformer模块包含两个子层,每一个子层后接一个LN层进行标准化,第一个子层为自注意力层,第二个子层为前馈网络层;
其中,MLP为一个包含两个全连接层的多层感知机。
具体的,步骤S6中,小样本分类损失Lfl:
本发明的另一技术方案是,一种基于边Transformer图神经网络的小样本图像分类系统,包括:
采样模块,采样小样本学习任务T;
特征模块,将采样模块得到的小样本学习任务T中的每一个样本xi送入构建的嵌入网络Femb中,得到每一个样本的特征图fi;
神经网络模块,将全连接模块构建的全连接图GT输入到由L层边Transformer图神经网络构成的ETGNN中迭代进行结点特征更新,利用Transformer图神经网络的边transformer模块进行边特征更新,得到每一层的边特征
分类模块,根据融合模块得到的查询结点的类别概率分布以及查询结点的标签yi计算小样本分类损失Lfl,端到端地训练嵌入网络Femb以及边Transformer图神经网络ETGNN,在测试时利用类别概率分布对查询样本进行类别预测以实现小样本分类。
与现有技术相比,本发明至少具有以下有益效果:
本发明一种基于边Transformer图神经网络的小样本图像分类方法,构建边transformer图神经网络ETGNN,为了感知关键区域以减少背景引起的歧义,基于transformer具有纵观全局来赋予各个区域不同注意力的能力,提出了基于边transformer图神经网络的小样本学习方法,抑制背景对分类结果的影响,提高模型的小样本学习能力。
进一步的,嵌入网络Femb是一个由卷积模块构成的浅层网络,包括依次连接的输入层、第一卷积层、第二卷积层、第三卷积层、第四卷积层以及输出层,浅层的网络有利于模型在面对新的小样本学习任务时快速泛化。
进一步的,嵌入网络Femb通过多个卷积层提取支持和查询样本的特征表示,并作为图中初始的结点特征,并将初始边特征构建为一个张量,表示相邻结点每一对应像素位置之间的相似程度而不是全局相似度,通过这种构建边特征的方式,使得后续结点特征每一像素位置独立聚合。
进一步的,以从嵌入网络Femb中提取的特征作为图中的初始结点特征,并根据相邻结点类别的异同来初始化边特征,为后续利用图神经网络传播相邻结点信息以更新图表示做准备。
进一步的,将构建的全连接图送入到边transformer图神经网络迭代进行结点特征更新及边特征更新,其中边特征的更新将结点之间的差值特征图拆分成序列并加入位置编码后作为transformer编码器的输入来更新边的表示,利用transformer中的自注意力机制来帮助模型聚焦到用于衡量相似性的关键区域。
进一步的,transformer编码器由自注意力层和前馈网络层构成,自注意力层负责计算输入序列的自注意力,前馈网络层将自注意力映射为更新后的边特征。这种更新边特征的方式利用自注意力机制来自动学习为不同的像素位置分配不同的注意力,进而在结点特征聚合的时候给予关键区域更多的关注。
综上所述,本发明引入边transformer模块对图中的边特征进行更新,通过将结点之间的差值特征图拆分成特征块序列输入到transformer模块得到更新后的边特征,利用边transformer模块中的自注意力机制来自动聚焦到用于衡量结点间相似性的关键区域,从而达到抑制背景信息并突出关键区域的目的。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1为本发明的实现流程图;
图2为边transformer模块(ETM)图;
图3为transformer编码器结构细节图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
在附图中示出了根据本发明公开实施例的各种结构示意图。这些图并非是按比例绘制的,其中为了清楚表达的目的,放大了某些细节,并且可能省略了某些细节。图中所示出的各种区域、层的形状及它们之间的相对大小、位置关系仅是示例性的,实际中可能由于制造公差或技术限制而有所偏差,并且本领域技术人员根据实际所需可以另外设计具有不同形状、大小、相对位置的区域/层。
本发明提供了一种基于边Transformer图神经网络的小样本图像分类方法,能够减少背景引入的歧义,突出结点中关键区域之间的关系。通过将结点特征间的差值特征图拆分成序列送入到一个transformer编码器来得到更新后的边特征,利用transformer中的自注意力机制来帮助模型感知到需要关注的关键区域从而达到抑制背景的目的,得益于transformer中的位置编码,其输出的边还综合考虑了空间位置信息,这是目前其他基于的小样本学习方法中所没有的。
请参阅图1,本发明一种基于边Transformer图神经网络的小样本图像分类方法,包括以下步骤:
S1、从数据集中采样“N-way k-shot”小样本学习任务T=S∪Q,其中,表示带标签的支持集,xi表示样本,yi表示xi对应的类别标签,支持集共包含N个类,每类有K个样本,查询集Q表示需要进行类别预测的无标签样本,若查询集中含有r个样本则
构建嵌入网络Femb,嵌入网络Femb包括依次相连接的输入层、第一卷积层、第二卷积层、第三卷积层、第四卷积层以及输出层;其中嵌入网络Femb的输入为每次从步骤S1中采样的B个小样本学习任务T,B为每批次的大小,输出为任务T中每个样本xi的特征图
S3、构建一个全连接图GT=(V,E),V={v1,…,vN*K+r}表示图中的结点,E={eij;vi,vj∈V}表示图中的边,且表示图中相邻结点vi和vj之间每一对应像素位置即vid∈R1*c与vjd∈R1*c之间的相似性;
其中,yi和yj分别表示结点vi和vj的类别标签。
S4、构建边transformer图神经网络ETGNN,边transformer图神经网络ETGNN共有L层,每一层包括结点特征更新和边特征更新两步,边特征的更新是由边transformer模块ETM实现;将步骤S3中得到的图GT输入到边transformer图神经网络ETGNN中得到每一层的边特征
请参阅图1和图2,步骤S4具体为:
S401、输入步骤S3中得到的全连接图GT到边transformer图神经网络SGNN进行3层图更新(图1仅画出两层),对于边transformer图神经网络SGNN中的每一层,根据边特征更新结点特征;
请参阅图3,边Transformer模块具体为:
第二个子层为前馈网络层,负责将自注意力层的输出映射到边Transformer模块最终的输出即更新后的边特征,这一过程表述为:
S5、构建边特征融合网络Ffus,将步骤S4中得到的L层的边特征进行级联,输入到Ffus中得到最终边表示边特征融合网络Ffus包括依次连接的输入层、卷积层以及输出层,输出层的输出为最终的边表示则查询结点vi的类别概率分布计算如下:
其中,xi表示查询集中的样本,yj为支持样本xj的标签。
S6、根据S5中得到的查询结点的类别概率分布及查询结点类别标签yi来计算小样本分类损失Lfl,端到端地训练嵌入网络Femb以及边Transformer图神经网络ETGNN,测试时利用类别概率分布对查询样本进行类别预测以实现小样本分类。
小样本分类损失Lfl:
其中,Lce表示交叉熵损失。
本发明再一个实施例中,提供一种基于边Transformer图神经网络的小样本图像分类系统,该系统能够用于实现上述基于边Transformer图神经网络的小样本图像分类方法,具体的,该基于边Transformer图神经网络的小样本图像分类系统包括采样模块、特征模块、全连接模块、神经网络模块、融合模块以及分类模块。
其中,采样模块,采样小样本学习任务T;
特征模块,将采样模块得到的小样本学习任务T中的每一个样本xi送入构建的嵌入网络Femb中,得到每一个样本的特征图fi;
神经网络模块,将全连接模块构建的全连接图GT输入到由L层边Transformer图神经网络构成的ETGNN中迭代进行结点特征更新,利用Transformer图神经网络的边transformer模块进行边特征更新,得到每一层的边特征
分类模块,根据融合模块得到的查询结点的类别概率分布以及查询结点的标签yi计算小样本分类损失Lfl,端到端地训练嵌入网络Femb以及边Transformer图神经网络ETGNN,测试时利用类别概率分布对查询样本进行类别预测以实现小样本分类。
本发明再一个实施例中,提供了一种终端设备,该终端设备包括处理器以及存储器,所述存储器用于存储计算机程序,所述计算机程序包括程序指令,所述处理器用于执行所述计算机存储介质存储的程序指令。处理器可能是中央处理单元(Central ProcessingUnit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor、DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable GateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,其是终端的计算核心以及控制核心,其适于实现一条或一条以上指令,具体适于加载并执行一条或一条以上指令从而实现相应方法流程或相应功能;本发明实施例所述的处理器可以用于基于边Transformer图神经网络的小样本图像分类方法的操作,包括:
采样小样本学习任务T;将小样本学习任务T中的每一个样本xi送入构建的嵌入网络Femb中,得到每一个样本的特征图fi;构建一个全连接图GT,将每一个样本的特征图fi作为初始的结点特征并根据查询样本的标签初始化边特征将全连接图GT输入到由L层边Transformer图神经网络构成的ETGNN中迭代进行结点特征更新,利用Transformer图神经网络的边transformer模块进行边特征更新,得到每一层的边特征对L层的边特征进行级联,然后输入到构建的边特征融合网络Ffus中,得到最终边并根据最终边以及支持样本的类别yj得到查询结点vi的类别概率分布根据查询结点的类别概率分布以及查询结点的标签yi计算小样本分类损失Lfl,端到端地训练嵌入网络Femb以及边Transformer图神经网络ETGNN,测试时利用类别概率分布对查询样本进行类别预测以实现小样本分类。
本发明再一个实施例中,本发明还提供了一种存储介质,具体为计算机可读存储介质(Memory),所述计算机可读存储介质是终端设备中的记忆设备,用于存放程序和数据。可以理解的是,此处的计算机可读存储介质既可以包括终端设备中的内置存储介质,当然也可以包括终端设备所支持的扩展存储介质。计算机可读存储介质提供存储空间,该存储空间存储了终端的操作系统。并且,在该存储空间中还存放了适于被处理器加载并执行的一条或一条以上的指令,这些指令可以是一个或一个以上的计算机程序(包括程序代码)。需要说明的是,此处的计算机可读存储介质可以是高速RAM存储器,也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。
可由处理器加载并执行计算机可读存储介质中存放的一条或一条以上指令,以实现上述实施例中有关基于边Transformer图神经网络的小样本图像分类方法的相应步骤;计算机可读存储介质中的一条或一条以上指令由处理器加载并执行如下步骤:
采样小样本学习任务T;将小样本学习任务T中的每一个样本xi送入构建的嵌入网络Femb中,得到每一个样本的特征图fi;构建一个全连接图GT,将每一个样本的特征图fi作为初始的结点特征并根据查询样本的标签初始化边特征将全连接图GT输入到由L层边Transformer图神经网络构成的ETGNN中迭代进行结点特征更新,利用Transformer图神经网络的边transformer模块进行边特征更新,得到每一层的边特征对L层的边特征进行级联,然后输入到构建的边特征融合网络Ffus中,得到最终边并根据最终边以及支持样本的类别yj得到查询结点vi的类别概率分布根据查询结点的类别概率分布以及查询结点的标签yi计算小样本分类损失Lfl,端到端地训练嵌入网络Femb以及边Transformer图神经网络ETGNN,测试时利用类别概率分布对查询样本进行类别预测以实现小样本分类。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中的描述和所示的本发明实施例的组件可以通过各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的效果可通过以下仿真结果进一步说明
1.仿真条件
本发明仿真的硬件条件为:智能感知与图像理解实验室图形工作站,打在一块显存为12G的GPU;本发明仿真所使用的数据集为miniImageNet数据集。数据集中所有的图片都是大小为84*84的3通道RGB图像,共包含了100类,每一类有大约600张图片。
本发明遵循了目前小样本学习方法的常用划分方式,将其中的64类用于训练,16类用于验证,20类用于测试。
2.仿真内容
利用miniImageNet数据集,在训练时,对于5way-1shot任务,我们将批大小设置为64,其支持集共有5个类别,每个类别有1个样本,并且每类有1个查询样本,所以一共10个样本来构建一个episode。对于5way-5shot任务,将批大小设置为20,其支持集同样有5个类别,但是每类有5个样本,每类同样有1个查询样本,所以一共30个样本来构建一个episode。
在验证阶段,随机从测试集中采样600个小样本分类任务,根据600个任务上的平均准确率来评价其性能。表1给出了本发明方法和其他一些小样本学习方法的对比实验结果。
表1本发明方法在miniImageNet数据集上的对比实验结果
模型名称 | 5way-1shot | 5way-5shot |
MN | 46.60% | 55.30% |
PN | 46.14% | 65.77% |
RN | 50.44% | 65.32% |
GNN | 50.33% | 66.41% |
本发明方法 | 51.75% | 66.47% |
3.仿真结果分析
从表1可以看出,本发明方法在miniImageNet上5way-1shot设置下的分类准确率达到了51.75%,在5way-5shot设置下达到了66.47%,较对比方法有了显著的提升。
综上所述,本发明一种基于边Transformer图神经网络的小样本图像分类方法及系统,将图中相邻结点特征的差值特征图分成序列,然后在加入位置编码后作为原始的输入序列送入到transformer编码器中学习得到更新后的边特征,这样得到的边不仅考虑了特征图的空间位置关系,并且得益于transformer模块中的自注意力机制,每一个像素位置会被分配不同的注意力权重以突出关键区域,从而提升模型的性能。本发明在miniImageNet数据集上的对比实验证明了ETGNN的可以提高小样本图像分类的精度。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上内容仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明权利要求书的保护范围之内。
Claims (8)
1.一种基于边Transformer图神经网络的小样本图像分类方法,其特征在于,包括以下步骤:
S1、采样小样本学习任务T;
S2、将步骤S1得到的小样本学习任务T中的每一个样本xi送入构建的嵌入网络Femb中,得到每一个样本的特征图fi;
S4、将步骤S3构建的全连接图GT输入到由L层边Transformer图神经网络构成的ETGNN中迭代进行结点特征更新,利用Transformer图神经网络的边transformer模块进行边特征更新,得到每一层的边特征具体为:
S401、输入步骤S3中得到的全连接图GT到边transformer图神经网络ETGNN进行3层图更新,对于边transformer图神经网络ETGNN中的每一层,根据边特征更新结点特征;
S402、将每一层更新后的结点特征输入到边Transformer模块更新边特征,通过边Transformer模块计算相邻结点特征间的差值特征图然后将差值特征图进行拆分,得到w*h个差值特征块组成的序列pl,引入可学习的位置编码然后将序列pl和位置编码进行级联得到序列最后将序列送入到边Transformer模块得到更新后的边特征
边Transformer模块包含两个子层,每一个子层后接一个LN层进行标准化,第一个子层为自注意力层,第二个子层为前馈网络层;
其中,MLP为一个包含两个全连接层的多层感知机;
3.根据权利要求2所述的方法,其特征在于,嵌入网络Femb包括依次相连接的输入层、第一卷积层、第二卷积层、第三卷积层、第四卷积层以及输出层。
8.一种基于边Transformer图神经网络的小样本图像分类系统,其特征在于,包括:
采样模块,采样小样本学习任务T;
特征模块,将采样模块得到的小样本学习任务T中的每一个样本xi送入构建的嵌入网络Femb中,得到每一个样本的特征图fi;
神经网络模块,将全连接模块构建的全连接图GT输入到由L层边Transformer图神经网络构成的ETGNN中迭代进行结点特征更新,利用Transformer图神经网络的边transformer模块进行边特征更新,得到每一层的边特征具体为:
输入全连接图GT到边transformer图神经网络ETGNN进行3层图更新,对于边transformer图神经网络ETGNN中的每一层,根据边特征更新结点特征;将每一层更新后的结点特征输入到边Transformer模块更新边特征,通过边Transformer模块计算相邻结点特征间的差值特征图然后将差值特征图进行拆分,得到w*h个差值特征块组成的序列pl,引入可学习的位置编码然后将序列pl和位置编码进行级联得到序列最后将序列送入到边Transformer模块得到更新后的边特征
边Transformer模块包含两个子层,每一个子层后接一个LN层进行标准化,第一个子层为自注意力层,第二个子层为前馈网络层;
其中,MLP为一个包含两个全连接层的多层感知机;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110657352.4A CN113378938B (zh) | 2021-06-11 | 2021-06-11 | 一种基于边Transformer图神经网络的小样本图像分类方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110657352.4A CN113378938B (zh) | 2021-06-11 | 2021-06-11 | 一种基于边Transformer图神经网络的小样本图像分类方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113378938A CN113378938A (zh) | 2021-09-10 |
CN113378938B true CN113378938B (zh) | 2022-12-13 |
Family
ID=77574207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110657352.4A Active CN113378938B (zh) | 2021-06-11 | 2021-06-11 | 一种基于边Transformer图神经网络的小样本图像分类方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113378938B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114119977B (zh) * | 2021-12-01 | 2022-12-30 | 昆明理工大学 | 一种基于图卷积的Transformer胃癌癌变区域图像分割方法 |
CN114299535B (zh) * | 2021-12-09 | 2024-05-31 | 河北大学 | 基于Transformer的特征聚合人体姿态估计方法 |
CN114898136B (zh) * | 2022-03-14 | 2024-04-19 | 武汉理工大学 | 一种基于特征自适应的小样本图像分类方法 |
CN118296500B (zh) * | 2024-06-06 | 2024-08-16 | 贵州大学 | 一种面向变工况噪声标签场景的小样本智能故障诊断方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012139813A1 (en) * | 2011-04-12 | 2012-10-18 | F. Hoffmann-La Roche Ag | Connector device |
CN111460097A (zh) * | 2020-03-26 | 2020-07-28 | 华泰证券股份有限公司 | 一种基于tpn的小样本文本分类方法 |
CN111950596A (zh) * | 2020-07-15 | 2020-11-17 | 华为技术有限公司 | 一种用于神经网络的训练方法以及相关设备 |
CN112633403A (zh) * | 2020-12-30 | 2021-04-09 | 复旦大学 | 一种基于小样本学习的图神经网络分类方法及装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111339883A (zh) * | 2020-02-19 | 2020-06-26 | 国网浙江省电力有限公司 | 复杂场景下基于人工智能的变电站内异常行为识别与检测方法 |
CN112070128B (zh) * | 2020-08-24 | 2022-10-21 | 大连理工大学 | 一种基于深度学习的变压器故障诊断方法 |
-
2021
- 2021-06-11 CN CN202110657352.4A patent/CN113378938B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012139813A1 (en) * | 2011-04-12 | 2012-10-18 | F. Hoffmann-La Roche Ag | Connector device |
CN111460097A (zh) * | 2020-03-26 | 2020-07-28 | 华泰证券股份有限公司 | 一种基于tpn的小样本文本分类方法 |
CN111950596A (zh) * | 2020-07-15 | 2020-11-17 | 华为技术有限公司 | 一种用于神经网络的训练方法以及相关设备 |
CN112633403A (zh) * | 2020-12-30 | 2021-04-09 | 复旦大学 | 一种基于小样本学习的图神经网络分类方法及装置 |
Non-Patent Citations (2)
Title |
---|
Graph inductive learning method for small sample classification of hyperspectral remote sensing images;Xibing Zuo et al.;《European Journal of Remote Sensing》;20210525;349-357 * |
基于小样本学习的图像分类技术综述;刘颖;《自动化学报》;20210228;297-315 * |
Also Published As
Publication number | Publication date |
---|---|
CN113378938A (zh) | 2021-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113378938B (zh) | 一种基于边Transformer图神经网络的小样本图像分类方法及系统 | |
Liang et al. | Symbolic graph reasoning meets convolutions | |
CN109271522B (zh) | 基于深度混合模型迁移学习的评论情感分类方法及系统 | |
WO2021057056A1 (zh) | 神经网络架构搜索方法、图像处理方法、装置和存储介质 | |
CN112819023B (zh) | 样本集的获取方法、装置、计算机设备和存储介质 | |
CN110309856A (zh) | 图像分类方法、神经网络的训练方法及装置 | |
CN108875076B (zh) | 一种基于Attention机制和卷积神经网络的快速商标图像检索方法 | |
CN111797589B (zh) | 一种文本处理网络、神经网络训练的方法以及相关设备 | |
CN110046249A (zh) | 胶囊网络的训练方法、分类方法、系统、设备及存储介质 | |
CN109063719B (zh) | 一种联合结构相似性和类信息的图像分类方法 | |
CN110222718B (zh) | 图像处理的方法及装置 | |
CN114398491A (zh) | 一种基于知识图谱的语义分割图像实体关系推理方法 | |
CN107563407B (zh) | 一种面向网络空间多模态大数据的特征表示学习系统 | |
WO2021253941A1 (zh) | 神经网络模型训练、图像分类、文本翻译方法及装置、设备 | |
CN115482418B (zh) | 基于伪负标签的半监督模型训练方法、系统及应用 | |
CN111178196B (zh) | 一种细胞分类的方法、装置及设备 | |
CN112199532A (zh) | 一种基于哈希编码和图注意力机制的零样本图像检索方法及装置 | |
CN114913379B (zh) | 基于多任务动态对比学习的遥感图像小样本场景分类方法 | |
CN105701225B (zh) | 一种基于统一关联超图规约的跨媒体检索方法 | |
CN113378937A (zh) | 一种基于自监督增强的小样本图像分类方法及系统 | |
CN112651940A (zh) | 基于双编码器生成式对抗网络的协同视觉显著性检测方法 | |
CN111859936A (zh) | 一种基于深度混合网络的面向跨域立案的法律文书专业管辖权识别方法 | |
CN111241326A (zh) | 基于注意力金字塔图网络的图像视觉关系指代定位方法 | |
CN116502181A (zh) | 基于通道扩展与融合的循环胶囊网络多模态情感识别方法 | |
Zhou et al. | Deep global semantic structure-preserving hashing via corrective triplet loss for remote sensing image retrieval |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |