CN114444694A - 一种开放世界知识图谱补全方法及装置 - Google Patents
一种开放世界知识图谱补全方法及装置 Download PDFInfo
- Publication number
- CN114444694A CN114444694A CN202210070660.1A CN202210070660A CN114444694A CN 114444694 A CN114444694 A CN 114444694A CN 202210070660 A CN202210070660 A CN 202210070660A CN 114444694 A CN114444694 A CN 114444694A
- Authority
- CN
- China
- Prior art keywords
- vector
- module
- entity
- knowledge graph
- representation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 239000013598 vector Substances 0.000 claims abstract description 115
- 230000006870 function Effects 0.000 claims abstract description 25
- 238000012549 training Methods 0.000 claims abstract description 20
- 230000008447 perception Effects 0.000 claims abstract description 18
- 230000004927 fusion Effects 0.000 claims abstract description 16
- 230000007246 mechanism Effects 0.000 claims abstract description 12
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 230000000295 complement effect Effects 0.000 claims description 3
- 230000001502 supplementing effect Effects 0.000 claims 1
- 238000010200 validation analysis Methods 0.000 claims 1
- 230000008901 benefit Effects 0.000 abstract description 2
- 238000003169 complementation method Methods 0.000 abstract description 2
- 238000013527 convolutional neural network Methods 0.000 description 28
- 238000011176 pooling Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 239000012458 free base Substances 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 239000002585 base Substances 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/027—Frames
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明属于开放世界的知识图谱补全领域,具体涉及一种开放世界知识图谱补全方法及装置,包括获取三元组数据并进行词嵌入,由注意力模块得到关系感知表示并与头实体向量连接,通过Transformer获取连接结果的向量表示;将编码问题向量与连接结果的向量表示的融合结果与Transformer获取的候选向量表示分别输入CNN网络;对CNN网络的输出打分,将得分最高的候选尾实体作为尾部实体;采用交叉熵损失函数训练模型;获取待补全知识图谱并输入训练好的模型进行补全,本发明使用注意力机制与Transformer网络框架,充分利用实体的文本描述中的特征信息,降低模型训练的成本,缩短了模型训练的时间。
Description
技术领域
本发明属于开放世界的知识图谱补全领域,具体涉及一种开放世界知识图谱补全方法及装置。
背景技术
知识图谱有两种主要的存储方式:RDF和图数据库;RDF语言是一种非常简单的语言,本质上是由主语、谓语、宾语组成的三元组,RDF语言表示各种事情之间的关联,把这种关联画出来变成很大的一个图,就转化为了图数据库,谷歌、微软都有自己的图数据库。知识图谱已被应用于网络搜索、链接预测、推荐、自然语言处理和实体链接等领域,然而,大多数知识图谱还不完善。Denis Krompa对一些开源的大型知识库进行了统计,在Freebase中,有71%的人的实体缺失了“出生地”属性值,而在DBpedia中这个数值为66%。知识图谱作为许多任务和应用的底层数据库,数据的缺失会严重影响上层应用的效果。
为了解决这些问题,知识图谱补全被提出,通过填补缺失的连接来改进知识图谱。给定一个知识图谱G=(E,R,T),其中E表示实体集合,R表示关系集合,T表示三元组集合。知识图谱补全可分为封闭世界和开放世界两种,封闭世界假设知识图谱是固定的,利用图的拓扑结构,发现已有实体之间新的关系,添加新的三元组。常用的方法可以分为三类,第一类是基于逻辑规则的模型,根据已有的三元组,通过定义的规则推理出新的规则;第二类是基于关系路径信息的模型,融合知识图谱路径信息进行路径推理的方法,关系路径推理旨在利用知识图谱结构中的路径信息,可以提高知识表示学习模型的性能;第三类是基于嵌入的模型,该类方法将实体向量映射到关系决定的空间,之后通过向量运算推断缺失关系。
然而封闭世界的知识图谱补全的方法能得到的信息是有限的,越来越多的方法倾向于从开放世界的资源中获取知识。为了解决开放世界的知识图谱补全的问题,研究者们提出了ConMask模型、OWE模型等模型。Baoxu Shi提出的ConMask模型首先使用基于关系的内容遮蔽,筛选文本信息,删去无关信息,仅留下与任务有关的内容,然后使用全卷积神经网络从相关文本抽取目标实体的嵌入,最后将这个目标实体嵌入与图谱中现有的目标候选尾部实体做比较生成排序列表;但是该模型没有充分利用实体文本描述中丰富的特征信息。Haseeb Shah等提出了OWE模型,该模型结合了从知识图中学习到的常规链接预测模型和从文本语料库中学习到的单词嵌入,在独立训练之后,学习一个转换,将实体的名称和描述的嵌入映射到基于图的嵌入空间,该模型利用了完整的知识图谱不依赖于长文本,具有很高的扩展性。但该模型训练成本高昂,对原始数据有着很高的质量要求。
发明内容
为解决上述问题,本发明提供了一种开放世界知识图谱补全方法及装置。
一种开放世界知识图谱补全方法,构建知识图谱补全模型,该模型包括Word2Vec模块、注意力模块、打分模块,开放世界知识图谱补全方法包括以下步骤:
S1.获取三元组数据,三元组数据中每个三元组包括头部实体描述,头部实体名称,关系名称,候选尾部实体描述,候选尾实体;
S2.使用Word2Vec模块对头部实体描述和候选尾部实体描述进行词嵌入,得到头实体向量和候选尾实体向量,将头部实体名称与关系名称的文本连接视作问题,使用Word2Vec模块对问题进行词嵌入得到问题向量;
S3.采用注意力模块计算头实体向量和问题向量,得到关系感知表示;
S4.将头实体向量与关系感知进行连接,采用Transformer提取连接结果的全局特征,得到连接结果的向量表示;
S5.采用GRU网络对问题向量进行编码,通过门控机制将编码后的问题向量与连接结果的向量表示融合,并将融合结果输入CNN网络,得到第一CNN输出;
S6.采用Transformer提取候选尾实体向量的全局特征,得到候选向量表示并输入CNN网络,得到第二CNN输出;
S7.通过打分模块对第一CNN输出与第二CNN输出进行打分,并输出分数;
S8.采用交叉熵损失函数计算分数的损失值,使用Adam优化算法训练知识图谱补全模型参数,直到模型参数收敛;
S9.获取待补全的知识图谱并输入训练好的知识图谱补全模型进行补全。
进一步的,三元组数据从DBpedia50k数据集和DBpedia500k数据集中获取,将三元组数据以8:1:1的比例划分为训练集、验证集和测试集数据集。
进一步的,对三元组数据添加标签y*表示三元组的正确性,即正确三元组标签为1,错误三元组标签为0,标签表示为y*∈{0,1}。
进一步的,注意力模块中采用的注意力函数为:
进一步的,步骤S5中编码后的问题向量与连接结果的向量表示的融合结果表示为:
进一步的,打分模块采用的打分函数表示为:
进一步的,交叉熵损失函数表示为:
其中,yi是第i个三元组的标签值,y′i表示模型输出的第i个候选尾实体的分数,m表示三元组总数量。
一种基于开放世界知识图谱补全装置,包括:
获取模块,用于获取待补全的知识图谱数据;
Word2Vec模块,用于对获取模块中的知识图谱数据进行词嵌入,得到头实体向量、候选尾实体向量和问题向量;
注意力模块,用于计算头实体向量和问题向量,得到关系感知表示;
Transformer模块,用于提取头实体向量与关系感知连接结果的全局特征得到连接结果的向量表示,并提取候选尾实体向量的全局特征得到候选向量表示;
融合模块,用于通过门控机制将编码后的问题向量,与Transformer模块输出的连接结果的向量表示进行融合;
CNN网络,用于对融合模块的融合结果和Transformer模块的候选向量表示进行特征抽取;
打分模块,用于对CNN网络输出的结果进行打分,选取最高分数对应的三元组作为新的三元组补入知识图谱。
本发明的有益效果:
本发明提供了一种开放世界知识图谱补全的方法,不限制要补全的三元组的实体都在要补全的知识图谱的实体集合中,而是从开放世界的资源中获取知识,例如在线百科全书,能够补全各种大型知识图谱,解决知识图谱缺失数据的问题。
本发明主要使用Transformer网络框架与CNN网络,其中Transformer能够很好的捕获实体描述的全局特征,CNN网络结构由2次卷积操作与1次池化操作组成,能够降低网络训练成本以及在降低嵌入大小的情况下能够进行很好的特征提取,有助于提升知识图谱补全的三元组准确率。同时使用的注意力机制能够充分利用文本描述的信息,对问题使用的GRU网络在编码的同时也能够提升训练效率。
附图说明
图1为本发明的方法流程图;
图2为本发明中模型结构图;
图3为本发明中CNN网络结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一种基于注意力机制与Transformer的开放世界知识图谱补全方法,如图1、2所示,构建知识图谱补全模型,该模型包括Word2Vec模块、注意力模块、打分模块,包括以下步骤:
S1.获取三元组数据,三元组数据中每个三元组都包括头部实体描述,头部实体名称(也称为头实体),关系名称(也可叫做关系),候选尾部实体描述,候选尾实体;
S2.使用Word2Vec模块对头部实体描述和候选尾部实体描述进行词嵌入,得到头实体向量和候选尾实体向量,将头部实体名称与关系名称的文本连接视作问题,使用Word2Vec模块对问题进行词嵌入得到问题向量;
S3.采用注意力模块计算头实体向量和问题向量,得到关系感知表示;
S4.将头实体向量与关系感知进行连接,采用Transformer提取连接结果的全局特征,得到连接结果的向量表示;
S5.采用GRU网络对问题向量进行编码,通过门控机制将编码后的问题向量与连接结果的向量表示融合,并将融合结果输入CNN网络,得到第一CNN输出;
S6.采用Transformer提取候选尾实体向量的全局特征,得到候选向量表示并输入CNN网络,得到第二CNN输出;
S7.通过打分模块对第一CNN输出与第二CNN输出进行打分,并输出分数;
S8.采用交叉熵损失函数计算分数的损失值,使用Adam优化算法训练知识图谱补全模型参数,直到模型参数收敛;
S9.获取待补全的知识图谱并输入训练好的知识图谱补全模型进行补全。
Freebase 15K数据集在知识图谱补全中被广泛使用,但是FB15K充满了大量的反向的三元组或同义词三元组,没有为基于文本描述的知识图谱补全方法提供足够的文本信息。
在这一实施例中,由于FB15K数据集中文本内容有限且存在冗余的情况,本实施例使用两个新的数据集DBPedia50k和DBPedia500k,用于开放世界的知识图谱补全;DBpedia50k数据集包含49900个实体,实体的平均描述长度为454个单词,654个关系。DBpedia500k数据集包含517475个实体,654个关系。将获取的数据集中完整的三元组以8:1:1的比例划分为训练集、验证集和测试集数据集。
Word2Vec是一种词向量表达,借助词典把文本转化为一组向量;
使用Word2Vec模块对头部实体描述和候选尾部实体描述进行词嵌入,得到头实体向量和候选尾实体向量,表示为:
其中,hi是头部实体描述中第i个词,是头实体向量中的第i个词嵌入,|Mh|是头部实体描述的长度,tn是候选尾部实体描述中的第n个词,是候选尾实体向量中的第n个词嵌入,|Zt|是候选尾部实体描述的长度。
将头部实体名称与关系名称的文本连接视作问题,使用Word2Vec模块对问题进行词嵌入得到问题向量,表示为:
头部实体名称是一个词,头部实体描述是含有名称的一段文本,头部实体描述中的每个单词的表示并不同等重要,对于关系和头部实体描述这段文本中的每个单词来说,头部实体描述中有和关系这个词联系紧密的、相关的词,也有很多无关的词,于是对头实体向量和问题向量使用注意力机制,来强调头部实体描述中和关系相关的信息,得到头部实体描述中词的关系感知表示,相当于减少那些无关的词的表示,去除噪声。
优先地,定义注意力机制中采用的注意力函数为:
其中σ是sigmoid函数。
卷积神经网络能够解决深层次结构的过拟合问题,同时CNN网络也常常用于知识图谱补全领域,获得了很好的表现。本发明采用的CNN网络如图3所示,由两个卷积层、一个池化层和一个全连接层组成,其的网络结构是在两个3×3卷积操作后接最大池化操作再接全连接层,具体地,将572×572的输入图送入CNN网络,经过第一层3×3卷积得到570×570的第一特征图,将第一特征图送入第二层3×3卷积得到568×568的第二特征图,对第二特征图进行最大池化得到284×284的第三特征图,最后送入全连接层。
其中Ws是需要被训练的变换矩阵,·T表示转置操作。经过Score(·)函数,每个候选尾实体都有其对应的分数si,采用最高分数所对应的候选尾实体作为正确的尾部实体。
本实施例中,模型的训练阶段需要输出每个候选尾实体对应的分数si,设置的模型分数的输出表示为:
y′=softmax([s1;s2;…;sm]);
优先地,在知识图谱补全模型的训练过程中,对训练数据添加标签y*,标签代表训练数据中三元组的正确性,即正确三元组标签为1,错误三元组标签为0,使用交叉熵损失函数来最小化预测三元组和正确三元组之间的差距,交叉熵损失函数公式如下:
其中,yi是标签的one-hot编码,yi是第i个三元组的标签值,y′i表示模型输出的第i个候选尾实体的分数。
优先地,采用Adam算法最小化损失函数优化模型。Adam是一种可以替代传统随机梯度下降过程的一阶优化算法,它能基于训练数据迭代地更新神经网络权重。Adam通过计算梯度的一阶矩估计和二阶矩估计为不同的参数设计独立的自适应性学习率。主要计算公式如下:
优先地,知识图谱补全模型的训练完成后,对模型进行测评,模型的评价指标为MRR,MR,Hits@1,Hits@3,Hits@10。对于每个测试三元组,预测尾实体,通过对所有候选尾部实体描述进行打分,之后按照升序将这些分数排列。Hits@10就是正确三元组排在前10的概率,同理Hits@3就是排在前3的概率,Hits@1就是排在第1的概率。
MR是平均排名,即正确三元组的排名的平均。
其中ti为第i个三元组的真实排名。
ki是第i个三元组的正确排名。
一种基于开放世界知识图谱补全装置,包括:
获取模块,用于获取待补全的知识图谱数据;
Word2Vec模块,用于对获取模块中的知识图谱数据进行词嵌入,得到头实体向量、候选尾实体向量和问题向量;
注意力模块,用于计算头实体向量和问题向量,得到关系感知表示;
Transformer模块,用于提取头实体向量与关系感知连接结果的全局特征得到连接结果的向量表示,并提取候选尾实体向量的全局特征得到候选向量表示;
融合模块,用于通过门控机制将编码后的问题向量,与Transformer模块输出的连接结果的向量表示进行融合;
CNN网络,用于对融合模块的融合结果和Transformer模块的候选向量表示进行特征抽取;
打分模块,用于对CNN网络输出的结果进行打分,选取最高分数对应的三元组作为新的三元组补入知识图谱。
具体地,获取模块获取的待补全的知识图谱数据为知识图谱G={E,R,F},其中E表示所有实体的集合,R表示所有关系的集合,F为所有三元组的集合,每个三元组包括头部实体描述,头部实体名称,关系名称,候选尾部实体描述,候选尾实体,将头部实体名称与关系名称的文本连接视作问题,在待补全的知识图谱中应用本模型,选取最高分数的候选尾实体所对应的三元组作为正确的三元组,每次补全一组。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (9)
1.一种开放世界知识图谱补全方法,其特征在于,构建知识图谱补全模型,该模型包括Word2Vec模块、注意力模块、打分模块,开放世界知识图谱补全方法包括以下步骤:
S1.获取三元组数据,三元组数据中每个三元组包括头部实体描述,头部实体名称,关系名称,候选尾部实体描述,候选尾实体;
S2.使用Word2Vec模块对头部实体描述和候选尾部实体描述进行词嵌入,得到头实体向量和候选尾实体向量,将头部实体名称与关系名称的文本连接视作问题,使用Word2Vec模块对问题进行词嵌入得到问题向量;
S3.采用注意力模块计算头实体向量和问题向量,得到关系感知表示;
S4.将头实体向量与关系感知进行连接,采用Transformer提取连接结果的全局特征,得到连接结果的向量表示;
S5.采用GRU网络对问题向量进行编码,通过门控机制将编码后的问题向量与连接结果的向量表示融合,并将融合结果输入CNN网络,得到第一CNN输出;
S6.采用Transformer提取候选尾实体向量的全局特征,得到候选向量表示并输入CNN网络,得到第二CNN输出;
S7.通过打分模块对第一CNN输出与第二CNN输出进行打分,并输出分数;
S8.采用交叉熵损失函数计算分数的损失值,使用Adam优化算法训练知识图谱补全模型参数,直到模型参数收敛;
S9.获取待补全的知识图谱并输入训练好的知识图谱补全模型进行补全。
2.根据权利要求1所述的一种开放世界知识图谱补全方法,其特征在于,三元组数据从DBpedia50k数据集和DBpedia500k数据集中获取,将三元组数据以8:1:1的比例划分为训练集、验证集和测试集数据集。
3.根据权利要求2所述的一种开放世界知识图谱补全方法,其特征在于,对三元组数据添加标签y*表示三元组的正确性,即正确三元组标签为1,错误三元组标签为0,标签表示为y*∈{0,1}。
9.一种开放世界知识图谱补全装置,其特征在于,包括:
获取模块,用于获取待补全的知识图谱数据;
Word2Vec模块,用于对获取模块中的知识图谱数据进行词嵌入,得到头实体向量、候选尾实体向量和问题向量;
注意力模块,用于计算头实体向量和问题向量,得到关系感知表示;
Transformer模块,用于提取头实体向量与关系感知连接结果的全局特征得到连接结果的向量表示,并提取候选尾实体向量的全局特征得到候选向量表示;
融合模块,用于通过门控机制将编码后的问题向量,与Transformer模块输出的连接结果的向量表示进行融合;
CNN网络,用于对融合模块的融合结果和Transformer模块的候选向量表示进行特征抽取;
打分模块,用于对CNN网络输出的结果进行打分,选取最高分数对应的三元组作为新的三元组补入知识图谱。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210070660.1A CN114444694A (zh) | 2022-01-21 | 2022-01-21 | 一种开放世界知识图谱补全方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210070660.1A CN114444694A (zh) | 2022-01-21 | 2022-01-21 | 一种开放世界知识图谱补全方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114444694A true CN114444694A (zh) | 2022-05-06 |
Family
ID=81367808
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210070660.1A Pending CN114444694A (zh) | 2022-01-21 | 2022-01-21 | 一种开放世界知识图谱补全方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114444694A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114943010A (zh) * | 2022-05-26 | 2022-08-26 | 浙江工业大学 | 基于自注意力的融合三元组信的短序列扩充电影推荐方法 |
CN116402133A (zh) * | 2023-04-12 | 2023-07-07 | 中南大学 | 一种基于结构聚合图卷积网络的知识图谱补全方法及系统 |
CN116629356A (zh) * | 2023-05-09 | 2023-08-22 | 华中师范大学 | 基于编码器和高斯混合模型的少样本知识图谱补全方法 |
-
2022
- 2022-01-21 CN CN202210070660.1A patent/CN114444694A/zh active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114943010A (zh) * | 2022-05-26 | 2022-08-26 | 浙江工业大学 | 基于自注意力的融合三元组信的短序列扩充电影推荐方法 |
CN116402133A (zh) * | 2023-04-12 | 2023-07-07 | 中南大学 | 一种基于结构聚合图卷积网络的知识图谱补全方法及系统 |
CN116402133B (zh) * | 2023-04-12 | 2024-04-30 | 中南大学 | 一种基于结构聚合图卷积网络的知识图谱补全方法及系统 |
CN116629356A (zh) * | 2023-05-09 | 2023-08-22 | 华中师范大学 | 基于编码器和高斯混合模型的少样本知识图谱补全方法 |
CN116629356B (zh) * | 2023-05-09 | 2024-01-26 | 华中师范大学 | 基于编码器和高斯混合模型的少样本知识图谱补全方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2023065545A1 (zh) | 风险预测方法、装置、设备及存储介质 | |
CN112487143B (zh) | 一种基于舆情大数据分析的多标签文本分类方法 | |
WO2022057669A1 (zh) | 基于结构化上下文信息的知识图谱预训练方法 | |
CN114444694A (zh) | 一种开放世界知识图谱补全方法及装置 | |
CN110413785A (zh) | 一种基于bert和特征融合的文本自动分类方法 | |
CN106295186A (zh) | 一种基于智能推理的辅助疾病诊断的方法与系统 | |
CN113673254B (zh) | 基于相似度保持的知识蒸馏的立场检测方法 | |
CN112256847B (zh) | 融合事实文本的知识库问答方法 | |
CN113094502B (zh) | 一种多粒度外卖用户评论情感分析方法 | |
CN112860930B (zh) | 一种基于层次化相似性学习的文本到商品图像的检索方法 | |
CN113553440A (zh) | 一种基于层次推理的医学实体关系抽取方法 | |
CN116975256B (zh) | 抽水蓄能电站地下厂房施工过程多源信息的处理方法及系统 | |
CN113190688A (zh) | 基于逻辑推理和图卷积的复杂网络链接预测方法及系统 | |
CN114048286B (zh) | 一种融合图转换器和共同注意力网络的自动事实验证方法 | |
CN117648984A (zh) | 一种基于领域知识图谱的智能问答方法及系统 | |
CN115563314A (zh) | 多源信息融合增强的知识图谱表示学习方法 | |
CN114254093A (zh) | 多空间知识增强的知识图谱问答方法及系统 | |
CN114841151B (zh) | 基于分解-重组策略的医学文本实体关系联合抽取方法 | |
CN112015760A (zh) | 基于候选答案集重排序的自动问答方法、装置和存储介质 | |
CN114648015B (zh) | 一种基于依存关系注意力模型的方面级情感词识别方法 | |
CN113920379B (zh) | 一种基于知识辅助的零样本图像分类方法 | |
CN112989803B (zh) | 一种基于主题向量学习的实体链接预测方法 | |
CN114743029A (zh) | 一种图像文本匹配的方法 | |
CN113656594A (zh) | 一种基于飞行器维修的知识推理方法 | |
CN117094325B (zh) | 水稻病虫害领域命名实体识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |