CN116561272A - 开放域视觉语言问答方法、装置、电子设备及存储介质 - Google Patents
开放域视觉语言问答方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN116561272A CN116561272A CN202310417662.8A CN202310417662A CN116561272A CN 116561272 A CN116561272 A CN 116561272A CN 202310417662 A CN202310417662 A CN 202310417662A CN 116561272 A CN116561272 A CN 116561272A
- Authority
- CN
- China
- Prior art keywords
- visual
- knowledge
- open domain
- language question
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 109
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000003860 storage Methods 0.000 title claims abstract description 17
- 239000013598 vector Substances 0.000 claims abstract description 40
- 230000007246 mechanism Effects 0.000 claims abstract description 16
- 238000000605 extraction Methods 0.000 claims abstract description 8
- 238000013507 mapping Methods 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 238000005520 cutting process Methods 0.000 claims description 3
- 238000009825 accumulation Methods 0.000 abstract description 4
- 238000012549 training Methods 0.000 description 36
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000005065 mining Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000014616 translation Effects 0.000 description 2
- 230000003416 augmentation Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Library & Information Science (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种开放域视觉语言问答方法、装置、电子设备及存储介质。本发明所述的开放域视觉语言问答方法包括:对图像进行编码,将所述图像映射为一组视觉向量;对问题进行嵌入标记,得到词嵌入序列;将所述视觉向量和所述词嵌入序列进行拼接,并使用注意力机制提取所述视觉向量和所述词嵌入序列的隐含关系;使用所述视觉向量、所述词嵌入序列和所述隐含关系,构建知识三元组;将所述知识三元组与知识图谱中积累的知识进行实体匹配,得到匹配度最高的三元组,以该三元组的尾部实体作为最终答案输出。本发明所述的开放域视觉语言问答方法,提供了一种知识三元组抽取和积累的方法,用以提升模型的泛化能力,解决遗忘问题。
Description
技术领域
本发明涉及视觉语言问答技术领域,特别是涉及一种开放域视觉语言问答方法、装置、电子设备及存储介质。
背景技术
开放域问答系统(Question Answering System,QA)、是以大规模开放域对话语料库作为训练语料,利用深度学习算法学习问答模式的问答模型。通过对话交互的方式客观的返回用户想要获得的信息,是信息检索的高级形式。大规模开放域对话语料库中涵盖的对话信息极为丰富,深度学习算法能够很好的学习开放域语料库中的开放对话知识提高回复用户提问的准确性,其应用在生产生活中十分广泛。开放域视觉问答的一个缺陷是从纯文本模态的知识库获取相关知识,这些知识库仅含有一阶谓词或词语描述所表达的事实,而缺乏用于一阶谓词或语言描述所表达的事实,而缺乏用于视觉理解的复杂但不可或缺的多模态知识。语料库也没有根据场景、目的、个性化等特征信息做区分,导致问答系统有回复多样性、话题控制、引入外部知识、个性化回复的多种不足,这就要求对话系统具有基础的感认能力,而且具有更进一步多模态推理能力。
开放域视觉语言问答(Vision-Language Question and Answering,VQA)是视觉语言交叉领域的重要研究任务之一,是实现面向用户的交互式视觉系统的重要途经。通过计算机视觉(Computer Vision,CV)方法检测图像中蕴含的包括物品、地点等在内显性信息和包括场景、表情等在内的隐含信息,针对用户提出的问题应用自然语言处理(NaturalLanguage Processing)有针对的给出一段自然语言作为答案。通常开放域视觉问答给出的问题不会包含在语料库中,要求视觉语言问答模型根据输入的问题和图像进行推理,根据两者之间的联系,泛化地回答问题。尽管视觉问答装置经过大规模开放域对话语料库作为训练语料的预训练后,但是在开放域视觉语言问答的推理能力极差,增强推理能力的方法往往是扩大预训练数据集。盲目的增大预训练数据集反而会导致模型过拟合,导致遗忘,无法泛化到其他任务或者数据集。应用知识图谱增强开放域视觉问答系统,使其在开放域数据集上仍然保持具有良好的推理能力,防止遗忘现象发生增强其泛化能力。
综上所述,开放域视觉问答研究有以下局限性:
在开放域视觉问答中,视觉语言模型能很好的检测图像中的目标和目标文本中的实体,但是不能很好的建模两种模态之间的关系,而且建模的知识无法长久记忆并进行积累。
在开放域视觉问答中,问题往往是训练集之外的,要求模型具有一定的泛化性,当增大数据集使其泛化性增强时,反而造成模型遗忘的现象。
发明内容
基于此,本发明的目的在于,提供一种开放域视觉语言问答方法、装置、电子设备及存储介质,提供了一种知识三元组抽取和积累的方法,用以提升模型的泛化能力,解决遗忘问题。
第一方面,本发明提供一种开放域视觉语言问答方法,包括以下步骤:
对图像进行编码,将所述图像映射为一组视觉向量;
对问题进行嵌入标记,得到词嵌入序列;
将所述视觉向量和所述词嵌入序列进行拼接,并使用注意力机制提取所述视觉向量和所述词嵌入序列的隐含关系;
使用所述视觉向量、所述词嵌入序列和所述隐含关系,构建知识三元组;
将所述知识三元组与知识图谱中积累的知识进行实体匹配,得到匹配度最高的三元组,以该三元组的尾部实体作为最终答案输出。
进一步地,所述知识三元组包括头部嵌入、尾部嵌入和关系嵌入;
所述头部嵌入为视觉向量,所述尾部嵌入为词嵌入序列,所述关系嵌入为所述视觉向量和所述词嵌入序列的隐含关系。
进一步地,使用CLIP-VIT模型对图像进行编码。
进一步地,使用RoBERTa模型对问题进行嵌入标记。
进一步地,使用METER模型对所述视觉向量和所述词嵌入序列进行拼接和提取隐含关系处理。
进一步地,使用Trans E损失函数训练所述METER模型。
进一步地,对图像进行编码之前,还包括以下步骤:
将图像切分为等大patch,去除噪声图像;
对问题进行嵌入标记之前,还包括以下步骤:
对所问题进行去停留词处理,并按照Token执行切割。
第二方面,本发明还提供一种开放域视觉语言问答装置,包括:
图像编码模块,用于对图像进行编码,将所述图像映射为一组视觉向量;
问题嵌入模块,用于对问题进行嵌入标记,得到词嵌入序列;
隐含关系提取模块,用于将所述视觉向量和所述词嵌入序列进行拼接,并使用注意力机制提取所述视觉向量和所述词嵌入序列的隐含关系;
知识三元组构建模块,用于使用所述视觉向量、所述词嵌入序列和所述隐含关系,构建知识三元组;
实体匹配模块,用于将所述知识三元组与知识图谱中积累的知识进行实体匹配,得到匹配度最高的三元组,以该三元组的尾部实体作为最终答案输出。
第三方面,本发明还提供一种电子设备,包括:
至少一个存储器以及至少一个处理器;
所述存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如本发明第一方面任一项所述的一种开放域视觉语言问答方法的步骤。
第四方面,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如本发明第一方面任一项所述的一种开放域视觉语言问答方法的步骤。
本发明提供的一种开放域视觉语言问答方法、装置、电子设备及存储介质,引入开放域视觉语言模型的预训练方法,用以提升开放域预训练模型建模能力;提供了一种知识三元组抽取和积累的方法,用以提升模型的泛化能力,解决遗忘问题。本方法能够根据图像所给出的物品、地点等显性信息和场景表情等隐性信息并具有一定的推理能力,回答用户提出的超出训练数据集标签上有推理要求的问题,能够更高效、更准确实现视觉语言问答。
为了更好地理解和实施,下面结合附图详细说明本发明。
附图说明
图1为本发明提供的一种开放域视觉语言问答方法的步骤示意图;
图2为本发明提供的一种开放域视觉语言问答装置的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施例方式作进一步地详细描述。
针对背景技术中的问题,本申请实施例提供一种开放域视觉语言问答方法和装置,其应用环境包括括用户终端和服务器,用户终端可以是任何具有上网功能的移动智能终端,可以具体为计算机、手机、平板电脑、PDA(Personal Digital Assistant,个人数字助理)、电子书阅读器、多媒体播放器等;服务器可以是计算机,还可以是专用服务器。其中,用户终端可以通过无线局域网接入路由器,并通过路由器访问公网上的服务器。用户终端可以运行对话软件的客户端,用户通过用户终端在对话软件客户端中输入需要询问、命令的文本信息,用户终端将所输入的文本信息上传至服务器,服务器根据该文本信息、图像信息通过本实施例的对话应答方法进行处理,将处理得到的回复信息发送至用户终端。
实施例1
在一个具体的应用场景中,用户输入的图像是一张普通多色图像或者含有多个目标的图像,用户根据图像提出一个超越其标签的问题,询问某行为或某地点。
如图1和图2所示,图1为本申请提供的一种开放域视觉语言问答方法的流程示意图,图2为本申请提供的一种开放域视觉语言问答装置的结构示意图,所述开放域视觉语言问答装置包括图像编码模块01、问题嵌入模块02、隐含关系提取模块03、知识三元组构建模块04和实体匹配模块05和一知识图谱。
所述图像编码模块01用于执行步骤S01:对图像进行编码,将所述图像映射为一组视觉向量。
优选的,对图像进行编码前,先对图像数据进行预处理,将图像切分为等大的图像patch,并去除噪声图像。
所述图像编码模块使用Transformer结构的针对于Patch的视觉模型,用来建模模态间的隐含关系。通常为CLIP-VIT等Transformer结构的视觉编码器,包括不限于CLIP的任意用于视觉挖掘的预训练模型。
所述问题嵌入模块02用于执行步骤S02:对问题进行嵌入标记,得到词嵌入序列。
优选的,对问题进行嵌入标记前,先对问题的文本进行预处理,对于文本模态数据,需要去停留词,保留核心词,按照Token执行切割。
可选的,所述问题嵌入模块使用BERT等预训练模型,在输入到预训练视觉语言模型之前对模型进行编码,这些基于Transformer结构的预训练文本编码器可以很好的建模文本之间的关系。
所述隐含关系提取模块03用于执行步骤S03:将所述视觉向量和所述词嵌入序列进行拼接,并使用注意力机制提取所述视觉向量和所述词嵌入序列的隐含关系。
为了后续构建知识三元组,将所得到词嵌入序列和视觉向量输入到预训练视觉语言模型中,获得两种模态间隐含的关系,这种隐含关系是充分建模了两种模态的之后获得的,既包含两种模态的标签还融合了模态间的信息。在一可选的实施例中,隐含关系提取模块使用的神经网络模型同样是Transformer结构的,具有挖掘两种跨模态嵌入之间的隐含关系的功能,这种隐含关系是知识引入的关键因素。
所述注意力机制是指co-attention或者merge-attention等用于挖掘多模态知识地注意力机制,这类注意力机制能够挖掘两两之间的关系,构成全链接图方式学习。
在一个优选的实施例中,注意力机制采用co-attention,这种注意力制将词嵌入向量和视觉嵌入向量分别输入到不同的转换器,并使用交叉关注实现跨模态互动得到跨模态嵌入。由于自注意力机制捕获图像和问题之间的隐式关联,因此我们从图像、文本的标记中提取跨模态表示,并将其输入到一个FFN层中得到关系嵌入。Visual Feature和TextFeature分别输入到不同的Transformer中,分别进行处理。self-attention有如下定义,每个Transformer块由一个多头注意力模块组成,给定令牌嵌入,该模块产生句子中多有其他令牌的加权表示。然后该表示与给定令牌的书表示结合并传递到下一层,具体来说,对于第l层的令牌i,每个注意力头作为输入,输入一个key kli,value vli,和query qli,通过线性层传递到上一层hl-1i的表示计算得到。令牌i的注意力模块的输出为:
其中,dk是密钥的维数,Kl和Vl矩阵包含所有令牌的密钥和值。
根据此定义,实现图像和语言模态上的合并注意力机制,因为此注意力机制只是合并了两种模态的输入。
所述知识三元组构建模块04用于执行步骤S04:使用所述视觉向量、所述词嵌入序列和所述隐含关系,构建知识三元组。
在一可选的实施例中,知识三元组是由前述步骤得到的所述词嵌入序列、所述视觉向量以及所述隐含关系三者组成的,按照视觉向量、隐含关系、词嵌入序列的顺序组成。
所述实体匹配模块05用于执行步骤S05:将所述知识三元组与知识图谱中积累的知识进行实体匹配,得到匹配度最高的三元组,以该三元组的尾部实体作为最终答案输出。
具体应用中,在答案推理阶段,即根据问题和图像内容得到对应答案的过程中,将答案预测看作一个多模态知识图谱补全问题。将知识三元组与知识图谱中的三元组进行匹配,并选择距离最小的尾部实体,所选择的尾部实体作为预测的最佳答案。
其中,知识图谱为包含多个知识三元组的关系型数据。由一个大规模开放域视觉语言语料库作为视觉语言模型的训练语料,通过步骤S01-S04处理得到。通过使用领域外和领域内数据进行训练,模型可以积累广泛的多模态知识,关联了用于答案预测的最佳事实。
实施例2
为构建实施例中的知识图谱,在一个优选的实施例中,使用METER(A MultimodalEnd-to-end TransformER Framework)模型对大规模预训练语料库进行训练以得到知识图谱。METER模型包含三个部分,第一个是视觉编码器(例如CLIP-ViT,Swin transformer),文本编码器(例如RoBERTa,DeBERTa),多模态融合模块(例如Merged attention和co-attention),结构设计(例如encoder-only和encoder-decoder)和预训练的目标(例如masked image modeling,掩码图片建模)。
优选的,预训练模型所使用的大规模预训练语料库要超过2M张图像,每张图像包括至少10个基准事实和至少3个问题。另外,还可以额外使用知识库作为训练语料加入模型的预训练。
在一个可选的实施例中,步骤S01中,使用CLIP、CLIP-VIT等Transformer结构的图像编码器对Patch结构的图像进行编码,生成视觉向量。相比于其他视觉模型和编码方法,基于注意力机制的Transformer视觉模型对建模视觉信息更为高效。
在一个可选的实施例中,步骤S02中,使用Transformer结构的文本编码器对文本进行编码,生成词嵌入序列,相比于Glove模型、one-hot编码来说,Transformer结构的例如Bert、RoBerta模型建模文本信息更为精准。进一步地,使用Transformer结构的文本编码器,要在输入到预训练模型之前对文本进行初始化并进行编码。
在步骤S03中,预训练工作通过构建预训练任务,通过自监督的形式从大规模预训练数据集中构造监督信号,学习到丰富的多模态信息,用于下游任务,避免了重新训练。即使用尽可能多的训练数据,从中提取出尽可能多的共性特征,从而能让模型对特定任务的学习负担变轻。多模态和单模态的不同之处在于,多模态预训练模型学习到了不同模态之间的语义关联,比如对齐文本形式的“狗”和图片中的“狗”的语义信息。因此,多模态需要设计特别的模型和预训练任务来挖掘不同模态的关联。
由于METER通过自注意力机制捕获图像和问题之间的隐式关联,因此我们从视觉文本的标签中提取跨模态表示。
步骤S04中,所使用的实体损失函数通常是Trans E损失函数,使用Trans E旨在将视觉内容和文本内容联系起来,形成强大的知识图,这样既可以积累广泛的多模态知识,还关联了答案预测的最佳事实。
Trans E是一种通过将关系解释为操作实体的低维嵌入的翻译来建模关系的方法。大量的实验表明,Trans E在两个知识库上的链接预测方面明显优于最先进的方法。
使用Trans E损失函数的目的是,弥补语义鸿沟,弥合异构鸿沟,使得整个模型学习更好的知识表示。三元组Trans E损失通过对比正负三元组来保持嵌入结构。三元组一致性损失进一步迫使三元组内的三个嵌入保持严格的拓扑关系,语义一致性损失将嵌入映射到一个共同的语义空间,以便在多模态内容之间进行公平比较。Trans E的计算过程包括以下步骤:
给定由两个实体h,t∈E(E:实体的集合)和一个关系l∈L(L:关系的集合)组成的三元组(h,l,t)的训练集S,模型学习实体和关系的向量嵌入,嵌入取Rk(k是模型超参数)中的值,并用相同的字母表示。
基本思想是关系-标记边所引导的函数关系对应嵌入的平移,即当(h,l,t)满足t是h+l的最邻近时,希望h+l≈t否则h+l应当远离t。
根据基于能量的框架,三元组的能量等于d(h+l,t),对于某些不相似度量,取L1和L2-norm。为了学习这样的嵌入,训练集上基于边缘的排序准则如下:
其中[x]+表示x的正部分,γ>0是边距超参数。而且
S′(h,l,t)={(h',l,t)|h'∈E}∪{(h,l,t')|t'∈E}. (2)
根据公式(2)构造的损坏三元组由训练三元组组成,其中头和尾的实体被随机实体替换(但是不能被同时替换)。损失函数(1)更加倾向于训练三组比损坏三元组更低的能量值,因此是预期标准的自然实现。
经过Trans E损失函数训练得到的三元组,共同构建得到知识图谱,用于实际问答时进行实体匹配。
在一个优选的实施例中,对图像进行编码使用CLIP-VIT模型,对问题进行嵌入标记使用RoBERTa模型,隐含关系提取预训练模型使用METER模型。具体的,获取输入的图像和文本,图像经过预处理切分为patch,然后输入到CLIP-VIT中,得到视觉嵌入。文本经与处理和词法分析器之后输入到RoBERTa中得到词嵌入向量,然后视觉嵌入和文本嵌入输入到预训练模型中,经模型的自注意力机制挖掘出跨模态隐含关系,经过一个前向网络后作为三元组的中部元素,三元组的前部元素和尾部元素分别由视觉嵌入和文本嵌入组成。
在进行答案预测时,获取用户输入的图像和问题,预处理后,使用第一对问题进行嵌入标记分别对图像和问题进行处理获得视觉嵌入和文本嵌入,将处理后输入到预训练模型中,所得到的跨模态表示、视觉特征、词嵌入向量与知识图谱中积累的知识进行实体匹配,匹配度最高的一项以三元组文本嵌入作为最终答案输出。
本发明提供的开放域视觉语言问答方法,在低维向量空间中嵌入多关系数据的实体和关系的问题上重点是使用一种易于训练,包含更少参数并且可以扩展到非常大数据库的模型。
本申请实施例还提供一种电子设备,包括:
至少一个存储器以及至少一个处理器;
所述存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如前所述的一种开放域视觉语言问答方法的步骤。
对于设备实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的设备实施例仅仅是示意性的,其中所述作为分离部件说明的组件可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本公开方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如前所述的一种开放域视觉语言问答方法的步骤。
计算机可用存储介质包括永久性和非永久性、可移动和非可移动媒体,可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括但不限于:相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(R A M)、只读存储器(RO M)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
本发明提供的一种开放域视觉语言问答方法、装置、电子设备及存储介质,引入开放域视觉语言模型的预训练方法,用以提升开放域预训练模型建模能力;提供了一种知识三元组抽取和积累的方法,用以提升模型的泛化能力,解决遗忘问题。本方法能够根据图像所给出的物品、地点等显性信息和场景表情等隐性信息并具有一定的推理能力,回答用户提出的超出训练数据集标签上有推理要求的问题,能够更高效、更准确实现视觉语言问答。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。
Claims (10)
1.一种开放域视觉语言问答方法,其特征在于,包括以下步骤:
对图像进行编码,将所述图像映射为一组视觉向量;
对问题进行嵌入标记,得到词嵌入序列;
将所述视觉向量和所述词嵌入序列进行拼接,并使用注意力机制提取所述视觉向量和所述词嵌入序列的隐含关系;
使用所述视觉向量、所述词嵌入序列和所述隐含关系,构建知识三元组;
将所述知识三元组与知识图谱中积累的知识进行实体匹配,得到匹配度最高的三元组,以该三元组的尾部实体作为最终答案输出。
2.根据权利要求1所述的一种开放域视觉语言问答方法,其特征在于:
所述知识三元组包括头部嵌入、尾部嵌入和关系嵌入;
所述头部嵌入为视觉向量,所述尾部嵌入为词嵌入序列,所述关系嵌入为所述视觉向量和所述词嵌入序列的隐含关系。
3.根据权利要求1所述的一种开放域视觉语言问答方法,其特征在于:
使用CLIP-VIT模型对图像进行编码。
4.根据权利要求1所述的一种开放域视觉语言问答方法,其特征在于:
使用RoBERTa模型对问题进行嵌入标记。
5.根据权利要求1所述的一种开放域视觉语言问答方法,其特征在于:
使用METER模型对所述视觉向量和所述词嵌入序列进行拼接和提取隐含关系处理。
6.根据权利要求5所述的一种开放域视觉语言问答方法,其特征在于:
使用Trans E损失函数训练所述METER模型。
7.根据权利要求1所述的一种开放域视觉语言问答方法,其特征在于:
对图像进行编码之前,还包括以下步骤:
将图像切分为等大patch,去除噪声图像;
对问题进行嵌入标记之前,还包括以下步骤:
对所问题进行去停留词处理,并按照Token执行切割。
8.一种开放域视觉语言问答装置,其特征在于,包括:
图像编码模块,用于对图像进行编码,将所述图像映射为一组视觉向量;
问题嵌入模块,用于对问题进行嵌入标记,得到词嵌入序列;
隐含关系提取模块,用于将所述视觉向量和所述词嵌入序列进行拼接,并使用注意力机制提取所述视觉向量和所述词嵌入序列的隐含关系;
知识三元组构建模块,用于使用所述视觉向量、所述词嵌入序列和所述隐含关系,构建知识三元组;
实体匹配模块,用于将所述知识三元组与知识图谱中积累的知识进行实体匹配,得到匹配度最高的三元组,以该三元组的尾部实体作为最终答案输出。
9.一种电子设备,其特征在于,包括:
至少一个存储器以及至少一个处理器;
所述存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如权利要求1-7任一项所述的一种开放域视觉语言问答方法的步骤。
10.一种计算机可读存储介质,其特征在于:
所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1-7任一项所述的一种开放域视觉语言问答方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310417662.8A CN116561272A (zh) | 2023-04-18 | 2023-04-18 | 开放域视觉语言问答方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310417662.8A CN116561272A (zh) | 2023-04-18 | 2023-04-18 | 开放域视觉语言问答方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116561272A true CN116561272A (zh) | 2023-08-08 |
Family
ID=87497427
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310417662.8A Pending CN116561272A (zh) | 2023-04-18 | 2023-04-18 | 开放域视觉语言问答方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116561272A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117391201A (zh) * | 2023-12-08 | 2024-01-12 | 荣耀终端有限公司 | 问答方法、装置及电子设备 |
CN118227769A (zh) * | 2024-05-24 | 2024-06-21 | 湘江实验室 | 一种基于知识图谱增强的大语言模型问答生成方法 |
-
2023
- 2023-04-18 CN CN202310417662.8A patent/CN116561272A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117391201A (zh) * | 2023-12-08 | 2024-01-12 | 荣耀终端有限公司 | 问答方法、装置及电子设备 |
CN118227769A (zh) * | 2024-05-24 | 2024-06-21 | 湘江实验室 | 一种基于知识图谱增强的大语言模型问答生成方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110795543B (zh) | 基于深度学习的非结构化数据抽取方法、装置及存储介质 | |
CN112084331B (zh) | 文本处理、模型训练方法、装置、计算机设备和存储介质 | |
CN112131350B (zh) | 文本标签确定方法、装置、终端及可读存储介质 | |
CN108846384A (zh) | 融合视频感知的多任务协同识别方法及系统 | |
CN113569001A (zh) | 文本处理方法、装置、计算机设备及计算机可读存储介质 | |
CN112131883B (zh) | 语言模型训练方法、装置、计算机设备和存储介质 | |
CN109376222A (zh) | 问答匹配度计算方法、问答自动匹配方法及装置 | |
CN116561272A (zh) | 开放域视觉语言问答方法、装置、电子设备及存储介质 | |
KR102379660B1 (ko) | 딥러닝 기반 의미역 분석을 활용하는 방법 | |
CN114282013A (zh) | 一种数据处理方法、装置及存储介质 | |
CN116975350A (zh) | 图文检索方法、装置、设备及存储介质 | |
CN113779225B (zh) | 实体链接模型的训练方法、实体链接方法及装置 | |
CN114282528A (zh) | 一种关键词提取方法、装置、设备及存储介质 | |
CN116955707A (zh) | 内容标签的确定方法、装置、设备、介质及程序产品 | |
CN110852066A (zh) | 一种基于对抗训练机制的多语言实体关系抽取方法及系统 | |
CN114239730B (zh) | 一种基于近邻排序关系的跨模态检索方法 | |
CN118227769B (zh) | 一种基于知识图谱增强的大语言模型问答生成方法 | |
CN115203388A (zh) | 机器阅读理解方法、装置、计算机设备和存储介质 | |
CN117711001B (zh) | 图像处理方法、装置、设备和介质 | |
CN118051630A (zh) | 一种基于多模态共识感知和动量对比的图文检索系统及其方法 | |
CN114398903B (zh) | 意图识别方法、装置、电子设备及存储介质 | |
CN116975403A (zh) | 内容检索模型及内容检索处理方法、装置和计算机设备 | |
CN115759262A (zh) | 基于知识感知注意力网络的视觉常识推理方法及系统 | |
CN117351382A (zh) | 视频对象定位方法及其装置、存储介质、程序产品 | |
CN115130461A (zh) | 一种文本匹配方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |