CN114077831A - 一种问题文本分析模型的训练方法及装置 - Google Patents
一种问题文本分析模型的训练方法及装置 Download PDFInfo
- Publication number
- CN114077831A CN114077831A CN202010848669.1A CN202010848669A CN114077831A CN 114077831 A CN114077831 A CN 114077831A CN 202010848669 A CN202010848669 A CN 202010848669A CN 114077831 A CN114077831 A CN 114077831A
- Authority
- CN
- China
- Prior art keywords
- target
- degree
- question text
- intention
- entity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 104
- 238000004458 analytical method Methods 0.000 title claims abstract description 86
- 238000000034 method Methods 0.000 title claims abstract description 80
- 239000013598 vector Substances 0.000 claims abstract description 123
- 238000012545 processing Methods 0.000 claims abstract description 41
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 6
- 238000004590 computer program Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本申请提供一种问题文本分析模型的训练方法及装置,其中,所述问题文本分析模型的训练方法包括:获取训练样本和所述训练样本对应的样本标签,所述训练样本包括问题文本,所述样本标签包括所述问题文本对应的意图标签、关系标签和实体标签;将所述问题文本输入至问题文本分析模型进行处理,提取所述问题文本的第一特征向量和第二特征向量;根据所述第一特征向量确定所述问题文本的预测意图和预测关系,根据所述第二特征向量确定所述问题文本的预测实体;根据所述预测意图、所述预测关系和所述预测实体与所述意图标签、所述关系标签和所述实体标签计算损失值;根据所述损失值对所述问题文本分析模型进行迭代训练,直至达到训练停止条件。
Description
技术领域
本申请涉及计算机技术领域,特别涉及一种问题文本分析模型的训练方法及装置、查询语句生成方法及装置、计算设备和计算机可读存储介质。
背景技术
知识库问答(knowledge base question answering,KB-QA)即给定自然语言问题,通过对问题进行语义理解和解析,进而利用知识库进行查询、推理得出答案。
传统的KB-QA方法可以归纳为语义解析,信息抽取和向量建模。现有的查询方案先通过查询知识库提取查询路径,然后使用特征做相似度匹配,费时费力,现有的一些人工智能模型方案遵循命名实体识别,实体链接,关系识别,答案检索的流程进行问答,使用多个模型分步骤进行,较为繁琐,消耗计算内存资源,查询效率也不够高。
因此,如何解决上述问题,就成为技术人员亟待解决的问题。
发明内容
有鉴于此,本申请实施例提供了一种问题文本分析模型的训练方法及装置、查询语句生成方法及装置、计算设备和计算机可读存储介质,以解决现有技术中存在的技术缺陷。
根据本申请实施例的第一方面,提供了一种问题文本分析模型的训练方法,包括:
获取训练样本和所述训练样本对应的样本标签,其中,所述训练样本包括问题文本,所述样本标签包括所述问题文本对应的意图标签、关系标签和实体标签;
将所述问题文本输入至问题文本分析模型进行处理,提取所述问题文本的第一特征向量和第二特征向量;
根据所述第一特征向量确定所述问题文本的预测意图和预测关系,根据所述第二特征向量确定所述问题文本的预测实体;
根据所述预测意图、所述预测关系和所述预测实体与所述意图标签、所述关系标签和所述实体标签计算损失值;
根据所述损失值对所述问题文本分析模型进行迭代训练,直至达到训练停止条件。
根据本申请实施例的第二方面,提供了一种查询语句生成方法,包括:
获取问题文本;
将所述问题文本输入至问题文本分析模型进行处理,获得所述问题文本对应的目标意图、目标关系和目标实体,其中,所述问题文本分析模型是通过上述任意一项所述的训练方法训练得到的;
将所述目标意图、所述目标关系和所述目标实体添加至预先配置的查询语句模板中的相应位置,生成目标查询语句。
根据本申请实施例的第三方面,提供了一种问题文本分析模型的训练装置,包括:
获取模块,被配置为获取训练样本和所述训练样本对应的样本标签,其中,所述训练样本包括问题文本,所述样本标签包括所述问题文本对应的意图标签、关系标签和实体标签;
提取模块,被配置为将所述问题文本输入至问题文本分析模型进行处理,提取所述问题文本的第一特征向量和第二特征向量;
预测识别模块,被配置为根据所述第一特征向量确定所述问题文本的预测意图和预测关系,根据所述第二特征向量确定所述问题文本的预测实体;
计算模块,被配置为根据所述预测意图、所述预测关系和所述预测实体与所述意图标签、所述关系标签和所述实体标签计算损失值;
训练模块,被配置为根据所述损失值对所述问题文本分析模型进行迭代训练,直至达到训练停止条件。
根据本申请实施例的第四方面,提供了一种查询语句生成装置,包括:
获取模块,被配置为获取问题文本;
模型处理模块,被配置为将所述问题文本输入至问题文本分析模型进行处理,获得所述问题文本对应的目标意图、目标关系和目标实体,其中,所述问题文本分析模型是通过上述任意一项所述的训练方法训练得到的;
生成模块,被配置为将所述目标意图、所述目标关系和所述目标实体添加至预先配置的查询语句模板中的相应位置,生成目标查询语句。
根据本申请实施例的第五方面,提供了一种计算设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机指令,所述处理器执行所述指令时实现所述问题文本分析模型的训练方法或所述查询语句生成方法的步骤。
根据本申请实施例的第六方面,提供了一种计算机可读存储介质,其存储有计算机指令,该指令被处理器执行时实现所述问题文本分析模型的训练方法或所述查询语句生成方法的步骤。
根据本申请实施例的第七方面,提供了一种芯片,其存储有计算机指令,该指令被芯片执行时实现所述问题文本分析模型的训练方法或所述查询语句生成方法的步骤。
本申请实施例提供的问题文本分析模型的训练方法,通过获取训练样本和所述训练样本对应的样本标签,其中,所述训练样本包括问题文本,所述样本标签包括所述问题文本对应的意图标签、关系标签和实体标签;将所述问题文本输入至问题文本分析模型进行处理,提取所述问题文本的第一特征向量和第二特征向量;根据所述第一特征向量确定所述问题文本的预测意图和预测关系,根据所述第二特征向量确定所述问题文本的预测实体;根据所述预测意图、所述预测关系和所述预测实体与所述意图标签、所述关系标签和所述实体标签计算损失值;根据所述损失值对所述问题文本分析模型进行迭代训练,直至达到训练停止条件。本申请提供的模型训练方法,通过预测问题文本的意图,明确问句询问的实体属性,直接进行关系预测,而不是使用模型进行相似度计算,减少了内存的消耗,提升了模型的效率。
本申请实施例提供的查询语句生成方法,通过获取问题文本;将所述问题文本输入至问题文本分析模型进行处理,获得所述问题文本对应的目标意图、目标关系和目标实体,其中,所述问题文本分析模型是通过上述任意一项所述的问题文本分析模型的训练方法训练得到的;将所述目标意图、所述目标关系和所述目标实体添加至预先配置的查询语句模板中的相应位置,生成目标查询语句。在生成查询语句的过程中,通过问题文本分析模型识别问题文本的实体并预测问题文本的关系和意图,减少了内存的消耗,提高了模型的效率,并且通过预测的关系匹配对应的查询语句模板,节约查询时间,进一步提高了查询效率。
附图说明
图1是本申请实施例提供的计算设备的结构框图;
图2是本申请实施例提供的问题文本分析模型的训练方法的流程图;
图3是本申请实施例提供的查询语句生成方法的流程图;
图4是本申请实施例提供的查询语句生成方法的示意图;
图5是本申请实施例提供的问题文本分析模型的训练装置的结构示意图;
图6是本申请实施例提供的查询语句生成装置的结构示意图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本申请。但是本申请能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本申请内涵的情况下做类似推广,因此本申请不受下面公开的具体实施的限制。
在本申请一个或多个实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请一个或多个实施例。在本申请一个或多个实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本申请一个或多个实施例中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请一个或多个实施例中可能采用术语第一、第二等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请一个或多个实施例范围的情况下,第一也可以被称为第二,类似地,第二也可以被称为第一。取决于语境,如在此所使用的词语“如果”可以被解释成为“响应于确定”。
首先,对本发明一个或多个实施例涉及的名词术语进行解释。
一度问题:经过一次查询即可获得结果的问题,可以理解为一个关系,如“A的职务是什么?”。
二度问题:需要经过两步查询可以获得的结果,可以理解为多个关系,如“B集团董事长的儿子是谁?”。
CLS向量:标识整个文本的特征,作为整篇文本的语义表示,通常用于文本分类。
其它隐藏层向量:BERT模型输出的除去CLS向量的其它向量。
在本申请中,提供了一种问题文本分析模型的训练方法及装置、查询语句生成方法及装置、计算设备和计算机可读存储介质,在下面的实施例中逐一进行详细说明。
图1示出了根据本申请一实施例的计算设备100的结构框图。该计算设备100的部件包括但不限于存储器110和处理器120。处理器120与存储器110通过总线130相连接,数据库150用于保存数据。
计算设备100还包括接入设备140,接入设备140使得计算设备100能够经由一个或多个网络160通信。这些网络的示例包括公用交换电话网(PSTN)、局域网(LAN)、广域网(WAN)、个域网(PAN)或诸如因特网的通信网络的组合。接入设备140可以包括有线或无线的任何类型的网络接口(例如,网络接口卡(NIC))中的一个或多个,诸如IEEE802.11无线局域网(WLAN)无线接口、全球微波互联接入(Wi-MAX)接口、以太网接口、通用串行总线(USB)接口、蜂窝网络接口、蓝牙接口、近场通信(NFC)接口,等等。
在本申请的一个实施例中,计算设备100的上述部件以及图1中未示出的其他部件也可以彼此相连接,例如通过总线。应当理解,图1所示的计算设备结构框图仅仅是出于示例的目的,而不是对本申请范围的限制。本领域技术人员可以根据需要,增添或替换其他部件。
计算设备100可以是任何类型的静止或移动计算设备,包括移动计算机或移动计算设备(例如,平板计算机、个人数字助理、膝上型计算机、笔记本计算机、上网本等)、移动电话(例如,智能手机)、可佩戴的计算设备(例如,智能手表、智能眼镜等)或其他类型的移动设备,或者诸如台式计算机或PC的静止计算设备。计算设备100还可以是移动式或静止式的服务器。
其中,处理器120可以执行图2所示问题文本分析模型的训练方法中的步骤。图2示出了根据本申请一实施例的问题文本分析模型的训练方法的流程图,包括步骤202至步骤210。
步骤202:获取训练样本和所述训练样本对应的样本标签,其中,所述训练样本包括问题文本,所述样本标签包括所述问题文本对应的意图标签、关系标签和实体标签。
问题文本即为问句,实体为所述问题文本中具有特定意义的实体,主要包括人名、地名、机构、专有名词等,以及时间、数量、货币、比例数值等文字。意图为所述问题文本要想询问的内容,关系为实体和所述意图之间的关系。如以问题文本为“B集团的董事长是谁?”为例,其中,实体为“B集团的董事长”、意图为“人名”,关系为“任职关系”。
在实际应用中,问题文本可以为一度问题,也可以为二度问题,其中一度问题为经过一次查询即可获得结果的问题,可以理解为一个关系,如“A的职务是什么?”,“B集团的董事长是谁?”;二度问题为需要经过两步查询可以获得的结果,可以理解为多个关系,如“B集团董事长的儿子是谁?”,“C省省长去参加了什么会议?”。
在本申请提供的一具体实施方式中,以问题文本为“A的职务是什么?”为例,问题文本为一度问题,问题文本的意图标签为“职位”、关系标签为“任职关系”,实体标签为“A”。
在本申请提供的另一具体实施方式中,以问题文本为“B集团董事长的儿子是谁?”为例,问题文本为二度问题,问题文本的一度意图标签为“人名”,二度意图标签为“人名”,一度关系标签为“任职关系”,二度关系标签为“亲属”,实体标签为“B集团董事长”。
步骤204:将所述问题文本输入至问题文本分析模型进行处理,提取所述问题文本的第一特征向量和第二特征向量。
问题文本分析模型被训练用于根据问题文本,分析解析出所述问题文本对应的实体、关系和意图,对于二度问题,需要分析出问题文本的实体、一度关系、二度关系、一度意图和二度意图。
可选的,提取所述问题文本的第一特征向量和第二特征向量,包括:将所述问题文本进行分词处理,得到所述问题文本对应的词单元集合;对所述词单元集合中的每个词单元做嵌入化处理,获得所述词单元集合对应的词单元向量集合;将所述词单元向量集合做编码处理,获得所述词单元集合的第一特征向量和第二特征向量。
具体的,提取所述问题文本的第一特征向量和第二特征向量会用到Bert模型,Bert模型的模型架构是一个多层双向Transformer模型的编码器,为了使Bert模型处理各种下游任务,先在问题文本的开头添加[CLS],并在句尾添加[SEP]标识符,其中,CLS为句首标志符号,SEP为分句标志符号。并对所述问题文本做分词处理,获得对应的词单元集合,将所述词单元集合进行嵌入化处理获得对应的词单元向量集合。将所述词单元向量集合经过Bert模型的编码处理,得到第一特征向量和第二特征向量,其中,第一特征向量为将词单元集合中首个词单元“CLS”经过多个编码层中注意力层处理的向量输入至分类单元中进行处理获得的向量,第一特征向量也被称为CLS向量,CLS向量可以表示整句话的特征,用于对问题文本进行分类。第二特征向量也被称为其它隐藏层向量。
在本申请提供的一具体实施方式中,以问题文本为“A的职务是什么?”为例,将所述问题文本进行分词处理,得到所述问题文本对应的词单元集合[CLS、A、的、职务、是、什么、SEP],将上述词单元集合进行嵌入化处理后得到词单元向量集合[A11、A12、A13、A14、A15、A16、A17],将上述词单元集合经过Bert模型的编码处理,获得CLS向量An1,和其它隐藏层向量[An2、An3、An4、An5、An6、An7]。
步骤206:根据所述第一特征向量确定所述问题文本的预测意图和预测关系,根据所述第二特征向量确定所述问题文本的预测实体。
第一特征向量即为CLS向量,用于预测所述问题文本的意图和关系。
第二特征向量即为其它隐藏层向量,用于识别所述问题文本的实体。
可选的,根据所述第一特征向量确定所述问题文本的预测意图和预测关系,包括:根据所述第一特征向量和预设的意图库中的意图类别进行比对,确定所述第一特征向量对应的预测意图;根据所述第一特征向量和预设的关系库中的关系类别进行比对,确定所述第一特征向量对应的预测关系。
具体的,在实际应用中,意图和关系的数量和分类均为已知的,即预先设置有意图库和关系库,根据第一特征向量在预设的意图库中进行比对,通过均方误差法(MeanSquared Error,MSE)确定最接近的意图类别为预测意图,MSE即平均绝对值误差,表示预测值和观测值之间绝对误差的平均值,同理,根据第一特征向量在预设的关系库中进行比对,通过MSE法确定最接近的关系类别为预测关系。
由于意图和关系的数量和分类均为预先设置的,因此可以用one-hot向量标识,用于与第一特征向量进行比对。
在所述问题文本为二度问题时,根据所述第一特征向量确定所述问题文本的预测意图和预测关系,包括:根据所述第一特征向量和预设的意图库中的意图类别进行比对,确定所述第一特征向量对应的一度预测意图和二度预测意图;根据所述第一特征向量和预设的关系库中的关系类别进行比对,确定所述第一特征向量对应的一度预测关系和二度预测关系。
在实际应用中,为了数据输出的统一,一度问题也会输出两个预测意图和两个预测关系,若问题文本为一度问题的情况下,一度预测意图为预测意图,二度预测意图为unk,一度预测关系为预测关系,二度预测关系为unk,其中,unk即为unknown,用于标识占位符。
在本申请提供的一具体实施方式中,以问题文本为“A的职务是什么?”为例,问题文本的第一特征向量为F_cls,将F_cls与预设的意图库中的意图类别进行比对,获得预测意图为“职位”,则输出预测意图为“职位,unk”,将F_cls与预设的关系库中的关系类别进行比,获得预测关系为“任职关系”,则输出预测关系为“任职关系,unk”。
在本申请提供的一具体实施方式中,以问题文本为“B集团董事长的儿子是谁?”为例,问题文本的第一特征向量为F_cls,将F_cls与预设的意图库中的意图类别进行比对,获得预测意图为“人名,人名”,则输出预测意图为“人名,人名”,将F_cls与预设的关系库中的关系类别进行比,获得预测关系为“任职关系,亲属”,则输出预测关系为“任职关系,亲属”。
可选的,根据所述第二特征向量确定所述问题文本的预测实体,包括:对所述第二特征向量做命名实体识别处理,获得所述问题文本的预测实体。
命名实体识别(Named Entity Recognition,NER),是指识别文本中具有特定意义的实体,主要包括人名、地名、机构名、专有名词等,以及时间、数量、货币、比例数值等文字。具体的,对第二特征向量通过NER法,预测每一个字的属性,进而预测问题文本中的实体。
在本申请提供的一具体实施例中,以问题文本为“A的职务是什么?”为例,问题文本的第二特征向量为F_hidden,将F_hidden进行NER识别,预测出所述问题文本的预测实体为“A”。
在本申请提供的一具体实施方式中,以问题文本为“B集团董事长的儿子是谁?”为例,问题文本的第二特征向量为F_hidden,将F_hidden进行NER识别,预测出所述问题文本的预测实体为“B集团董事长”。
步骤208:根据所述预测意图、所述预测关系和所述预测实体与所述意图标签、所述关系标签和所述实体标签计算损失值。
具体的,根据所述预测意图、所述预测关系和所述预测实体与所述意图标签、所述关系标签和所述实体标签计算损失值,包括:根据所述预测意图和所述意图标签计算第一损失值;根据所述预测关系和关系标签计算第二损失值;根据所述预测实体和所述实体标签计算第三损失值。
计算损失值的方式有很多,如交叉熵损失函数,最大损失函数,均方误差损失函数等,在本申请中对计算损失值的方式不做限制,以实际应用为准。
将预测意图、预测关系和预测实体分别与标签进行计算损失值。根据所述预测意图和所述意图标签通过均方误差损失函数计算第一损失值,根据所述预测关系和所述关系标签通过均方误差损失函数计算第二损失值,根据所述预测实体和所述实体标签通过交叉熵损失函数计算第三损失值。
在实际应用中,在所述问题文本可以为二度问题的情况下,所述意图标签包括一度意图标签和二度意图标签,所述关系标签包括一度关系标签和二度关系标签;
相应的,根据所述一度预测意图和所述一度意图标签、所述二度预测意图和所述二度意图标签计算第一损失值;根据所述一度预测关系和所述一度关系标签、所述二度预测关系和所述二度关系标签计算第二损失值;根据所述预测实体和所述实体标签计算第三损失值。
在本申请提供的一具体实施方式中,根据预测意图和意图标签计算第一损失值L1,根据预测关系和关系标签计算第二损失值L2,根据预测实体和实体标签计算第三损失值L3。
步骤210:根据所述损失值对所述问题文本分析模型进行迭代训练,直至达到训练停止条件。
可选的,所述训练停止条件包括:所述损失值小于预设阈值或迭代训练的次数到达预设的迭代次数。
在实际应用中,联合所述第一损失值、所述第二损失值和所述第三损失值对所述问题文本分析模型进行迭代训练,直至所述第一损失值小于第一预设阈值、所述第二损失值小于第二预设阈值、所述第三损失值小于第三预设阈值。
根据第一损失值、第二损失值和第三损失值联合对所述问题文本分析模型进行迭代训练,以使所述问题文本分析模型快速收敛,最终使得所述第一损失值小于第一预设阈值,所述第二损失值小于第二预设阈值,所述第三损失值小于第三预设阈值,此时,所述问题文本分析模型训练停止。
本申请实施例提供的问题文本分析模型的训练方法,通过将问题文本输入至问题文本分析模型中进行处理,提取所述问题文本的第一特征向量和第二特征向量,根据第一特征向量预测意图和关系,根据第二特征向量预测实体,根据预测的意图、关系和实体,分别与意图标签、关系标签和实体标签计算损失值,并联合对所述问题文本分析模型进行训练,通过预测问题文本的意图,明确问句询问的实体属性,直接进行关系预测,而不是使用模型进行相似度计算,减少了内存的消耗,提升了模型的效率。
处理器120还可以执行图3所示的查询语句生成方法中的步骤。图3示出了根据本申请一实施例的查询语句生成方法的流程图,包括步骤302至步骤306。
步骤302:获取问题文本。
在实际应用中,问题文本可以是一度问题,也可以是二度问题。
在本申请提供的一具体实施方式中,以问题文本为“A的职务是什么?”为例,该问题文本为一度问题。
在本申请提供的另一具体实施例中,以问题文本为“M省省长参加的会议有哪些?”为例,该问题文本为二度问题。
步骤304:将所述问题文本输入至问题文本分析模型进行处理,获得所述问题文本对应的目标意图、目标关系和目标实体,其中,所述问题文本分析模型是通过上述任意一项所述问题文本分析模型的训练方法训练得到的。
参见图4,图4示出了本申请一具体实施例中根据问题文本获得查询语句的示意图。
在实际应用中,若问题文本为二度问题,则获得所述问题文本对应的一度目标意图、二度目标意图、一度目标关系、二度目标关系和目标实体。
在本申请提供的一具体实施方式中,以问题文本为“A的职务是什么?”为例,将问题文本输入至预先训练号的问题文本分析模型进行处理,获得所述问题文本对应的目标意图“职位名称”,目标关系“held by”,目标实体“A”。
在本申请提供的另一具体实施例中,以问题文本为“M省省长参加的会议有哪些?”为例,将问题文本“M省省长参加的会议有哪些?”输入至预先训练好的问题文本分析模型进行处理,获得所述问题文本对应的一度目标意图为“人名”,二度目标意图为“会议”,一度目标关系为“held by”,二度目标关系为“attend meet”,目标实体为“M省省长”。
步骤306:将所述目标意图、所述目标关系和所述目标实体添加至预先配置的查询语句模板中的相应位置,生成目标查询语句。
可选的,根据所述目标关系的个数确定查询语句模板;将所述目标关系和所述目标实体添加到所述查询语句模板,生成目标查询语句。
在所述问题文本为一度问题的情况下,目标关系的个数为1,则对应的查询语句模板为一个“[‘head’:[],‘relation’:[],‘tail’:[],’predict:[]]”,其中,head为头实体,tail为尾实体,relation为关系,predict为查询结果标识,将目标关系和目标实体添加到所述查询语句模板中,即生成目标查询语句。
在本申请提供的一具体实施方式中,以问题文本为“A的职务是什么?”为例,目标意图为“职位名称”,目标关系为“held by”,目标实体为“A”,目标关系的个数为1,查询语句模板为“[‘head’:[],‘relation’:[],‘tail’:[],’predict:[]]”,将目标实体和目标关系添加到所述查询语句模板中,生成目标查询语句“[‘head’:[A],‘relation’:[held by],‘tail’:[],’predict:[tail.name]]”。
在获得目标查询语句后,所述方法还包括:执行所述目标查询语句,并参考所述目标意图生成对应的查询结果。
在获得目标查询语句后,通过查询语句在知识库中进行查询,知识库的存储形式为三元组,即(主语,谓语,宾语),如(A集团董事长,任职关系,W),为从知识库中查询答案,构建一个查询语句[?X,held by,W]。即W的职务是什么?
在本申请提供的一具体实施方式中,以问题文本为“A的职务是什么?”为例,执行目标查询语句“[‘head’:[A],‘relation’:[held by],‘tail’:[],’predict:[tail.name]]”,获得对应的查询结果为“董事长”。
在所述目标关系的个数为两个,即所述问题文本为二度问题的情况下,相应的,根据目标关系的个数确定一度查询语句模板“[‘head’:[],‘relation’:[],‘tail’:[],’predict:[]]”和二度查询语句模板“[‘head’:[],‘relation’:[],‘tail’:[],’predict:[]]”。
相应的,将所述目标实体和所述一度目标关系添加到一度查询语句模板,生成一度查询语句;
将所述一度查询语句对应的查询结果标识和所述二度目标关系添加到二度查询语句模板,生成二度查询语句。
可选的,在生成一度查询语句和二度查询语句后,执行所述一度查询语句,并参考所述一度目标意图生成对应的一度查询结果;
用所述一度查询结果替换所述二度查询语句中的所述一度查询结果标识;
执行所述二度查询语句,并参考所述二度目标意图生成对应的目标查询结果。
在本申请提供的另一实施方式中,以问题文本为“M省省长参加的会议有哪些?”为例,所述问题为二度问题,目标实体为“M省省长”,一度目标关系为“held by”,二度目标关系为“attend meet”,根据目标关系的个数2,确定一度查询语句模板“[‘head’:[],‘relation’:[],‘tail’:[],’predict:[]]”和二度查询语句模板“[‘head’:[],‘relation’:[],‘tail’:[],’predict:[]]”,将所述目标实体“M省省长”和一度目标关系为“held by”添加到所述一度查询语句模板,生成一度查询语句“[‘head’:[M省省长],‘relation’:[held by],‘tail’:[],’predict:[tail.name]]”,将一度查询语句对应的查询结果标识“q_result1”和二度目标关系“attend meet”添加到所述二度查询语句模板,生成二度查询语句“[‘head’:[q_result1],‘relation’:[attend meet],‘tail’:[],’predict:[tail.name]]”。
执行一度查询语句和二度查询语句,最终获得目标查询结果。
本申请实施例提供的查询语句生成方法,通过将问题文本输入至预先训练好的问题文本分析模型进行处理,预测所述问题文本的意图、关系和实体,并将模型输出的意图、关系和实体输入至预设的查询语句模板中,获得查询语句,减少了内存的消耗,提高了模型的效率,并且通过预测的关系匹配对应的查询语句模板,节约查询时间,进一步提高了查询效率。
与上述问题文本分析模型的训练方法实施例相对应,本申请还提供了问题文本分析模型的训练装置实施例,图5示出了本申请一个实施例的问题文本分析模型的训练装置的结构示意图。如图5所示,该装置包括:
获取模块502,被配置为获取训练样本和所述训练样本对应的样本标签,其中,所述训练样本包括问题文本,所述样本标签包括所述问题文本对应的意图标签、关系标签和实体标签;
提取模块504,被配置为将所述问题文本输入至问题文本分析模型进行处理,提取所述问题文本的第一特征向量和第二特征向量;
预测识别模块506,被配置为根据所述第一特征向量确定所述问题文本的预测意图和预测关系,根据所述第二特征向量确定所述问题文本的预测实体;
计算模块508,被配置为根据所述预测意图、所述预测关系和所述预测实体与所述意图标签、所述关系标签和所述实体标签计算损失值;
训练模块510,被配置为根据所述损失值对所述问题文本分析模型进行迭代训练,直至达到训练停止条件。
可选的,所述预测识别模块506,进一步被配置为根据所述第一特征向量和预设的意图库中的意图类别进行比对,确定所述第一特征向量对应的预测意图;根据所述第一特征向量和预设的关系库中的关系类别进行比对,确定所述第一特征向量对应的预测关系。
可选的,所述问题文本为二度问题;
所述预测识别模块506,进一步被配置为根据所述第一特征向量和预设的意图库中的意图类别进行比对,确定所述第一特征向量对应的一度预测意图和二度预测意图;根据所述第一特征向量和预设的关系库中的关系类别进行比对,确定所述第一特征向量对应的一度预测关系和二度预测关系。
可选的,所述预测识别模块506,进一步被配置为对所述第二特征向量做命名实体识别处理,获得所述问题文本的预测实体。
可选的,所述计算模块508,进一步被配置为根据所述预测意图和所述意图标签计算第一损失值;根据所述预测关系和关系标签计算第二损失值;根据所述预测实体和所述实体标签计算第三损失值。
可选的,所述意图标签包括一度意图标签和二度意图标签,所述关系标签包括一度关系标签和二度关系标签;
所述计算模块508,进一步被配置为根据所述一度预测意图和所述一度意图标签、所述二度预测意图和所述二度意图标签计算第一损失值;根据所述一度预测关系和所述一度关系标签、所述二度预测关系和所述二度关系标签计算第二损失值;根据所述预测实体和所述实体标签计算第三损失值。
可选的,所述训练模块510,进一步被配置为联合所述第一损失值、所述第二损失值和所述第三损失值对所述问题文本分析模型进行迭代训练。
可选的,所述训练停止条件包括:所述损失值小于预设阈值或迭代训练的次数到达预设的迭代次数。
可选的,所述提取模块504,进一步被配置为将所述问题文本进行分词处理,得到所述问题文本对应的词单元集合;对所述词单元集合中的每个词单元做嵌入化处理,获得所述词单元集合对应的词单元向量集合;将所述词单元向量集合做编码处理,获得所述词单元集合的第一特征向量和第二特征向量。
本申请实施例提供的问题文本分析模型的训练装置,通过将问题文本输入至问题文本分析模型中进行处理,提取所述问题文本的第一特征向量和第二特征向量,根据第一特征向量预测意图和关系,根据第二特征向量预测实体,根据预测的意图、关系和实体,分别与意图标签、关系标签和实体标签计算损失值,并联合对所述问题文本分析模型进行训练,通过预测问题文本的意图,明确问句询问的实体属性,直接进行关系预测,而不是使用模型进行相似度计算,减少了内存的消耗,提升了模型的效率。
需要说明的是,装置权利要求中的各组成部分应当理解为实现该程序流程各步骤或该方法各步骤所必须建立的功能模块,各个功能模块并非实际的功能分割或者分离限定。由这样一组功能模块限定的装置权利要求应当理解为主要通过说明书记载的计算机程序实现该解决方案的功能模块构架,而不应当理解为主要通过硬件方式实现该解决方案的实体装置。
与上述查询语句生成方法实施例相对应,本申请还提供了查询语句生成装置实施例,图6示出了本申请一个实施例的查询语句生成装置的结构示意图。如图6所示,该装置包括:
获取模块602,被配置为获取问题文本;
模型处理模块604,被配置为将所述问题文本输入至问题文本分析模型进行处理,获得所述问题文本对应的目标意图、目标关系和目标实体,其中,所述问题文本分析模型是通过上述任意一项所述的训练方法训练得到的;
生成模块606,被配置为将所述目标意图、所述目标关系和所述目标实体添加至预先配置的查询语句模板中的相应位置,生成目标查询语句。
可选的,所述生成模块606,进一步被配置为根据所述目标关系的个数确定查询语句模板;将所述目标关系和所述目标实体添加到所述查询语句模板,生成目标查询语句。
可选的,所述装置还包括:
执行模块,被配置为执行所述目标查询语句,并参考所述目标意图生成对应的查询结果。
可选的,所述目标关系的个数为两个;
所述模型处理模块604,进一步被配置为获得所述问题文本对应的一度目标意图、二度目标意图、一度目标关系、二度目标关系和目标实体;
相应的,所述生成模块606,进一步被配置为根据两个目标关系确定一度查询语句模板和二度查询语句模板。
可选的,所述生成模块606,进一步被配置将所述目标实体和所述一度目标关系添加到一度查询语句模板,生成一度查询语句;将所述一度查询语句对应的查询结果标识和所述二度目标关系添加到二度查询语句模板,生成二度查询语句。
可选的,所述执行模块,进一步被配置为执行所述一度查询语句,并参考所述一度目标意图生成对应的一度查询结果;用所述一度查询结果替换所述二度查询语句中的所述一度查询结果标识;执行所述二度查询语句,并参考所述二度目标意图生成对应的目标查询结果。
本申请实施例提供的查询语句生成装置,通过将问题文本输入至预先训练好的问题文本分析模型进行处理,预测所述问题文本的意图、关系和实体,并将模型输出的意图、关系和实体输入至预设的查询语句模板中,获得查询语句,减少了内存的消耗,提高了模型的效率,并且通过预测的关系匹配对应的查询语句模板,节约查询时间,进一步提高了查询效率。
需要说明的是,装置权利要求中的各组成部分应当理解为实现该程序流程各步骤或该方法各步骤所必须建立的功能模块,各个功能模块并非实际的功能分割或者分离限定。由这样一组功能模块限定的装置权利要求应当理解为主要通过说明书记载的计算机程序实现该解决方案的功能模块构架,而不应当理解为主要通过硬件方式实现该解决方案的实体装置。
本申请一实施例中还提供一种计算设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机指令,所述处理器执行所述指令时实现所述问题文本分析模型的训练方法或所述查询语句生成方法的步骤。
本申请一实施例还提供一种计算机可读存储介质,其存储有计算机指令,该指令被处理器执行时实现如前所述问题文本分析模型的训练方法或所述查询语句生成方法的步骤。
上述为本实施例的一种计算机可读存储介质的示意性方案。需要说明的是,该存储介质的技术方案与上述的问题文本分析模型的训练方法或上述查询语句生成方法的技术方案属于同一构思,存储介质的技术方案未详细描述的细节内容,均可以参见上述问题文本分析模型的训练方法或上述查询语句生成方法的技术方案的描述。
本申请实施例公开了一种芯片,其存储有计算机指令,该指令被处理器执行时实现如前所述问题文本分析模型的训练方法或所述查询语句生成方法的步骤。
上述对本申请特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
所述计算机指令包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上公开的本申请优选实施例只是用于帮助阐述本申请。可选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本申请的内容,可作很多的修改和变化。本申请选取并具体描述这些实施例,是为了更好地解释本申请的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本申请。本申请仅受权利要求书及其全部范围和等效物的限制。
Claims (19)
1.一种问题文本分析模型的训练方法,其特征在于,包括:
获取训练样本和所述训练样本对应的样本标签,其中,所述训练样本包括问题文本,所述样本标签包括所述问题文本对应的意图标签、关系标签和实体标签;
将所述问题文本输入至问题文本分析模型进行处理,提取所述问题文本的第一特征向量和第二特征向量;
根据所述第一特征向量确定所述问题文本的预测意图和预测关系,根据所述第二特征向量确定所述问题文本的预测实体;
根据所述预测意图、所述预测关系和所述预测实体与所述意图标签、所述关系标签和所述实体标签计算损失值;
根据所述损失值对所述问题文本分析模型进行迭代训练,直至达到训练停止条件。
2.如权利要求1所述的问题文本分析模型的训练方法,其特征在于,根据所述第一特征向量确定所述问题文本的预测意图和预测关系,包括:
根据所述第一特征向量和预设的意图库中的意图类别进行比对,确定所述第一特征向量对应的预测意图;
根据所述第一特征向量和预设的关系库中的关系类别进行比对,确定所述第一特征向量对应的预测关系。
3.如权利要求1所述的问题文本分析模型的训练方法,其特征在于,所述问题文本为二度问题文本;
根据所述第一特征向量确定所述问题文本的预测意图和预测关系,包括:
根据所述第一特征向量和预设的意图库中的意图类别进行比对,确定所述第一特征向量对应的一度预测意图和二度预测意图;
根据所述第一特征向量和预设的关系库中的关系类别进行比对,确定所述第一特征向量对应的一度预测关系和二度预测关系。
4.如权利要求1所述的问题文本分析模型的训练方法,其特征在于,根据所述第二特征向量确定所述问题文本的预测实体,包括:
对所述第二特征向量做命名实体识别处理,获得所述问题文本的预测实体。
5.如权利要求1所述的问题文本分析模型的训练方法,其特征在于,根据所述预测意图、所述预测关系和所述预测实体与所述意图标签、所述关系标签和所述实体标签计算损失值,包括:
根据所述预测意图和所述意图标签计算第一损失值;
根据所述预测关系和关系标签计算第二损失值;
根据所述预测实体和所述实体标签计算第三损失值。
6.如权利要求3所述的问题文本分析模型的训练方法,其特征在于,所述意图标签包括一度意图标签和二度意图标签,所述关系标签包括一度关系标签和二度关系标签;
根据所述预测意图、所述预测关系和所述预测实体与所述意图标签、所述关系标签和所述实体标签计算损失值,包括:
根据所述一度预测意图和所述一度意图标签、所述二度预测意图和所述二度意图标签计算第一损失值;
根据所述一度预测关系和所述一度关系标签、所述二度预测关系和所述二度关系标签计算第二损失值;
根据所述预测实体和所述实体标签计算第三损失值。
7.如权利要求5或6所述的问题文本分析模型的训练方法,其特征在于,根据所述损失值对所述问题文本分析模型进行迭代训练,包括:
联合所述第一损失值、所述第二损失值和所述第三损失值对所述问题文本分析模型进行迭代训练。
8.如权利要求1所述的问题文本分析模型的训练方法,其特征在于,所述训练停止条件包括:所述损失值小于预设阈值或迭代训练的次数到达预设的迭代次数。
9.如权利要求1所述的问题文本分析模型的训练方法,其特征在于,提取所述问题文本的第一特征向量和第二特征向量,包括:
将所述问题文本进行分词处理,得到所述问题文本对应的词单元集合;
对所述词单元集合中的每个词单元做嵌入化处理,获得所述词单元集合对应的词单元向量集合;
将所述词单元向量集合做编码处理,获得所述词单元集合的第一特征向量和第二特征向量。
10.一种查询语句生成方法,其特征在于,包括:
获取问题文本;
将所述问题文本输入至问题文本分析模型进行处理,获得所述问题文本对应的目标意图、目标关系和目标实体,其中,所述问题文本分析模型是通过权利要求1-9任意一项所述的训练方法训练得到的;
将所述目标意图、所述目标关系和所述目标实体添加至预先配置的查询语句模板中的相应位置,生成目标查询语句。
11.如权利要求10所述的查询语句生成方法,其特征在于,将所述目标意图、所述目标关系和所述目标实体添加至预先配置的查询语句模板中的相应位置,生成目标查询语句,包括:
根据所述目标关系的个数确定查询语句模板;
将所述目标关系和所述目标实体添加到所述查询语句模板,生成目标查询语句。
12.如权利要求11所述的查询语句生成方法,其特征在于,在生成目标查询语句之后,还包括:
执行所述目标查询语句,并参考所述目标意图生成对应的查询结果。
13.如权利要求11所述的查询语句生成方法,其特征在于,所述目标关系的个数为两个;
获得所述问题文本对应的目标意图、目标关系和目标实体,包括:
获得所述问题文本对应的一度目标意图、二度目标意图、一度目标关系、二度目标关系和目标实体;
相应的,根据所述目标关系的个数确定查询语句模板,包括:
根据两个目标关系确定一度查询语句模板和二度查询语句模板。
14.如权利要求13所述的查询语句生成方法,其特征在于,将所述目标关系和所述目标实体添加到所述查询语句模板,生成目标查询语句,包括:
将所述目标实体和所述一度目标关系添加到一度查询语句模板,生成一度查询语句;
将所述一度查询语句对应的查询结果标识和所述二度目标关系添加到二度查询语句模板,生成二度查询语句。
15.如权利要求14所述的查询语句生成方法,其特征在于,还包括:
执行所述一度查询语句,并参考所述一度目标意图生成对应的一度查询结果;
用所述一度查询结果替换所述二度查询语句中的所述一度查询结果标识;
执行所述二度查询语句,并参考所述二度目标意图生成对应的目标查询结果。
16.一种问题文本分析模型的训练装置,其特征在于,包括:
获取模块,被配置为获取训练样本和所述训练样本对应的样本标签,其中,所述训练样本包括问题文本,所述样本标签包括所述问题文本对应的意图标签、关系标签和实体标签;
提取模块,被配置为将所述问题文本输入至问题文本分析模型进行处理,提取所述问题文本的第一特征向量和第二特征向量;
预测识别模块,被配置为根据所述第一特征向量确定所述问题文本的预测意图和预测关系,根据所述第二特征向量确定所述问题文本的预测实体;
计算模块,被配置为根据所述预测意图、所述预测关系和所述预测实体与所述意图标签、所述关系标签和所述实体标签计算损失值;
训练模块,被配置为根据所述损失值对所述问题文本分析模型进行迭代训练,直至达到训练停止条件。
17.一种查询语句生成装置,其特征在于,包括:
获取模块,被配置为获取问题文本;
模型处理模块,被配置为将所述问题文本输入至问题文本分析模型进行处理,获得所述问题文本对应的目标意图、目标关系和目标实体,其中,所述问题文本分析模型是通过权利要求1-9任意一项所述的训练方法训练得到的;
生成模块,被配置为将所述目标意图、所述目标关系和所述目标实体添加至预先配置的查询语句模板中的相应位置,生成目标查询语句。
18.一种计算设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机指令,其特征在于,所述处理器执行所述指令时实现权利要求1-9或者10-15任意一项所述方法的步骤。
19.一种计算机可读存储介质,其存储有计算机指令,其特征在于,该指令被处理器执行时实现权利要求1-9或者10-15任意一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010848669.1A CN114077831B (zh) | 2020-08-21 | 2020-08-21 | 一种问题文本分析模型的训练方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010848669.1A CN114077831B (zh) | 2020-08-21 | 2020-08-21 | 一种问题文本分析模型的训练方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114077831A true CN114077831A (zh) | 2022-02-22 |
CN114077831B CN114077831B (zh) | 2024-07-16 |
Family
ID=80282286
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010848669.1A Active CN114077831B (zh) | 2020-08-21 | 2020-08-21 | 一种问题文本分析模型的训练方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114077831B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116340552A (zh) * | 2023-01-06 | 2023-06-27 | 北京达佳互联信息技术有限公司 | 一种标签排序方法、装置、设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106095932A (zh) * | 2016-06-13 | 2016-11-09 | 竹间智能科技(上海)有限公司 | 百科知识问句识别方法及装置 |
CN108733703A (zh) * | 2017-04-20 | 2018-11-02 | 北京京东尚科信息技术有限公司 | 问答系统的答案预测方法及装置、电子设备、存储介质 |
CN109522393A (zh) * | 2018-10-11 | 2019-03-26 | 平安科技(深圳)有限公司 | 智能问答方法、装置、计算机设备和存储介质 |
CN110413746A (zh) * | 2019-06-25 | 2019-11-05 | 阿里巴巴集团控股有限公司 | 对用户问题进行意图识别的方法及装置 |
CN111310848A (zh) * | 2020-02-28 | 2020-06-19 | 支付宝(杭州)信息技术有限公司 | 多任务模型的训练方法及装置 |
WO2020139865A1 (en) * | 2018-12-24 | 2020-07-02 | Conversica, Inc. | Systems and methods for improved automated conversations |
CN111400455A (zh) * | 2020-03-18 | 2020-07-10 | 北京工业大学 | 基于知识图谱的问答系统的关系检测方法 |
CN111428493A (zh) * | 2020-03-06 | 2020-07-17 | 中国平安人寿保险股份有限公司 | 实体关系获取方法、装置、设备及存储介质 |
-
2020
- 2020-08-21 CN CN202010848669.1A patent/CN114077831B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106095932A (zh) * | 2016-06-13 | 2016-11-09 | 竹间智能科技(上海)有限公司 | 百科知识问句识别方法及装置 |
CN108733703A (zh) * | 2017-04-20 | 2018-11-02 | 北京京东尚科信息技术有限公司 | 问答系统的答案预测方法及装置、电子设备、存储介质 |
CN109522393A (zh) * | 2018-10-11 | 2019-03-26 | 平安科技(深圳)有限公司 | 智能问答方法、装置、计算机设备和存储介质 |
WO2020139865A1 (en) * | 2018-12-24 | 2020-07-02 | Conversica, Inc. | Systems and methods for improved automated conversations |
CN110413746A (zh) * | 2019-06-25 | 2019-11-05 | 阿里巴巴集团控股有限公司 | 对用户问题进行意图识别的方法及装置 |
CN111310848A (zh) * | 2020-02-28 | 2020-06-19 | 支付宝(杭州)信息技术有限公司 | 多任务模型的训练方法及装置 |
CN111428493A (zh) * | 2020-03-06 | 2020-07-17 | 中国平安人寿保险股份有限公司 | 实体关系获取方法、装置、设备及存储介质 |
CN111400455A (zh) * | 2020-03-18 | 2020-07-10 | 北京工业大学 | 基于知识图谱的问答系统的关系检测方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116340552A (zh) * | 2023-01-06 | 2023-06-27 | 北京达佳互联信息技术有限公司 | 一种标签排序方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114077831B (zh) | 2024-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Laurer et al. | Less annotating, more classifying: Addressing the data scarcity issue of supervised machine learning with deep transfer learning and BERT-NLI | |
JP7420842B2 (ja) | 自然言語理解(nlu)フレームワークにおける予測的類似性スコアリングサブシステム | |
CN111753060A (zh) | 信息检索方法、装置、设备及计算机可读存储介质 | |
CN113127624B (zh) | 问答模型的训练方法及装置 | |
CN111581961A (zh) | 一种中文视觉词汇表构建的图像内容自动描述方法 | |
WO2022252636A1 (zh) | 基于人工智能的回答生成方法、装置、设备及存储介质 | |
CN113961685A (zh) | 信息抽取方法及装置 | |
CN110633577A (zh) | 文本脱敏方法以及装置 | |
CN114090776A (zh) | 文档解析方法、系统及装置 | |
CN115204156A (zh) | 关键词提取方法及装置 | |
CN113159187B (zh) | 分类模型训练方法及装置、目标文本确定方法及装置 | |
CN110633475A (zh) | 基于计算机场景的自然语言理解方法、装置、系统和存储介质 | |
CN112632258A (zh) | 文本数据处理方法、装置、计算机设备和存储介质 | |
WO2023134085A1 (zh) | 问题答案的预测方法、预测装置、电子设备、存储介质 | |
CN115221315A (zh) | 文本处理方法以及装置、句向量模型训练方法以及装置 | |
CN114138969A (zh) | 文本处理方法及装置 | |
CN114077831A (zh) | 一种问题文本分析模型的训练方法及装置 | |
CN114003706A (zh) | 关键词组合生成模型训练方法及装置 | |
CN114282513A (zh) | 文本语义相似度的匹配方法、系统、智能终端及存储介质 | |
CN114491010A (zh) | 信息抽取模型的训练方法及装置 | |
CN112800186B (zh) | 阅读理解模型的训练方法及装置、阅读理解方法及装置 | |
CN115481246A (zh) | 文本检测模型训练方法以及装置 | |
CN115757723A (zh) | 文本处理方法及装置 | |
CN114492410A (zh) | 合约信息提取方法及装置 | |
CN113590768B (zh) | 一种文本关联度模型的训练方法及装置、问答方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |