CN110110063A - 一种基于哈希学习的问答系统构建方法 - Google Patents
一种基于哈希学习的问答系统构建方法 Download PDFInfo
- Publication number
- CN110110063A CN110110063A CN201910361175.8A CN201910361175A CN110110063A CN 110110063 A CN110110063 A CN 110110063A CN 201910361175 A CN201910361175 A CN 201910361175A CN 110110063 A CN110110063 A CN 110110063A
- Authority
- CN
- China
- Prior art keywords
- answer
- answering system
- question answering
- question
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010276 construction Methods 0.000 title claims abstract description 18
- 239000011159 matrix material Substances 0.000 claims abstract description 83
- 238000012549 training Methods 0.000 claims abstract description 43
- 238000000034 method Methods 0.000 claims abstract description 17
- 238000005457 optimization Methods 0.000 claims abstract description 10
- 238000005516 engineering process Methods 0.000 claims abstract description 7
- 230000004044 response Effects 0.000 claims abstract description 4
- 230000008569 process Effects 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 4
- 238000009795 derivation Methods 0.000 claims description 2
- 239000000284 extract Substances 0.000 claims description 2
- 238000012805 post-processing Methods 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 3
- 238000010801 machine learning Methods 0.000 abstract 1
- 230000003993 interaction Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 3
- 102100033814 Alanine aminotransferase 2 Human genes 0.000 description 2
- 101710096000 Alanine aminotransferase 2 Proteins 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于哈希学习的问答系统构建方法,可以达到在线问答场景下模型精度高、内存开销低且响应时间短的效果。该方法首先根据问答系统的应用场景收集问答训练集,再结合深度学习技术构造端到端的问答系统网络模型,在训练集上通过机器学习优化算法训练模型。在系统部署前,通过答案收集算法收集答案知识库,使用训练好的问答系统网络模型计算答案知识库中答案的二值矩阵表示。在线部署时,对于收到的问题,首先使用问答系统网络模型进行问题编码,然后问答系统网络模型根据问题的编码和答案的二值矩阵表示计算问题和答案的匹配程度。最后根据答案知识库中的答案与问题的匹配程度对答案进行排序,将排在前面的答案作为响应返回给用户。
Description
技术领域
本发明涉及一种基于哈希学习的问答系统构建方法,涉及到文本数据处理技术,用于实现在线问答场景下保持高精度的同时,利用低内存开销实现高效问答。
背景技术
随着互联网技术的发展,人们获取知识的途径也变得多样化。其中问答是一种友好且便捷的方式,可以免除人们阅读文档的过程,直接将用户所需要的内容返回给用户。问答是科学领域中具有挑战性的研究方向,是自然语言处理领域长期以来重点关注的任务,其具体内容是根据给定的问题返回回答问题的答案。同时问答也是工程领域中的重要应用技术,在现实中有很多具体的应用,包括语音助手、智能音箱、在线智能客服等。这些应用给人们的生活带来了很大的便利。
大多数的问答研究工作主要关注于增强问题和答案之间的交互,提高模型的效果,却很少考虑模型的时空效率。实际上,现有的这些具有问题答案交互机制的模型在在线预测场景下基本都存在内存开销问题或时间开销问题。而不采用问题答案交互机制的模型虽然不存在内存开销问题或时间开销问题,但是模型的效果会明显下降。因此设计一个预测准确率高且可以降低内存开销、时间开销的问答系统至关重要。
发明内容
发明目的:为了解决现有技术中存在的问题与不足,本发明利用哈希学习技术对答案的实值矩阵表示,即答案全连接层的输出,进行压缩。在提高问答系统在线预测效率、保证模型精度的同时,又降低了内存的开销。
技术方案:一种基于哈希学习的问答系统构建方法,具体包括以下步骤:
1)当有和问答系统应用场景相关的公开问答数据集或自己标注的问答数据集时,直接使用该数据集训练模型,当缺少训练数据时,从互联网数据中构造问答训练集;
2)根据问答训练集,构建并训练问答系统网络模型;
3)通过答案收集算法收集答案并构建答案知识库;
4)使用问答系统网络模型计算答案知识库中答案的二值矩阵表示,建立答案二值矩阵表示数据库;
5)对于问答系统接收到的问题,使用问答系统网络模型计算问题编码,然后问答系统网络模型根据问题编码和答案二值矩阵表示计算问题和答案的匹配程度,再基于匹配程度对答案进行排序;
6)当答案知识库中没有合适的答案时,答案收集算法根据问题重新收集答案,然后使用问答系统网络模型计算其二值矩阵表示,更新到答案知识库和答案二值矩阵表示数据库中;
7)根据答案排序的结果和系统要求做出响应。
上述步骤1)的过程为:如果存在和问答系统应用场景相关的公开问答数据集或自己标注的问答数据集时,直接使用该数据集训练模型;当不存在标注问答训练集时,首先收集互联网上相关领域的问题集,通过文本分类技术对问题集进行筛选,然后使用阅读理解技术生成问题的答案,经过后处理生成问答训练集。
上述步骤2)的过程为:所构造的问答系统网络模型使用预训练自注意力网络模型提取问题和答案的特征表示,预训练自注意力网络模型使用两个预训练语言模型编码器分别对问题和答案进行编码;其中预训练自注意力网络模型可以使用BERT或GPT-2等预训练语言模型编码器。在问题编码器和答案编码器之后分别添加一层全连接层,全连接层可以是固定参数的单位阵,也可以是可学习的参数矩阵,全连接层的输出是问题和答案的实值矩阵表示;在答案全连接层后添加一层答案哈希层,答案哈希层的输出是答案的二值矩阵表示;问题全连接层后不添加问题哈希层;在问题全连接层和答案哈希层之后,分别添加一层交互层分别计算问题和答案的向量表示;在问题和答案的交互层之后,添加一层相似度层计算问题和答案的相似度;
在问答系统网络模型的训练过程中,其损失函数由两部分构成,使用三元组hinge损失为问题和答案的相似度建模,使用范数损失为答案的二值矩阵表示建模;在求解该优化问题时,使用梯度反向传播算法优化问答系统网络模型的参数。
上述步骤3)的过程为:根据问答系统的应用场景需要,收集相应领域的知识,以候选答案的形式建立答案知识库。
上述步骤4)的过程为:将答案知识库中的答案作为问答系统网络模型中答案编码器的输入,再将编码器的输出输入到全连接层,计算并输出对应的实值矩阵表示;将实值矩阵表示输入到答案哈希层,计算并输出对应的二值矩阵表示;将二值矩阵表示与答案一一对应存储在内存中,建立答案二值矩阵表示数据库。
上述步骤5)的过程为:将接收到的问题作为问答系统网络模型问题编码器的输入,再将编码器的输出输入到全连接层,计算并输出对应的实值矩阵表示;然后将得到的问题矩阵表示和数据库中答案的二值矩阵表示分别输入到交互层中,计算并输出问题和答案的向量表示;将问题和答案的向量表示输入到相似度层,计算并输出问题和答案的相似度;根据问题和答案的相似度对答案知识库中所有的答案进行降序排序。
上述步骤6)的过程为:当问答系统网络模型为当前问题匹配答案时,如果答案知识库中的所有答案的置信度都低于一个阈值,则使用答案收集算法为当前问题重新生成答案,并重新计算其矩阵表示,在得到二值矩阵表示后,更新到答案知识库和答案二值矩阵表示数据库中。
上述步骤7)的过程为:根据答案排序的结果以及问答系统的场景需求,返回相应数量的答案作为响应展示给用户。
附图说明
图1为本发明实施例中答案二值矩阵表示数据库构建流程图;
图2为本发明实施例在线部署时的预测流程图;
图3为本发明实施例中答案知识库、答案二值矩阵表示数据库动态更新流程图;
图4为本发明实施例中问答系统网络模型的结构图。
具体实施方式
下面结合具体实施例,进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
图1展示了基于哈希学习的问答系统构建方法中构建答案二值矩阵表示数据库的流程。首先要构造问答训练集训练问答系统网络模型,问答训练集可以是和问答系统应用场景相关的公开问答数据集,也可以是自己标注的问答数据集。当不存在标注训练集时,首先收集互联网上相关领域的问题集,然后通过文本分类技术对问题集进行筛选,再使用阅读理解技术生成问题的答案,经过后处理生成问答训练集。
问答系统网络模型包括预训练自注意力网络模型、全连接层、答案哈希层、交互层、相似度层,其网络结构如图4所示。
所构造的问答系统网络模型使用预训练自注意力网络模型提取问题和答案的特征表示,预训练自注意力网络模型使用两个预训练语言模型编码器分别对问题和答案进行编码;其中预训练自注意力网络模型可以使用BERT(Ashish Vaswani,Noam Shazeer,NikiParmar,Jakob Uszkoreit,Llion Jones,Aidan N.Gomez,Lukasz Kaiser,IlliaPolosukhin,Attention is All you Need,2017Annual Conference on NeuralInformation Processing Systems)或GPT-2(Alec Radford,Jeffrey Wu,Rewon Child,David Luan,Dario Amodei,Ilya Sutskever,Language Models are UnsupervisedMultitask Learners,2019)等预训练语言模型编码器。在问题编码器和答案编码器之后分别添加一层全连接层,全连接层可以是固定参数的单位阵,也可以是可学习的参数矩阵,全连接层的输出是问题和答案的实值矩阵表示;在答案全连接层后添加一层答案哈希层,答案哈希层的输出是答案的二值矩阵表示;问题全连接层后不添加问题哈希层;在问题全连接层和答案哈希层之后,分别添加一层交互层计算问题和答案的向量表示;在问题和答案的交互层之后,添加一层相似度层计算问题和答案的相似度;
在问答系统网络模型的训练过程中,其损失函数由两部分构成,使用三元组hinge损失为问题和答案的相似度建模,使用范数损失为答案的二值矩阵表示建模;在求解该优化问题时,使用梯度反向传播算法优化问答系统网络模型的参数。
将训练样本中的问题和答案分别作为预训练自注意力网络模型问题编码器和答案编码器的输入,然后将编码器的输出分别输入到问题全连接层和答案全连接层,计算问题和答案的实值矩阵表示。将答案的实值矩阵表示输入到答案哈希层,计算并输出答案的二值矩阵表示。然后将问题矩阵表示和答案二值矩阵表示分别输入到交互层,计算并输出问题和答案的向量表示。将问题和答案的向量表示输入到相似度层,计算问题和答案的匹配程度。
在优化问答系统网络模型参数时,所构造的优化目标由两部分组成:
1)为了使正确答案具有更高的置信度,设批处理量的大小为N,则在数据上定义的三元组hinge损失函数为:
其中{qi,pi,ni}分别表示(问题、正确答案、错误答案)三元组的向量表示,α表示间隔超参数,cos()表示向量之间的余弦距离,[x]+表示函数max(0,x)。
2)为了使答案的实值矩阵表示更接近二值,降低答案哈希层二值化带来的精度损失,我们定义范数损失如下:
其中Bi表示答案的实值矩阵表示,表示答案的二值矩阵表示,表示Bi和之间由F-范数定义的距离。
由此我们可以定义关于正确答案和错误答案的的范数损失如下:
其中分别是正确答案的二值矩阵表示和错误答案的二值矩阵表示,分别表示正确答案的实值矩阵表示、错误答案的实值矩阵表示,l为句子的长度,r为二值编码的长度。
综合公式(1)和公式(3),可以得到如下的优化问题:
其中β是权重系数,取值为正实数,N是批处理量的大小,l为句子的长度,r是二值编码的长度。在求解以上优化问题时,对目标函数(4)进行求导,使用梯度反向传播算法优化问答系统网络模型的参数。
根据问答系统的应用场景需要,收集特定领域的知识,以候选答案的形式建立答案知识库。
将答案知识库中的答案作为预训练自注意力网络模型答案编码器的输入,再将答案编码器的输出输入到全连接层,计算并输出对应的实值矩阵表示;将实值矩阵表示输入到答案哈希层,计算并输出对应的二值矩阵表示;将二值矩阵表示与答案一一对应存储在内存中,建立答案二值矩阵表示数据库。
图2展示了基于哈希学习的问答系统在线预测时的流程。对于输入到问答系统中的问题,将该问题作为预训练自注意力网络模型问题编码器的输入,再将问题编码器的输出输入到全连接层,计算并输出对应的实值矩阵表示。然后通过问答系统网络模型的交互层,基于问题矩阵表示和答案二值矩阵表示,计算问题和答案的向量表示。接下来根据问题和答案的向量表示计算问题答案相似度,并对答案进行降序排序。最后根据问答系统的应用要求,从答案知识库中检索出对应的答案文本做出响应。
图3展示了基于哈希学习的问答系统构建方法中答案知识库、答案二值矩阵表示数据库的更新流程。在系统运行过程中,可能会遇到系统无法回答的问题。这时系统通过答案收集算法从互联网中查找可以回答问题的信息,生成答案并做出响应。同时将该答案和答案的二值矩阵表示分别动态更新到答案知识库和答案二值矩阵表示数据库中。
Claims (10)
1.一种基于哈希学习的问答系统构建方法,其特征在于,具体包括以下步骤:
1)当有和问答系统应用场景相关的公开问答数据集或自己标注的问答数据集时,直接使用该数据集训练模型,当缺少训练数据时,从互联网数据中构造问答训练集;
2)根据问答训练集,构建并训练问答系统网络模型;
3)通过答案收集算法收集答案并构建答案知识库;
4)使用问答系统网络模型计算答案知识库中答案的二值矩阵表示,建立答案二值矩阵表示数据库;
5)对于问答系统接收到的问题,使用问答系统网络模型计算问题编码,然后问答系统网络模型根据问题编码和答案二值矩阵表示计算问题和答案的匹配程度,再基于匹配程度对答案进行排序;
6)当答案知识库中没有合适的答案时,答案收集算法根据问题重新收集答案,然后使用问答系统网络模型计算其二值矩阵表示,更新到答案知识库和答案二值矩阵表示数据库中;
7)根据答案排序的结果和系统要求做出响应。
2.如权利要求1所述的基于哈希学习的问答系统构建方法,其特征在于,所述步骤1)中,如果存在和问答系统应用场景相关的公开问答数据集或自己标注的问答数据集时,直接使用该数据集训练模型;当不存在标注问答训练集时,首先收集互联网上相关领域的问题集,通过文本分类技术对问题集进行筛选,然后使用阅读理解技术生成问题的答案,经过后处理生成问答训练集。
3.如权利要求1所述的基于哈希学习的问答系统构建方法,其特征在于,所述步骤2)中,所构造的问答系统网络模型使用预训练自注意力网络模型提取问题和答案的特征表示,预训练自注意力网络模型使用两个预训练语言模型编码器分别对问题和答案进行编码;在问题编码器和答案编码器之后分别添加一层全连接层,全连接层可以是固定参数的单位阵,也可以是可学习的参数矩阵,全连接层的输出是问题和答案的实值矩阵表示;在答案全连接层后添加一层答案哈希层,答案哈希层的输出是答案的二值矩阵表示;问题全连接层后不添加问题哈希层;在问题全连接层和答案哈希层之后,分别添加一层交互层分别计算问题和答案的向量表示;在问题和答案的交互层之后,添加一层相似度层计算问题和答案的相似度;
在问答系统网络模型的训练过程中,其损失函数由两部分构成,使用三元组hinge损失为问题和答案的相似度建模,使用范数损失为答案的二值矩阵表示建模;在求解该优化问题时,使用梯度反向传播算法优化问答系统网络模型的参数。
4.如权利要求1所述的基于哈希学习的问答系统构建方法,其特征在于,所述步骤3)中,根据问答系统的应用场景需要,收集相应领域的知识,以候选答案的形式建立答案知识库。
5.如权利要求1所述的基于哈希学习的问答系统构建方法,其特征在于,所述步骤4)中,将答案知识库中的答案作为问答系统网络模型中答案编码器的输入,再将编码器的输出输入到全连接层,计算并输出对应的实值矩阵表示;将实值矩阵表示输入到答案哈希层,计算并输出对应的二值矩阵表示;将二值矩阵表示与答案一一对应存储在内存中,建立答案二值矩阵表示数据库。
6.如权利要求1所述的基于哈希学习的问答系统构建方法,其特征在于,所述步骤5)中,将接收到的问题作为问答系统网络模型问题编码器的输入,再将编码器的输出输入到全连接层,计算并输出对应的实值矩阵表示;然后将得到的问题矩阵表示和数据库中答案的二值矩阵表示分别输入到交互层中,计算并输出问题和答案的向量表示;将问题和答案的向量表示输入到相似度层,计算并输出问题和答案的相似度;根据问题和答案的相似度对答案知识库中所有的答案进行降序排序。
7.如权利要求1所述的基于哈希学习的问答系统构建方法,其特征在于,所述步骤6)中,当问答系统网络模型为当前问题匹配答案时,如果答案知识库中的所有答案的置信度都低于一个阈值,则使用答案收集算法为当前问题重新生成答案,并重新计算其矩阵表示,在得到二值矩阵表示后,更新到答案知识库和答案二值矩阵表示数据库中。
8.如权利要求1所述的基于哈希学习的问答系统构建方法,其特征在于,所述步骤7)中,根据答案排序的结果以及问答系统的场景需求,返回相应数量的答案作为响应展示给用户。
9.如权利要求3所述的基于哈希学习的问答系统构建方法,其特征在于,问答系统网络模型的损失函数由两部分组成:
1)为问题和答案的相似度建模的三元组hinge损失其中qi,pi,ni分别表示问题、正确答案、错误答案的向量表示;
2)为答案的二值矩阵表示建模的范数损失其中分别表示正确答案的实值矩阵表示、正确答案的二值矩阵表示、错误答案的实值矩阵表示、错误答案的二值矩阵表示;
结合以上两部分损失,可以得到如下优化问题:
其中β是权重系数,N是批处理量的大小,l是句子的长度,r是二值编码的长度;在求解以上优化问题时,对目标函数(4)进行求导,使用梯度反向传播算法优化问答系统网络模型的参数。
10.如权利要求9所述的基于哈希学习的问答系统构建方法,其特征在于,定义三元组hinge损失函数如下:
其中qi,pi,ni分别表示问题、正确答案、错误答案的向量表示,α是间隔超参数,[x]+表示函数max(0,x),cos()表示向量之间的余弦距离;
定义范数损失如下:
其中Bi,分别表示答案的实值矩阵表示和答案的二值矩阵表示,表示Bi和之间由F-范数定义的距离;
定义关于正确答案和错误答案的的范数损失如下:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910361175.8A CN110110063B (zh) | 2019-04-30 | 2019-04-30 | 一种基于哈希学习的问答系统构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910361175.8A CN110110063B (zh) | 2019-04-30 | 2019-04-30 | 一种基于哈希学习的问答系统构建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110110063A true CN110110063A (zh) | 2019-08-09 |
CN110110063B CN110110063B (zh) | 2023-07-18 |
Family
ID=67487785
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910361175.8A Active CN110110063B (zh) | 2019-04-30 | 2019-04-30 | 一种基于哈希学习的问答系统构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110110063B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111339275A (zh) * | 2020-02-27 | 2020-06-26 | 深圳大学 | 答题信息的匹配方法、装置、服务器和存储介质 |
CN111414461A (zh) * | 2020-01-20 | 2020-07-14 | 福州大学 | 一种融合知识库与用户建模的智能问答方法及系统 |
CN111460176A (zh) * | 2020-05-11 | 2020-07-28 | 南京大学 | 一种基于哈希学习的多文档机器阅读理解方法 |
CN111783428A (zh) * | 2020-07-07 | 2020-10-16 | 杭州叙简科技股份有限公司 | 基于深度学习的应急管理类客观题自动生成系统 |
CN112328767A (zh) * | 2020-11-11 | 2021-02-05 | 重庆邮电大学 | 基于bert模型和比较聚合框架的问答匹配方法 |
CN112416956A (zh) * | 2020-11-19 | 2021-02-26 | 重庆邮电大学 | 一种基于bert和独立循环神经网络的问句分类方法 |
CN113486152A (zh) * | 2021-07-16 | 2021-10-08 | 上海淇馥信息技术有限公司 | 一种业务知识库构建方法、装置和电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160299975A1 (en) * | 2015-04-09 | 2016-10-13 | International Business Machines Corporation | Concept Analysis Operations Utilizing Accelerators |
CN108717413A (zh) * | 2018-03-26 | 2018-10-30 | 浙江大学 | 一种基于假设性半监督学习的开放领域问答方法 |
CN109002519A (zh) * | 2018-07-09 | 2018-12-14 | 北京慧闻科技发展有限公司 | 基于卷积循环神经网络的答案选择方法、装置和电子设备 |
-
2019
- 2019-04-30 CN CN201910361175.8A patent/CN110110063B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160299975A1 (en) * | 2015-04-09 | 2016-10-13 | International Business Machines Corporation | Concept Analysis Operations Utilizing Accelerators |
CN108717413A (zh) * | 2018-03-26 | 2018-10-30 | 浙江大学 | 一种基于假设性半监督学习的开放领域问答方法 |
CN109002519A (zh) * | 2018-07-09 | 2018-12-14 | 北京慧闻科技发展有限公司 | 基于卷积循环神经网络的答案选择方法、装置和电子设备 |
Non-Patent Citations (1)
Title |
---|
江乐: "基于搜索引擎的问答系统的设计与实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111414461A (zh) * | 2020-01-20 | 2020-07-14 | 福州大学 | 一种融合知识库与用户建模的智能问答方法及系统 |
CN111414461B (zh) * | 2020-01-20 | 2022-06-14 | 福州大学 | 一种融合知识库与用户建模的智能问答方法及系统 |
CN111339275A (zh) * | 2020-02-27 | 2020-06-26 | 深圳大学 | 答题信息的匹配方法、装置、服务器和存储介质 |
CN111339275B (zh) * | 2020-02-27 | 2023-05-12 | 深圳大学 | 答题信息的匹配方法、装置、服务器和存储介质 |
CN111460176A (zh) * | 2020-05-11 | 2020-07-28 | 南京大学 | 一种基于哈希学习的多文档机器阅读理解方法 |
CN111460176B (zh) * | 2020-05-11 | 2023-11-07 | 南京大学 | 一种基于哈希学习的多文档机器阅读理解方法 |
CN111783428A (zh) * | 2020-07-07 | 2020-10-16 | 杭州叙简科技股份有限公司 | 基于深度学习的应急管理类客观题自动生成系统 |
CN111783428B (zh) * | 2020-07-07 | 2024-01-23 | 杭州叙简科技股份有限公司 | 基于深度学习的应急管理类客观题自动生成系统 |
CN112328767A (zh) * | 2020-11-11 | 2021-02-05 | 重庆邮电大学 | 基于bert模型和比较聚合框架的问答匹配方法 |
CN112416956A (zh) * | 2020-11-19 | 2021-02-26 | 重庆邮电大学 | 一种基于bert和独立循环神经网络的问句分类方法 |
CN113486152A (zh) * | 2021-07-16 | 2021-10-08 | 上海淇馥信息技术有限公司 | 一种业务知识库构建方法、装置和电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN110110063B (zh) | 2023-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110110063A (zh) | 一种基于哈希学习的问答系统构建方法 | |
CN112749339B (zh) | 一种基于旅游知识图谱的旅游路线推荐方法及系统 | |
CN111368074A (zh) | 一种基于网络结构和文本信息的链路预测方法 | |
CN111709244B (zh) | 一种用于矛盾纠纷事件因果关系识别的深度学习方法 | |
CN108959396A (zh) | 机器阅读模型训练方法及装置、问答方法及装置 | |
CN111753207B (zh) | 一种基于评论的神经图协同过滤方法 | |
CN108287858A (zh) | 自然语言的语义提取方法及装置 | |
CN114743020B (zh) | 一种结合标签语义嵌入和注意力融合的食物识别方法 | |
CN107766371A (zh) | 一种文本信息分类方法及其装置 | |
CN108492224A (zh) | 基于深度学习在线教育学生综合画像标签管理系统 | |
CN112199608A (zh) | 基于网络信息传播图建模的社交媒体谣言检测方法 | |
CN111008337B (zh) | 一种基于三元特征的深度注意力谣言鉴别方法及装置 | |
CN110321361A (zh) | 基于改进的lstm神经网络模型的试题推荐判定方法 | |
CN109766424A (zh) | 一种阅读理解模型训练数据的过滤方法及装置 | |
CN115146162A (zh) | 一种在线课程推荐方法及系统 | |
CN110390049A (zh) | 一种面向软件开发问题的答案自动生成方法 | |
CN117576267B (zh) | 基于llm和ann的数字人生成方法及其在云视频的应用 | |
Qiao | Integration model for multimedia education resource based on internet of things | |
CN117237559A (zh) | 面向数字孪生城市的三维模型数据智能分析方法及系统 | |
Sreenivasulu et al. | Implementation of latest machine learning approaches for students grade prediction | |
CN113158075A (zh) | 融合评论的多任务联合谣言检测方法 | |
CN112417267A (zh) | 一种用户行为分析方法、装置、计算机设备及存储介质 | |
CN114780866B (zh) | 一种基于时空上下文兴趣学习模型的个性化智能推荐方法 | |
CN111678531B (zh) | 一种基于LightGBM的地铁路径规划方法 | |
CN110852376B (zh) | 用于识别生物种类的方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |