CN111221944B - 文本意图识别方法、装置、设备和存储介质 - Google Patents
文本意图识别方法、装置、设备和存储介质 Download PDFInfo
- Publication number
- CN111221944B CN111221944B CN202010033742.XA CN202010033742A CN111221944B CN 111221944 B CN111221944 B CN 111221944B CN 202010033742 A CN202010033742 A CN 202010033742A CN 111221944 B CN111221944 B CN 111221944B
- Authority
- CN
- China
- Prior art keywords
- neural network
- similarity
- processed
- network model
- text information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000003062 neural network model Methods 0.000 claims abstract description 109
- 238000013528 artificial neural network Methods 0.000 claims description 57
- 238000012549 training Methods 0.000 claims description 49
- 239000013598 vector Substances 0.000 claims description 40
- 239000011159 matrix material Substances 0.000 claims description 35
- 238000010606 normalization Methods 0.000 claims description 31
- 230000015654 memory Effects 0.000 claims description 28
- 238000012545 processing Methods 0.000 claims description 21
- 238000011176 pooling Methods 0.000 claims description 20
- 238000002372 labelling Methods 0.000 claims description 13
- 230000000694 effects Effects 0.000 claims description 11
- 210000002569 neuron Anatomy 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 10
- 238000013145 classification model Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000007787 long-term memory Effects 0.000 claims description 5
- 230000011218 segmentation Effects 0.000 claims description 5
- 238000012163 sequencing technique Methods 0.000 claims description 5
- 230000006403 short-term memory Effects 0.000 claims description 5
- 230000004931 aggregating effect Effects 0.000 claims 1
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 230000000875 corresponding effect Effects 0.000 description 47
- 230000006870 function Effects 0.000 description 13
- 238000004590 computer program Methods 0.000 description 7
- 230000004927 fusion Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 241000282414 Homo sapiens Species 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000013178 mathematical model Methods 0.000 description 2
- 210000000653 nervous system Anatomy 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 101100134058 Caenorhabditis elegans nth-1 gene Proteins 0.000 description 1
- RWSOTUBLDIXVET-UHFFFAOYSA-N Dihydrogen sulfide Chemical compound S RWSOTUBLDIXVET-UHFFFAOYSA-N 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005183 dynamical system Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003061 neural cell Anatomy 0.000 description 1
- 230000003362 replicative effect Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3347—Query execution using vector based model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及人工智能领域,提供一种文本意图识别方法、装置、设备和存储介质。方法包括:获取待处理的文本信息以及数据库所存储的多个标准句子;计算多个待处理的文本信息的特征值以及获取数据库所存储的多个标准句子的特征值;通过多个标准句子的特征值以及获取待处理的文本信息的特征值计算多个第一相似度,并提取最大的第一相似度,得到第一目标相似度;判断第一目标相似度是否小于阈值;若第一目标相似度小于阈值,则将多个标准句子的特征值以及待处理的文本信息的特征值输入至目标神经网络模型,通过目标神经网络模型输出第二相似度集合;通过提取所述第二相似度集合中的元素,得到用户的最终意图。加快深度文本匹配的效率。
Description
技术领域
本发明涉及语音语义领域,尤其涉及一种文本意图识别方法、装置、设备和存储介质。
背景技术
智能对话是一种使用自然语言与用户交互的人工智能系统,通过对用户意图分析和理解来达到对话的目的。系统理解人类所传递的信息并转化为一种内部状态,然后根据对话状态策略采取相应的行为,最后转化为人类可以理解的自然语言。传统的文本匹配方法是基于字面的相似度计算,而对于基于语义匹配,如:“Iphone多少钱”和“苹果手机什么价格”则基本无能为力。其次,除了计算消息-候选回复之间的相似度,意图识别也常常使用文本分类的方式。但分类模型属于有监督训练,不仅需要人工标注训练集,对于数据类别的平衡性要求也比较高。再者,对于特定的文本匹配需求,比如“我的支付宝借呗开通了”和“我的支付宝借呗没有开通”,从字面意思上,具有极高的特征相似性,极容易被判定为相同的意图,但这种语句相似但意思截然相反的情况,在实际的对话系统中出现的频率极高且很难通过常规的文本匹配来解决,导致意图识别的准确度低。
发明内容
本发明提供了一种通过配置文本意图识别方法,能够提高了机器识别文本意图的准确度。
第一方面,本发明提供一种文本意图识别方法,包括:
获取待处理的文本信息以及数据库所存储的多个标准句子;
计算所述多个待处理的文本信息的特征值以及获取所述数据库所存储的多个标准句子的特征值;
通过所述多个标准句子的特征值以及获取所述待处理的文本信息的特征值计算多个第一相似度,得到第一相似度集合;
提取所述第一相似度集合中最大的所述第一相似度,得到第一目标相似度;
判断所述第一目标相似度是否小于阈值;
若所述第一目标相似度小于阈值,则将所述多个标准句子的特征值以及所述待处理的文本信息的特征值输入至目标神经网络模型,通过所述目标神经网络模型输出第二相似度集合,所述目标神经网络模型为长短期记忆模型、注意力模型、双向长短期记忆BiLSTM模型以及软最大值Softmax层串联而成的神经网络;
通过提取所述第二相似度集合中的元素,得到用户的最终意图。
在一些可能的设计中,所述若所述第一目标相似度小于阈值,则将所述多个标准句子的特征值以及所述待处理的文本信息的特征值输入至目标神经网络模型,通过所述目标神经网络模型输出第二相似度集合,包括:
获取所述待处理的文本信息以及所述数据库所存储的多个标准句子,得到第一矩阵a以及第二矩阵b的集合;
分别将每个所述第二矩阵b与所述第一矩阵a组合成输入信息,将所述输入信息输入至第一神经网络,得到多个所述第一神经网络的第一输出矩阵和所述第一神经网络的第二输出矩阵/>所述第一神经网络模型是指长短期记忆模型;
将所述多个和/>输入至第二神经网络模型,得到所述第二神经网络的第一输出矩阵/>和所述第二神经网络的第二输出矩阵/>所述第二神经网络模型是指注意力Attention模型;
将和/>组合成集合ma和集合mb,所述ma为/>所述mb为
将所述多个集合ma以及对应的集合mb依次输入至第三神经网络模型,通过所述第三神经网络模型输出得到ma对应的概率va和对应的概率vb,所述第三神经网络模型为BiLSTM模型;
将va和vb依次输入池化层,得到第二相似度集合v,所述池化层包括最大池化层以及平均池化层,所述v为{va,vue,va,max,vb,vue,vb,max}。
在一些可能的设计中,所述通过所述多个标准句子的特征值以及所述待处理的文本信息的特征值计算多个第一相似度,并提取最大的所述第一相似度,得到第一目标相似度,包括:
获取所述多个待处理文本信息中每一个词汇的特征值以及所述多个标准句子的特征值;
通过所述多个待处理文本信息中每一个词汇的特征值将所述多个待处理文本信息映射成多个第一向量;
通过所述多个标准句子的特征值将所述数据库所存储的多个标准句子映射成多个第二向量;
通过计算每一个所述第一向量与所述多个第二向量之间的所述第一相似度,得到多个所述第一相似度;
将所述多个第一相似度按照数值从大到小排序,并提取数值最大的所述第一相似度作为所述第一目标相似度。
在一些可能的设计中,所述计算所述多个待处理的文本信息的特征值以及获取所述数据库所存储的多个标准句子的特征值,包括:
通过计算文档词频,所述xa为词汇在所述待处理文本信息中出现的次数,所述xb为所述待处理的文本信息的词数;
通过计算逆文档词频,所述ya为数据库所存储的句子总数,所述yb为数据库所存储包含所述词汇的句子数;
通过TFIDF=TF*IDF计算所述多个待处理文本信息中每一个词汇的特征值以及获取所述多个标准句子的特征值。
在一些可能的设计中,所述若所述第一目标相似度小于阈值,则将所述多个标准句子的特征值以及所述待处理的文本信息的特征值输入至目标神经网络模型,通过所述目标神经网络模型输出第二相似度集合之前,所述方法还包括:
获取多个训练数据以及所述训练数据所对应的标注标签;
将所述训练数据以及所述对应的标注标签输入至所述初始神经网络模型;
将所述目标神经网络模型通过训练,得到目标神经网络模型,/>代表根据所述目标神经网络模型神经网络层的多层感知器中第n-1层的输出训练所述目标神经网络模型神经网络层的多层感知器中第n层中第k个神经元得到的权值,/>表示/>相应的偏置,fi n表示第i个训练数据输入至所述目标神经网络后在所述目标神经网络模型的第n层的输出,i、j以及k为任意正整数,n为自然数,当n为所述目标神经网络模型的最后一层时,fi n是指所述目标神经网络模型的输出;
将所述目标神经网络模型部署至客户端。
在一些可能的设计中,所述获取多个训练数据以及所述训练数据所对应的标注标签,包括:
接收用户输入生成的自由文本电子文档;
识别所述自由文本电子文档具有训练作用的文档部分;
识别所述训练作用的文档部分至少一个名词短语终端;
根据每个所述名词短语终端生成双联词的集合;
使用所述双联词来查询数据库中的候选意图;
基于级联的字符来识别所述候选意图;
基于句法、语义和层级特征来选择与所述名词短语终端最相似的所述候选意图。
在一些可能的设计中,所述获取待处理的文本信息以及数据库所存储的多个标准句子之后,所述方法还包括:
将所述待处理的文本信息拆分为多个分词;
对所述多个分词进行归一化,并生成所述待处理的文本信息对应的归一化结果,所述归一化至少包括类别归一化、同义词归一化、正则表达式归一化中的一种或多种;
将所述归一化结果转换为语义特征,并基于预设分类模型对所述语义特征进行分类。
第二方面,本发明提供一种文本意图识别装置,具有实现对应于上述第一方面提供的文本意图识别平台的方法的功能。所述功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。硬件或软件包括一个或多个与上述功能相对应的模块,所述模块可以是软件和/或硬件。
所述文本意图识别装置包括:
输入输出模块,用于获取待处理的文本信息以及数据库所存储的多个标准句子;
处理模块,用于计算所述多个待处理的文本信息的特征值以及获取所述数据库所存储的多个标准句子的特征值;通过所述多个标准句子的特征值以及获取所述待处理的文本信息的特征值计算多个第一相似度,得到第一相似度集合;提取所述第一相似度集合中最大的所述第一相似度,得到第一目标相似度;判断所述第一目标相似度是否小于阈值;若所述第一目标相似度小于阈值,则将所述多个标准句子的特征值以及所述待处理的文本信息的特征值输入至目标神经网络模型,通过所述目标神经网络模型输出第二相似度集合,所述目标神经网络模型为长短期记忆模型、注意力模型、双向长短期记忆BiLSTM模型以及软最大值Softmax层串联而成的神经网络;通过提取所述第二相似度集合中的元素,得到用户的最终意图。
在一些可能的设计中,所述处理模块还用于:
获取所述待处理的文本信息以及所述数据库所存储的多个标准句子,得到第一矩阵a以及第二矩阵b的集合;
分别将每个所述第二矩阵b与所述第一矩阵a组合成输入信息,将所述输入信息输入至第一神经网络,得到多个所述第一神经网络的第一输出矩阵和所述第一神经网络的第二输出矩阵/>所述第一神经网络模型是指长短期记忆模型;
将所述多个和/>输入至第二神经网络模型,得到所述第二神经网络的第一输出矩阵/>和所述第二神经网络的第二输出矩阵/>所述第二神经网络模型是指注意力Attention模型;
将和/>组合成集合ma和集合mb,所述ma为/>所述mb为
将所述多个集合ma以及对应的集合mb依次输入至第三神经网络模型,通过所述第三神经网络模型输出得到ma对应的概率va和对应的概率vb,所述第三神经网络模型为BiLSTM模型;
将va和vb依次输入池化层,得到第二相似度集合v,所述池化层包括最大池化层以及平均池化层,所述v为{va,vue,va,max,vb,vue,vb,max}。
在一些可能的设计中,所述处理模块还用于:
获取所述多个待处理文本信息中每一个词汇的特征值以及所述多个标准句子的特征值;
通过所述多个待处理文本信息中每一个词汇的特征值将所述多个待处理文本信息映射成多个第一向量;
通过所述多个标准句子的特征值将所述数据库所存储的多个标准句子映射成多个第二向量;
通过计算每一个所述第一向量与所述多个第二向量之间的所述第一相似度,得到多个所述第一相似度;
将所述多个第一相似度按照数值从大到小排序,并提取数值最大的所述第一相似度作为所述第一目标相似度。
在一些可能的设计中,所述处理模块还用于:
通过计算文档词频,所述xa为词汇在所述待处理文本信息中出现的次数,所述xb为所述待处理的文本信息的词数;
通过计算逆文档词频,所述ya为数据库所存储的句子总数,所述yb为数据库所存储包含所述词汇的句子数;
通过TFIDF=TF*IDF计算所述多个待处理文本信息中每一个词汇的特征值以及获取所述多个标准句子的特征值。
在一些可能的设计中,所述处理模块还用于:
获取多个训练数据以及所述训练数据所对应的标注标签;
将所述训练数据以及所述对应的标注标签输入至所述初始神经网络模型;
将所述目标神经网络模型通过训练,得到目标神经网络模型,/>代表根据所述目标神经网络模型神经网络层的多层感知器中第n-1层的输出训练所述目标神经网络模型神经网络层的多层感知器中第n层中第k个神经元得到的权值,/>表示/>相应的偏置,/>表示第i个训练数据输入至所述目标神经网络后在所述目标神经网络模型的第n层的输出,i、j以及k为任意正整数,n为自然数,当n为所述目标神经网络模型的最后一层时,fi n是指所述目标神经网络模型的输出;
将所述目标神经网络模型部署至客户端。
在一些可能的设计中,所述处理模块还用于:
接收用户输入生成的自由文本电子文档;
识别所述自由文本电子文档具有训练作用的文档部分;
识别所述训练作用的文档部分至少一个名词短语终端;
根据每个所述名词短语终端生成双联词的集合;
使用所述双联词来查询数据库中的候选意图;
基于级联的字符来识别所述候选意图;
基于句法、语义和层级特征来选择与所述名词短语终端最相似的所述候选意图。
在一些可能的设计中,所述处理模块还用于:
将所述待处理的文本信息拆分为多个分词;
对所述多个分词进行归一化,并生成所述待处理的文本信息对应的归一化结果,所述归一化至少包括类别归一化、同义词归一化、正则表达式归一化中的一种或多种;
将所述归一化结果转换为语义特征,并基于预设分类模型对所述语义特征进行分类。
本发明又一方面提供了一种文本意图识别设备,其包括至少一个连接的处理器、存储器、输入输出单元,其中,所述存储器用于存储程序代码,所述处理器用于调用所述存储器中的程序代码来执行上述各方面所述的方法。
本发明又一方面提供了一种计算机存储介质,其包括指令,当其在计算机上运行时,使得计算机执行上述各方面所述的方法。
本发明通过采用多模型对话意图识别系统,结合了规则过滤、传统相似度以及深度语义匹配,不仅解决了传统基于字面匹配准确率不高,还加快了深度文本匹配的效率。通过文本检索和传统相似度方法,选择快速匹配并返回,解决一定量的数据需求;当传统相似度方法无法解决的问题,选择用深度语义或文本分类相结合的方式。所采用的方法都是毫秒级返回的高效算法,通过模型融合的方式,相比使用单一模型进行意图识别,可以极大地提高准确度,增强对话系统的智能性。
附图说明
图1为本发明实施例中文本意图识别方法的流程示意图;
图2为本发明实施例中文本意图识别装置的结构示意图;
图3为本发明实施例中文本意图识别设备的结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或模块的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或模块,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或模块,本发明中所出现的模块的划分,仅仅是一种逻辑上的划分,实际应用中实现时可以有另外的划分方式,例如多个模块可以结合成或集成在另一个系统中,或一些特征可以忽略,或不执行。
为解决上述技术问题,本发明主要提供以下技术方案
本发明通过采用多模型对话意图识别系统,结合了规则过滤、传统相似度以及深度语义匹配,不仅解决了传统基于字面匹配准确率不高,还加快了深度文本匹配的效率。通过文本检索和传统相似度方法,选择快速匹配并返回,解决一定量的数据需求;当传统相似度方法无法解决的问题,选择用深度语义或文本分类相结合的方式。所采用的方法都是毫秒级返回的高效算法,通过模型融合的方式,相比使用单一模型进行意图识别,可以极大地提高准确度,增强对话系统的智能性。
请参照图1,以下对本发明提供一种文本意图识别方法进行举例说明,所述方法包括:
101、获取待处理的文本信息以及数据库所存储的多个标准句子。
获取待处理的文本信息以及数据库所存储的多个标准句子之后,进行分词处理,将句子变成多个连接的候选关键词。文本信息是指书面语言的表现形式通常是具有完整、系统含义的一个句子或多个句子的组合。一个文本可以是一个句子、一个段落或者一个篇章。可以是任何由书写所固定下来的任何话语。常见的文本文档的扩展名有.txt、.doc.、.docx、.wps等。
102、计算多个待处理的文本信息的特征值以及获取数据库所存储的多个标准句子的特征值。
例如,用户输入的文本是'要','多长','时间','信用','办理','多久','办好','调整','额度'。
则用户输入的文本所计算特征值为[1.0,0,0,1.0,1.405,1.405,0,1.0,1.0]。
特征是一个客体或一组客体特性的抽象结果。特征是用来描述概念的。任一客体或一组客体都具有众多特性,人们根据客体所共有的特性抽象出某一概念,该概念便成为了特征。特征值若是属于特征向量,则也是对应于的特征向量,因而特征向量不能由特征值惟一确定。反之,不同特征值对应的特征向量不会相等,亦即一个特征向量只能属于一个特征值。
103、通过多个标准句子的特征值以及获取待处理的文本信息的特征值计算多个第一相似度,得到第一相似度集合。
集合是指具有某种特定性质的具体的或抽象的对象汇总而成的集体。其中,构成集合的这些对象则称为该集合的元素。一个集合中,每个元素的地位都是相同的,元素之间是无序的。集合上可以定义序关系,定义了序关系后,元素之间就可以按照序关系排序。但就集合本身的特性而言,元素之间没有必然的序。
104、提取第一相似度集合中最大的第一相似度,得到第一目标相似度。
通过比较相邻的相似度。如果第一个比第二个大,就交换他们两个。对每一对相邻相似度做同样的工作,从开始第一对到结尾的最后一对。在这一点,最后的相似度应该会是最大的数。针对所有的相似度重复以上的步骤,除了最后一个。持续每次对越来越少的相似度重复上面的步骤,直到没有任何一对数字需要比较。从而提取到最大的相似度。
105、判断第一目标相似度是否小于阈值。
若第一目标相似度大于或等于第一阈值,则找到对应第二向量的标准句子,并将第二向量的标准句子所要表达的意图返回给用户。相似度通过测量两个向量的夹角的余弦值来度量它们之间的相似性。0度角的余弦值是1,而其他任何角度的余弦值都不大于1;并且其最小值是-1。从而两个向量之间的角度的余弦值确定两个向量是否大致指向相同的方向。两个向量有相同的指向时,余弦相似度的值为1;两个向量夹角为90°时,余弦相似度的值为0;两个向量指向完全相反的方向时,余弦相似度的值为-1。这结果是与向量的长度无关的,仅仅与向量的指向方向相关。余弦相似度通常用于正空间,因此给出的值为0到1之间。
106、若第一目标相似度小于阈值,则将多个标准句子的特征值以及待处理的文本信息的特征值输入至目标神经网络模型,通过目标神经网络模型输出第二相似度集合。
目标神经网络模型为长短期记忆模型、注意力模型、双向长短期记忆BiLSTM模型以及软最大值Softmax层串联而成的神经网络。
通过模型融合的方式,相比使用单一模型进行意图识别,提高了机器识别的准确度,增强了对话系统的智能性。神经网络的基础在于神经元,神经元是以生物神经系统的神经细胞为基础的生物模型。在人们对生物神经系统进行研究,以探讨人工智能的机制时,把神经元数学化,从而产生了神经元数学模型。大量的形式相同的神经元连结在—起就组成了神经网络。神经网络是一个高度非线性动力学系统。虽然,每个神经元的结构和功能都不复杂,但是神经网络的动态行为则是十分复杂的;因此,用神经网络可以表达实际物理世界的各种现象。神经网络模型是以神经元的数学模型为基础来描述的。人工神经网络,是对人类大脑系统的一阶特性的一种描述。
107、根据第二相似度集合得到用户的最终意图。
通过采用多模型对话意图识别系统,结合了规则过滤、传统相似度以及深度语义匹配,不仅解决了传统基于字面匹配准确率不高,还加快了深度文本匹配的效率。通过文本检索和传统相似度方法,选择快速匹配并返回,解决一定量的数据需求;当传统相似度方法无法解决的问题,选择用深度语义或文本分类相结合的方式。所采用的方法都是毫秒级返回的高效算法,通过模型融合的方式,相比使用单一模型进行意图识别,可以极大地提高准确度,增强对话系统的智能性。
一些实施方式中,若第一目标相似度小于阈值,则将多个标准句子的特征值以及待处理的文本信息的特征值输入至目标神经网络模型,通过目标神经网络模型输出第二相似度集合,包括:
获取待处理的文本信息以及数据库所存储的多个标准句子,得到第一矩阵a以及第二矩阵b的集合;
分别将每个第二矩阵b与第一矩阵a组合成输入信息,将输入信息输入至第一神经网络,得到多个第一神经网络的第一输出矩阵和第一神经网络的第二输出矩阵/>第一神经网络模型是指长短期记忆模型;
将多个和/>输入至第二神经网络模型,得到第二神经网络的第一输出矩阵/>和第二神经网络的第二输出矩阵/>第二神经网络模型是指注意力Attention模型;
将和/>组合成集合ma和集合mb,ma为/>mb为
将多个集合ma以及对应的集合mb依次输入至第三神经网络模型,通过第三神经网络模型输出得到ma对应的概率va和对应的概率vb,第三神经网络模型为BiLSTM模型;
将va和vb依次输入池化层,得到第二相似度集合v,池化层包括最大池化层以及平均池化层,v为{va,vue,va,max,vb,vue,vb,max}。
上述实施方式中,通过结合多种传统相似度模型与深度神经网络模型,并融合多种文本分类模型。通过模型融合的方式,相比使用单一模型进行意图识别,提高了机器识别的准确度,增强了对话系统的智能性。在本文中,我们证明了仅基于序列的顺序匹配模型也可以表现得比所有先前的模型更好,其中包括最先进的基于层级的方法。这表明这种采用顺序匹配的方法在过去尚未得到充分的利用。
一些实施方式中,通过多个标准句子的特征值以及待处理的文本信息的特征值计算多个第一相似度,并提取最大的第一相似度,得到第一目标相似度,包括:
获取多个待处理文本信息中每一个词汇的特征值以及多个标准句子的特征值;
通过多个待处理文本信息中每一个词汇的特征值将多个待处理文本信息映射成多个第一向量;
通过多个标准句子的特征值将数据库所存储的多个标准句子映射成多个第二向量;
通过计算每一个第一向量与多个第二向量之间的第一相似度,得到多个第一相似度;
将多个第一相似度按照数值从大到小排序,并提取数值最大的第一相似度作为第一目标相似度。
上述实施方式中,Ai为第一向量,Bi为第二向量,i为自然数,n为第一向量的个数,在得到上述计算传统的相似度值以后,通过设置合适的阈值来控制是继续后续计算还是直接返回,当传统相似度大于阈值时,直接返回;否则,继续向后计算。弦相似性最常用于高维正空间。例如在信息检索中,每个词项被赋予不同的维度,而一个维度由一个向量表示,其各个维度上的值对应于该词项在文档中出现的频率。余弦相似度因此可以给出两篇文档在其主题方面的相似度。
一些实施方式中,计算多个待处理的文本信息的特征值以及获取数据库所存储的多个标准句子的特征值,包括:
通过计算文档词频,xa为词汇在待处理文本信息中出现的次数,xb为待处理的文本信息的词数;
通过计算逆文档词频,ya为数据库所存储的句子总数,yb为数据库所存储包含词汇的句子数;
通过TFIDF=TF*IDF计算多个待处理文本信息中每一个词汇的特征值以及获取多个标准句子的特征值。
上述实施方式中,文本分类过程中,增加类别关键字的权重,使得文本向量化之后的结果更好的反应文本信息。类别关键词来源于一部分的训练数据以及用户提供,类别关键字的提取利用tfidf算法,可以高效准确的提取关键词的特性,同时兼顾了实际应用场景类别关键词较少的情况,类别关键字提取全面且准确。
一些实施方式中,若第一目标相似度小于阈值,则将多个标准句子的特征值以及待处理的文本信息的特征值输入至目标神经网络模型,通过目标神经网络模型输出第二相似度集合之前,方法还包括:
获取多个训练数据以及训练数据所对应的标注标签;
将训练数据以及对应的标注标签输入至初始神经网络模型;
将目标神经网络模型通过训练,得到目标神经网络模型,/>代表根据目标神经网络模型神经网络层的多层感知器中第n-1层的输出训练目标神经网络模型神经网络层的多层感知器中第n层中第k个神经元得到的权值,/>表示/>相应的偏置,/>表示第i个训练数据输入至目标神经网络后在目标神经网络模型的第n层的输出,i、j以及k为任意正整数,n为自然数,当n为目标神经网络模型的最后一层时,fi n是指目标神经网络模型的输出;
将目标神经网络模型部署至客户端。
上述实施方式中,神经网络是指一种复制这种密集的神经元网络的方法。通过一次处理多个数据流,计算机能够显著减少处理数据所需的时间。将这种技术应用于深度学习已经产生了人工神经网络。这些人工神经网络由输入节点、输出节点和节点层组成。
输入节点,用于接收数据的输入节点。
输出节点,用于输出结果数据。
节点层,用于将从输入节点输入的数据转换为输出节点可以使用的内容。节点层是指在输入节点和输出节点之间的多个隐藏节点,节点层也可以成为隐藏层。当数据通过这些隐藏节点前进时,神经网络使用逻辑来决定将数据传递给下一个隐藏节点。
一些实施方式中,获取多个训练数据以及训练数据所对应的标注标签,包括:
接收用户输入生成的自由文本电子文档;
识别自由文本电子文档具有训练作用的文档部分;
识别训练作用的文档部分至少一个名词短语终端;
根据每个名词短语终端生成双联词的集合;
使用双联词来查询数据库中的候选意图;
基于级联的字符来识别候选意图;
基于句法、语义和层级特征来选择与名词短语终端最相似的候选意图。
上述实施方式中,并且分析与在名词终端内识别的概念内的词语的分级树相比较的表示与每个候选活动意图内的词语相关联的关系的分级树,以评价给定的意图与名词短语终端概念之间的语义相关性。
一些实施方式中,获取待处理的文本信息以及数据库所存储的多个标准句子之后,方法还包括:
将待处理的文本信息拆分为多个分词;
对多个分词进行归一化,并生成待处理的文本信息对应的归一化结果,归一化至少包括类别归一化、同义词归一化、正则表达式归一化中的一种或多种;
将归一化结果转换为语义特征,并基于预设分类模型对语义特征进行分类。
上述实施方式中,通过引入类似归一化指数函数(SoftMax)的计算方式对第一阶段的得分进行数值转换,一方面可以进行归一化,将原始计算分值整理成所有元素权重之和为1的概率分布
如图2所示的一种文本意图识别装置20的结构示意图,其可应用于文本意图识别。本发明实施例中的文本意图识别装置能够实现对应于上述图1所对应的实施例中所执行的文本意图识别方法的步骤。文本意图识别装置20实现的功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。硬件或软件包括一个或多个与上述功能相对应的模块,所述模块可以是软件和/或硬件。所述文本意图识别装置可包括输入输出模块201和处理模块202,所述处理模块202和输入输出模块201的功能实现可参考图1所对应的实施例中所执行的操作,此处不作赘述。输入输出模块201可用于控制所述输入输出模块201的输入、输出以及获取操作。
一些实施方式中,所述输入输出模块201可用于获取待处理的文本信息以及数据库所存储的多个标准句子;
所述处理模块202可用于计算所述多个待处理的文本信息的特征值以及获取所述数据库所存储的多个标准句子的特征值;通过所述多个标准句子的特征值以及获取所述待处理的文本信息的特征值计算多个第一相似度,得到第一相似度集合;提取所述第一相似度集合中最大的所述第一相似度,得到第一目标相似度;判断所述第一目标相似度是否小于阈值;若所述第一目标相似度小于阈值,则将所述多个标准句子的特征值以及所述待处理的文本信息的特征值输入至目标神经网络模型,通过所述目标神经网络模型输出第二相似度集合,所述目标神经网络模型为长短期记忆模型、注意力模型、双向长短期记忆BiLSTM模型以及软最大值Softmax层串联而成的神经网络;通过提取所述第二相似度集合中的元素,得到用户的最终意图。
一些实施方式中,所述处理模块202还用于:
获取所述待处理的文本信息以及所述数据库所存储的多个标准句子,得到第一矩阵a以及第二矩阵b的集合;
分别将每个所述第二矩阵b与所述第一矩阵a组合成输入信息,将所述输入信息输入至第一神经网络,得到多个所述第一神经网络的第一输出矩阵和所述第一神经网络的第二输出矩阵/>所述第一神经网络模型是指长短期记忆模型;
将所述多个和/>输入至第二神经网络模型,得到所述第二神经网络的第一输出矩阵/>和所述第二神经网络的第二输出矩阵/>所述第二神经网络模型是指注意力Attention模型;
将和/>组合成集合ma和集合mb,所述ma为/>所述mb为
将所述多个集合ma以及对应的集合mb依次输入至第三神经网络模型,通过所述第三神经网络模型输出得到ma对应的概率va和对应的概率vb,所述第三神经网络模型为BiLSTM模型;
将va和vb依次输入池化层,得到第二相似度集合v,所述池化层包括最大池化层以及平均池化层,所述v为{va,vue,va,max,vb,vue,vb,max}。
一些实施方式中,所述处理模块202还用于:
获取所述多个待处理文本信息中每一个词汇的特征值以及所述多个标准句子的特征值;
通过所述多个待处理文本信息中每一个词汇的特征值将所述多个待处理文本信息映射成多个第一向量;
通过所述多个标准句子的特征值将所述数据库所存储的多个标准句子映射成多个第二向量;
通过计算每一个所述第一向量与所述多个第二向量之间的所述第一相似度,得到多个所述第一相似度;
将所述多个第一相似度按照数值从大到小排序,并提取数值最大的所述第一相似度作为所述第一目标相似度。
一些实施方式中,所述处理模块202还用于:
通过计算文档词频,所述xa为词汇在所述待处理文本信息中出现的次数,所述xb为所述待处理的文本信息的词数;
通过计算逆文档词频,所述ya为数据库所存储的句子总数,所述yb为数据库所存储包含所述词汇的句子数;
通过TFIDF=TF*IDF计算所述多个待处理文本信息中每一个词汇的特征值以及获取所述多个标准句子的特征值。
一些实施方式中,所述处理模块202还用于:
获取多个训练数据以及所述训练数据所对应的标注标签;
将所述训练数据以及所述对应的标注标签输入至所述初始神经网络模型;
将所述目标神经网络模型通过训练,得到目标神经网络模型,/>代表根据所述目标神经网络模型神经网络层的多层感知器中第n-1层的输出训练所述目标神经网络模型神经网络层的多层感知器中第n层中第k个神经元得到的权值,/>表示/>相应的偏置,fi n表示第i个训练数据输入至所述目标神经网络后在所述目标神经网络模型的第n层的输出,i、j以及k为任意正整数,n为自然数,当n为所述目标神经网络模型的最后一层时,fi n是指所述目标神经网络模型的输出;
将所述目标神经网络模型部署至客户端。
一些实施方式中,所述处理模块202还用于:
接收用户输入生成的自由文本电子文档;
识别所述自由文本电子文档具有训练作用的文档部分;
识别所述训练作用的文档部分至少一个名词短语终端;
根据每个所述名词短语终端生成双联词的集合;
使用所述双联词来查询数据库中的候选意图;
基于级联的字符来识别所述候选意图;
基于句法、语义和层级特征来选择与所述名词短语终端最相似的候选意图。
一些实施方式中,所述处理模块202还用于:
将所述待处理的文本信息拆分为多个分词;
对所述多个分词进行归一化,并生成所述待处理的文本信息对应的归一化结果,所述归一化至少包括类别归一化、同义词归一化、正则表达式归一化中的一种或多种;
将所述归一化结果转换为语义特征,并基于预设分类模型对所述语义特征进行分类。
上面从模块化功能实体的角度分别介绍了本发明实施例中的文本意图识别装置,以下从硬件角度介绍一种文本意图识别设备,如图3所示,其包括:处理器、存储器、输入输出单元(也可以是收发器,图3中未标识出)以及存储在所述存储器中并可在所述处理器上运行的计算机程序。例如,该计算机程序可以为图1所对应的实施例中文本意图识别方法对应的程序。例如,当计算机设备实现如图2所示的文本意图识别装置20的功能时,所述处理器执行所述计算机程序时实现上述图2所对应的实施例中由文本意图识别装置20执行的文本意图识别方法中的各步骤。或者,所述处理器执行所述计算机程序时实现上述图2所对应的实施例的文本意图识别装置20中各模块的功能。又例如,该计算机程序可以为图1所对应的实施例中文本意图识别方法对应的程序。
所称处理器可以是中央处理单元(central processing unit,CPU),还可以是其他通用处理器、数字信号处理器(digital signal processor,DSP)、专用集成电路(application specific integrated circuit,ASIC)、现成可编程门阵列(field-programmable gate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器是所述计算机装置的控制中心,利用各种接口和线路连接整个计算机装置的各个部分。
所述存储器可用于存储所述计算机程序和/或模块,所述处理器通过运行或执行存储在所述存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现所述计算机装置的各种功能。所述存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、视频数据等)等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(smart media card,SMC),安全数字(secure digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
所述输入输出单元也可以用接收器和发送器代替,可以为相同或者不同的物理实体。为相同的物理实体时,可以统称为输入输出单元。该输入输出可以为收发器。
所述存储器可以集成在所述处理器中,也可以与所述处理器分开设置。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,这些均属于本发明的保护之内。
Claims (9)
1.一种文本意图识别方法,其特征在于,所述方法包括:
获取待处理的文本信息以及数据库所存储的多个标准句子;
计算所述多个待处理的文本信息的特征值以及获取所述数据库所存储的多个标准句子的特征值;
通过所述多个标准句子的特征值以及获取所述待处理的文本信息的特征值计算多个第一相似度,得到第一相似度集合;
提取所述第一相似度集合中最大的所述第一相似度,得到第一目标相似度;
判断所述第一目标相似度是否小于阈值;
若所述第一目标相似度小于阈值,则将所述多个标准句子的特征值以及所述待处理的文本信息的特征值输入至目标神经网络模型,通过所述目标神经网络模型输出第二相似度集合,所述目标神经网络模型为长短期记忆模型、注意力模型、双向长短期记忆BiLSTM模型以及软最大值Softmax层串联而成的神经网络;
所述若所述第一目标相似度小于阈值,则将所述多个标准句子的特征值以及所述待处理的文本信息的特征值输入至目标神经网络模型,通过所述目标神经网络模型输出第二相似度集合,包括:
获取所述待处理的文本信息以及所述数据库所存储的多个标准句子,得到第一矩阵以及第二矩阵/>的集合;
分别将每个所述第二矩阵与所述第一矩阵/>组合成输入信息,将所述输入信息输入至第一神经网络,得到多个所述第一神经网络的第一输出矩阵/>和所述第一神经网络的第二输出矩阵/>,所述第一神经网络模型是指长短期记忆模型;
将所述多个和/>输入至第二神经网络模型,得到所述第二神经网络的第一输出矩阵和所述第二神经网络的第二输出矩阵/>,所述第二神经网络模型是指注意力Attention模型;
将、/>、/>和/>组合成集合/>和集合/>,所述/>为/>,所述/>为;
将所述集合以及对应的集合/>依次输入至第三神经网络模型,通过所述第三神经网络模型输出得到/>对应的概率/>和/>对应的概率/>,所述第三神经网络模型为BiLSTM模型;
将和/>依次输入池化层,得到第二相似度集合v,所述池化层包括最大池化层以及平均池化层,所述v为{/>};
通过提取所述第二相似度集合中的元素,得到用户的最终意图。
2.根据权利要求1所述的方法,其特征在于,所述通过所述多个标准句子的特征值以及所述待处理的文本信息的特征值计算多个第一相似度,并提取最大的所述第一相似度,得到第一目标相似度,包括:
获取所述多个待处理文本信息中每一个词汇的特征值以及所述多个标准句子的特征值;
通过所述多个待处理文本信息中每一个词汇的特征值将所述多个待处理文本信息映射成多个第一向量;
通过所述多个标准句子的特征值将所述数据库所存储的多个标准句子映射成多个第二向量;
通过计算每一个所述第一向量与所述多个第二向量之间的所述第一相似度,得到多个所述第一相似度;
将所述多个第一相似度按照数值从大到小排序,并提取数值最大的所述第一相似度作为所述第一目标相似度。
3.根据权利要求1所述的方法,其特征在于,所述计算所述多个待处理的文本信息的特征值以及获取所述数据库所存储的多个标准句子的特征值,包括:
通过计算文档词频,所述/>为词汇在所述待处理文本信息中出现的次数,所述/>为所述待处理的文本信息的词数;
通过计算逆文档词频,所述/>为数据库所存储的句子总数,所述/>为数据库所存储包含所述词汇的句子数;
通过计算所述多个待处理文本信息中每一个词汇的特征值以及获取所述多个标准句子的特征值。
4.根据权利要求1所述的方法,其特征在于,所述若所述第一目标相似度小于阈值,则将所述多个标准句子的特征值以及所述待处理的文本信息的特征值输入至目标神经网络模型,通过所述目标神经网络模型输出第二相似度集合之前,所述方法还包括:
获取多个训练数据以及所述训练数据所对应的标注标签;
将所述训练数据以及所述对应的标注标签输入至初始神经网络模型;
将所述初始神经网络模型通过训练,得到目标神经网络模型,/>代表根据所述目标神经网络模型神经网络层的多层感知器中第n-1层的输出训练所述目标神经网络模型神经网络层的多层感知器中第n层中第k个神经元得到的权值,/>表示/>相应的偏置,/>表示第i个训练数据输入至所述目标神经网络后在所述目标神经网络模型的第n层的输出,i、j以及k为任意正整数,n为自然数,当n为所述目标神经网络模型的最后一层时,/>是指所述目标神经网络模型的输出;
将所述目标神经网络模型部署至客户端。
5.根据权利要求4所述的方法,其特征在于,所述获取多个训练数据以及所述训练数据所对应的标注标签,包括:
接收用户输入生成的自由文本电子文档;
识别所述自由文本电子文档具有训练作用的文档部分;
识别所述训练作用的文档部分至少一个名词短语终端;
根据每个所述名词短语终端生成双联词的集合;
使用所述双联词来查询数据库中的候选意图;
基于级联的字符来识别所述候选意图;
基于句法、语义和层级特征来选择与所述名词短语终端最相似的所述候选意图。
6.根据权利要求1-5中任一项所述的方法,其特征在于,所述获取待处理的文本信息以及数据库所存储的多个标准句子之后,所述方法还包括:
将所述待处理的文本信息拆分为多个分词;
对所述多个分词进行归一化,并生成所述待处理的文本信息对应的归一化结果,所述归一化至少包括类别归一化、同义词归一化、正则表达式归一化中的一种或多种;
将所述归一化结果转换为语义特征,并基于预设分类模型对所述语义特征进行分类。
7.一种文本意图识别装置,执行如权利要求1所述的方法,其特征在于,所述装置包括:
输入输出模块,用于获取待处理的文本信息以及数据库所存储的多个标准句子;
处理模块,用于计算所述多个待处理的文本信息的特征值以及获取所述数据库所存储的多个标准句子的特征值;通过所述多个标准句子的特征值以及获取所述待处理的文本信息的特征值计算多个第一相似度,得到第一相似度集合;提取所述第一相似度集合中最大的所述第一相似度,得到第一目标相似度;判断所述第一目标相似度是否小于阈值;若所述第一目标相似度小于阈值,则将所述多个标准句子的特征值以及所述待处理的文本信息的特征值输入至目标神经网络模型,通过所述目标神经网络模型输出第二相似度集合,所述目标神经网络模型为长短期记忆模型、注意力模型、双向长短期记忆BiLSTM模型以及软最大值Softmax层串联而成的神经网络;通过提取所述第二相似度集合中的元素,得到用户的最终意图。
8.一种计算机设备,其特征在于,所述计算机设备包括:
至少一个处理器、存储器和输入输出单元;
其中,所述存储器用于存储程序代码,所述处理器用于调用所述存储器中存储的程序代码来执行如权利要求1-6中任一项所述的方法。
9.一种计算机存储介质,其特征在于,其包括指令,当其在计算机上运行时,使得计算机执行如权利要求1-6中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010033742.XA CN111221944B (zh) | 2020-01-13 | 2020-01-13 | 文本意图识别方法、装置、设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010033742.XA CN111221944B (zh) | 2020-01-13 | 2020-01-13 | 文本意图识别方法、装置、设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111221944A CN111221944A (zh) | 2020-06-02 |
CN111221944B true CN111221944B (zh) | 2024-04-23 |
Family
ID=70829511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010033742.XA Active CN111221944B (zh) | 2020-01-13 | 2020-01-13 | 文本意图识别方法、装置、设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111221944B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113961698A (zh) * | 2020-07-15 | 2022-01-21 | 上海乐言信息科技有限公司 | 基于神经网络模型的意图分类方法、系统、终端及介质 |
CN111930854B (zh) * | 2020-10-10 | 2021-01-08 | 北京福佑多多信息技术有限公司 | 意图预测的方法及装置 |
CN111930921B (zh) * | 2020-10-10 | 2021-01-22 | 南京福佑在线电子商务有限公司 | 意图预测的方法及装置 |
CN112256886B (zh) * | 2020-10-23 | 2023-06-27 | 平安科技(深圳)有限公司 | 图谱中的概率计算方法、装置、计算机设备及存储介质 |
CN112417855A (zh) * | 2020-11-20 | 2021-02-26 | 平安科技(深圳)有限公司 | 文本意图识别方法、装置以及相关设备 |
CN114580426A (zh) * | 2020-12-01 | 2022-06-03 | 阿里巴巴集团控股有限公司 | 用户意图识别方法、交互方法、装置、系统、设备和介质 |
CN112507704B (zh) * | 2020-12-15 | 2023-10-03 | 中国联合网络通信集团有限公司 | 多意图识别方法、装置、设备及存储介质 |
CN113204972A (zh) * | 2021-03-29 | 2021-08-03 | 联想(北京)有限公司 | 一种信息识别方法及装置 |
CN113420541A (zh) * | 2021-07-16 | 2021-09-21 | 四川医枢科技有限责任公司 | 一种信息处理方法、装置、设备及存储介质 |
CN117252539A (zh) * | 2023-09-20 | 2023-12-19 | 广东筑小宝人工智能科技有限公司 | 基于神经网络的工程标准规范获取方法及系统 |
CN118195562B (zh) * | 2024-05-16 | 2024-09-20 | 乐麦信息技术(杭州)有限公司 | 基于自然语义分析的入职意愿评估方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108319630A (zh) * | 2017-07-05 | 2018-07-24 | 腾讯科技(深圳)有限公司 | 信息处理方法、装置、存储介质和计算机设备 |
CN109857844A (zh) * | 2018-12-29 | 2019-06-07 | 北京三快在线科技有限公司 | 基于点餐对话文本的意图识别方法、装置、电子设备 |
CN110232114A (zh) * | 2019-05-06 | 2019-09-13 | 平安科技(深圳)有限公司 | 语句意图识别方法、装置及计算机可读存储介质 |
CN110457689A (zh) * | 2019-07-26 | 2019-11-15 | 科大讯飞(苏州)科技有限公司 | 语义处理方法及相关装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016151699A1 (ja) * | 2015-03-20 | 2016-09-29 | 株式会社 東芝 | 学習装置、方法およびプログラム |
-
2020
- 2020-01-13 CN CN202010033742.XA patent/CN111221944B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108319630A (zh) * | 2017-07-05 | 2018-07-24 | 腾讯科技(深圳)有限公司 | 信息处理方法、装置、存储介质和计算机设备 |
CN109857844A (zh) * | 2018-12-29 | 2019-06-07 | 北京三快在线科技有限公司 | 基于点餐对话文本的意图识别方法、装置、电子设备 |
CN110232114A (zh) * | 2019-05-06 | 2019-09-13 | 平安科技(深圳)有限公司 | 语句意图识别方法、装置及计算机可读存储介质 |
CN110457689A (zh) * | 2019-07-26 | 2019-11-15 | 科大讯飞(苏州)科技有限公司 | 语义处理方法及相关装置 |
Non-Patent Citations (1)
Title |
---|
基于CNN和BiLSTM的短文本相似度计算方法;郭浩;许伟;卢凯;唐球;;信息技术与网络安全;20190610(第06期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111221944A (zh) | 2020-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111221944B (zh) | 文本意图识别方法、装置、设备和存储介质 | |
Sohangir et al. | Big Data: Deep Learning for financial sentiment analysis | |
CN107085581B (zh) | 短文本分类方法和装置 | |
CN113239700A (zh) | 改进bert的文本语义匹配设备、系统、方法及存储介质 | |
CN112131350B (zh) | 文本标签确定方法、装置、终端及可读存储介质 | |
CN111325029B (zh) | 一种基于深度学习集成模型的文本相似度计算方法 | |
CN104834747A (zh) | 基于卷积神经网络的短文本分类方法 | |
CN112115716A (zh) | 一种基于多维词向量下文本匹配的服务发现方法、系统及设备 | |
CN112580352B (zh) | 关键词提取方法、装置和设备及计算机存储介质 | |
CN112395875A (zh) | 一种关键词提取方法、装置、终端以及存储介质 | |
CN113761868B (zh) | 文本处理方法、装置、电子设备及可读存储介质 | |
CN111859983B (zh) | 基于人工智能的自然语言标注方法及相关设备 | |
CN111737997A (zh) | 一种文本相似度确定方法、设备及储存介质 | |
CN111611807A (zh) | 一种基于神经网络的关键词提取方法、装置及电子设备 | |
CN111460783B (zh) | 一种数据处理方法、装置、计算机设备及存储介质 | |
CN113254655B (zh) | 文本分类方法、电子设备及计算机存储介质 | |
VeeraSekharReddy et al. | An attention based bi-LSTM DenseNet model for named entity recognition in english texts | |
CN116304748A (zh) | 一种文本相似度计算方法、系统、设备及介质 | |
Köksal et al. | Improving automated Turkish text classification with learning‐based algorithms | |
CN115203388A (zh) | 机器阅读理解方法、装置、计算机设备和存储介质 | |
Yildiz | A comparative study of author gender identification | |
CN111460808B (zh) | 同义文本识别及内容推荐方法、装置及电子设备 | |
CN113869068A (zh) | 场景服务推荐方法、装置、设备及存储介质 | |
Tian et al. | Chinese short text multi-classification based on word and part-of-speech tagging embedding | |
CN111553167A (zh) | 文本类型识别方法和装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |