CN111859988A - 一种语义相似度评价方法、装置和计算机可读存储介质 - Google Patents
一种语义相似度评价方法、装置和计算机可读存储介质 Download PDFInfo
- Publication number
- CN111859988A CN111859988A CN202010755249.9A CN202010755249A CN111859988A CN 111859988 A CN111859988 A CN 111859988A CN 202010755249 A CN202010755249 A CN 202010755249A CN 111859988 A CN111859988 A CN 111859988A
- Authority
- CN
- China
- Prior art keywords
- word vectors
- sentences
- lstm
- semantic similarity
- similarity evaluation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 69
- 239000013598 vector Substances 0.000 claims abstract description 80
- 238000012545 processing Methods 0.000 claims abstract description 42
- 238000000034 method Methods 0.000 claims abstract description 31
- 230000015654 memory Effects 0.000 claims abstract description 28
- 210000002569 neuron Anatomy 0.000 claims abstract description 19
- 238000013528 artificial neural network Methods 0.000 claims abstract description 15
- 238000004590 computer program Methods 0.000 claims description 9
- 230000001502 supplementing effect Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005303 weighing Methods 0.000 description 2
- 206010041349 Somnolence Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例提供一种语义相似度评价方法、装置和计算机可读存储介质,该方法包括获取两个语句;将所述两个语句分别输入到孪生网络中的不同网络进行处理,获得所述两个语句对应的两个词向量;通过具有多层神经元的长短期记忆人工神经网络M‑LSTM,对所述两个词向量进行处理,获得所述两个语句之间的语义相似度评价结果。本申请实施例方法通过将两个语句输入到孪生网络中,分别输出对应的词向量,再将词向量输入到M‑LSTM中处理,输出两个语句之间的语义相似度评价结果,能够提高语义相似度评价的效率和准确率。
Description
技术领域
本申请涉及文本处理领域,具体而言,涉及一种语义相似度评价方法、装置和计算机可读存储介质。
背景技术
近年来随着人工智能(Artificial Intelligence,AI)特别是神经语言程序学技术的迅猛发展,自然语言处理技术(Natural Language Processing,NLP)有了更多的落地应用场景。其中,语义文本相似度是NLP算法中比较核心的内容,它通过比较句子间的潜在语义表达进行建模,可以实现较好的效果,且应用广泛,如信息检索、文本分类、问答系统、情感分析、机器翻译等。
目前现有的语义文本相似度采用孪生网络(Siamese Network)和长短期记忆人工神经网络(Long Short-Term Memory,LSTM)结合的结构,这种结构的使用性能欠佳。
因此,如何提高语义相似度评价的效率和准确率成为亟待解决的问题。
发明内容
本申请提供一种语义相似度评价方法、装置和计算机可读存储介质,能够提高语义相似度评价的效率和准确率。
第一方面,一种语义相似度评价方法,包括:
获取两个语句;
将所述两个语句分别输入到孪生网络中的不同网络进行处理,获得所述两个语句对应的两个词向量;
通过具有多层神经元的长短期记忆人工神经网络(M-LSTM),对所述两个词向量进行处理,获得所述两个语句之间的语义相似度评价结果。
因此,通过获取两个语句,将两个语句输入到孪生神经网络中,输出词向量,然后将词向量输入M-LSTM到中,输出两个语句之间的语义相似度评价结果,能够实现孪生神经网络与M-LSTM相结合,对于语义相似度进行评价,从而能得到较好的皮尔逊相关系数、秩相关系数和均方误差等衡量结果,从而提高语义相似度评价的效率和准确率。
结合第一方面,在一种实施方式中,在所述通过具有多层神经元的长短期记忆人工神经网络M-LSTM,对所述两个词向量进行处理之前,所述方法还包括:
建立所述M-LSTM,其中,所述M-LSTM中神经元层数的取值范围在40至60之间。
因此,建立M-LSTM模型,且神经元层数在40至60之间,能够提高语义相似度评价的效率和准确率。
结合第一方面,在另一种实施方式中,所述M-LSTM的偏移量取值范围在2至2.5之间,学习率的取值范围在0.001至0.01之间。
因此,通过对偏移量和学习率的参数设置,能够使M-LSTM快速收敛,是的整个模型的运行时间短,效率高。
结合第一方面,在另一种实施方式中,所述通过具有多层神经元的长短期记忆人工神经网络M-LSTM所述两个词向量进行处理,获得所述两个语句之间的语义相似度评价结果,包括:
在所述两个词向量存在长度不等于预设阈值的情况,对所述两个词向量进行剪切或补充处理,获得处理后的两个词向量,其中,所述处理后的两个词向量的长度均等于所述预设阈值;
将所述处理后的两个词向量输入到所述M-LSTM进行处理,获得所述两个语句之间的语义相似度评价结果。
因此,通过将两个语句转化为对应的词向量,再将每个词向量和阈值进行比较,将词向量补充或者切分到阈值的范围内,固定每个词向量的长度,从而提高语义相似度的评价准确度。
第二方面,一种语义相似度评价装置,包括:
获取单元,用于获取两个语句;
处理单元,用于将所述两个语句分别输入到孪生网络中的不同网络进行处理,获得所述两个语句对应的两个词向量;
评价单元,用于通过具有多层神经元的长短期记忆人工神经网络M-LSTM,对所述两个词向量进行处理,获得所述两个语句之间的语义相似度评价结果。
结合第二方面,在一种实施方式中,所述评价单元具体用于:
建立所述M-LSTM,其中,所述M-LSTM中神经元层数的取值范围在40至60之间。
结合第二方面,在另一种实施方式中,所述M-LSTM的偏移量取值范围在2至2.5之间,学习率的取值范围在0.001至0.01之间。
结合第二方面,在另一种实施方式中,所述处理单元还用于:
在所述两个词向量存在长度不等于预设阈值的情况,对所述两个词向量进行剪切或补充处理,获得处理后的两个词向量,其中,所述处理后的两个词向量的长度均等于所述预设阈值;
将所述处理后的两个词向量输入到所述M-LSTM进行处理,获得所述两个语句之间的语义相似度评价结果。
第三方面,一种电子设备,包括:
处理器、存储器和总线,所述处理器通过所述总线与所述存储器相连,所述存储器存储有计算机可读取指令,当所述计算机可读取指令由所述处理器执行时,用于实现第一方面以及第一方面的所有实施方式中任一所述的语义相似度评价方法。
第四方面,一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被服务器执行时,用于实现第一方面以及第一方面的所有实施方式中任一所述的语义相似度评价方法。
本申请将上述的语义相似度评价方法,与其他同样使用曼哈顿距离计算语义相似度的方法,例如:门控循环单元(Gate Recurrent Unit,GRU)、LSTM等,使用同样的公开数据集进行语义相似度计算,通过皮尔逊相关系数,秩相关系数和均方误差3个衡量指标进行评判,结果显示,本申请中语义相似度评价方法的上述衡量指标分别为0.7374、0.6024、0.5093,使用GRU计算语义相似度的上述衡量指标分别为0.6561、0.5326、0.6616,使用LSTM计算语义相似度的上述衡量指标分别为0.6131、0.4906、0.7526,因此,本申请中的语义相似度评价方法的3个衡量指标,均优于其他语义相似度评价方法,因此,有更好的评价结果。
因此,通过获取两个语句,将两个语句输入到孪生神经网络中,输出词向量,然后将词向量输入M-LSTM到中,输出两个语句之间的语义相似度评价结果,能够实现孪生神经网络与M-LSTM相结合,对于语义相似度进行评价,从而能得到较好的皮尔逊相关系数、秩相关系数和均方误差等衡量结果,从而提高语义相似度评价的效率和准确率。
为使本申请的上述目的、特征和优点能更明显易懂,下文将列举实施例,并配合所附附图,作详细说明如下。
附图说明
图1是本申请实施例示出的一种语义相似度评价方法的整体流程图;
图2是本申请实施例示出的语义相似度评价具体步骤示意图;
图3是本申请实施例示出的一种语义相似度评价装置的内部单元图;
图4是本申请实施例示出的一种电子设备内部单元图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅仅是本申请的一部分实施例,而不是全部实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对附图中提供的本申请的实施例的详情描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护范围。
下面将结合附图,对本申请实施例中的技术方案进行描述。
已有方案中,语义文本相似度采用Siamese Network和LSTM结合的结构,这种结构的使用性能欠佳。因此,如何提高语义文本相似度的评价性能成为亟待解决的问题。
鉴于上述情况,本申请实施例提供了一种语义相似度评价方法、装置和计算机可读存储介质,获取两个语句;将所述两个语句分别输入到孪生网络中的不同网络进行处理,获得所述两个语句对应的两个词向量;通过M-LSTM,对所述两个词向量进行处理,获得所述两个语句之间的语义相似度评价结果,本申请实施例通过,针对语义文本的相似度评价,采用了孪生网络和M-LSTM结合,解决了上述问题。
下面结合图1的例子,详细描述本申请实施例中的语义相似度评价方法,如图1所示,包括:
110,获取两个语句。
具体的,服务器获取用户或者工作人员输入的两个语句,例如:“我要去睡觉了”和“我太困了,我要休息了”。
120,将所述两个语句分别输入到孪生网络中的不同网络进行处理,获得所述两个语句对应的两个词向量。
具体的,在将两个语句分别输入到孪生网络中的不同网络进行处理之前,服务器还构建了孪生网络。
具体的,服务器分别将两个语句输入到孪生网络中,孪生网络进行参数共享,在孪生网络中进行运行之后,输出两个语句分别对应的词向量。
例如:服务器获取两个语句,分别是A和B,将这两个语句分别输入到孪生网络中,在孪生网络中运行,输出A和B各自对应的词向量A1和B1。
因此,通过将所述两个语句分别输入到孪生网络中的不同网络进行处理,能够获得所述两个语句对应的两个词向量。
130,通过M-LSTM,对所述两个词向量进行处理,获得所述两个语句之间的语义相似度评价结果。
具体的,在上面的描述中,两个语句有了各自对应的等于预设阈值的词向量。
具体的,在将每个所述词向量输入M-LSTM进行处理之前,在所述两个词向量存在长度不等于预设阈值的情况,对所述两个词向量进行剪切或补充处理,获得处理后的两个词向量,其中,所述处理后的两个词向量的长度均等于所述预设阈值;将所述处理后的两个词向量输入到所述M-LSTM进行处理,获得所述两个语句之间的语义相似度评价结果。
例如:预设阈值的取值为25字节,词向量a的长度为10字节,由于小于20至30的取值范围,所以通过填0的方法将长度补充到25字节;词向量的长度为40字节,由于大于20至30的取值范围,通过切分的方式将多余的部分除去。
应理解,预设阈值的取值包括20和30,阈值可以取20、25或30。
具体的,在将每个所述词向量输入M-LSTM进行处理之前,需要建立M-LSTM,分别将词向量输入M-LSTM进行处理,其中,M-LSTM中的神经元层数的取值范围在40至60之间。同时,本申请实施例中还通过Adadelta算法来使各个参数保持最优。
应理解,M-LSTM中的神经元层数的取值包括40和60,可以是50,也可以是40或60。
具体的,M-LSTM的偏移量取值范围在2至2.5之间,学习率的取值范围在0.001至0.01之间。
应理解,偏移量表示两个词向量之间的长距离依赖性,取值范围在2至2.5之间,其中,偏移量的取值包括2和2.5。
应理解,学习率是模型中影响模型收敛到局部最小值的重要参数,学习率越低,模型沿梯度下降的速度越慢,模型会用更长的时间收敛,所以,本申请实施例中学习率的取值范围在0.001至0.01之间,其中,学习率的取值包括0.001和0.01。
例如:如图2所示,其中包含有语句A211、语句B212、孪生网络A221、孪生网络B222、词向量A231、词向量B232、M-LSTM 240和语义相似度评价结果250。语句A和语句B分别进入孪生网络A和孪生网络B,分别输出词向量A和词向量B后,词向量A和词向量B进入到M-LSTM模型中,输出语义相似度评价结果。
因此,本申请实施例建立M-LSTM模型,且神经元层数在40至60之间,能够提高语义相似度评价的效率和准确率;通过对偏移量和学习率的参数设置,能够使多M-LSTM快速收敛,是的整个模型的运行时间短,效率高。通过将两个语句转化为对应的词向量,再将每个词向量和预设阈值进行比较,将词向量补充或者切分到预设阈值的范围内,固定每个词向量的长度,从而提高语义相似度的评价准确度。
上文描述了本申请实施例的一种语义相似度评价方法,下面结合图3详细描述本申请实施例的一种语义相似度评价装置内部单元,结合图4详细描述本申请实施例的一种电子设备。
如图3所示,图3示出了根据本申请实施例一种语义相似度评价装置300,具体的,该装置包括获取单元310、处理单元320和评价单元330。
具体的,获取单元,用于获取两个语句;处理单元,用于将所述两个语句分别输入到孪生网络中的不同网络进行处理,获得所述两个语句对应的两个词向量;评价单元,用于通过具有多层神经元的长短期记忆人工神经网络M-LSTM,对所述两个词向量进行处理,获得所述两个语句之间的语义相似度评价结果。
在一种实施方式中,所述评价单元具体用于:
建立所述M-LSTM,其中,所述M-LSTM中神经元层数的取值范围在40至60之间。
在另一种实施方式中,所述M-LSTM的偏移量取值范围在2至2.5之间,学习率的取值范围在0.001至0.01之间。
在另一种实施方式中,所述处理单元还用于:
在所述两个词向量存在长度不等于预设阈值的情况,对所述两个词向量进行剪切或补充处理,获得处理后的两个词向量,其中,所述处理后的两个词向量的长度均等于所述预设阈值;
将所述处理后的两个词向量输入到所述M-LSTM进行处理,获得所述两个语句之间的语义相似度评价结果。
应理解,图3所示的语义相似度评价装置能够实现图1、图2方法实施例中的各个过程,为了实现图1、图2中的方法实施例中的相应流程。具体可参见上述方法实施例中的描述,为避免重复,此处适当省略详细描述。
本申请实施例还提供,一种电子设备,包括:
处理器、存储器和总线,所述处理器通过所述总线与所述存储器相连,所述存储器存储有计算机可读取指令,当所述计算机可读取指令由所述处理器执行时,用于处理实现上述实施例中任一所述方法。
图4示出了本申请实施例提供的一种电子设备的结构框图,如图4所示。一种电子设备400可以包括处理器410、存储器420和至少一个总线430。其中,总线用于实现这些组件直接的连接通信。其中,本申请实施例中处理器可以是一种集成电路芯片,具有信号的处理能力。上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器可以是,但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-Only Memory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。存储器中存储有计算机可读取指令,当所述计算机可读取指令由所述处理器执行时,计算机设备可以执行上述图1、图2方法实施例中的各个步骤。
可以理解,图4所示的结构仅为示意,所述电子设备还可包括比图4中所示更多或者更少的组件,或者具有与图4所示不同的配置。图4中所示的各组件可以采用硬件、软件或其组合实现。
本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被服务器执行时实现上述任一方法实施例的方法,具体可参见上述方法实施例中的描述,为避免重复,此处适当省略详细描述。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于装置类实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应所述以权利要求的保护范围为准。
Claims (10)
1.一种语义相似度评价方法,其特征在于,包括:
获取两个语句;
将所述两个语句分别输入到孪生网络中的不同网络进行处理,获得所述两个语句对应的两个词向量;
通过具有多层神经元的长短期记忆人工神经网络M-LSTM,对所述两个词向量进行处理,获得所述两个语句之间的语义相似度评价结果。
2.根据权利要求1所述的方法,其特征在于,在所述通过具有多层神经元的长短期记忆人工神经网络M-LSTM,对所述两个词向量进行处理之前,所述方法还包括:
建立所述M-LSTM,其中,所述M-LSTM中神经元层数的取值范围在40至60之间。
3.根据权利要求2所述的方法,其特征在于,
所述M-LSTM的偏移量取值范围在2至2.5之间,学习率的取值范围在0.001至0.01之间。
4.根据权利要求1至3任一项所述的方法,其特征在于,所述通过具有多层神经元的长短期记忆人工神经网络M-LSTM所述两个词向量进行处理,获得所述两个语句之间的语义相似度评价结果,包括:
在所述两个词向量存在长度不等于预设阈值的情况,对所述两个词向量进行剪切或补充处理,获得处理后的两个词向量,其中,所述处理后的两个词向量的长度均等于所述预设阈值;
将所述处理后的两个词向量输入到所述M-LSTM进行处理,获得所述两个语句之间的语义相似度评价结果。
5.一种语义相似度评价装置,其特征在于,包括:
获取单元,用于获取两个语句;
处理单元,用于将所述两个语句分别输入到孪生网络中的不同网络进行处理,获得所述两个语句对应的两个词向量;
评价单元,用于通过具有多层神经元的长短期记忆人工神经网络M-LSTM,对所述两个词向量进行处理,获得所述两个语句之间的语义相似度评价结果。
6.根据权利要求5所述的装置,其特征在于,所述评价单元具体用于:
建立所述M-LSTM,其中,所述M-LSTM中神经元层数的取值范围在40至60之间。
7.根据权利要求6所述的装置,其特征在于,
所述M-LSTM的偏移量取值范围在2至2.5之间,学习率的取值范围在0.001至0.01之间。
8.根据权利要求5至7任一项所述的装置,其特征在于,所述评价单元具体用于:
在所述两个词向量存在长度不等于预设阈值的情况,对所述两个词向量进行剪切或补充处理,获得处理后的两个词向量,其中,所述处理后的两个词向量的长度均等于所述预设阈值;
将所述处理后的两个词向量输入到所述M-LSTM进行处理,获得所述两个语句之间的语义相似度评价结果。
9.一种电子设备,其特征在于,包括:
处理器、存储器和总线,所述处理器通过所述总线与所述存储器相连,所述存储器存储有计算机可读取指令,当所述计算机可读取指令由所述处理器执行时,用于实现权利要求1-4中任一所述的语义相似度评价方法。
10.一种计算机可读存储介质,其特征在于,该计算机可读存储介质上存储有计算机程序,该计算机程序被服务器执行时,用于实现权利要求1-4中任一所述的语义相似度评价方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010755249.9A CN111859988A (zh) | 2020-07-28 | 2020-07-28 | 一种语义相似度评价方法、装置和计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010755249.9A CN111859988A (zh) | 2020-07-28 | 2020-07-28 | 一种语义相似度评价方法、装置和计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111859988A true CN111859988A (zh) | 2020-10-30 |
Family
ID=72946595
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010755249.9A Pending CN111859988A (zh) | 2020-07-28 | 2020-07-28 | 一种语义相似度评价方法、装置和计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111859988A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112529390A (zh) * | 2020-12-02 | 2021-03-19 | 平安医疗健康管理股份有限公司 | 任务分配方法、装置、计算机设备和存储介质 |
CN112800777A (zh) * | 2021-04-14 | 2021-05-14 | 北京育学园健康管理中心有限公司 | 语义确定方法 |
CN113312462A (zh) * | 2021-05-26 | 2021-08-27 | 阳光保险集团股份有限公司 | 一种语义相似度计算方法、装置、电子设备及存储介质 |
CN113435182A (zh) * | 2021-07-21 | 2021-09-24 | 唯品会(广州)软件有限公司 | 自然语言处理中分类标注的冲突检测方法、装置和设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180196873A1 (en) * | 2017-01-11 | 2018-07-12 | Siemens Medical Solutions Usa, Inc. | Visualization framework based on document representation learning |
CN109344399A (zh) * | 2018-09-14 | 2019-02-15 | 重庆邂智科技有限公司 | 一种基于堆叠双向lstm神经网络的文本相似度计算方法 |
CN109522406A (zh) * | 2018-10-11 | 2019-03-26 | 平安科技(深圳)有限公司 | 文本语义匹配方法、装置、计算机设备和存储介质 |
CN109543009A (zh) * | 2018-10-17 | 2019-03-29 | 龙马智芯(珠海横琴)科技有限公司 | 文本相似度评估系统及文本相似度评估方法 |
CN109783817A (zh) * | 2019-01-15 | 2019-05-21 | 浙江大学城市学院 | 一种基于深度强化学习的文本语义相似计算模型 |
CN111325029A (zh) * | 2020-02-21 | 2020-06-23 | 河海大学 | 一种基于深度学习集成模型的文本相似度计算方法 |
-
2020
- 2020-07-28 CN CN202010755249.9A patent/CN111859988A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180196873A1 (en) * | 2017-01-11 | 2018-07-12 | Siemens Medical Solutions Usa, Inc. | Visualization framework based on document representation learning |
CN109344399A (zh) * | 2018-09-14 | 2019-02-15 | 重庆邂智科技有限公司 | 一种基于堆叠双向lstm神经网络的文本相似度计算方法 |
CN109522406A (zh) * | 2018-10-11 | 2019-03-26 | 平安科技(深圳)有限公司 | 文本语义匹配方法、装置、计算机设备和存储介质 |
CN109543009A (zh) * | 2018-10-17 | 2019-03-29 | 龙马智芯(珠海横琴)科技有限公司 | 文本相似度评估系统及文本相似度评估方法 |
CN109783817A (zh) * | 2019-01-15 | 2019-05-21 | 浙江大学城市学院 | 一种基于深度强化学习的文本语义相似计算模型 |
CN111325029A (zh) * | 2020-02-21 | 2020-06-23 | 河海大学 | 一种基于深度学习集成模型的文本相似度计算方法 |
Non-Patent Citations (5)
Title |
---|
CHAO LV ET AL: "Siamese Multiplicative LSTM for Semantic Text Similarity", CONFERENCE PROCEEDING OF 2020 3RD INTERNATIONAL CONFERENCE ON ALGORITHMS, COMPUTING AND ARTIFICIAL INTELLIGENCE (ACAI 2020), 26 December 2020 (2020-12-26), pages 166 - 170 * |
JONAS MUELLER ET AL: "Siamese Recurrent Architectures for Learning Sentence Similarity", THIRTIETH AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE, vol. 30, no. 1, 5 March 2016 (2016-03-05), pages 2786 - 2792 * |
WALLACE DALMET ET AL: "Siamese Manhattan LSTM Implementation for Predicting Text Similarity and Grading of Student Test Papers", PART OF THE BOOK SERIES: LECTURE NOTES ON DATA ENGINEERING AND COMMUNICATIONS PROCEEDINGS OF INTERNATIONAL CONFERENCE ON WIRELESS COMMUNICATION, vol. 36, 17 November 2019 (2019-11-17), pages 593 - 602 * |
何颖刚等: "一种基于字向量和LSTM的句子相似度计算方法", 长江大学学报, vol. 16, no. 1, 31 December 2019 (2019-12-31), pages 88 - 94 * |
杨飞: "基于LSTM的文本相似度识别方法研究", 中国优秀硕士学位论文全文数据库信息科技辑, no. 01, 15 January 2019 (2019-01-15), pages 13 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112529390A (zh) * | 2020-12-02 | 2021-03-19 | 平安医疗健康管理股份有限公司 | 任务分配方法、装置、计算机设备和存储介质 |
CN112800777A (zh) * | 2021-04-14 | 2021-05-14 | 北京育学园健康管理中心有限公司 | 语义确定方法 |
CN112800777B (zh) * | 2021-04-14 | 2021-07-30 | 北京育学园健康管理中心有限公司 | 语义确定方法 |
CN113312462A (zh) * | 2021-05-26 | 2021-08-27 | 阳光保险集团股份有限公司 | 一种语义相似度计算方法、装置、电子设备及存储介质 |
CN113312462B (zh) * | 2021-05-26 | 2024-07-02 | 阳光保险集团股份有限公司 | 一种语义相似度计算方法、装置、电子设备及存储介质 |
CN113435182A (zh) * | 2021-07-21 | 2021-09-24 | 唯品会(广州)软件有限公司 | 自然语言处理中分类标注的冲突检测方法、装置和设备 |
CN113435182B (zh) * | 2021-07-21 | 2024-10-18 | 唯品会(广州)软件有限公司 | 自然语言处理中分类标注的冲突检测方法、装置和设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10380236B1 (en) | Machine learning system for annotating unstructured text | |
CN111859988A (zh) | 一种语义相似度评价方法、装置和计算机可读存储介质 | |
CN111431742B (zh) | 网络信息检测方法、装置、存储介质和计算机设备 | |
CN111104518A (zh) | 用于从用户生成的内容建立演化本体的系统和方法 | |
CN112417127B (zh) | 对话模型的训练、对话生成方法、装置、设备及介质 | |
US20220138185A1 (en) | Scene graph modification based on natural language commands | |
CN112685539B (zh) | 基于多任务融合的文本分类模型训练方法和装置 | |
CN112106040A (zh) | 事件预测装置、预测模型生成装置以及事件预测用程序 | |
CN111985228A (zh) | 文本关键词提取方法、装置、计算机设备和存储介质 | |
CN112364664B (zh) | 意图识别模型的训练及意图识别方法、装置、存储介质 | |
WO2019227629A1 (zh) | 文本信息的生成方法、装置、计算机设备及存储介质 | |
CN114077661A (zh) | 信息处理装置、信息处理方法和计算机可读介质 | |
CN115186085A (zh) | 回复内容处理方法以及媒体内容互动内容的交互方法 | |
CN117454020B (zh) | 基于图卷积神经网络的在线社交网络用户表示方法及装置 | |
CN116910592B (zh) | 日志检测方法、装置、电子设备及存储介质 | |
CN116521899B (zh) | 一种基于改进的图神经网络的文档级关系抽取方法及系统 | |
CN109993190B (zh) | 一种本体匹配方法、装置和计算机存储介质 | |
CN117633518A (zh) | 一种产业链构建方法及系统 | |
CN111382232A (zh) | 问答信息处理方法、装置及计算机设备 | |
Chandra et al. | Classification of Emojis using Artificial Neural Network and Natural Language Processing | |
CN113157892B (zh) | 用户意图处理方法、装置、计算机设备及存储介质 | |
Dey et al. | Comparative Exploration Of Prediction Algorithms For Sentiment Analysis Using NLP | |
CN113486142A (zh) | 一种基于义原的词语语义的预测方法及计算机设备 | |
CN113743125A (zh) | 文本连贯性分析方法及装置 | |
CN112948592A (zh) | 基于人工智能的订单分级方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |