[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN113656547B - 文本匹配方法、装置、设备及存储介质 - Google Patents

文本匹配方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN113656547B
CN113656547B CN202110942420.1A CN202110942420A CN113656547B CN 113656547 B CN113656547 B CN 113656547B CN 202110942420 A CN202110942420 A CN 202110942420A CN 113656547 B CN113656547 B CN 113656547B
Authority
CN
China
Prior art keywords
sentence
text
statement
information
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110942420.1A
Other languages
English (en)
Other versions
CN113656547A (zh
Inventor
沈越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202110942420.1A priority Critical patent/CN113656547B/zh
Publication of CN113656547A publication Critical patent/CN113656547A/zh
Application granted granted Critical
Publication of CN113656547B publication Critical patent/CN113656547B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及人工智能,提供一种文本匹配方法、装置、设备及存储介质。该方法能够当接收到文本匹配请求时,根据文本匹配请求获取搜索语句,获取语句降维模型的长度需求,根据长度需求对搜索语句进行编码处理,得到语句编码,基于语句降维模型分析语句编码,得到语句信息,对语句信息进行归一化处理,得到语句特征,根据文本匹配请求获取待选文本及待选信息,对待选信息进行过滤处理,得到待选特征,根据语句特征及待选特征计算搜索语句与待选文本的文本相似度,将文本相似度最大的待选文本确定为目标文本。本发明能够提高文本匹配效率及匹配准确性。此外,本发明还涉及区块链技术,所述目标文本可存储于区块链中。

Description

文本匹配方法、装置、设备及存储介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种文本匹配方法、装置、设备及存储介质。
背景技术
文本匹配,是指从知识库中匹配出与搜索语句语义相似的文本,通过文本匹配这种方式能够提高用户阅读效率。在目前的文本匹配实现方式中,基于BERT模型对搜索语句与每个待选文本进行共同学习,以选取出最为匹配的文本,然而,这种方式由于重复处理步骤较多,以及,训练出的BERT模型参数较多,导致匹配效率低下。
发明内容
鉴于以上内容,有必要提供一种文本匹配方法、装置、设备及存储介质,能够提高匹配效率及匹配准确性。
一方面,本发明提出一种文本匹配方法,所述文本匹配方法包括:
当接收到文本匹配请求时,根据所述文本匹配请求获取搜索语句;
获取预先训练好的语句降维模型,并获取所述语句降维模型的长度需求;
根据所述长度需求对所述搜索语句进行编码处理,得到语句编码;
基于所述语句降维模型分析所述语句编码,得到语句信息;
对所述语句信息进行归一化处理,得到语句特征;
根据所述文本匹配请求获取多个待选文本及每个待选文本对应的待选信息;
对所述待选信息进行过滤处理,得到待选特征;
根据所述语句特征及所述待选特征计算所述搜索语句与每个待选文本的文本相似度;
将所述文本相似度最大的待选文本确定为目标文本。
根据本发明优选实施例,所述根据所述文本匹配请求获取搜索语句包括:
解析所述文本匹配请求的报文,得到所述报文携带的数据信息;
从所述数据信息中提取语句路径及语句标识,并计算所述语句路径及所述语句标识的查询总量;
根据所述查询总量获取查询模板;
将所述语句路径及所述语句标识写入所述查询模板中,得到查询语句;
运行所述查询语句,得到所述搜索语句。
根据本发明优选实施例,所述根据所述长度需求对所述搜索语句进行编码处理,得到语句编码包括:
对所述搜索语句进行拆分处理,得到多个搜索字符及每个搜索字符的拆分序号;
基于字符映射表获取每个搜索字符的字符向量;
根据所述拆分序号拼接所述字符向量,得到初始编码;
根据所述语句标识确定所述搜索语句所属的语句类型;
拼接预设标识、所述语句类型的类型标识及所述初始编码,得到中间编码,并计算所述中间编码的编码长度;
若所述编码长度大于所述长度需求,根据所述长度需求处理所述中间编码,得到所述语句编码;或者
若所述编码长度小于所述长度需求,以所述编码长度与所述长度需求的长度差值为填充位数,对所述中间编码进行填充处理,得到所述语句编码;或者
若所述编码长度等于所述长度需求,将所述中间编码确定为所述语句编码。
根据本发明优选实施例,在获取预先训练好的语句降维模型之前,所述方法还包括:
获取学习器,并获取所述学习器的初始需求;
获取训练样本,所述训练样本包括样本语句及相似文本;
提取所述相似文本的语义编码;
根据所述初始需求对所述样本语句进行编码,得到样本编码;
基于所述学习器对所述样本编码进行降维处理,得到预测编码;
根据所述预测编码与所述语义编码的编码距离调整所述初始需求及所述学习器的网络参数,直至所述编码距离不再降低,得到所述语句降维模型。
根据本发明优选实施例,所述语句降维模型包括卷积层、池化层及全连接层,所述基于所述语句降维模型分析所述语句编码,得到语句信息包括:
基于所述卷积层中的多个卷积核对所述语句编码进行特征提取,得到卷积特征;
基于所述池化层中的池化函数筛选所述卷积特征,得到池化结果;
获取所述全连接层中的权值矩阵及偏置值;
计算所述池化结果与所述权值矩阵的乘积,并计算所述乘积与所述偏置值的总和,得到所述语句信息。
根据本发明优选实施例,所述对所述待选信息进行过滤处理,得到待选特征包括:
获取预设列表,所述预设列表包括预设停用词及预设符的初始表征;
基于所述初始表征遍历所述待选信息;
从所述待选信息中删除与所述初始表征相同的信息,得到所述待选特征。
根据本发明优选实施例,所述根据所述语句特征及所述待选特征计算所述搜索语句与每个待选文本的文本相似度包括:
对于每个待选文本,从所述语句特征中提取第一字符特征,并从所述待选特征中提取第二字符特征;
计算每个所述第一字符特征与每个所述第二字符特征的乘积,得到字符相似度;
从所述字符相似度中选取取值最大的相似度作为每个所述第一字符特征的目标相似度;
计算所述语句特征中每个所述第一字符特征所对应的目标相似度的总和,得到所述文本相似度。
另一方面,本发明还提出一种文本匹配装置,所述文本匹配装置包括:
获取单元,用于当接收到文本匹配请求时,根据所述文本匹配请求获取搜索语句;
所述获取单元,还用于获取预先训练好的语句降维模型,并获取所述语句降维模型的长度需求;
编码单元,用于根据所述长度需求对所述搜索语句进行编码处理,得到语句编码;
分析单元,用于基于所述语句降维模型分析所述语句编码,得到语句信息;
处理单元,用于对所述语句信息进行归一化处理,得到语句特征;
所述获取单元,还用于根据所述文本匹配请求获取多个待选文本及每个待选文本对应的待选信息;
过滤单元,用于对所述待选信息进行过滤处理,得到待选特征;
计算单元,用于根据所述语句特征及所述待选特征计算所述搜索语句与每个待选文本的文本相似度;
确定单元,用于将所述文本相似度最大的待选文本确定为目标文本。
另一方面,本发明还提出一种电子设备,所述电子设备包括:
存储器,存储计算机可读指令;及
处理器,执行所述存储器中存储的计算机可读指令以实现所述文本匹配方法。
另一方面,本发明还提出一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机可读指令,所述计算机可读指令被电子设备中的处理器执行以实现所述文本匹配方法。
由以上技术方案可以看出,本发明通过对所述语句信息进行归一化处理,能够确保计算所述文本相似度时所述语句特征与所述待选特征处于同一运算量级,提高所述文本相似度的计算准确性,同时,能够确保后续计算所述文本相似度时无需分析所述语句特征与所述待选特征的模长,提高所述文本相似度的计算效率。另外,本发明不直接生成搜索语句及待选文本的全局特征向量,而是利用搜索语句及待选文本在低层次上的特征编码序列计算所述文本相似度,能够从细粒度角度上分析所述搜索语句与所述待选文本的关系,有利于提高所述目标文本的匹配准确性。此外,本发明直接根据所述文本匹配请求获取待选文本所对应的待选信息,而无需对所述待选文本进行进一步的分析,提高所述目标文本的匹配效率。
附图说明
图1是本发明文本匹配方法的较佳实施例的流程图。
图2是本发明文本匹配装置的较佳实施例的功能模块图。
图3是本发明实现文本匹配方法的较佳实施例的电子设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
如图1所示,是本发明文本匹配方法的较佳实施例的流程图。根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
所述文本匹配方法可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
所述文本匹配方法应用于一个或者多个电子设备中,所述电子设备是一种能够按照事先设定或存储的计算机可读指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字信号处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述电子设备可以是任何一种可与用户进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(Internet Protocol Television,IPTV)、智能穿戴式设备等。
所述电子设备可以包括网络设备和/或用户设备。其中,所述网络设备包括,但不限于单个网络电子设备、多个网络电子设备组成的电子设备组或基于云计算(CloudComputing)的由大量主机或网络电子设备构成的云。
所述电子设备所处的网络包括,但不限于:互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
S10,当接收到文本匹配请求时,根据所述文本匹配请求获取搜索语句。
在本发明的至少一个实施例中,所述文本匹配请求中携带有语句路径及语句标识等数据信息。所述文本匹配请求可以由任意用户触发。
所述搜索语句是指需要进行文本语义匹配的句子。例如,所述搜索语句可以是:关于天气评述的文本。
在本发明的至少一个实施例中,所述电子设备根据所述文本匹配请求获取搜索语句包括:
解析所述文本匹配请求的报文,得到所述报文携带的数据信息;
从所述数据信息中提取语句路径及语句标识,并计算所述语句路径及所述语句标识的查询总量;
根据所述查询总量获取查询模板;
将所述语句路径及所述语句标识写入所述查询模板中,得到查询语句;
运行所述查询语句,得到所述搜索语句。
其中,所述语句路径是指存储所述搜索语句的路径,所述语句路径中存储有多个需要进行文本匹配的语句。
所述语句标识是指能够唯一标识所述搜索语句的标识。
所述查询模板的对象总量与所述查询总量的数量相同。
通过所述总量能够获取到合适的查询模板,从而在生成所述查询语句时无需修正所述查询模板,提高所述查询语句的生成效率,进而通过所述查询语句获取所述搜索语句,由于无需在所述语句路径中逐个遍历出与所述语句标识所对应的语句,也无需定位所述语句路径,因此,能够提高所述搜索语句的获取效率。
S11,获取预先训练好的语句降维模型,并获取所述语句降维模型的长度需求。
在本发明的至少一个实施例中,所述语句降维模型是指用于对表征信息进行降维处理的模型。
所述长度需求是指输入所述语句降维模型的表征信息的长度。例如,所述长度需求可以是128位。
在本发明的至少一个实施例中,在获取预先训练好的语句降维模型之前,所述方法还包括:
获取学习器,并获取所述学习器的初始需求;
获取训练样本,所述训练样本包括样本语句及相似文本;
提取所述相似文本的语义编码;
根据所述初始需求对所述样本语句进行编码,得到样本编码;
基于所述学习器对所述样本编码进行降维处理,得到预测编码;
根据所述预测编码与所述语义编码的编码距离调整所述初始需求及所述学习器的网络参数,直至所述编码距离不再降低,得到所述语句降维模型。
其中,所述初始需求是指输入所述学习器的表征信息的最大长度,所述初始需求是预先设定的。
所述编码距离是指所述预测编码与所述语义编码的差值。
通过对所述初始需求的调参,能够确保输入至所述语句降维模型进行分析的语句编码中包含有全面的表征信息,从而避免所述搜索语句中信息的丢失,通过对所述网络参数的调参,能够提高所述语句降维模型对所述语句编码的降维准确性。
S12,根据所述长度需求对所述搜索语句进行编码处理,得到语句编码。
在本发明的至少一个实施例中,所述语句编码是指所述搜索语句的向量表征,该向量表征的长度为所述长度需求。
在本发明的至少一个实施例中,所述电子设备根据所述长度需求对所述搜索语句进行编码处理,得到语句编码包括:
对所述搜索语句进行拆分处理,得到多个搜索字符及每个搜索字符的拆分序号;
基于字符映射表获取每个搜索字符的字符向量;
根据所述拆分序号拼接所述字符向量,得到初始编码;
根据所述语句标识确定所述搜索语句所属的语句类型;
拼接预设标识、所述语句类型的类型标识及所述初始编码,得到中间编码,并计算所述中间编码的编码长度;
若所述编码长度大于所述长度需求,根据所述长度需求处理所述中间编码,得到所述语句编码;或者
若所述编码长度小于所述长度需求,以所述编码长度与所述长度需求的长度差值为填充位数,对所述中间编码进行填充处理,得到所述语句编码;或者
若所述编码长度等于所述长度需求,将所述中间编码确定为所述语句编码。
其中,所述多个搜索字符包括所述搜索语句中的标点符号等字符。
所述字符映射表中存储有多个字符与每个字符的向量表示。
所述语句类型是指所述搜索语句的句子类型,相应地,所述类型标识是指能够表示出所述语句类型的标识。例如,所述语句类型是问句,所述类型标识可以是Q。
通过所述类型标识对所述初始编码进行标识,有利于后续对所述语句编码进行分析,通过所述编码长度与所述长度需求的关系能够确保所述语句编码的长度,从而提高所述语句编码对所述搜索语句的表征能力。
具体地,所述电子设备根据所述拆分序号拼接所述字符向量,得到初始编码包括:
根据所述拆分序号从小至大的顺序拼接所述字符向量,得到所述初始编码。
具体地,所述电子设备拼接预设标识、所述语句类型的类型标识及所述初始编码,得到中间编码包括:
在所述预设标识的末端拼接所述类型标识,得到拼接信息;
在所述拼接信息的末端拼接所述初始编码,得到所述中间编码。
S13,基于所述语句降维模型分析所述语句编码,得到语句信息。
在本发明的至少一个实施例中,所述语句信息是指对所述语句编码进行降维处理后所得到的信息。
在本发明的至少一个实施例中,所述语句降维模型包括卷积层、池化层及全连接层,所述电子设备基于所述语句降维模型分析所述语句编码,得到语句信息包括:
基于所述卷积层中的多个卷积核对所述语句编码进行特征提取,得到卷积特征;
基于所述池化层中的池化函数筛选所述卷积特征,得到池化结果;
获取所述全连接层中的权值矩阵及偏置值;
计算所述池化结果与所述权值矩阵的乘积,并计算所述乘积与所述偏置值的总和,得到所述语句信息。
其中,所述多个卷积核、所述池化函数、所述权值矩阵及所述偏置值是根据对所述学习器进行训练而生成的。
通过所述卷积层能够进一步提高所述卷积特征对所述搜索语句的表征能力,通过所述池化层能够剔除所述卷积特征中的干扰信息,从而提高后续所述文本相似度的准确性。
S14,对所述语句信息进行归一化处理,得到语句特征。
在本发明的至少一个实施例中,所述语句特征是指所述语句信息处于[0,1]之间的特征信息。
在本发明的至少一个实施例中,所述电子设备对所述语句信息进行归一化处理,能够确保所述语句特征与所述待选特征处于同一运算量级,从而提高所述文本相似度的准确性。
S15,根据所述文本匹配请求获取多个待选文本及每个待选文本对应的待选信息。
在本发明的至少一个实施例中,所述待选文本是指需要与所述搜索语句进行匹配的文本。
所述待选信息是基于对所述待选文本进行编码处理,降维处理以及归一化处理后得到的表征信息。
在本发明的至少一个实施例中,所述电子设备根据所述文本匹配请求获取多个待选文本及每个待选文本对应的待选信息包括:
从所述数据信息中提取文本路径;
将所述文本路径中所有文本确定为所述多个待选文本,并从所述文本路径中获取每个待选文本的文本标识;
基于每个文本标识从与所述文本路径所对应的向量列表中获取所述待选信息。
S16,对所述待选信息进行过滤处理,得到待选特征。
在本发明的至少一个实施例中,所述待选特征是指剔除掉预设停用词及预设符的待选信息。
在本发明的至少一个实施例中,所述电子设备对所述待选信息进行过滤处理,得到待选特征包括:
获取预设列表,所述预设列表包括预设停用词及预设符的初始表征;
基于所述初始表征遍历所述待选信息;
从所述待选信息中删除与所述初始表征相同的信息,得到所述待选特征。
通过上述实施方式,在对所述待选文本进行编码处理后,对所述待选信息进行过滤处理,而不是在编码所述待选文本之前进行过滤处理,能够避免具有编码意义的预设停用词及预设符被剔除,从而提高所述待选信息的表征准确性,同时,通过对所述待选信息的过滤,能够提高所述待选特征的精简性,从而提高所述文本相似度的计算效率。
S17,根据所述语句特征及所述待选特征计算所述搜索语句与每个待选文本的文本相似度。
在本发明的至少一个实施例中,所述文本相似度是指所述搜索语句与每个待选文本之间的相似度。
在本发明的至少一个实施例中,所述电子设备根据所述语句特征及所述待选特征计算所述搜索语句与每个待选文本的文本相似度包括:
对于每个待选文本,从所述语句特征中提取第一字符特征,并从所述待选特征中提取第二字符特征;
计算每个所述第一字符特征与每个所述第二字符特征的乘积,得到字符相似度;
从所述字符相似度中选取取值最大的相似度作为每个所述第一字符特征的目标相似度;
计算所述语句特征中每个所述第一字符特征所对应的目标相似度的总和,得到所述文本相似度。
通过所述语句特征中第一字符特征与所述待选特征中第二字符特征的关系计算所述文本相似度,由于所述第一字符特征及所述第二字符特征属于低层次的特征编码序列,因此,能够从细粒度上确定出所述搜索语句与所述待选文本之间的相似度,从而提高所述文本相似度的准确性。
S18,将所述文本相似度最大的待选文本确定为目标文本。
在本发明的至少一个实施例中,所述目标文本是指与所述搜索语句最相似的待选文本。
需要强调的是,为进一步保证上述目标文本的私密和安全性,上述目标文本还可以存储于一区块链的节点中。
在本发明的至少一个实施例中,所述方法还包括:
获取所述文本匹配请求的请求编号;
封装所述请求编号及所述目标文本,得到反馈结果;
将所述反馈结果发送至所述文本匹配请求的触发终端。
通过上述实施方式,能够及时将所述反馈结果发送至所述触发终端,提高了及时性。
由以上技术方案可以看出,本发明通过对所述语句信息进行归一化处理,能够确保计算所述文本相似度时所述语句特征与所述待选特征处于同一运算量级,提高所述文本相似度的计算准确性,同时,能够确保后续计算所述文本相似度时无需分析所述语句特征与所述待选特征的模长,提高所述文本相似度的计算效率。另外,本发明不直接生成搜索语句及待选文本的全局特征向量,而是利用搜索语句及待选文本在低层次上的特征编码序列计算所述文本相似度,能够从细粒度角度上分析所述搜索语句与所述待选文本的关系,有利于提高所述目标文本的匹配准确性。此外,本发明直接根据所述文本匹配请求获取待选文本所对应的待选信息,而无需对所述待选文本进行进一步的分析,提高所述目标文本的匹配效率。
如图2所示,是本发明文本匹配装置的较佳实施例的功能模块图。所述文本匹配装置11包括获取单元110、编码单元111、分析单元112、处理单元113、过滤单元114、计算单元115、确定单元116、提取单元117、降维单元118、调整单元119、封装单元120及发送单元121。本发明所称的模块/单元是指一种能够被处理器13所获取,并且能够完成固定功能的一系列计算机可读指令段,其存储在存储器12中。在本实施例中,关于各模块/单元的功能将在后续的实施例中详述。
当接收到文本匹配请求时,获取单元110根据所述文本匹配请求获取搜索语句。
在本发明的至少一个实施例中,所述文本匹配请求中携带有语句路径及语句标识等数据信息。所述文本匹配请求可以由任意用户触发。
所述搜索语句是指需要进行文本语义匹配的句子。例如,所述搜索语句可以是:关于天气评述的文本。
在本发明的至少一个实施例中,所述获取单元110根据所述文本匹配请求获取搜索语句包括:
解析所述文本匹配请求的报文,得到所述报文携带的数据信息;
从所述数据信息中提取语句路径及语句标识,并计算所述语句路径及所述语句标识的查询总量;
根据所述查询总量获取查询模板;
将所述语句路径及所述语句标识写入所述查询模板中,得到查询语句;
运行所述查询语句,得到所述搜索语句。
其中,所述语句路径是指存储所述搜索语句的路径,所述语句路径中存储有多个需要进行文本匹配的语句。
所述语句标识是指能够唯一标识所述搜索语句的标识。
所述查询模板的对象总量与所述查询总量的数量相同。
通过所述总量能够获取到合适的查询模板,从而在生成所述查询语句时无需修正所述查询模板,提高所述查询语句的生成效率,进而通过所述查询语句获取所述搜索语句,由于无需在所述语句路径中逐个遍历出与所述语句标识所对应的语句,也无需定位所述语句路径,因此,能够提高所述搜索语句的获取效率。
所述获取单元110获取预先训练好的语句降维模型,并获取所述语句降维模型的长度需求。
在本发明的至少一个实施例中,所述语句降维模型是指用于对表征信息进行降维处理的模型。
所述长度需求是指输入所述语句降维模型的表征信息的长度。例如,所述长度需求可以是128位。
在本发明的至少一个实施例中,在获取预先训练好的语句降维模型之前,所述获取单元110获取学习器,并获取所述学习器的初始需求;
所述获取单元110获取训练样本,所述训练样本包括样本语句及相似文本;
提取单元117提取所述相似文本的语义编码;
编码单元111根据所述初始需求对所述样本语句进行编码,得到样本编码;
降维单元118基于所述学习器对所述样本编码进行降维处理,得到预测编码;
调整单元119根据所述预测编码与所述语义编码的编码距离调整所述初始需求及所述学习器的网络参数,直至所述编码距离不再降低,得到所述语句降维模型。
其中,所述初始需求是指输入所述学习器的表征信息的最大长度,所述初始需求是预先设定的。
所述编码距离是指所述预测编码与所述语义编码的差值。
通过对所述初始需求的调参,能够确保输入至所述语句降维模型进行分析的语句编码中包含有全面的表征信息,从而避免所述搜索语句中信息的丢失,通过对所述网络参数的调参,能够提高所述语句降维模型对所述语句编码的降维准确性。
所述编码单元111根据所述长度需求对所述搜索语句进行编码处理,得到语句编码。
在本发明的至少一个实施例中,所述语句编码是指所述搜索语句的向量表征,该向量表征的长度为所述长度需求。
在本发明的至少一个实施例中,所述编码单元111根据所述长度需求对所述搜索语句进行编码处理,得到语句编码包括:
对所述搜索语句进行拆分处理,得到多个搜索字符及每个搜索字符的拆分序号;
基于字符映射表获取每个搜索字符的字符向量;
根据所述拆分序号拼接所述字符向量,得到初始编码;
根据所述语句标识确定所述搜索语句所属的语句类型;
拼接预设标识、所述语句类型的类型标识及所述初始编码,得到中间编码,并计算所述中间编码的编码长度;
若所述编码长度大于所述长度需求,根据所述长度需求处理所述中间编码,得到所述语句编码;或者
若所述编码长度小于所述长度需求,以所述编码长度与所述长度需求的长度差值为填充位数,对所述中间编码进行填充处理,得到所述语句编码;或者
若所述编码长度等于所述长度需求,将所述中间编码确定为所述语句编码。
其中,所述多个搜索字符包括所述搜索语句中的标点符号等字符。
所述字符映射表中存储有多个字符与每个字符的向量表示。
所述语句类型是指所述搜索语句的句子类型,相应地,所述类型标识是指能够表示出所述语句类型的标识。例如,所述语句类型是问句,所述类型标识可以是Q。
通过所述类型标识对所述初始编码进行标识,有利于后续对所述语句编码进行分析,通过所述编码长度与所述长度需求的关系能够确保所述语句编码的长度,从而提高所述语句编码对所述搜索语句的表征能力。
具体地,所述编码单元111根据所述拆分序号拼接所述字符向量,得到初始编码包括:
根据所述拆分序号从小至大的顺序拼接所述字符向量,得到所述初始编码。
具体地,所述编码单元111拼接预设标识、所述语句类型的类型标识及所述初始编码,得到中间编码包括:
在所述预设标识的末端拼接所述类型标识,得到拼接信息;
在所述拼接信息的末端拼接所述初始编码,得到所述中间编码。
分析单元112基于所述语句降维模型分析所述语句编码,得到语句信息。
在本发明的至少一个实施例中,所述语句信息是指对所述语句编码进行降维处理后所得到的信息。
在本发明的至少一个实施例中,所述语句降维模型包括卷积层、池化层及全连接层,所述分析单元112基于所述语句降维模型分析所述语句编码,得到语句信息包括:
基于所述卷积层中的多个卷积核对所述语句编码进行特征提取,得到卷积特征;
基于所述池化层中的池化函数筛选所述卷积特征,得到池化结果;
获取所述全连接层中的权值矩阵及偏置值;
计算所述池化结果与所述权值矩阵的乘积,并计算所述乘积与所述偏置值的总和,得到所述语句信息。
其中,所述多个卷积核、所述池化函数、所述权值矩阵及所述偏置值是根据对所述学习器进行训练而生成的。
通过所述卷积层能够进一步提高所述卷积特征对所述搜索语句的表征能力,通过所述池化层能够剔除所述卷积特征中的干扰信息,从而提高后续所述文本相似度的准确性。
处理单元113对所述语句信息进行归一化处理,得到语句特征。
在本发明的至少一个实施例中,所述语句特征是指所述语句信息处于[0,1]之间的特征信息。
在本发明的至少一个实施例中,所述处理单元113对所述语句信息进行归一化处理,能够确保所述语句特征与所述待选特征处于同一运算量级,从而提高所述文本相似度的准确性。
所述获取单元110根据所述文本匹配请求获取多个待选文本及每个待选文本对应的待选信息。
在本发明的至少一个实施例中,所述待选文本是指需要与所述搜索语句进行匹配的文本。
所述待选信息是基于对所述待选文本进行编码处理,降维处理以及归一化处理后得到的表征信息。
在本发明的至少一个实施例中,所述获取单元110根据所述文本匹配请求获取多个待选文本及每个待选文本对应的待选信息包括:
从所述数据信息中提取文本路径;
将所述文本路径中所有文本确定为所述多个待选文本,并从所述文本路径中获取每个待选文本的文本标识;
基于每个文本标识从与所述文本路径所对应的向量列表中获取所述待选信息。
过滤单元114对所述待选信息进行过滤处理,得到待选特征。
在本发明的至少一个实施例中,所述待选特征是指剔除掉预设停用词及预设符的待选信息。
在本发明的至少一个实施例中,所述过滤单元114对所述待选信息进行过滤处理,得到待选特征包括:
获取预设列表,所述预设列表包括预设停用词及预设符的初始表征;
基于所述初始表征遍历所述待选信息;
从所述待选信息中删除与所述初始表征相同的信息,得到所述待选特征。
通过上述实施方式,在对所述待选文本进行编码处理后,对所述待选信息进行过滤处理,而不是在编码所述待选文本之前进行过滤处理,能够避免具有编码意义的预设停用词及预设符被剔除,从而提高所述待选信息的表征准确性,同时,通过对所述待选信息的过滤,能够提高所述待选特征的精简性,从而提高所述文本相似度的计算效率。
计算单元115根据所述语句特征及所述待选特征计算所述搜索语句与每个待选文本的文本相似度。
在本发明的至少一个实施例中,所述文本相似度是指所述搜索语句与每个待选文本之间的相似度。
在本发明的至少一个实施例中,所述计算单元115根据所述语句特征及所述待选特征计算所述搜索语句与每个待选文本的文本相似度包括:
对于每个待选文本,从所述语句特征中提取第一字符特征,并从所述待选特征中提取第二字符特征;
计算每个所述第一字符特征与每个所述第二字符特征的乘积,得到字符相似度;
从所述字符相似度中选取取值最大的相似度作为每个所述第一字符特征的目标相似度;
计算所述语句特征中每个所述第一字符特征所对应的目标相似度的总和,得到所述文本相似度。
通过所述语句特征中第一字符特征与所述待选特征中第二字符特征的关系计算所述文本相似度,由于所述第一字符特征及所述第二字符特征属于低层次的特征编码序列,因此,能够从细粒度上确定出所述搜索语句与所述待选文本之间的相似度,从而提高所述文本相似度的准确性。
确定单元116将所述文本相似度最大的待选文本确定为目标文本。
在本发明的至少一个实施例中,所述目标文本是指与所述搜索语句最相似的待选文本。
需要强调的是,为进一步保证上述目标文本的私密和安全性,上述目标文本还可以存储于一区块链的节点中。
在本发明的至少一个实施例中,所述获取单元110获取所述文本匹配请求的请求编号;
封装单元120封装所述请求编号及所述目标文本,得到反馈结果;
发送单元121将所述反馈结果发送至所述文本匹配请求的触发终端。
通过上述实施方式,能够及时将所述反馈结果发送至所述触发终端,提高了及时性。
由以上技术方案可以看出,本发明通过对所述语句信息进行归一化处理,能够确保计算所述文本相似度时所述语句特征与所述待选特征处于同一运算量级,提高所述文本相似度的计算准确性,同时,能够确保后续计算所述文本相似度时无需分析所述语句特征与所述待选特征的模长,提高所述文本相似度的计算效率。另外,本发明不直接生成搜索语句及待选文本的全局特征向量,而是利用搜索语句及待选文本在低层次上的特征编码序列计算所述文本相似度,能够从细粒度角度上分析所述搜索语句与所述待选文本的关系,有利于提高所述目标文本的匹配准确性。此外,本发明直接根据所述文本匹配请求获取待选文本所对应的待选信息,而无需对所述待选文本进行进一步的分析,提高所述目标文本的匹配效率。
如图3所示,是本发明实现文本匹配方法的较佳实施例的电子设备的结构示意图。
在本发明的一个实施例中,所述电子设备1包括,但不限于,存储器12、处理器13,以及存储在所述存储器12中并可在所述处理器13上运行的计算机可读指令,例如文本匹配程序。
本领域技术人员可以理解,所述示意图仅仅是电子设备1的示例,并不构成对电子设备1的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备1还可以包括输入输出设备、网络接入设备、总线等。
所述处理器13可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器13是所述电子设备1的运算核心和控制中心,利用各种接口和线路连接整个电子设备1的各个部分,及执行所述电子设备1的操作系统以及安装的各类应用程序、程序代码等。
示例性的,所述计算机可读指令可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器12中,并由所述处理器13执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机可读指令段,该计算机可读指令段用于描述所述计算机可读指令在所述电子设备1中的执行过程。例如,所述计算机可读指令可以被分割成获取单元110、编码单元111、分析单元112、处理单元113、过滤单元114、计算单元115、确定单元116、提取单元117、降维单元118、调整单元119、封装单元120及发送单元121。
所述存储器12可用于存储所述计算机可读指令和/或模块,所述处理器13通过运行或执行存储在所述存储器12内的计算机可读指令和/或模块,以及调用存储在存储器12内的数据,实现所述电子设备1的各种功能。所述存储器12可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据电子设备的使用所创建的数据等。存储器12可以包括非易失性和易失性存储器,例如:硬盘、内存、插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他存储器件。
所述存储器12可以是电子设备1的外部存储器和/或内部存储器。进一步地,所述存储器12可以是具有实物形式的存储器,如内存条、TF卡(Trans-flash Card)等等。
所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机可读指令来指令相关的硬件来完成,所述的计算机可读指令可存储于一计算机可读存储介质中,该计算机可读指令在被处理器执行时,可实现上述各个方法实施例的步骤。
其中,所述计算机可读指令包括计算机可读指令代码,所述计算机可读指令代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机可读指令代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
结合图1,所述电子设备1中的所述存储器12存储计算机可读指令实现一种文本匹配方法,所述处理器13可执行所述计算机可读指令从而实现:
当接收到文本匹配请求时,根据所述文本匹配请求获取搜索语句;
获取预先训练好的语句降维模型,并获取所述语句降维模型的长度需求;
根据所述长度需求对所述搜索语句进行编码处理,得到语句编码;
基于所述语句降维模型分析所述语句编码,得到语句信息;
对所述语句信息进行归一化处理,得到语句特征;
根据所述文本匹配请求获取多个待选文本及每个待选文本对应的待选信息;
对所述待选信息进行过滤处理,得到待选特征;
根据所述语句特征及所述待选特征计算所述搜索语句与每个待选文本的文本相似度;
将所述文本相似度最大的待选文本确定为目标文本。
具体地,所述处理器13对上述计算机可读指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述计算机可读存储介质上存储有计算机可读指令,其中,所述计算机可读指令被处理器13执行时用以实现以下步骤:
当接收到文本匹配请求时,根据所述文本匹配请求获取搜索语句;
获取预先训练好的语句降维模型,并获取所述语句降维模型的长度需求;
根据所述长度需求对所述搜索语句进行编码处理,得到语句编码;
基于所述语句降维模型分析所述语句编码,得到语句信息;
对所述语句信息进行归一化处理,得到语句特征;
根据所述文本匹配请求获取多个待选文本及每个待选文本对应的待选信息;
对所述待选信息进行过滤处理,得到待选特征;
根据所述语句特征及所述待选特征计算所述搜索语句与每个待选文本的文本相似度;
将所述文本相似度最大的待选文本确定为目标文本。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。所述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

Claims (10)

1.一种文本匹配方法,其特征在于,所述文本匹配方法包括:
当接收到文本匹配请求时,根据所述文本匹配请求获取搜索语句;
获取预先训练好的语句降维模型,并获取所述语句降维模型的长度需求;
根据所述长度需求对所述搜索语句进行编码处理,得到语句编码;
基于所述语句降维模型分析所述语句编码,得到语句信息;
对所述语句信息进行归一化处理,得到语句特征;
根据所述文本匹配请求获取多个待选文本及每个待选文本对应的待选信息;
对所述待选信息进行过滤处理,得到待选特征;
根据所述语句特征及所述待选特征计算所述搜索语句与每个待选文本的文本相似度;
将所述文本相似度最大的待选文本确定为目标文本。
2.如权利要求1所述的文本匹配方法,其特征在于,所述根据所述文本匹配请求获取搜索语句包括:
解析所述文本匹配请求的报文,得到所述报文携带的数据信息;
从所述数据信息中提取语句路径及语句标识,并计算所述语句路径及所述语句标识的查询总量;
根据所述查询总量获取查询模板;
将所述语句路径及所述语句标识写入所述查询模板中,得到查询语句;
运行所述查询语句,得到所述搜索语句。
3.如权利要求2所述的文本匹配方法,其特征在于,所述根据所述长度需求对所述搜索语句进行编码处理,得到语句编码包括:
对所述搜索语句进行拆分处理,得到多个搜索字符及每个搜索字符的拆分序号;
基于字符映射表获取每个搜索字符的字符向量;
根据所述拆分序号拼接所述字符向量,得到初始编码;
根据所述语句标识确定所述搜索语句所属的语句类型;
拼接预设标识、所述语句类型的类型标识及所述初始编码,得到中间编码,并计算所述中间编码的编码长度;
若所述编码长度大于所述长度需求,根据所述长度需求处理所述中间编码,得到所述语句编码;或者
若所述编码长度小于所述长度需求,以所述编码长度与所述长度需求的长度差值为填充位数,对所述中间编码进行填充处理,得到所述语句编码;或者
若所述编码长度等于所述长度需求,将所述中间编码确定为所述语句编码。
4.如权利要求1所述的文本匹配方法,其特征在于,在获取预先训练好的语句降维模型之前,所述方法还包括:
获取学习器,并获取所述学习器的初始需求;
获取训练样本,所述训练样本包括样本语句及相似文本;
提取所述相似文本的语义编码;
根据所述初始需求对所述样本语句进行编码,得到样本编码;
基于所述学习器对所述样本编码进行降维处理,得到预测编码;
根据所述预测编码与所述语义编码的编码距离调整所述初始需求及所述学习器的网络参数,直至所述编码距离不再降低,得到所述语句降维模型。
5.如权利要求1所述的文本匹配方法,其特征在于,所述语句降维模型包括卷积层、池化层及全连接层,所述基于所述语句降维模型分析所述语句编码,得到语句信息包括:
基于所述卷积层中的多个卷积核对所述语句编码进行特征提取,得到卷积特征;
基于所述池化层中的池化函数筛选所述卷积特征,得到池化结果;
获取所述全连接层中的权值矩阵及偏置值;
计算所述池化结果与所述权值矩阵的乘积,并计算所述乘积与所述偏置值的总和,得到所述语句信息。
6.如权利要求1所述的文本匹配方法,其特征在于,所述对所述待选信息进行过滤处理,得到待选特征包括:
获取预设列表,所述预设列表包括预设停用词及预设符的初始表征;
基于所述初始表征遍历所述待选信息;
从所述待选信息中删除与所述初始表征相同的信息,得到所述待选特征。
7.如权利要求1所述的文本匹配方法,其特征在于,所述根据所述语句特征及所述待选特征计算所述搜索语句与每个待选文本的文本相似度包括:
对于每个待选文本,从所述语句特征中提取第一字符特征,并从所述待选特征中提取第二字符特征;
计算每个所述第一字符特征与每个所述第二字符特征的乘积,得到字符相似度;
从所述字符相似度中选取取值最大的相似度作为每个所述第一字符特征的目标相似度;
计算所述语句特征中每个所述第一字符特征所对应的目标相似度的总和,得到所述文本相似度。
8.一种文本匹配装置,其特征在于,所述文本匹配装置包括:
获取单元,用于当接收到文本匹配请求时,根据所述文本匹配请求获取搜索语句;
所述获取单元,还用于获取预先训练好的语句降维模型,并获取所述语句降维模型的长度需求;
编码单元,用于根据所述长度需求对所述搜索语句进行编码处理,得到语句编码;
分析单元,用于基于所述语句降维模型分析所述语句编码,得到语句信息;
处理单元,用于对所述语句信息进行归一化处理,得到语句特征;
所述获取单元,还用于根据所述文本匹配请求获取多个待选文本及每个待选文本对应的待选信息;
过滤单元,用于对所述待选信息进行过滤处理,得到待选特征;
计算单元,用于根据所述语句特征及所述待选特征计算所述搜索语句与每个待选文本的文本相似度;
确定单元,用于将所述文本相似度最大的待选文本确定为目标文本。
9.一种电子设备,其特征在于,所述电子设备包括:
存储器,存储有计算机可读指令;及
处理器,执行所述存储器中存储的计算机可读指令以实现如权利要求1至7中任意一项所述的文本匹配方法。
10.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质中存储有计算机可读指令,所述计算机可读指令被电子设备中的处理器执行以实现如权利要求1至7中任意一项所述的文本匹配方法。
CN202110942420.1A 2021-08-17 2021-08-17 文本匹配方法、装置、设备及存储介质 Active CN113656547B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110942420.1A CN113656547B (zh) 2021-08-17 2021-08-17 文本匹配方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110942420.1A CN113656547B (zh) 2021-08-17 2021-08-17 文本匹配方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN113656547A CN113656547A (zh) 2021-11-16
CN113656547B true CN113656547B (zh) 2023-06-30

Family

ID=78479901

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110942420.1A Active CN113656547B (zh) 2021-08-17 2021-08-17 文本匹配方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN113656547B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113887192B (zh) * 2021-12-06 2022-05-27 阿里巴巴达摩院(杭州)科技有限公司 文本匹配方法、装置及存储介质
CN114519094A (zh) * 2022-02-16 2022-05-20 平安普惠企业管理有限公司 基于随机状态的话术推荐方法、装置及电子设备
CN116383491B (zh) * 2023-03-21 2024-05-24 北京百度网讯科技有限公司 信息推荐方法、装置、设备、存储介质和程序产品
CN116108163B (zh) * 2023-04-04 2023-06-27 之江实验室 一种文本的匹配方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109766424A (zh) * 2018-12-29 2019-05-17 安徽省泰岳祥升软件有限公司 一种阅读理解模型训练数据的过滤方法及装置
CN111209395A (zh) * 2019-12-27 2020-05-29 铜陵中科汇联科技有限公司 一种短文本相似度计算系统及其训练方法
CN111427995A (zh) * 2020-02-26 2020-07-17 平安科技(深圳)有限公司 基于内部对抗机制的语义匹配方法、装置及存储介质
CN111563387A (zh) * 2019-02-12 2020-08-21 阿里巴巴集团控股有限公司 语句相似度确定方法及装置、语句翻译方法及装置
CN112966073A (zh) * 2021-04-07 2021-06-15 华南理工大学 一种基于语义和浅层特征的短文本匹配方法
CN113239700A (zh) * 2021-04-27 2021-08-10 哈尔滨理工大学 改进bert的文本语义匹配设备、系统、方法及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170083623A1 (en) * 2015-09-21 2017-03-23 Qualcomm Incorporated Semantic multisensory embeddings for video search by text

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109766424A (zh) * 2018-12-29 2019-05-17 安徽省泰岳祥升软件有限公司 一种阅读理解模型训练数据的过滤方法及装置
CN111563387A (zh) * 2019-02-12 2020-08-21 阿里巴巴集团控股有限公司 语句相似度确定方法及装置、语句翻译方法及装置
CN111209395A (zh) * 2019-12-27 2020-05-29 铜陵中科汇联科技有限公司 一种短文本相似度计算系统及其训练方法
CN111427995A (zh) * 2020-02-26 2020-07-17 平安科技(深圳)有限公司 基于内部对抗机制的语义匹配方法、装置及存储介质
CN112966073A (zh) * 2021-04-07 2021-06-15 华南理工大学 一种基于语义和浅层特征的短文本匹配方法
CN113239700A (zh) * 2021-04-27 2021-08-10 哈尔滨理工大学 改进bert的文本语义匹配设备、系统、方法及存储介质

Also Published As

Publication number Publication date
CN113656547A (zh) 2021-11-16

Similar Documents

Publication Publication Date Title
CN113656547B (zh) 文本匹配方法、装置、设备及存储介质
CN111694826B (zh) 基于人工智能的数据增强方法、装置、电子设备及介质
CN112989826B (zh) 基于人工智能的试题分数确定方法、装置、设备及介质
CN113408278B (zh) 意图识别方法、装置、设备及存储介质
CN113283675A (zh) 指标数据分析方法、装置、设备及存储介质
CN113064973A (zh) 文本分类方法、装置、设备及存储介质
CN113268597B (zh) 文本分类方法、装置、设备及存储介质
CN113094478B (zh) 表情回复方法、装置、设备及存储介质
CN113408268A (zh) 槽位填充方法、装置、设备及存储介质
CN113420545B (zh) 摘要生成方法、装置、设备及存储介质
CN113536770B (zh) 基于人工智能的文本解析方法、装置、设备及存储介质
CN113705468B (zh) 基于人工智能的数字图像识别方法及相关设备
CN115237859A (zh) 需求文档质量检测方法、装置、设备及存储介质
CN113420143B (zh) 文书摘要生成方法、装置、设备及存储介质
CN111783425B (zh) 基于句法分析模型的意图识别方法及相关装置
CN113269179A (zh) 数据处理方法、装置、设备及存储介质
CN113627186B (zh) 基于人工智能的实体关系检测方法及相关设备
CN113486680B (zh) 文本翻译方法、装置、设备及存储介质
CN114581177B (zh) 产品推荐方法、装置、设备及存储介质
CN112989044B (zh) 文本分类方法、装置、设备及存储介质
CN113326365B (zh) 回复语句生成方法、装置、设备及存储介质
CN116629423A (zh) 用户行为预测方法、装置、设备及存储介质
CN111401069A (zh) 会话文本的意图识别方法、意图识别装置及终端
CN112949305B (zh) 负反馈信息采集方法、装置、设备及存储介质
CN114943474A (zh) 研发工作量检测方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant