CN117251557A - 法规咨询语句答复方法、装置、设备和计算机可读介质 - Google Patents
法规咨询语句答复方法、装置、设备和计算机可读介质 Download PDFInfo
- Publication number
- CN117251557A CN117251557A CN202311541994.3A CN202311541994A CN117251557A CN 117251557 A CN117251557 A CN 117251557A CN 202311541994 A CN202311541994 A CN 202311541994A CN 117251557 A CN117251557 A CN 117251557A
- Authority
- CN
- China
- Prior art keywords
- information
- rule
- regulation
- consultation
- tag index
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000001105 regulatory effect Effects 0.000 claims abstract description 32
- 238000012216 screening Methods 0.000 claims abstract description 28
- 239000013598 vector Substances 0.000 claims description 109
- 230000004044 response Effects 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 9
- 230000011218 segmentation Effects 0.000 claims description 8
- 238000000638 solvent extraction Methods 0.000 claims 1
- 230000004927 fusion Effects 0.000 description 34
- 230000007246 mechanism Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000003062 neural network model Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000013145 classification model Methods 0.000 description 5
- 238000003058 natural language processing Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000019771 cognition Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/31—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/18—Legal services
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Tourism & Hospitality (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Human Resources & Organizations (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Primary Health Care (AREA)
- Marketing (AREA)
- Technology Law (AREA)
- Human Computer Interaction (AREA)
- Economics (AREA)
- Machine Translation (AREA)
Abstract
本公开的实施例公开了法规咨询语句答复方法、装置、设备和计算机可读介质。该方法的一具体实施方式包括:获取法规咨询语句;生成该法规咨询语句对应的法规标签索引信息;确定该法规标签索引信息对应的至少一个法规信息;从该至少一个法规信息中筛选出目标法规信息,其中,该目标法规信息是对应法规内容与该法规咨询语句对应语句内容之间满足预设相似条件的法规信息息;将该目标法规信息和该法规咨询语句输入至预先训练的语句答复生成式语言模型,以生成针对该法规咨询语句的法规答复语句;将该法规答复语句在目标终端上进行展示。该实施方式可以精准、高效地生成法规答复语句。
Description
技术领域
本公开的实施例涉及计算机技术领域,具体涉及法规咨询语句答复方法、装置、设备和计算机可读介质。
背景技术
目前,当前社会针对法律的应用和认知越来越深刻,人们可以通过各种途径获取相关法规内容。对于法规咨询语句的回复,通常采用的方式为:对法规咨询语句进行切词,对词块进行编码。通过“词性标注”、“意图识别”、“语义向量编码”等方法对语料进行搜索召回,再根据召回结果来组织回复答案。
然而,发明人发现,当采用上述方式,经常会存在如下技术问题:
第一,基于传统自然语言处理( Natural Language Processing, NLP)算法的人工智能方法需要组合大量的模型,例如“词性标注”、“意图识别”等每一步都需要一个模型,在实践中往往存在模型累计误差,最终导致召回的效果很差;
第二,现有的语句答复生成式语言模型在生成法规答复语句的过程中,对输入内容进行多次编码,导致存在输入内容的特征失真问题。除此之外,针对解码模型,常常存在特征考虑不够全面的问题,导致所输出的法规答复语句不够精准;
第三,现有编码与解码网络模型中的编码网络的编码效果往往具有局限性,导致所编码的结果存在有效特征信息失真的问题。
该背景技术部分中所公开的以上信息仅用于增强对本发明构思的背景的理解,并因此,其可包含并不形成本国的本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本公开的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本公开的一些实施例提出了法规咨询语句答复方法、装置、设备和计算机可读介质,来解决以上背景技术部分提到的技术问题中的一项或多项。
第一方面,本公开的一些实施例提供了一种法规咨询语句答复方法,包括:获取法规咨询语句;生成上述法规咨询语句对应的法规标签索引信息;确定上述法规标签索引信息对应的至少一个法规信息;从上述至少一个法规信息中筛选出目标法规信息,其中,上述目标法规信息是对应法规内容与上述法规咨询语句对应语句内容之间满足预设相似条件的法规信息;将上述目标法规信息和上述法规咨询语句输入至预先训练的语句答复生成式语言模型,以生成针对上述法规咨询语句的法规答复语句;将上述法规答复语句在目标终端上进行展示。
第二方面,本公开的一些实施例提供了一种法规咨询语句答复装置,包括:获取单元,被配置成获取法规咨询语句;生成单元,被配置成生成上述法规咨询语句对应的法规标签索引信息;确定单元,被配置成确定上述法规标签索引信息对应的至少一个法规信息;筛选单元,被配置成从上述至少一个法规信息中筛选出目标法规信息,其中,上述目标法规信息是对应法规内容与上述法规咨询语句对应语句内容之间满足预设相似条件的法规信息;输入单元,被配置成将上述目标法规信息和上述法规咨询语句输入至预先训练的语句答复生成式语言模型,以生成针对上述法规咨询语句的法规答复语句;展示单元,被配置成将上述法规答复语句在目标终端上进行展示。
第三方面,本公开的一些实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本公开的一些实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本公开的上述各个实施例具有如下有益效果:通过本公开的一些实施例的法规咨询语句答复方法可以精准、高效地生成法规答复语句。具体来说,造成相关的法规答复语句不够精确的原因在于:基于传统自然语言处理算法的人工智能方法需要组合大量的模型,例如“词性标注”、“意图识别”等每一步都需要一个模型,在实践中往往存在模型累计误差,最终导致召回的效果很差。基于此,本公开的一些实施例的法规咨询语句方法,首先,获取法规咨询语句,作为待回复的语句。然后,生成上述法规咨询语句对应的法规标签索引信息,以便于确定与语句内容相贴切的标签信息,便于后续法规信息的确定。再接着,可以精准地确定上述法规标签索引信息对应的至少一个法规信息。在这里,通过法规标签索引的方式,可以从多角度、多维度地、更高效地确定对应的至少一个法规信息。进而,从上述至少一个法规信息中筛选出目标法规信息,其中,上述目标法规信息是对应法规内容与上述法规咨询语句对应语句内容之间满足预设相似条件的法规信息。在这里,所得到的目标法规信息是与语句内容最贴切的法规信息。进而,将上述目标法规信息和上述法规咨询语句输入至预先训练的语句答复生成式语言模型,以生成针对上述法规咨询语句的法规答复语句。在这里,通过语句答复生成式语言模型可以更精准地生成法规答复语句。最后,将上述法规答复语句在目标终端上进行展示,以供相关用户观看。综上,通过确定语句内容对应的法规标签索引信息,以及法规标签索引信息确定目标法规信息的方式,可以精准地确定法规咨询语句所涉及的、更贴切的目标法规信息。由此,可以针对目标法规信息,精准地生成对应的法规答复语句。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,元件和元素不一定按照比例绘制。
图1是根据本公开的法规咨询语句答复方法的一些实施例的流程图;
图2是根据本公开的法规咨询语句答复装置的一些实施例的结构示意图;
图3是适于用来实现本公开的一些实施例的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
下面将参考附图并结合实施例来详细说明本公开。
参考图1,示出了根据本公开的法规咨询语句答复方法的一些实施例的流程100。该法规咨询语句答复方法,包括以下步骤:
步骤101,获取法规咨询语句。
在一些实施例中,上述法规咨询语句答复方法的执行主体可以通过有线连接方式或者无线连接方式来获取法规咨询语句。其中,法规咨询语句可以是咨询法规相关内容的语句。法规相关内容可以是法规条文。例如,法规咨询语句可以是“请提供相关股权激励的法规内容”。
步骤102,生成上述法规咨询语句对应的法规标签索引信息。
在一些实施例中,上述执行主体可以生成上述法规咨询语句对应的法规标签索引信息。其中,法规标签索引信息可以是表征法规相关特征的标签索引的索引信息。实践中,法规相关特征可以包括但不限于以下至少一项:法规使用范围特征,法规所属章节特征,法规实施时间特征。
在一些实施例的一些可选的实现方式中,上述生成上述法规咨询语句对应的法规标签索引信息,可以包括以下步骤:
第一步,对上述法规咨询语句进行分词处理,得到第一词序列。
作为示例,上述执行主体可以利用结巴分词,来对上述法规咨询语句进行分词处理,得到第一词序列。
第二步,获取法规划分维度信息集。其中,上述法规划分维度信息集包括:业务范围维度信息、适用板块维度信息、知识方向维度信息和规范对象维度信息。其中,法规划分维度信息可以是对法规进行划分的划分维度的维度信息。业务范围维度信息可以表征根据业务范围,对法规进行划分的划分维度的维度信息。业务范围可以是法规所涉及的业务的业务范围。适用板块维度信息可以是法规所使用的模块维度的维度信息。例如,模块维度可以包括但不限于以下至少一项:交易所板块,上市公司板块,科创板板块。知识方向维度信息可以是法规对应询问知识方向的维度的维度信息。询问知识方向可以是询问的知识方向。例如,询问知识方向可以是询问激励对象,还可以是询问激励价格。规范对象维度信息可以是法规对应的至少一个关键词的词维度的维度信息。法规对应的至少一个关键词可以是法规内容所关联的重要词汇。例如,法规对应的至少一个关键词可以包括:退休、辞退、退休金、辞退合同。
第三步,获取上述法规划分维度信息集中的每个法规划分维度信息对应的全量法规标签索引组,得到全量法规标签索引组集。全量法规标签索引组可以是全量的法规标签索引组。即,全量法规标签索引组集包括:业务范围维度信息对应的法规标签索引组、适用板块维度信息对应的法规标签索引组、知识方向维度信息对应的法规标签索引组、规范对象维度信息对应的法规标签索引组。
第四步,从上述第一词序列中筛选出关键词,得到至少一个关键词。
作为示例,上述执行主体可以从上述第一词序列中去除语气助词和标点符号,以生成去除后词序列,得到至少一个关键词。
第五步,对于上述至少一个关键词中的每个关键词,执行以下第一生成步骤:
第一子步骤,将上述关键词和上述全量法规标签索引组集中的每个全量法规标签索引输入至词内容关联度生成模型,以生成词内容关联度。其中,词内容关联度生成模型可以是生成词关联度的神经网络模型。实践中,词内容关联度生成模型可以是Transformer模型。
第二子步骤,从上述全量法规标签索引组集中筛选出对应词内容关联度对应数值满足目标数值筛选条件的法规标签索引,作为第一法规标签索引。其中,目标数值筛选条件可以是表征筛选出对应数值大于目标数值的词内容关联度的条件。目标数值可以是预先设置的数值。
第六步,对所得到的至少一个第一法规标签索引进行信息去重,得到去重后的第一法规标签索引集,作为上述法规标签索引信息。
可选地,上述全量法规标签索引组集通过以下步骤生成:
第一步,获取全量法规信息集。其中,全量法规信息集可以包括所有的法规信息。
第二步,对于上述全量法规信息集中的每个全量法规信息,执行以下第二生成步骤:
第一子步骤,对上述全量法规信息进行分词,得到第二词序列。
作为示例,上述执行主体可以通过结巴分词,对上述法规信息进行分词,得到第二词序列。
第二子步骤,将上述第二词序列输入至预先训练的法规划分信息生成语言模型,以生成法规划分信息。其中,上述法规划分信息生成语言模型包括:针对上述业务范围维度信息的生成模型、针对上述适用板块维度信息的生成模型、针对上述知识方向维度信息的生成模型和针对上述规范对象维度信息的生成模型。上述法规划分信息包括:针对上述业务范围维度信息的业务范围信息、针对上述适用板块维度信息的适用板块信息、针对上述知识方向维度信息的知识方向信息和针对上述规范对象维度信息的规范对象信息。其中,法规划分信息生成语言模型可以是生成法规划分信息的神经网络模型。具体地,法规划分信息生成语言模型包括多个子模型。即,多个子模型可以是多个生成模型。针对上述业务范围维度信息的生成模型可以是分类模型。针对上述适用板块维度信息的生成模型可以是分类模型。针对上述知识方向维度信息的生成模型可以是分类模型。针对上述规范对象维度信息的生成模型可以是分类模型。实践中,分类模型可以是多层串行连接的循环神经网络模型。
第三步,对所得到的法规划分信息集进行信息整合,以生成每个法规划分维度信息对应的全量法规标签索引组,得到全量法规标签索引组集。
作为示例,上述执行主体可以依据法规划分维度信息与法规标签索引之间的对应关系,来对所得到的法规划分信息集进行信息整合,得到全量法规标签索引组集。
可选地,上述生成上述法规咨询语句对应的法规标签索引信息,可以包括以下步骤:
第一步,将上述至少一个关键词输入至上述法规划分信息生成语言模型,以生成针对上述至少一个关键词的法规划分信息,作为目标法规划分信息。
第二步,根据上述目标法规划分信息,生成上述法规标签索引信息。
作为示例,上述执行主体可以直接将目标法规划分信息包括的各个法规标签索引确定为上述法规标签索引信息。
作为又一个示例,上述执行主体可以对目标法规划分信息包括的各个法规标签索引进行索引微调,得到各个微调后法规标签索引,作为法规标签索引信息。
步骤103,确定上述法规标签索引信息对应的至少一个法规信息。
在一些实施例中,上述执行主体可以确定上述法规标签索引信息对应的至少一个法规信息。其中,法规信息可以是法规的内容信息。实践中,法规信息可以是相关股权激励的法规内容。
作为示例,上述执行主体可以通过预先存储的表征法规信息与标签索引之间关联关系的关联表来确定上述法规标签索引信息对应的至少一个法规信息。
步骤104,从上述至少一个法规信息中筛选出目标法规信息。
在一些实施例中,上述执行主体可以从上述至少一个法规信息中筛选出目标法规信息。其中,上述目标法规信息是对应法规内容与上述法规咨询语句对应语句内容之间满足预设相似条件的法规信息。其中,预设相似条件可以是内容相似程度大于目标程度。其中,目标法规信息可以是与法规咨询语句对应语句内容最贴切的法规信息。
在一些实施例的一些可选的实现方式中,上述从上述至少一个法规信息中筛选出目标法规信息,可以包括以下步骤:
第一步,生成上述至少一个法规信息中的每个法规信息对应的法规语义向量。其中,法规语义向量可以是向量形式的、表征法规内容的内容语义信息。
作为示例,首先,上述执行主体可以利用Bert预训练模型,来生成上述至少一个法规信息中的每个法规信息对应的法规语义向量。
第二步,生成上述法规咨询语句对应的咨询语义向量。其中,咨询语义向量可以是向量形式的、表征法规咨询语句对应内容的内容语义信息。具体实现方式可以参见法规语义向量的生成。
第三步,从上述至少一个法规信息中筛选出对应法规语义向量与上述咨询语义向量之间的向量相似度满足上述预设相似条件的法规信息,作为目标法规信息。其中,向量相似度可以是余弦相似度。
在一些实施例的一些可选的实现方式中,上述法规标签索引信息包括:至少一个法规标签索引。
可选地,上述从上述至少一个法规信息中筛选出目标法规信息,可以包括以下步骤:
第一步,对于上述至少一个法规信息中的每个法规信息,执行以下第一确定步骤:
第一子步骤,对于上述法规划分维度信息集中的每个法规划分维度信息,执行以下第二确定步骤:
子步骤1,确定上述法规信息在上述法规划分维度信息下的全量法规标签索引。全量法规标签索引可以表征法规划分维度信息下,法规信息所有的可能取值。
作为示例,上述执行主体可以通过查询的方式来确定上述法规信息在上述法规划分维度信息下的全量法规标签索引。
子步骤2,确定上述至少一个法规标签索引中是否存在对应法规划分维度信息与上述法规划分维度信息相同的法规标签索引。
子步骤3,响应于确定存在,生成第二法规标签索引与上述全量法规标签索引之间的匹配信息。其中,上述第二法规标签索引是与上述法规划分维度信息相同的法规标签索引。其中,匹配信息可以表征第二法规标签索引与上述全量法规标签索引之间的索引相似度。
作为示例,上述执行主体可以将第二法规标签索引与上述全量法规标签索引之间语义相似度,确定为匹配信息。
子步骤4,生成针对上述匹配信息的得分信息。
作为示例,根据匹配信息包括的语义相似度的大小,查找对应的得分信息。
第二子步骤,将所得到的得分信息集中的各个得分信息进行相加,得到相加分数。
第二步,从上述至少一个法规信息中筛选出对应相加分数满足预设分数条件的法规信息,得到法规信息集。其中,预设分数条件可以是相加分数大于目标数值的法规信息。
第三步,从上述法规信息集中筛选出对应法规语义向量与上述咨询语义向量之间的向量相似度满足上述预设相似条件的法规信息,作为目标法规信息。其中,预设相似条件可以是对应向量相似度大于预定数值的法规信息。
步骤105,将上述目标法规信息和上述法规咨询语句输入至预先训练的语句答复生成式语言模型,以生成针对上述法规咨询语句的法规答复语句。
在一些实施例中,上述执行主体可以将上述目标法规信息和上述法规咨询语句输入至预先训练的语句答复生成式语言模型,以生成针对上述法规咨询语句的法规答复语句。其中,语句答复生成式语言模型可以是生成语句答复信息的神经网络模型。实践中,语句答复生成式语言模型可以是Transformer模型。法规答复语句可以是法规咨询语句的答复语句。
在一些实施例的一些可选的实现方式中,上述语句答复生成式语言模型包括:编码模型、解码模型和语句信息矫正模型。其中,语句信息矫正模型可以是对输入语句进行定制化矫正的神经网络模型。例如,语句信息矫正模型可以是Transformer模型。
可选地,上述将上述目标法规信息和上述法规咨询语句输入至预先训练的语句答复生成式语言模型,以生成针对上述法规咨询语句的法规答复语句,可以包括以下步骤:
第一步,获取上述法规咨询语句对应的第一词序列。
第二步,对上述第一词序列中的每个词进行词编码处理,以生成词编码向量,得到词编码向量序列。
第三步,将上述词编码向量序列中的第一词编码向量输入至上述编码模型包括的第一Transformer模型,得到第一输出结果。其中,上述第一词编码向量是上述词编码向量序列中第一位置的词编码向量。例如,第一位置可以是词编码向量序列中的第一个词编码向量对应的位置。
第四步,响应于确定上述词编码向量序列包括第二词编码向量,将上述第一输出结果和上述第二个词编码向量输入至上述编码模型包括的第二Transformer模型,得到第二输出结果。其中,上述第二词编码向量是上述词编码向量序列中第二位置的词编码向量。上述第二位置是上述第一位置之后的相邻位置。例如,针对第一位置为词编码向量序列中的第一个词编码向量对应的位置,第二位置可以是词编码向量序列中的第二个词编码向量对应的位置。
第五步,响应于确定上述词编码向量序列包括第三词编码向量,将第一输出结果和上述第二输出结果输入至注意力机制模型,以生成上述第一输出结果对应的第一权重值和上述第二输出结果对应的第二权重值。注意力机制模型可以是多头注意力机制模型。第一权重值和第二权重值都均为0-1之间的数值。第一权重值和第二权重值的相加和为数值1。其中,上述第三词编码向量是上述词编码向量序列中的第三位置的词编码向量。上述第三位置是上述第二位置之后的相邻位置。例如,针对第二位置是词编码向量序列中的第二个词编码向量对应的位置,第三词编码向量是词编码向量序列中的第三个词编码向量对应的位置。
第六步,将上述第一输出结果和上述第一权重值进行相乘,得到第一相乘结果,以及将第二输出结果和上述第二权重值进行相乘,得到第二相乘结果。
第七步,将上述第一相乘结果和上述第二相乘结果进行结果融合,得到第一融合结果。
作为示例,上述执行主体可以将第一相乘结果和第二相乘结果进行向量拼接,得到拼接结果,作为第一融合结果。
第八步,将上述第一融合结果和上述第三词编码向量输入至上述编码模型包括的第三Transformer模型,得到第三输出结果。
第九步,响应于确定上述词编码向量序列包括第四词编码向量,生成上述第一输出结果对应的第三权重值、上述第二输出结果对应的第四权重值和上述第三输出结果对应的第五权重值。其中,上述第四词编码向量是上述词编码向量序列中的第四位置的词编码向量。上述第四位置是上述第三位置之后的相邻位置。例如,针对第三位置是词编码向量序列中的第三个词编码向量对应的位置,第四词编码向量是词编码向量序列中的第四个词编码向量对应的位置。
作为示例,上述执行主体可以通过多头注意力机制神经网络模型,来生成上述第一输出结果对应的第三权重值、上述第二输出结果对应的第四权重值和上述第三输出结果对应的第五权重值。
第十步,根据上述第一输出结果、上述第三权重值、上述第二输出结果、上述第四权重值、上述第三输出结果和上述第五权重值,生成第二融合结果。
作为示例,首先,上述执行主体可以将第一输出结果和上述第三权重值进行相乘,得到第三相乘结果,以及将第二输出结果和上述第四权重值进行相乘,得到第四相乘结果,以及将第三输出额记过和上述第五权重值进行相乘,得到第五相乘结果。然后,将第三相乘结果、第四相乘结果和第五相乘结果进行融合,得到第二融合结果。
第十一步,将上述第四词编码向量和上述第二融合结果输入至上述编码模型包括的第四Transformer模型,得到第四输出结果。
第十二步,响应于确定上述词编码向量序列包括第五词编码向量,生成上述第一输出结果对应的第六权重值、上述第二输出结果对应的第七权重值、上述第三输出结果对应的第八权重值和上述第四输出结果对应的第九权重值。其中,上述第五词编码向量是上述词编码向量序列中的第五位置的词编码向量,上述第五位置是上述第四位置之后的相邻位置。例如,针对第四位置是词编码向量序列中的第四个词编码向量对应的位置,第五词编码向量是词编码向量序列中的第五个词编码向量对应的位置。
作为示例,上述执行主体可以通过多头注意力机制神经网络模型,来生成上述第一输出结果对应的第六权重值、上述第二输出结果对应的第七权重值、上述第三输出结果对应的第八权重值和上述第四输出结果对应的第九权重值。
第十三步,根据上述第一输出结果、上述第六权重值、上述第二输出结果、上述第七权重值、上述第三输出结果、上述第八权重值、上述第四输出结果和上述第九权重值,生成第三融合结果。具体实现方式可以参见第二融合结果的生成。
第十四步,将上述第五词编码向量和上述第三融合结果输入至上述编码模型包括的第五Transformer模型,得到第五输出结果。
第十五步,根据上述第一输出结果对应的第十权重值、上述第二输出结果对应的第十一权重值、上述第三输出结果对应的第十二权重值、上述第四输出结果对应的第十三权重值和上述第五输出结果对应的第十四权重值,生成第四融合结果。具体实现方式可以参见第三融合结果的生成方式。
第十六步,将上述第四融合结果输入至多层串联连接的Transformer模型,以生成编码结果。多层串联连接的Transformer模型可以用于对输入结果进行多次编码的网络模型。
第十七步,将上述编码结果输入至上述解码模型包括的多个串行连接的Transformer模型,以生成解码结果。其中,解码模型包括的多个串行连接的Transformer模型用于对输入结果进行多次解码的网络模型。
第十八步,根据上述第一输出结果、上述第一输出结果对应的第十五权重值、上述第二输出结果、上述第二输出结果对应的第十六权重值、上述第三输出结果、上述第三输出结果对应的第十七权重值、上述第四输出结果、上述第四输出结果对应的第十八权重值、上述第五输出结果、上述第五输出结果对应的第十九权重值,生成第五融合结果。其中,第十五权重值、第十六权重值、第十七权重值、第十八权重值和第十九权重值可以基于多头注意力机制模型生成的权重值。第十五权重值、第十六权重值、第十七权重值、第十八权重值和第十九权重值之和为数值1。
作为示例,首先,上述执行主体可以将第一输出结果和上述第十五权重结果进行相乘,得到第六相乘结果,以及将第二输出结果和第十六权重值进行相乘,得到第七相乘结果,以及将第三输出结果和第十七权重值进行相乘,得到第八相乘结果,以及将第四相乘结果和第十八权重值进行相乘,得到第九相乘结果,以及将第五相乘结果和第十九权重值进行相乘,得到第十相乘结果。然后,将第六相乘结果、第七相乘结果、第八相乘结果、第九相乘结果和第十相乘结果进行结果融合,得到第五融合结果。
第十九步,将上述第五融合结果和上述解码结果输入至上述解码模型包括的第五Transformer模型,得到第一解码结果。
第二十步,将上述第一解码结果输入至第一输出层,得到第一输出结果。其中,第一输出层可以是全连接层。
第二十一步,响应于确定上述第一输出结果不是为最后输出结果,根据上述第一输出结果、上述第一输出结果对应的第二十权重值、上述第二输出结果、上述第二输出结果对应的第二十一权重值、上述第三输出结果、上述第三输出结果对应的第二十二权重值、上述第四输出结果、上述第四输出结果对应的第二十三权重值、上述第五输出结果、上述第五输出结果对应的第二十四权重值,生成第六融合结果。具体实现方式可以参见第五融合结果的生成。对应各个权重值的生成可以利用多头注意力机制模型来生成。
第二十二步,将上述第六融合结果、上述第一解码结果和上述第一输出结果输入至上述解码模型包括的第六Transformer模型,得到第二解码结果。
第二十三步,将上述第二解码结果输入至第二输出层,得到第二输出结果。其中,第二输出层可以是全连接层。
第二十四步,响应于确定上述第二输出结果不是为最后输出结果,根据上述第一输出结果、上述第一输出结果对应的第二十五权重值、上述第二输出结果、上述第二输出结果对应的第二十六权重值、上述第三输出结果、上述第三输出结果对应的第二十七权重值、上述第四输出结果、上述第四输出结果对应的第二十八权重值、上述第五输出结果、上述第五输出结果对应的第二十九权重值,生成第七融合结果。具体实现方式可以参见第五融合结果的生成。对应各个权重值的生成可以利用多头注意力机制模型来生成。
第二十五步,根据上述第一解码结果、上述第一解码结果对应的第一解码权重值、上述第二解码结果和上述第二解码结果对应的第二解码权重值,生成第一解码融合结果。
作为示例,首先,上述执行主体可以将第一解码结果和上述第一解码权重值进行相乘,得到第十一相乘结果,以及将第二解码结果和第二解码权重值进行相乘,得到第十二相乘结果。然后,将第十一相乘结果和第十二相乘结果的融合结果,确定为第一解码融合结果。
第二十六步,将上述第一解码融合结果、上述第七融合结果和上述第二输出结果输入至上述解码模型包括的第七Transformer模型,得到第三解码结果。
第二十七步,将上述第三解码结果输入至第三输出层,得到第三输出结果。其中,第三输出层可以是全连接层。
第二十八步,响应于确定上述第三输出结果不是为最后输出结果,根据上述第一输出结果、上述第一输出结果对应的第二十五权重值、上述第二输出结果、上述第二输出结果对应的第二十六权重值、上述第三输出结果、上述第三输出结果对应的第二十七权重值、上述第四输出结果、上述第四输出结果对应的第二十八权重值、上述第五输出结果、上述第五输出结果对应的第二十九权重值,生成第八融合结果。具体实现方式可以参见第五融合结果的生成。对应各个权重值的生成可以利用多头注意力机制模型来生成。
第二十九步,根据上述第一解码结果、上述第一解码结果对应的第三解码权重值、上述第二解码结果、上述第二解码结果对应的第四解码权重值、上述第三解码结果和上述第三解码结果对应的第五解码权重值,生成第二解码融合结果。具体实现方式可以参见第一解码融合结果的生成。
第三十步,将上述第二解码融合结果、上述第八融合结果和第三输出结果输入至上述解码模型包括的第七Transformer模型,得到第四解码结果。
第三十一步,将上述第四解码结果输入至第四输出层,得到第四输出结果。其中,第四输出层可以是全连接层。
第三十二步,响应于确定上述第四输出结果为最后输出结果,根据上述第一输出结果、上述第二输出结果、上述第三输出结果和上述第四输出结果,生成针对上述法规咨询语句的初始法规答复语句。
作为示例,上述执行主体可以将第一输出结果、第二输出结果、第三输出结果和第四输出结果进行结果顺序拼接,得到拼接结果,作为初始法规答复语句。
第三十三步,根据上述目标法规信息,对初始法规答复语句进行语句调整,以生成调整后法规答复语句,作为上述法规答复语句。
作为示例,上述执行主体可以将目标法规信息和初始法规答复语句输入至语句信息矫正模型,以生成矫正后语句信息,作为法规答复语句。
上述“第一步-第三十三步”,作为本公开的发明点之一,解决了背景技术问题二“现有的语句答复生成式语言模型在生成法规答复语句的过程中,对输入内容进行多次编码,导致存在输入内容的特征失真问题。除此之外,针对解码模型,常常存在特征考虑不够全面的问题,导致所输出的法规答复语句不够精准”。基于此,本公开在编码模型通过多头注意力机制,在每层特征融合的过程中,充分考虑历史特征提取层的输入,在此基础上,在融合所有输入特征后,再进行特征的编码,不仅避免了对输入内容的进行多次编码,还避免了存在输入内容的特征失真问题。除此之外,在解码模型中,不仅充分考虑历史解码层的各个输出的特征占比,还考虑了输入层的各个输出特征,大大提高了解码精准性,提高了后续法规答复语句的生成精准性。
在一些实施例的一些可选的实现方式中,上述语句答复生成式语言模型包括:第一编码解码模型、第二编码解码模型、第三编码解码模型、词编码模型和词解码模型。其中,第一编码解码模型包括:第一编码模型和第一解码模型。第二编码解码模型包括:第二编码模型和第二解码模型。第三编码解码模型包括:第三编码解码模型和第三编码解码模型。第一编码解码模型对应的解码向量的向量维度大于第二编码解码模型对应的解码向量的向量维度。第二编码解码模型对应的解码向量的向量维度大于第三编码解码模型对应的解码向量的向量维度。
可选地,上述将上述目标法规信息和上述法规咨询语句输入至预先训练的语句答复生成式语言模型,以生成针对上述法规咨询语句的法规答复语句,可以包括以下步骤:
第一步,获取上述法规咨询语句对应的第一词序列。
第二步,对上述第一词序列中的每个词进行词编码处理,以生成词编码向量,得到词编码向量序列。
第三步,将词编码向量序列输入至第一编码解码模型,以生成第一解码向量序列。
第四步,将词编码向量序列输入至第二编码解码模型,以生成第二解码向量序列。
第五步,将词编码向量序列输入至第三编码解码模型,以生成第三解码向量序列。
第六步,将词编码向量序列中的每个词编码向量输入至词编码模型,以生成编码向量,得到编码向量序列。
第七步,对第一解码向量序列、第二解码向量序列、第三解码向量序列和编码向量序列中对应位置的向量进行向量融合,以生成融合向量序列。
第八步,将融合向量序列输入至上述词解码模型,以生成第四解码向量序列。
第九步,将第四解码向量序列依次输入至多层串行连接的反卷积网络中的对应反卷积网络,以生成反卷积结果,得到反卷积结果序列。
第十步,将反卷积结果序列中的每个反卷积结果输入至全连接层,以生成法规答复词,得到法规答复词序列。
第十一步,将法规答复词序列中的各个法规答复词进行组合,以生成组合语句,作为法规答复语句。
上述“第一步-第十一步”,作为本公开的发明点之一,解决了背景技术问题三“现有编码与解码网络模型中的编码网络的编码效果往往具有局限性,导致所编码的结果存在有效特征信息失真的问题”。基于此,本公开,在对词编码向量序列进行词编码时,通过多维度特征提取的多个编码解码模型来进行编码结果的生成,可以提取更为精准地有效特征信息。再基于词编码模型和词解码模型,可以后续生成更为精准地法规答复语句。
步骤106,将上述法规答复语句在目标终端上进行展示。
在一些实施例中,上述执行主体可以将上述法规答复语句在目标终端上进行展示。其中,目标终端可以是法规咨询语句对应发起用户的使用终端。
本公开的上述各个实施例具有如下有益效果:通过本公开的一些实施例的法规咨询语句答复方法可以精准、高效地生成法规答复语句。具体来说,造成相关的法规答复语句不够精确的原因在于:基于传统自然语言处理算法的人工智能方法需要组合大量的模型,例如“词性标注”、“意图识别”等每一步都需要一个模型,在实践中往往累计误差,最终导致召回的效果很差。基于此,本公开的一些实施例的法规咨询语句方法,首先,获取法规咨询语句,作为待回复的语句。然后,生成上述法规咨询语句对应的法规标签索引信息,以便于确定与语句内容相贴切的标签信息,便于后续法规信息的确定。再接着,可以精准地确定上述法规标签索引信息对应的至少一个法规信息。在这里,通过法规标签索引的方式,可以从多角度、多维度地、更高效地确定对应的至少一个法规信息。进而,从上述至少一个法规信息中筛选出目标法规信息,其中,上述目标法规信息是对应法规内容与上述法规咨询语句对应语句内容之间满足预设相似条件的法规信息。在这里,所得到的目标法规信息是与语句内容最贴切的法规信息。进而,将上述目标法规信息和上述法规咨询语句输入至预先训练的语句答复生成式语言模型,以生成针对上述法规咨询语句的法规答复语句。在这里,通过语句答复生成式语言模型可以更精准地生成法规答复语句。最后,将上述法规答复语句在目标终端上进行展示,以供相关用户观看。综上,通过确定语句内容对应的法规标签索引信息,以及法规标签索引信息确定目标法规信息的方式,可以精准地确定法规咨询语句所涉及的、更贴切的目标法规信息。由此,可以针对目标法规信息,精准地生成对应的法规答复语句。
进一步参考图2,作为对上述各图所示方法的实现,本公开提供了一种法规咨询语句答复装置的一些实施例,这些装置实施例与图1所示的那些方法实施例相对应,该法规咨询语句答复装置具体可以应用于各种电子设备中。
如图2所示,一种法规咨询语句答复装置200包括:获取单元201、生成单元202、确定单元203、筛选单元204、输入单元205和展示单元206。其中,获取单元201,被配置成获取法规咨询语句;生成单元202,被配置成生成上述法规咨询语句对应的法规标签索引信息;确定单元203,被配置成确定上述法规标签索引信息对应的至少一个法规信息;筛选单元204,被配置成从上述至少一个法规信息中筛选出目标法规信息,其中,上述目标法规信息是对应法规内容与上述法规咨询语句对应语句内容之间满足预设相似条件的法规信息;输入单元205,被配置成将上述目标法规信息和上述法规咨询语句输入至预先训练的语句答复生成式语言模型,以生成针对上述法规咨询语句的法规答复语句;展示单元206,被配置成将上述法规答复语句在目标终端上进行展示。
可以理解的是,该法规咨询语句答复装置200中记载的诸单元与参考图1描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于法规咨询语句答复装置200及其中包含的单元,在此不再赘述。
下面参考图3,其示出了适于用来实现本公开的一些实施例的电子设备(例如,电子设备)300的结构示意图。图3示出的电子设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图3所示,电子设备300可以包括处理装置(例如中央处理器、图形处理器等)301,其可以根据存储在只读存储器(ROM)302中的程序或者从存储装置308加载到随机访问存储器(RAM)303中的程序而执行各种适当的动作和处理。在RAM 303中,还存储有电子设备300操作所需的各种程序和数据。处理装置301、ROM 302以及RAM 303通过总线304彼此相连。输入/输出(I/O)接口305也连接至总线304。
通常,以下装置可以连接至I/O接口305:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置306;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置307;包括例如磁带、硬盘等的存储装置308;以及通信装置309。通信装置309可以允许电子设备300与其他设备进行无线或有线通信以交换数据。虽然图3示出了具有各种装置的电子设备300,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图3中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的一些实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的一些实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一些实施例中,该计算机程序可以通过通信装置309从网络上被下载和安装,或者从存储装置308被安装,或者从ROM 302被安装。在该计算机程序被处理装置301执行时,执行本公开的一些实施例的方法中限定的上述功能。
需要说明的是,本公开的一些实施例上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的一些实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的一些实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取法规咨询语句;生成上述法规咨询语句对应的法规标签索引信息;确定上述法规标签索引信息对应的至少一个法规信息;从上述至少一个法规信息中筛选出目标法规信息,其中,上述目标法规信息是对应法规内容与上述法规咨询语句对应语句内容之间满足预设相似条件的法规信息;将上述目标法规信息和上述法规咨询语句输入至预先训练的语句答复生成式语言模型,以生成针对上述法规咨询语句的法规答复语句;将上述法规答复语句在目标终端上进行展示。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的一些实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的一些实施例中的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、生成单元、确定单元、筛选单元、输入单元和展示单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取法规咨询语句的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (9)
1.一种法规咨询语句答复方法,包括:
获取法规咨询语句;
生成所述法规咨询语句对应的法规标签索引信息;
确定所述法规标签索引信息对应的至少一个法规信息;
从所述至少一个法规信息中筛选出目标法规信息,其中,所述目标法规信息是对应法规内容与所述法规咨询语句对应语句内容之间满足预设相似条件的法规信息;
将所述目标法规信息和所述法规咨询语句输入至预先训练的语句答复生成式语言模型,以生成针对所述法规咨询语句的法规答复语句;
将所述法规答复语句在目标终端上进行展示。
2.根据权利要求1所述的方法,其中,所述生成所述法规咨询语句对应的法规标签索引信息,包括:
对所述法规咨询语句进行分词处理,得到第一词序列;
获取法规划分维度信息集,其中,所述法规划分维度信息集包括:业务范围维度信息、适用板块维度信息、知识方向维度信息和规范对象维度信息;
获取所述法规划分维度信息集中的每个法规划分维度信息对应的全量法规标签索引组,得到全量法规标签索引组集;
从所述第一词序列中筛选出关键词,得到至少一个关键词;
对于所述至少一个关键词中的每个关键词,执行以下第一生成步骤:
将所述关键词和所述全量法规标签索引组集中的每个全量法规标签索引输入至词内容关联度生成模型,以生成词内容关联度;
从所述全量法规标签索引组集中筛选出对应词内容关联度对应数值满足目标数值筛选条件的法规标签索引,作为第一法规标签索引;
对所得到的至少一个第一法规标签索引进行信息去重,得到去重后的第一法规标签索引集,作为所述法规标签索引信息。
3.根据权利要求2所述的方法,其中,所述从所述至少一个法规信息中筛选出目标法规信息,包括:
生成所述至少一个法规信息中的每个法规信息对应的法规语义向量;
生成所述法规咨询语句对应的咨询语义向量;
从所述至少一个法规信息中筛选出对应法规语义向量与所述咨询语义向量之间的向量相似度满足所述预设相似条件的法规信息,作为目标法规信息。
4.根据权利要求3所述的方法,其中,所述法规标签索引信息包括:至少一个法规标签索引;以及
所述从所述至少一个法规信息中筛选出目标法规信息,包括:
对于所述至少一个法规信息中的每个法规信息,执行以下第一确定步骤:
对于所述法规划分维度信息集中的每个法规划分维度信息,执行以下第二确定步骤:
确定所述法规信息在所述法规划分维度信息下的全量法规标签索引;
确定所述至少一个法规标签索引中是否存在对应法规划分维度信息与所述法规划分维度信息相同的法规标签索引;
响应于确定存在,生成第二法规标签索引与所述全量法规标签索引之间的匹配信息,其中,所述第二法规标签索引是与所述法规划分维度信息相同的法规标签索引;
生成针对所述匹配信息的得分信息;
将所得到的得分信息集中的各个得分信息进行相加,得到相加分数;
从所述至少一个法规信息中筛选出对应相加分数满足预设分数条件的法规信息,得到法规信息集;
从所述法规信息集中筛选出对应法规语义向量与咨询语义向量之间的向量相似度满足所述预设相似条件的法规信息,作为目标法规信息。
5.根据权利要求4所述的方法,其中,所述全量法规标签索引组集通过以下步骤生成:
获取全量法规信息集;
对于所述全量法规信息集中的每个全量法规信息,执行以下第二生成步骤:
对所述全量法规信息进行分词,得到第二词序列;
将所述第二词序列输入至预先训练的法规划分信息生成语言模型,以生成法规划分信息,其中,所述法规划分信息生成语言模型包括:针对所述业务范围维度信息的生成模型、针对所述适用板块维度信息的生成模型、针对所述知识方向维度信息的生成模型和针对所述规范对象维度信息的生成模型,所述法规划分信息包括:针对所述业务范围维度信息的业务范围信息、针对所述适用板块维度信息的适用板块信息、针对所述知识方向维度信息的知识方向信息和针对所述规范对象维度信息的规范对象信息;
对所得到的法规划分信息集进行信息整合,以生成每个法规划分维度信息对应的全量法规标签索引组,得到全量法规标签索引组集。
6.根据权利要求5所述的方法,其中,所述生成所述法规咨询语句对应的法规标签索引信息,包括:
将所述至少一个关键词输入至所述法规划分信息生成语言模型,以生成针对所述至少一个关键词的法规划分信息,作为目标法规划分信息;
根据所述目标法规划分信息,生成所述法规标签索引信息。
7.一种法规咨询语句答复装置,包括:
获取单元,被配置成获取法规咨询语句;
生成单元,被配置成生成所述法规咨询语句对应的法规标签索引信息;
确定单元,被配置成确定所述法规标签索引信息对应的至少一个法规信息;
筛选单元,被配置成从所述至少一个法规信息中筛选出目标法规信息,其中,所述目标法规信息是对应法规内容与所述法规咨询语句对应语句内容之间满足预设相似条件的法规信息;
输入单元,被配置成将所述目标法规信息和所述法规咨询语句输入至预先训练的语句答复生成式语言模型,以生成针对所述法规咨询语句的法规答复语句;
展示单元,被配置成将所述法规答复语句在目标终端上进行展示。
8.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
9.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-6中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311541994.3A CN117251557B (zh) | 2023-11-20 | 2023-11-20 | 法规咨询语句答复方法、装置、设备和计算机可读介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311541994.3A CN117251557B (zh) | 2023-11-20 | 2023-11-20 | 法规咨询语句答复方法、装置、设备和计算机可读介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117251557A true CN117251557A (zh) | 2023-12-19 |
CN117251557B CN117251557B (zh) | 2024-02-27 |
Family
ID=89137316
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311541994.3A Active CN117251557B (zh) | 2023-11-20 | 2023-11-20 | 法规咨询语句答复方法、装置、设备和计算机可读介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117251557B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117743555A (zh) * | 2024-02-07 | 2024-03-22 | 中关村科学城城市大脑股份有限公司 | 答复决策信息发送方法、装置、设备和计算机可读介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110931012A (zh) * | 2019-10-12 | 2020-03-27 | 深圳壹账通智能科技有限公司 | 答复消息生成方法、装置、计算机设备和存储介质 |
CN113297360A (zh) * | 2021-04-29 | 2021-08-24 | 天津汇智星源信息技术有限公司 | 基于弱监督学习和联合学习机制的法律问答方法及设备 |
WO2023273598A1 (zh) * | 2021-06-29 | 2023-01-05 | 北京字节跳动网络技术有限公司 | 文本搜索方法、装置、可读介质及电子设备 |
KR20230040477A (ko) * | 2021-09-16 | 2023-03-23 | 주식회사 랭코드 | 컨설팅 가이드 인터페이스 제공 장치, 시스템 및 방법 |
CN115858731A (zh) * | 2022-12-22 | 2023-03-28 | 北京用友政务软件股份有限公司 | 一种法规库法规匹配方法、装置及系统 |
CN115905497A (zh) * | 2022-12-23 | 2023-04-04 | 北京百度网讯科技有限公司 | 确定答复语句的方法、装置、电子设备和存储介质 |
-
2023
- 2023-11-20 CN CN202311541994.3A patent/CN117251557B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110931012A (zh) * | 2019-10-12 | 2020-03-27 | 深圳壹账通智能科技有限公司 | 答复消息生成方法、装置、计算机设备和存储介质 |
CN113297360A (zh) * | 2021-04-29 | 2021-08-24 | 天津汇智星源信息技术有限公司 | 基于弱监督学习和联合学习机制的法律问答方法及设备 |
WO2023273598A1 (zh) * | 2021-06-29 | 2023-01-05 | 北京字节跳动网络技术有限公司 | 文本搜索方法、装置、可读介质及电子设备 |
KR20230040477A (ko) * | 2021-09-16 | 2023-03-23 | 주식회사 랭코드 | 컨설팅 가이드 인터페이스 제공 장치, 시스템 및 방법 |
CN115858731A (zh) * | 2022-12-22 | 2023-03-28 | 北京用友政务软件股份有限公司 | 一种法规库法规匹配方法、装置及系统 |
CN115905497A (zh) * | 2022-12-23 | 2023-04-04 | 北京百度网讯科技有限公司 | 确定答复语句的方法、装置、电子设备和存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117743555A (zh) * | 2024-02-07 | 2024-03-22 | 中关村科学城城市大脑股份有限公司 | 答复决策信息发送方法、装置、设备和计算机可读介质 |
CN117743555B (zh) * | 2024-02-07 | 2024-04-30 | 中关村科学城城市大脑股份有限公司 | 答复决策信息发送方法、装置、设备和计算机可读介质 |
Also Published As
Publication number | Publication date |
---|---|
CN117251557B (zh) | 2024-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112528672B (zh) | 一种基于图卷积神经网络的方面级情感分析方法及装置 | |
US20230298562A1 (en) | Speech synthesis method, apparatus, readable medium, and electronic device | |
WO2024020416A1 (en) | Systems and methods for real-time search based generative artificial intelligence | |
CN111813909A (zh) | 一种智能问答方法和装置 | |
US20220391598A1 (en) | Text checking method based on knowledge graph, electronic device, and medium | |
CN113657100A (zh) | 实体识别方法、装置、电子设备及存储介质 | |
CN117251557B (zh) | 法规咨询语句答复方法、装置、设备和计算机可读介质 | |
US9208194B2 (en) | Expanding high level queries | |
US11734602B2 (en) | Methods and systems for automated feature generation utilizing formula semantification | |
CN111008213A (zh) | 用于生成语言转换模型的方法和装置 | |
CN111078849A (zh) | 用于输出信息的方法和装置 | |
CN113723095A (zh) | 文本审核方法、装置、电子设备和计算机可读介质 | |
CN117216393A (zh) | 信息推荐方法、信息推荐模型的训练方法及装置、设备 | |
CN117312641A (zh) | 智能获取信息的方法、装置、设备及存储介质 | |
CN113408702B (zh) | 音乐神经网络模型预训练方法及电子设备和存储介质 | |
CN111737572B (zh) | 搜索语句生成方法、装置和电子设备 | |
CN115905497A (zh) | 确定答复语句的方法、装置、电子设备和存储介质 | |
CN115617944A (zh) | 内容推荐方法、装置、存储介质及电子设备 | |
CN113128201B (zh) | 句子相似度确定方法、答案搜索方法、装置、设备、系统及介质 | |
CN115470790A (zh) | 一种识别文件中的命名实体的方法和装置 | |
CN109857838B (zh) | 用于生成信息的方法和装置 | |
CN114792086A (zh) | 一种支持文本交叉覆盖的信息抽取方法、装置、设备和介质 | |
CN112148751A (zh) | 用于查询数据的方法和装置 | |
CN112131378A (zh) | 用于识别民生问题类别的方法、装置及电子设备 | |
CN117743555B (zh) | 答复决策信息发送方法、装置、设备和计算机可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |