CN114882861A - 语音生成方法、装置、设备、介质及产品 - Google Patents
语音生成方法、装置、设备、介质及产品 Download PDFInfo
- Publication number
- CN114882861A CN114882861A CN202210452537.6A CN202210452537A CN114882861A CN 114882861 A CN114882861 A CN 114882861A CN 202210452537 A CN202210452537 A CN 202210452537A CN 114882861 A CN114882861 A CN 114882861A
- Authority
- CN
- China
- Prior art keywords
- network model
- user
- generate
- voice
- emotion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 238000001228 spectrum Methods 0.000 claims abstract description 136
- 230000008451 emotion Effects 0.000 claims abstract description 129
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 65
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 65
- 230000003993 interaction Effects 0.000 claims abstract description 61
- 230000002452 interceptive effect Effects 0.000 claims abstract description 51
- 238000012549 training Methods 0.000 claims abstract description 45
- 239000013598 vector Substances 0.000 claims description 151
- 238000000605 extraction Methods 0.000 claims description 62
- 238000012545 processing Methods 0.000 claims description 43
- 230000002776 aggregation Effects 0.000 claims description 32
- 238000004220 aggregation Methods 0.000 claims description 32
- 230000006399 behavior Effects 0.000 claims description 31
- 230000033001 locomotion Effects 0.000 claims description 25
- 230000001815 facial effect Effects 0.000 claims description 19
- 230000009471 action Effects 0.000 claims description 17
- 230000002996 emotional effect Effects 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 8
- 238000010195 expression analysis Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 238000007499 fusion processing Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 230000003595 spectral effect Effects 0.000 claims 2
- 230000008569 process Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000008921 facial expression Effects 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 238000006116 polymerization reaction Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 125000004122 cyclic group Chemical group 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000008909 emotion recognition Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明属于语音交互技术领域,具体提供一种语音生成方法、装置、设备、介质及产品,该方法包括:获取当前语音交互待生成语音的文本音素序列和目标用户在上一次语音交互的历史交互视频数据;将所述历史交互视频数据输入训练至收敛的情感分析网络模型,以输出对应用户情感特征数据;将所述文本音素序列和所述用户情感特征数据输入训练至收敛的音频频谱合成网络模型,以生成目标音频频谱;将所述目标音频频谱输入预设声码器网络模型,以生成目标语音。本发明的语音生成方法,可以生成情感更丰富的目标语音,提高用户体验。
Description
技术领域
本发明涉及语音交互技术领域,尤其涉及一种语音生成方法、装置、设备、介质及产品。
背景技术
随着人工智能技术的飞速发展,多模态数字人智能客服被广泛应用于金融、物流等领域,通过智能化的各功能提高了企业客服的服务水平。多模态数字人智能客服在传统电话外呼场景的智能客服的基础上,将计算机视觉、智能语音、自然语言处理等人工智能技术深度融合,给用户提供了一种更加真实的交互方式。
在目前的多模态数字人交互系统中,通常采用一个通用发音人进行模型训练和语音合成。该方法虽然可以满足智能语音交互的基本需求,但是音色、情感比较单一,多轮对话后用户体验较差。
发明内容
本发明提供一种语音生成方法、装置、设备、介质及产品,用以解决目前多模态数字人交互系统中,采用通用发音人,音色和情感比较单一,导致的用户体验较差问题。
本发明第一方面提供一种语音生成方法,包括:
获取当前语音交互待生成语音的文本音素序列和目标用户在上一次语音交互的历史交互视频数据;
将所述历史交互视频数据输入训练至收敛的情感分析网络模型,以输出对应用户情感特征数据;
将所述文本音素序列和所述用户情感特征数据输入训练至收敛的音频频谱合成网络模型,以生成目标音频频谱;
将所述目标音频频谱输入预设声码器网络模型,以生成目标语音。
进一步地,如上所述的方法,所述情感分析网络模型包括:音频特征提取网络子模型和视频特征提取子网络模型;所述用户情感特征数据包括:用户动作情感特征向量和用户声音情感特征向量;
所述将所述历史交互视频数据输入训练至收敛的情感分析网络模型,以输出对应用户情感特征数据,包括:
采用所述视频特征提取子网络模型对历史交互视频数据进行动作相关特征提取,以生成对应用户面部特征向量和用户行为特征向量;
采用所述视频特征提取子网络模型对所述用户面部特征向量和所述用户行为特征向量进行情感分析处理,以生成对应用户动作情感特征向量;
采用音频特征提取网络子模型对所述历史交互视频数据中的音频信息进行特征提取处理,以生成对应用户声音情感特征向量。
进一步地,如上所述的方法,所述采用所述视频特征提取子网络模型对历史交互视频数据进行动作相关特征提取,以生成对应用户面部特征向量和用户行为特征向量,包括:
采用所述视频特征提取子网络模型对所述历史交互视频数据进行面部识别及表情分析处理,以生成对应用户面部特征向量;
采用所述视频特征提取子网络模型对所述历史交互视频数据进行动作捕捉分析处理,以生成对应用户行为特征向量。
进一步地,如上所述的方法,所述音频频谱合成网络模型包括:编码器、聚合子网络模型和解码器;
所述将所述文本音素序列和所述用户情感特征数据输入训练至收敛的音频频谱合成网络模型,以生成目标音频频谱,包括:
采用所述编码器对所述文本音素序列进行特征提取,以生成对应文本特征向量;
采用所述聚合子网络模型对所述文本特征向量和所述用户情感特征数据进行通道维度连接和线性变换融合处理,以使所述用户情感特征数据嵌入所述文本特征向量中,生成对应聚合特征向量;
将所述聚合特征向量输入所述解码器进行解码处理,以生成目标音频频谱。
进一步地,如上所述的方法,所述音频频谱合成网络模型还包括:注意力对齐子网络模型;
所述方法还包括:
采用所述解码器对所述聚合特征向量进行解码处理,以生成语音特征向量;
采用所述注意力对齐子网络模型对所述聚合特征向量和所述语音特征向量进行对齐处理,以生成对齐后的聚合特征向量;
所述将所述聚合特征向量输入所述解码器进行解码处理,以生成目标音频频谱,包括:
将所述对齐后的聚合特征向量输入所述解码器进行解码处理,以生成目标音频频谱。
进一步地,如上所述的方法,所述获取语音交互待生成语音的文本音素序列,包括:
获取语音交互待生成语音的文本数据;
将所述文本数据转化为对应文本音素序列。
进一步地,如上所述的方法,所述将所述目标音频频谱输入预设声码器网络模型,以生成目标语音,包括:
采用预设声码器网络模型将所述目标音频频谱转化为时域波形,以生成目标语音。
进一步地,如上所述的方法,所述将所述文本音素序列和所述用户情感特征数据输入训练至收敛的音频频谱合成网络模型,以生成目标音频频谱之前,还包括:
获取训练样本,所述训练样本中包括:用户的历史交互视频数据和用户实际音频频谱;
将所述训练样本输入到预设音频频谱合成网络模型中,以对所述预设音频频谱合成网络模型进行训练;
采用均方误差损失函数判断所述预设音频频谱合成网络模型是否满足收敛条件;
将满足收敛条件的所述预设音频频谱合成网络模型确定为训练至收敛的音频频谱合成网络模型。
本发明第二方面提供一种语音生成装置,包括:
获取模块,用于获取当前语音交互待生成语音的文本音素序列和目标用户在上一次语音交互的历史交互视频数据;
输出模块,用于将所述历史交互视频数据输入训练至收敛的情感分析网络模型,以输出对应用户情感特征数据;
频谱生成模块,用于将所述文本音素序列和所述用户情感特征数据输入训练至收敛的音频频谱合成网络模型,以生成目标音频频谱;
语音生成模块,用于将所述目标音频频谱输入预设声码器网络模型,以生成目标语音。
进一步地,如上所述的装置,所述情感分析网络模型包括:音频特征提取网络子模型和视频特征提取子网络模型;所述用户情感特征数据包括:用户动作情感特征向量和用户声音情感特征向量;
所述输出模块具体用于:
采用所述视频特征提取子网络模型对历史交互视频数据进行动作相关特征提取,以生成对应用户面部特征向量和用户行为特征向量;采用所述视频特征提取子网络模型对所述用户面部特征向量和所述用户行为特征向量进行情感分析处理,以生成对应用户动作情感特征向量;采用音频特征提取网络子模型对所述历史交互视频数据中的音频信息进行特征提取处理,以生成对应用户声音情感特征向量。
进一步地,如上所述的装置,所述输出模块在采用所述视频特征提取子网络模型对历史交互视频数据进行动作相关特征提取,以生成对应用户面部特征向量和用户行为特征向量时,具体用于:
采用所述视频特征提取子网络模型对所述历史交互视频数据进行面部识别及表情分析处理,以生成对应用户面部特征向量;采用所述视频特征提取子网络模型对所述历史交互视频数据进行动作捕捉分析处理,以生成对应用户行为特征向量。
进一步地,如上所述的装置,所述音频频谱合成网络模型包括:编码器、聚合子网络模型和解码器;
所述频谱生成模块具体用于:
采用所述编码器对所述文本音素序列进行特征提取,以生成对应文本特征向量;采用所述聚合子网络模型对所述文本特征向量和所述用户情感特征数据进行通道维度连接和线性变换融合处理,以使所述用户情感特征数据嵌入所述文本特征向量中,生成对应聚合特征向量;将所述聚合特征向量输入所述解码器进行解码处理,以生成目标音频频谱。
进一步地,如上所述的装置,所述音频频谱合成网络模型还包括:注意力对齐子网络模型;
所述频谱生成模块还用于:
采用所述解码器对所述聚合特征向量进行解码处理,以生成语音特征向量;采用所述注意力对齐子网络模型对所述聚合特征向量和所述语音特征向量进行对齐处理,以生成对齐后的聚合特征向量;
所述频谱生成模块在将所述聚合特征向量输入所述解码器进行解码处理,以生成目标音频频谱时,具体用于:
将所述对齐后的聚合特征向量输入所述解码器进行解码处理,以生成目标音频频谱。
进一步地,如上所述的装置,所述获取模块具体用于:
获取语音交互待生成语音的文本数据;将所述文本数据转化为对应文本音素序列。
进一步地,如上所述的装置,所述语音生成模块具体用于:
采用预设声码器网络模型将所述目标音频频谱转化为时域波形,以生成目标语音。
进一步地,如上所述的装置,所述语音生成装置还包括:
训练模块,用于获取训练样本,所述训练样本中包括:用户的历史交互视频数据和用户实际音频频谱;将所述训练样本输入到预设音频频谱合成网络模型中,以对所述预设音频频谱合成网络模型进行训练;采用均方误差损失函数判断所述预设音频频谱合成网络模型是否满足收敛条件;将满足收敛条件的所述预设音频频谱合成网络模型确定为训练至收敛的音频频谱合成网络模型。
本发明第三方面提供一种电子设备,包括:处理器,以及与所述处理器通信连接的存储器;
所述存储器存储计算机执行指令;
所述处理器执行所述存储器存储的计算机执行指令,以实现如第一方面任一项所述的语音生成方法。
本发明第四方面提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现第一方面任一项所述的语音生成方法。
本发明第五方面提供一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现第一方面任一项所述的语音生成方法。
本发明提供的一种语音生成方法、装置、设备、介质及产品,该方法包括:获取当前语音交互待生成语音的文本音素序列和目标用户在上一次语音交互的历史交互视频数据;将所述历史交互视频数据输入训练至收敛的情感分析网络模型,以输出对应用户情感特征数据;将所述文本音素序列和所述用户情感特征数据输入训练至收敛的音频频谱合成网络模型,以生成目标音频频谱;将所述目标音频频谱输入预设声码器网络模型,以生成目标语音。本发明的语音生成方法,通过将目标用户上一次语音交互的历史交互视频数据输入训练至收敛的情感分析网络模型,可以输出用户情感特征数据,从而在将待生成语音的文本因素序列和用户情感特征数据输入训练至收敛的音频频谱合成网络模型后,可以生成更贴近实际音频频谱的目标音频频谱,最后通过将目标音频频谱输入预设声码器网络模型可以生成情感更丰富的目标语音,提高用户体验。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1为可以实现本发明实施例的语音生成方法的场景图;
图2为本发明第一实施例提供的语音生成方法的流程示意图;
图3为本发明第二实施例提供的语音生成方法的流程示意图;
图4为本发明第二实施例提供的语音生成方法的流程结构示意图;
图5为本发明第三实施例提供的语音生成装置的结构示意图;
图6为本发明第四实施例提供的语音生成装置的结构示意图;
图7为本发明第五实施例提供的电子设备的结构示意图。
通过上述附图,已示出本发明明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本发明构思的范围,而是通过参考特定实施例为本领域技术人员说明本发明的概念。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
本发明实施例的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
下面以具体地实施例对本发明的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本发明的实施例进行描述。
为了清楚理解本申请的技术方案,首先对现有技术的方案进行详细介绍。目前相对于传统人工客服,多模态数字人智能客服具有以下优势:1、可以提供7x24小时在线服务,2、节省企业用工成本,3、减少客户排队时间,提高服务质量。因而,多模态数字人智能客服被广泛应用于金融、物流等领域。多模态数字人智能客服在交互时需要进行语音合成,语音合成是一个将文本转化为语音输出的过程,这个过程的工作主要是将输入的文本按照发音分解成音素,并对特殊符号进行处理,通过声学模型和声码器将音素序列转换成数字音频。在目前的多模态数字人交互系统中,通常采用一个通用发音人进行模型训练和语音合成。该方法虽然可以满足智能语音交互的基本需求,但是音色、情感比较单一,多轮对话后用户体验较差。
所以针对现有技术中多模态数字人交互系统中,采用通用发音人,音色和情感比较单一,导致的用户体验较差的问题,发明人在研究中发现,为了解决该问题,可以结合用户情感特征,丰富发音人音色和情感,提高用户体验。
具体的,首先获取当前语音交互待生成语音的文本音素序列和目标用户在上一次语音交互的历史交互视频数据。同时,将历史交互视频数据输入训练至收敛的情感分析网络模型,以输出对应用户情感特征数据。然后将文本音素序列和用户情感特征数据输入训练至收敛的音频频谱合成网络模型,以生成目标音频频谱。最后将目标音频频谱输入预设声码器网络模型,以生成目标语音。
本发明的语音生成方法,通过将目标用户上一次语音交互的历史交互视频数据输入训练至收敛的情感分析网络模型,可以输出用户情感特征数据,从而在将待生成语音的文本因素序列和用户情感特征数据输入训练至收敛的音频频谱合成网络模型后,可以生成更贴近实际音频频谱的目标音频频谱,最后通过将目标音频频谱输入预设声码器网络模型可以生成情感更丰富的目标语音,提高用户体验。
发明人基于上述的创造性发现,提出了本申请的技术方案。
下面对本发明实施例提供的语音生成方法的应用场景进行介绍。如图1所示,其中,1为第一电子设备,2为第二电子设备。本发明实施例提供的语音生成方法对应的应用场景的网络架构中包括:第一电子设备1和第二电子设备2。第二电子设备2存储有待生成语音的文本音素序列和用户的历史交互视频数据。第二电子设备2中存储的数据可以是从多模态数字人交互系统获取的,也可以是人工输入的。第二电子设备2中存储的文本音素序列可以由文本数据转化而来。
当需要进行语音生成时,第一电子设备1从第二电子设备2处获取当前语音交互待生成语音的文本音素序列和目标用户在上一次语音交互的历史交互视频数据。同时,第一电子设备1将历史交互视频数据输入训练至收敛的情感分析网络模型,以输出对应用户情感特征数据。将文本音素序列和用户情感特征数据输入训练至收敛的音频频谱合成网络模型,以生成目标音频频谱。然后,第一电子设备1将目标音频频谱输入预设声码器网络模型,以生成目标语音,在生成目标语音后可以根据该目标语音与用户进行语音交互,也可以存储在语音数据库中。
下面结合说明书附图对本发明实施例进行介绍。
图2为本发明第一实施例提供的语音生成方法的流程示意图,如图2所示,本实施例中,本发明实施例的执行主体为语音生成装置,该语音生成装置可以集成在多模态数字人交互系统中。则本实施例提供的语音生成方法包括以下几个步骤:
步骤S101,获取当前语音交互待生成语音的文本音素序列和目标用户在上一次语音交互的历史交互视频数据。
本实施例中,直接获取文本音素序列并根据文本音素序列进行后续语音生成,可以改进一些罕见词、多音字、专有名词的发音问题。
当前语音交互可以为当前正在进行的语音交互,比如用户说我想吃饭,当前语音交互则是针对“我想吃饭”进行回复。文本音素序列中,音素是根据语音的自然属性划分出来的最小语音单位,文本音素序列是由文本数据转化成的音素序列。
历史交互视频数据包括用户面部表情、肢体动作和音频信息,可以反映用户的情感变化。
步骤S102,将历史交互视频数据输入训练至收敛的情感分析网络模型,以输出对应用户情感特征数据。
本实施例中,情感分析网络模型可以采用卷积神经网络、循环神经网络等,用于对历史交互视频数据进行情感分析,以确定用户情感特征数据。
用户情感特征数据可以从两方面分析得到,一方面从用户的面部表情、肢体动作等动作情感特征数据,另一方面从用户的声音变化、声调等声音情感特征数据。
步骤S103,将文本音素序列和用户情感特征数据输入训练至收敛的音频频谱合成网络模型,以生成目标音频频谱。
本实施例中,音频频谱合成网络模型可以采用语音合成网络,如可以采用训练后的卷积神经网络、循环神经网络等,音频频谱合成网络模型可以将文本音素序列和用户情感特征数据进行融合,使目标音频频谱与实际音频频谱更相近,情感更丰富。
步骤S104,将目标音频频谱输入预设声码器网络模型,以生成目标语音。
本实施例中,通过将目标音频频谱输入预设声码器网络模型可以转化为时域波形,从而生成目标语音
本发明实施例提供的一种语音生成方法,该方法包括:获取当前语音交互待生成语音的文本音素序列和目标用户在上一次语音交互的历史交互视频数据。将历史交互视频数据输入训练至收敛的情感分析网络模型,以输出对应用户情感特征数据。将文本音素序列和用户情感特征数据输入训练至收敛的音频频谱合成网络模型,以生成目标音频频谱。将目标音频频谱输入预设声码器网络模型,以生成目标语音。
本发明的语音生成方法,通过将目标用户上一次语音交互的历史交互视频数据输入训练至收敛的情感分析网络模型,可以输出用户情感特征数据,从而在将待生成语音的文本因素序列和情感分析网络模型输入训练至收敛的音频频谱合成网络模型后,可以生成更贴近实际音频频谱的目标音频频谱,最后通过将目标音频频谱输入预设声码器网络模型可以生成情感更丰富的目标语音,提高用户体验。
图3为本发明第二实施例提供的语音生成方法的流程示意图,如图3所示,本实施例提供的语音生成方法,是在本发明上一实施例提供的语音生成方法的基础上,进行了进一步的细化。则本实施例提供的语音生成方法包括以下步骤。
步骤S201,获取语音交互待生成语音的文本数据和目标用户在上一次语音交互的历史交互视频数据。
本实施例中,步骤201的实现方式与本发明上一实施例中的步骤101的实现方式类似,在此不再一一赘述。
步骤S202,将文本数据转化为对应文本音素序列。
本实施例中,待生成语音的文本数据如对话的“今天天气不错”可以变为对应的文本数据,由多个字符组成。然后将文本数据转化为对应文本音素序列,每个文本数据都对应至少一个音素。
需要说明的是,情感分析网络模型包括:音频特征提取网络子模型和视频特征提取子网络模型。用户情感特征数据包括:用户动作情感特征向量和用户声音情感特征向量。
步骤S203,采用视频特征提取子网络模型对历史交互视频数据进行动作相关特征提取,以生成对应用户面部特征向量和用户行为特征向量。
视频特征提取子网络模型可以采用卷积神经网络、循环神经网络等,通过预训练可以对历史交互视频数据进行用户面部和用户行为进行特征提取,生成对应用户面部特征向量和用户行为特征向量。
本实施例可以通过观察用户表情、行为和情感产生的前提环境来推断其情感状态。由于情感状态是内在的并包含生理和心理的变化,所以可通过获取情感状态的一些可观测的东西,如表情、行为等。
面部表情是人的情感重要外在表现之一,可以帮助个体识别和表达情绪。同时肢体动作也是人类表达情感的重要组成部分,蕴含了丰富的情感信息。因而,在情感判断时我们需要综合考虑用户面部表情和身体移动。
具体的,如图4所示:
采用视频特征提取子网络模型对历史交互视频数据进行面部识别及表情分析处理,以生成对应用户面部特征向量。
采用视频特征提取子网络模型对历史交互视频数据进行动作捕捉分析处理,以生成对应用户行为特征向量。
动作捕捉分析处理包括图中所示动作捕捉和行为分析,面部识别及表情分析处理即图中的面部表情识别。通过视频特征提取子网络模型对历史交互视频数据中每一帧图像进行连续的面部识别及表情分析处理,从而得到用户面部特征向量,用户面部特征向量可以反映用户面部表情的特征,特征比如高兴、愤怒或其他表情等。
通过视频特征提取子网络模型对历史交互视频数据中每一帧图像进行连续的动作捕捉分析处理,动作捕捉可以得到用户动作轨迹,从而生成用户行为特征向量,用户行为特征向量可以反映用户行为特征,当用户行为为手臂大幅度挥舞、手指抖动等,对应的用户行为特征向量可以反映用户特征为愤怒、高兴等情感。
步骤S204,采用视频特征提取子网络模型对用户面部特征向量和用户行为特征向量进行情感分析处理,以生成对应用户动作情感特征向量。
本实施例中,如图4所示,由于单一的面部表情和行为动作可能并不能精确的反映用户情感,因而,在生成用户面部特征向量和用户行为特征向量后,可以进行情感分析处理,从而确定出可以综合反映用户情感的用户动作情感特征向量。动作情感识别可以使用人体姿态估计模型估计出骨架关节点,同时利用身体的动作特征和骨架特征,实现情感识别。
步骤S205,采用音频特征提取网络子模型对历史交互视频数据中的音频信息进行特征提取处理,以生成对应用户声音情感特征向量。
本实施例中,声音如高昂的声音、细微的声音等都可以较直观反映用户情感,音频特征提取网络子模型。该音频特征提取网络子模型可以采用编码器-解码器的语音合成声学模型中的编码器作为特征提取器提取声音特征向量。也可以直接采用音频频谱合成网络模型中的编码器提取声音特征向量。提取声音特征向量时,可以提取音频信息中包含上下文数据在内的音频数据,通过该包含上下文数据在内的音频数据来提取声音特征,以生成用户声音情感特征向量。上下文数据可以反映用户在发出声音时的前后逻辑性,可以生成更能反映用户情感的用户声音情感特征向量。
需要说明的是,音频频谱合成网络模型包括:编码器、聚合子网络模型和解码器。
步骤S206,采用编码器对文本音素序列进行特征提取,以生成对应文本特征向量。
本实施例中,文本特征向量可以反映文本音素序列的特征,比如音素种类、音素序列长度等特征。
需要说明的是,用户情感特征数据可以包括用户动作情感特征向量和用户声音情感特征向量。
步骤S207,采用聚合子网络模型对文本特征向量、用户动作情感特征向量和用户声音情感特征向量进行通道维度连接和线性变换融合处理,以使用户情感特征数据嵌入文本特征向量中,生成对应聚合特征向量。
本实施例中,聚合子网络模型用于将文本特征向量、用户动作情感特征向量和用户声音情感特征向量进行融合,首先从通道维度建立连接,然后通过线性变换融合处理,使用户动作情感特征向量和用户声音情感特征向量嵌入文本特征向量中,实现融合。
融合后的聚合特征向量具有用户动作情感特征向量和用户声音情感特征向量的部分特征。
步骤S208,将聚合特征向量输入解码器进行解码处理,以生成目标音频频谱。
通过解码器可以对聚合特征向量进行处理,从而生成目标音频频谱。目标音频频谱与实际音频频谱之间差别越小越好。
可选的,本实施例中,如图4所示,音频频谱合成网络模型还包括:注意力对齐子网络模型。
本实施例还可以通过注意力对齐子网络模型对聚合特征向量和解码器解码的语音特征向量进行对齐处理,具体如下:
采用解码器对聚合特征向量进行解码处理,以生成语音特征向量。
采用注意力对齐子网络模型对聚合特征向量和语音特征向量进行对齐处理,以生成对齐后的聚合特征向量。
此时,可以将对齐后的聚合特征向量输入解码器进行解码处理,以生成目标音频频谱。
对齐处理可以控制聚合特征向量的大小,使聚合特征向量不会过大,方便解码器的解码处理。
可选的,本实施例中,音频频谱合成网络模型可以进行预训练,训练流程如下:
获取训练样本,训练样本中包括:用户的历史交互视频数据和用户实际音频频谱。
将训练样本输入到预设音频频谱合成网络模型中,以对预设音频频谱合成网络模型进行训练。
采用均方误差损失函数判断预设音频频谱合成网络模型是否满足收敛条件。
当均方误差损失函数达到最小值时,判断预设音频频谱合成网络模型收敛,此时,可以将满足收敛条件的预设音频频谱合成网络模型确定为训练至收敛的音频频谱合成网络模型。
步骤S209,采用预设声码器网络模型将目标音频频谱转化为时域波形,以生成目标语音。
本实施例中,可以采用神经网络声码器将目标音频频谱转化为时域波形,由于目标音频频谱捕捉了高质量合成各种声音的所有相关细节,可以通过训练来自多个用户的数据来构建一个多用户声码器。
图5为本发明第三实施例提供的语音生成装置的结构示意图,如图5所示,本实施例中,该语音生成装置300可以设置在多模态数字人交互系统中,语音生成装置300包括:
获取模块301,用于获取当前语音交互待生成语音的文本音素序列和目标用户在上一次语音交互的历史交互视频数据。
输出模块302,用于将历史交互视频数据输入训练至收敛的情感分析网络模型,以输出对应用户情感特征数据。
频谱生成模块303,用于将文本音素序列和用户情感特征数据输入训练至收敛的音频频谱合成网络模型,以生成目标音频频谱。
语音生成模块304,用于将目标音频频谱输入预设声码器网络模型,以生成目标语音。
本实施例提供的语音生成装置可以执行图2所示方法实施例的技术方案,其实现原理和技术效果与图2所示方法实施例类似,在此不再一一赘述。
如图6所示,本发明提供的语音生成装置在上一实施例提供的语音生成装置的基础上,对语音生成装置进行了进一步的细化,为了方便说明,本实施例的语音生成装置采用语音生成装置400进行说明。
可选的,本实施例中,情感分析网络模型包括:音频特征提取网络子模型和视频特征提取子网络模型。用户情感特征数据包括:用户动作情感特征向量和用户声音情感特征向量。
输出模块302具体用于:
采用视频特征提取子网络模型对历史交互视频数据进行动作相关特征提取,以生成对应用户面部特征向量和用户行为特征向量。采用视频特征提取子网络模型对用户面部特征向量和用户行为特征向量进行情感分析处理,以生成对应用户动作情感特征向量。采用音频特征提取网络子模型对历史交互视频数据中的音频信息进行特征提取处理,以生成对应用户声音情感特征向量。
可选的,本实施例中,输出模块302在采用视频特征提取子网络模型对历史交互视频数据进行动作相关特征提取,以生成对应用户面部特征向量和用户行为特征向量时,具体用于:
采用视频特征提取子网络模型对历史交互视频数据进行面部识别及表情分析处理,以生成对应用户面部特征向量。采用视频特征提取子网络模型对历史交互视频数据进行动作捕捉分析处理,以生成对应用户行为特征向量。
可选的,本实施例中,音频频谱合成网络模型包括:编码器、聚合子网络模型和解码器。
频谱生成模块303具体用于:
采用编码器对文本音素序列进行特征提取,以生成对应文本特征向量。采用聚合子网络模型对文本特征向量和用户情感特征数据进行通道维度连接和线性变换融合处理,以使用户情感特征数据嵌入文本特征向量中,生成对应聚合特征向量。将聚合特征向量输入解码器进行解码处理,以生成目标音频频谱。
可选的,本实施例中,音频频谱合成网络模型还包括:注意力对齐子网络模型。
频谱生成模块303还用于:
采用解码器对聚合特征向量进行解码处理,以生成语音特征向量。
采用注意力对齐子网络模型对聚合特征向量和语音特征向量进行对齐处理,以生成对齐后的聚合特征向量。
频谱生成模块303在将聚合特征向量输入解码器进行解码处理,以生成目标音频频谱时,具体用于:
将对齐后的聚合特征向量输入解码器进行解码处理,以生成目标音频频谱。
可选的,本实施例中,获取模块301具体用于:
获取语音交互待生成语音的文本数据。将文本数据转化为对应文本音素序列。
可选的,本实施例中,语音生成模块304具体用于:
采用预设声码器网络模型将目标音频频谱转化为时域波形,以生成目标语音。
可选的,本实施例中,语音生成装置400还包括:
训练模块401,用于获取训练样本,训练样本中包括:用户的历史交互视频数据和用户实际音频频谱。将训练样本输入到预设音频频谱合成网络模型中,以对预设音频频谱合成网络模型进行训练。采用均方误差损失函数判断预设音频频谱合成网络模型是否满足收敛条件。将满足收敛条件的预设音频频谱合成网络模型确定为训练至收敛的音频频谱合成网络模型。
本实施例提供的语音生成装置可以执行图2-图4所示方法实施例的技术方案,其实现原理和技术效果与图2-图4所示方法实施例类似,在此不再一一赘述。
根据本发明的实施例,本发明还提供了一种电子设备、一种计算机可读存储介质和一种计算机程序产品。
如图7所示,图7是本发明第五实施例提供的电子设备的结构示意图。电子设备旨在各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、刀片式服务器、大型计算机、和其它适合的计算机。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
如图7所示,该电子设备包括:处理器501、存储器502。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理。
存储器502即为本发明所提供的非瞬时计算机可读存储介质。其中,存储器存储有可由至少一个处理器执行的指令,以使至少一个处理器执行本发明所提供的语音生成方法。本发明的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本发明所提供的语音生成方法。
存储器502作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本发明实施例中的语音生成方法对应的程序指令/模块(例如,附图5所示的获取模块301、输出模块302、频谱生成模块303和语音生成模块304)。处理器501通过运行存储在存储器502中的非瞬时软件程序、指令以及模块,从而执行电子设备的各种功能应用以及数据处理,即实现上述方法实施例中的语音生成方法。
同时,本实施例还提供一种计算机产品,当该计算机产品中的指令由电子设备的处理器执行时,使得电子设备能够执行上述实施例的语音生成方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明实施例的其它实施方案。本发明旨在涵盖本发明实施例的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明实施例的一般性原理并包括本发明实施例未公开的本技术领域中的公知常识或惯用技术手段。
应当理解的是,本发明实施例并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明实施例的范围仅由所附的权利要求书来限制。
Claims (12)
1.一种语音生成方法,其特征在于,包括:
获取当前语音交互待生成语音的文本音素序列和目标用户在上一次语音交互的历史交互视频数据;
将所述历史交互视频数据输入训练至收敛的情感分析网络模型,以输出对应用户情感特征数据;
将所述文本音素序列和所述用户情感特征数据输入训练至收敛的音频频谱合成网络模型,以生成目标音频频谱;
将所述目标音频频谱输入预设声码器网络模型,以生成目标语音。
2.根据权利要求1所述的方法,其特征在于,所述情感分析网络模型包括:音频特征提取网络子模型和视频特征提取子网络模型;所述用户情感特征数据包括:用户动作情感特征向量和用户声音情感特征向量;
所述将所述历史交互视频数据输入训练至收敛的情感分析网络模型,以输出对应用户情感特征数据,包括:
采用所述视频特征提取子网络模型对历史交互视频数据进行动作相关特征提取,以生成对应用户面部特征向量和用户行为特征向量;
采用所述视频特征提取子网络模型对所述用户面部特征向量和所述用户行为特征向量进行情感分析处理,以生成对应用户动作情感特征向量;
采用音频特征提取网络子模型对所述历史交互视频数据中的音频信息进行特征提取处理,以生成对应用户声音情感特征向量。
3.根据权利要求2所述的方法,其特征在于,所述采用所述视频特征提取子网络模型对历史交互视频数据进行动作相关特征提取,以生成对应用户面部特征向量和用户行为特征向量,包括:
采用所述视频特征提取子网络模型对所述历史交互视频数据进行面部识别及表情分析处理,以生成对应用户面部特征向量;
采用所述视频特征提取子网络模型对所述历史交互视频数据进行动作捕捉分析处理,以生成对应用户行为特征向量。
4.根据权利要求1所述的方法,其特征在于,所述音频频谱合成网络模型包括:编码器、聚合子网络模型和解码器;
所述将所述文本音素序列和所述用户情感特征数据输入训练至收敛的音频频谱合成网络模型,以生成目标音频频谱,包括:
采用所述编码器对所述文本音素序列进行特征提取,以生成对应文本特征向量;
采用所述聚合子网络模型对所述文本特征向量和所述用户情感特征数据进行通道维度连接和线性变换融合处理,以使所述用户情感特征数据嵌入所述文本特征向量中,生成对应聚合特征向量;
将所述聚合特征向量输入所述解码器进行解码处理,以生成目标音频频谱。
5.根据权利要求4所述的方法,其特征在于,所述音频频谱合成网络模型还包括:注意力对齐子网络模型;
所述方法还包括:
采用所述解码器对所述聚合特征向量进行解码处理,以生成语音特征向量;
采用所述注意力对齐子网络模型对所述聚合特征向量和所述语音特征向量进行对齐处理,以生成对齐后的聚合特征向量;
所述将所述聚合特征向量输入所述解码器进行解码处理,以生成目标音频频谱,包括:
将所述对齐后的聚合特征向量输入所述解码器进行解码处理,以生成目标音频频谱。
6.根据权利要求1所述的方法,其特征在于,所述获取语音交互待生成语音的文本音素序列,包括:
获取语音交互待生成语音的文本数据;
将所述文本数据转化为对应文本音素序列。
7.根据权利要求1所述的方法,其特征在于,所述将所述目标音频频谱输入预设声码器网络模型,以生成目标语音,包括:
采用预设声码器网络模型将所述目标音频频谱转化为时域波形,以生成目标语音。
8.根据权利要求1至7任一项所述的方法,其特征在于,所述将所述文本音素序列和所述用户情感特征数据输入训练至收敛的音频频谱合成网络模型,以生成目标音频频谱之前,还包括:
获取训练样本,所述训练样本中包括:用户的历史交互视频数据和用户实际音频频谱;
将所述训练样本输入到预设音频频谱合成网络模型中,以对所述预设音频频谱合成网络模型进行训练;
采用均方误差损失函数判断所述预设音频频谱合成网络模型是否满足收敛条件;
将满足收敛条件的所述预设音频频谱合成网络模型确定为训练至收敛的音频频谱合成网络模型。
9.一种语音生成装置,其特征在于,包括:
获取模块,用于获取当前语音交互待生成语音的文本音素序列和目标用户在上一次语音交互的历史交互视频数据;
输出模块,用于将所述历史交互视频数据输入训练至收敛的情感分析网络模型,以输出对应用户情感特征数据;
频谱生成模块,用于将所述文本音素序列和所述用户情感特征数据输入训练至收敛的音频频谱合成网络模型,以生成目标音频频谱;
语音生成模块,用于将所述目标音频频谱输入预设声码器网络模型,以生成目标语音。
10.一种电子设备,其特征在于,包括:处理器以及与所述处理器通信连接的存储器;
所述存储器存储计算机执行指令;
所述处理器执行所述存储器存储的计算机执行指令,以实现如权利要求1至8任一项所述的语音生成方法。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现如权利要求1至8任一项所述的语音生成方法。
12.一种计算机程序产品,包括计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至8任一项所述的在语音生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210452537.6A CN114882861A (zh) | 2022-04-27 | 2022-04-27 | 语音生成方法、装置、设备、介质及产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210452537.6A CN114882861A (zh) | 2022-04-27 | 2022-04-27 | 语音生成方法、装置、设备、介质及产品 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114882861A true CN114882861A (zh) | 2022-08-09 |
Family
ID=82672768
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210452537.6A Pending CN114882861A (zh) | 2022-04-27 | 2022-04-27 | 语音生成方法、装置、设备、介质及产品 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114882861A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115620699A (zh) * | 2022-12-19 | 2023-01-17 | 深圳元象信息科技有限公司 | 语音合成方法、语音合成系统、语音合成设备及存储介质 |
CN117710543A (zh) * | 2024-02-04 | 2024-03-15 | 淘宝(中国)软件有限公司 | 基于数字人的视频生成与交互方法、设备、存储介质与程序产品 |
-
2022
- 2022-04-27 CN CN202210452537.6A patent/CN114882861A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115620699A (zh) * | 2022-12-19 | 2023-01-17 | 深圳元象信息科技有限公司 | 语音合成方法、语音合成系统、语音合成设备及存储介质 |
CN117710543A (zh) * | 2024-02-04 | 2024-03-15 | 淘宝(中国)软件有限公司 | 基于数字人的视频生成与交互方法、设备、存储介质与程序产品 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108962255B (zh) | 语音会话的情绪识别方法、装置、服务器和存储介质 | |
US11475897B2 (en) | Method and apparatus for response using voice matching user category | |
US11682401B2 (en) | Matching speakers to meeting audio | |
Anguera et al. | Speaker diarization: A review of recent research | |
US9390725B2 (en) | Systems and methods for noise reduction using speech recognition and speech synthesis | |
Vougioukas et al. | Video-driven speech reconstruction using generative adversarial networks | |
CN112099628A (zh) | 基于人工智能的vr互动方法、装置、计算机设备及介质 | |
EP4099709A1 (en) | Data processing method and apparatus, device, and readable storage medium | |
Pan et al. | Selective listening by synchronizing speech with lips | |
CN104538043A (zh) | 一种通话中实时情感提示装置 | |
CN110808034A (zh) | 语音转换方法、装置、存储介质及电子设备 | |
CN110610534B (zh) | 基于Actor-Critic算法的口型动画自动生成方法 | |
CN110262665A (zh) | 用于输出信息的方法和装置 | |
CN113067953A (zh) | 客户服务方法、系统、装置、服务器及存储介质 | |
CN110880198A (zh) | 动画生成方法和装置 | |
CN111989031B (zh) | 远程医疗中症状的实时标注 | |
CN114882861A (zh) | 语音生成方法、装置、设备、介质及产品 | |
CN114138960A (zh) | 用户意图识别方法、装置、设备及介质 | |
CN109961152B (zh) | 虚拟偶像的个性化互动方法、系统、终端设备及存储介质 | |
WO2024114303A1 (zh) | 音素识别方法、装置、电子设备及存储介质 | |
CN111415662A (zh) | 用于生成视频的方法、装置、设备和介质 | |
CN117292022A (zh) | 基于虚拟对象的视频生成方法、装置及电子设备 | |
CN113886640B (zh) | 数字人生成方法、装置、设备及介质 | |
JP7426917B2 (ja) | ユーザ周辺のマルチモーダル情報に応じてユーザと対話するプログラム、装置及び方法 | |
CN116009692A (zh) | 虚拟人物交互策略确定方法以及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |