[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN114822497A - 语音合成模型的训练及语音合成方法、装置、设备和介质 - Google Patents

语音合成模型的训练及语音合成方法、装置、设备和介质 Download PDF

Info

Publication number
CN114822497A
CN114822497A CN202210517651.2A CN202210517651A CN114822497A CN 114822497 A CN114822497 A CN 114822497A CN 202210517651 A CN202210517651 A CN 202210517651A CN 114822497 A CN114822497 A CN 114822497A
Authority
CN
China
Prior art keywords
voice
speech
target
synthesis model
synthesized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210517651.2A
Other languages
English (en)
Inventor
孙奥兰
王健宗
程宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202210517651.2A priority Critical patent/CN114822497A/zh
Publication of CN114822497A publication Critical patent/CN114822497A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)

Abstract

本申请涉及人工智能技术,提出一种语音合成模型的训练及语音合成方法、装置、设备和介质,该方法包括:获取包含多个文本语音对的数据集;利用数据集对待训练语音合成模型进行训练,获取每个目标训练节点待训练合成模型预测的合成语音;计算每个目标训练节点的样本语音与合成语音之间的重构损失和特征差距;判断每个合成语音是否存在高频噪声;根据重构损失和特征差距对目标合成语音的合成效果进行排序;根据排序结果及附加筛选规则确定合成效果最优的合成语音对应的语音合成模型为已训练的语音合成模型。本申请实现了通过训练节点的模型的重构损失、特征差距以及合成语音是否存在高频噪声多个维度来综合筛选出最优语音合成模型。

Description

语音合成模型的训练及语音合成方法、装置、设备和介质
技术领域
本申请涉及人工智能技术领域,尤其涉及一种语音合成模型的训练及语音合成方法、装置、设备和介质。
背景技术
语音合成技术是一种文本转语音的技术(Text To Speech,简称TTS)。现有技术采用一种基于x-vector的声纹识别模块用于说话人向量嵌入,该说话人向量输入到TTS语音合成系统即可得到合成语音。即,输入任意目标说话人的参考语音以及指定的任意文本,即可合成目标说话人朗读此段文本的声音。
现有技术在训练过程中往往通过模型是否达到收敛后来确定最终已训练的模型。由于对模型的性能考察维度单一,实际得到的最终模型不一定是语音合成效果最好的模型。且,语音合成系统需要通过大规模的多说话人语音语料数据训练。其合成效果依赖于高质量的大规模语音数据,而这种数据收集难度高且价格高昂。
发明内容
为了解决现有技术中收敛的模型不一定是最优模型以及训练样本获取成本高昂的技术问题。本申请提供了一种语音合成模型的训练及语音合成方法、装置、设备和介质,其主要目的在于选取训练过程中最优模型以及降低样本获取成本。
为实现上述目的,本申请提供了一种语音合成模型的训练方法,该方法包括:
获取数据集,数据集包括多个文本语音对,每个文本语音对包括样本语音及对应的样本文本;
利用数据集对待训练语音合成模型进行训练,获取每个目标训练节点待训练合成模型预测的合成语音;
计算每个目标训练节点对应的样本语音与合成语音之间的重构损失和特征差距;
判断每个目标训练节点对应的合成语音是否存在高频噪声;
根据重构损失和特征差距对目标合成语音的合成效果进行排序,其中,目标合成语音为不存在高频噪声的合成语音或存在的高频噪声在预设范围内的合成语音;
根据排序结果及附加筛选规则确定合成效果最优的目标合成语音对应的语音合成模型为已训练的语音合成模型。
此外,为实现上述目的,本申请还提供了一种语音合成方法,该方法包括:
获取待合成文本的图嵌入向量作为目标图嵌入向量;
利用根据前面任一项的语音合成模型的训练方法得到的已训练的语音合成模型所包含的图编码器对目标图嵌入向量进行编码,得到目标隐藏表示;
将所目标隐藏表示输入至已训练的语音合成模型所包含的随机时长预测器进行音素时长预测,得到目标音素的目标预测时长;
通过已训练的语音合成模型所包含的投影层将目标隐藏表示转换为目标先验分布的均值和方差;
结合目标预测时长从目标先验分布的均值和方差中采样目标隐变量;
通过已训练的语音合成模型所包含的基于流的解码器对目标隐变量进行编码并行合成目标合成波形,以得到目标合成语音。
此外,为实现上述目的,本申请还提供了一种语音合成模型的训练装置,该装置包括:
数据获取模块,用于获取数据集,数据集包括多个文本语音对,每个文本语音对包括样本语音及对应的样本文本;
训练模块,用于利用数据集对待训练语音合成模型进行训练,获取每个目标训练节点待训练合成模型预测的合成语音;
计算模块,用于计算每个目标训练节点对应的样本语音与合成语音之间的重构损失和特征差距;
噪声判断模块,用于判断每个目标训练节点对应的合成语音是否存在高频噪声;
排序模块,用于根据重构损失和特征差距对目标合成语音的合成效果进行排序,其中,目标合成语音为不存在高频噪声的合成语音或存在的高频噪声在预设范围内的合成语音;
选择模块,用于根据排序结果及附加筛选规则确定合成效果最优的目标合成语音对应的语音合成模型为已训练的语音合成模型。
为实现上述目的,本申请还提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机可读指令,处理器执行计算机可读指令时执行前面任一项的语音合成模型的训练方法的步骤,或,处理器执行计算机可读指令时执行如前面任一项的语音合成方法的步骤。
为实现上述目的,本申请还提供了一种计算机可读存储介质,计算机可读存储介质上存储有计算机可读指令,计算机可读指令被处理器执行时,使得处理器执行如前面任一项的语音合成模型的训练方法的步骤,或,使得处理器执行如前面任一项的语音合成方法的步骤。
本申请提出的语音合成模型的训练及语音合成方法、装置、设备和介质,本申请实现了通过每个训练节点的模型的重构损失、特征差距以及合成语音是否存在高频噪声多个维度来综合筛选出最优语音合成模型。
附图说明
图1为本申请一实施例中语音合成模型的训练方法的流程示意图;
图2为本申请一实施例中语音合成模型的训练装置的结构框图;
图3为本申请一实施例中计算机设备的内部结构框图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
图1为本申请一实施例中语音合成模型的训练方法的流程示意图。参考图1,该语音合成模型的训练方法包括以下步骤S100-S600。
S100:获取数据集,数据集包括多个文本语音对,每个文本语音对包括样本语音及对应的样本文本。
具体地,数据集中每个文本语音对的样本文本为对应样本语音中的说话内容。
数据集可以全部为目标用户语音构建的用户数据集。数据集还可以包括第一数据集和第二数据集。其中,第一数据集为开源数据集,是现有技术中已有的数据集。第二数据集为目标用户语音构建的用户数据集。第一数据集所包含的样本数量远大于第二数据集所包含的样本数量。由于第二种方案使用开源数据集,因此可以节省训练样本的构建成本。
S200:利用数据集对待训练语音合成模型进行训练,获取每个目标训练节点待训练合成模型预测的合成语音。
具体地,获取数据集中任意一个文本语音对中的样本文本及对应的样本语音。通过单调对齐搜索获取样本文本及对应样本语音之间的对齐关系。根据对齐关系获取样本文本所包含的音素的第一时长信息。
通过文本编码器或图编码器对样本文本进行编码得到对应的隐藏表示。将隐藏表示作为随机时长预测器的输入,利用随机时长预测器对样本文本所包含的音素的时长进行预测,得到音素的第二时长信息。
根据第一时长信息和第二时长信息之间的差异计算第一损失函数,根据第一损失函数对随机时长预测器的模型参数进行迭代更新。
利用后验编码器对样本语音对应的第一线性频谱进行编码,得到后验隐变量。
通过解码器对后验隐变量进行解码,得到合成语音对应的合成波形。
获取模型的第二损失函数,根据第二损失函数对解码器及后验编码器等模块的模型参数进行迭代更新。第二损失函数包括重构损失函数。获取样本语音对应的第一mel谱图,将合成语音的合成波形转换为第二mel谱图,根据第一mel谱图和第二mel谱图的差异计算得到重构损失函数。
任意选取下一个文本语音对执行上述步骤对随机时长预测器、解码器、后验编码器的模型参数不断优化,直至达到收敛条件。
在模型训练过程中每一次迭代训练即为一个训练节点。每次迭代训练解码器都会生成合成语音对应的合成波形。
S300:计算每个目标训练节点对应的样本语音与合成语音之间的重构损失和特征差距。
具体地,重构损失是根据第一mel谱图和第二mel谱图的差异计算得到的。特征差距是指样本语音与对应的合成语音之间的特征差距。特征差距具体为语音特征差距,例如可以为MFCC特征之间的差距,即MCD(Mel cepstral distortion)。
S400:判断每个目标训练节点对应的合成语音是否存在高频噪声。
具体地,高于采样率一半的音频即视为高频噪声,例如采样率为22k,那么大于11k的频段即视为噪声。合成语音是否包含高频噪声可以通过现有技术来检测。
S500:根据重构损失和特征差距对目标合成语音的合成效果进行排序,其中,目标合成语音为不存在高频噪声的合成语音或存在的高频噪声在预设范围内的合成语音。
具体地,目标合成语音是所有合成语音中不存在高频噪声,或存在的高频噪声的比重在预设范围内的合成语音。如果合成语音中所包含的高频噪声的时长占合成语音总时长的比重超过预设范围,则判定为非目标合成语音。
重构损失和特征差距以及是否包含高频噪声是用来评价每次训练节点生成的合成语音的合成效果的多个维度。理论上,存在的高频噪声越少、重构损失越小以及特征差距越小,则合成效果越好。
对于目标合成语音,重构损失和特征差距越小,则合成效果越好。排序可以是根据合成效果进行升序排序也可以是降序排序。
S600:根据排序结果及附加筛选规则确定合成效果最优的目标合成语音对应的语音合成模型为已训练的语音合成模型。
具体地,附加筛选规则可以是听测人员对目标合成语音的合成效果的人为评价。根据排序结果和附加筛选规则综合筛选出最优的目标合成语音,将最优的目标合成语音对应的语音合成模型作为最终已训练的语音合成模型。
当然也可以直接根据排序结果从目标合成语音中选出合成效果最好的一个目标合成语音对应的语音合成模型作为最终已训练的语音合成模型。
本申请实现了通过每个训练节点的模型的重构损失、特征差距以及合成语音是否存在高频噪声多个维度来综合筛选出最优语音合成模型。
在一个实施例中,步骤S600具体包括:
根据排序结果选取合成效果排序不超过预设名次的目标合成语音作为候选语音;
获取听测人员对候选语音的合成效果的听测评估结果;
根据听测评估结果选取合成效果最优的候选语音对应的语音合成模型作为已训练的语音合成模型。
具体地,按照合成效果对目标合成语音进行降序排序。选取出不超过预设名次的目标合成语音作为候选语音。例如不超过前5名的目标合成语音,即选取在降序排序中前5名的目标合成语音作为候选语音。
将选取出的候选语音发送给听测人员来进行听测评价,接收听测人员对候选语音的听测评估结果。选取听测评估结果最优的候选语音对应的语音合成模型作为最终已训练的语音合成模型。
最终得到的已训练的语音合成模型不一定是最终模型收敛时的语音合成模型,可能是在某个训练节点调节模型参数得到的一个中间语音合成模型,虽然该中间语音合成模型没有达到收敛条件,但是其合成效果是经过多个维度综合评选出来的,因此,将其作为最终已训练的语音合成模型。
在一个实施例中,数据集包括第一数据和第二数据集;
步骤S200具体包括:
获取第一数据集,其中,第一数据集包括第一数量的第一文本语音对,每个第一文本语音对包括第一样本语音及对应的第一样本文本,
利用第一数据集对待训练语音合成模型进行第一迭代训练,直至达到第一收敛条件,得到基础语音合成模型,
获取由目标用户语音生成的第二数据集,其中,第二数据集包括第二数量的第二文本语音对,每个第二文本语音对包括第二样本语音及对应的第二样本,第一数量大于第二数量,
利用第二数据集对基础语音合成模型进行第二迭代训练,直到达到第二收敛条件,获取第二迭代训练过程中每个目标训练节点基础合成模型预测的合成语音。
具体地,第一数据集为开源数据集,是现有技术中已有的数据集。更具体地,第一数据集为开源数据集中目标语种、目标性别的标准化语料。第一数据集包括至少10小时在安静环境下录制的语音数据。
第二数据集为目标用户语音构建的用户数据集。更具体地,给定录制文本,采集目标说话人(目标用户)的语料数据若干条,例如至少30条、40条等,具体数量本申请不做限制。
第一数据集所包含的样本数量远大于第二数据集所包含的样本数量。由于第二种方案使用开源数据集,因此可以节省训练样本的构建成本。
在第一训练阶段:
获取第一数据集中任意一个第一文本语音对中的第一样本文本及对应的第一样本语音。通过单调对齐搜索获取第一样本文本及对应第一样本语音之间的对齐关系。根据对齐关系获取第一样本文本所包含的音素的第一时长信息。
通过待训练语音合成模型中的文本编码器或图编码器对第一样本文本进行编码得到对应的隐藏表示。将隐藏表示作为待训练语音合成模型中的随机时长预测器的输入,利用待训练语音合成模型中的随机时长预测器对第一样本文本所包含的音素的时长进行预测,得到音素的第二时长信息。
根据第一时长信息和第二时长信息之间的差异计算第一损失函数,根据第一损失函数对待训练语音合成模型中的随机时长预测器的模型参数进行迭代更新。
利用待训练语音合成模型中的后验编码器对第一样本语音对应的第一线性频谱进行编码,得到后验隐变量。
通过待训练语音合成模型中的解码器对后验隐变量进行解码,得到第一合成语音对应的合成波形。
获取模型的第二损失函数,根据第二损失函数对解码器及后验编码器等模块的模型参数进行迭代更新。第二损失函数包括重构损失函数。获取第一样本语音对应的第一mel谱图,将第一合成语音的合成波形转换为第二mel谱图,根据第一mel谱图和第二mel谱图的差异计算得到重构损失函数。
任意选取下一个第一文本语音对执行上述步骤对待训练语音合成模型中的随机时长预测器、解码器、后验编码器的模型参数不断优化,直至达到第一收敛条件,得到基础语音合成模型。
在第二训练阶段:
获取第二数据集中任意一个第二文本语音对中的第二样本文本及对应的第二样本语音。通过单调对齐搜索获取第二样本文本及对应第二样本语音之间的对齐关系。根据对齐关系获取第二样本文本所包含的音素的第一时长信息。
通过基础语音合成模型中的文本编码器或图编码器对第二样本文本进行编码得到对应的隐藏表示。将隐藏表示作为基础语音合成模型中的随机时长预测器的输入,利用基础语音合成模型中的随机时长预测器对第二样本文本所包含的音素的时长进行预测,得到音素的第二时长信息。
根据第一时长信息和第二时长信息之间的差异计算第一损失函数,根据第一损失函数对基础语音合成模型中的随机时长预测器的模型参数进行迭代更新。
利用基础语音合成模型中的后验编码器对第二样本语音对应的第一线性频谱进行编码,得到后验隐变量。
通过基础语音合成模型中的解码器对后验隐变量进行解码,得到第二合成语音对应的合成波形。
获取模型的第二损失函数,根据第二损失函数对解码器及后验编码器等模块的模型参数进行迭代更新。第二损失函数包括重构损失函数。获取第二样本语音对应的第一mel谱图,将第二合成语音的合成波形转换为第二mel谱图,根据第一mel谱图和第二mel谱图的差异计算得到重构损失函数。
任意选取下一个第二文本语音对执行上述步骤对基础语音合成模型中的随机时长预测器、解码器、后验编码器的模型参数不断优化,直至达到第二收敛条件。
获取在第二训练阶段模型训练过程中每次迭代训练基础语音合成模型中的解码器生成的合成语音对应的合成波形。即,目标训练节点为第二训练节点的训练节点。
其中,模型的损失函数最大对数似然函数如下公式(1)所示:
Figure BDA0003641972060000081
其中,m为样本点数量,pG为根据基础生成模型来生成样本点的概率,
Figure BDA0003641972060000082
为高斯的对数似然函数,
Figure BDA0003641972060000083
|Wk|为变量变换定理得到的对数似然函数,#layers为层数,det为行列式,Wk为模型参数。
本实施例在基础语音生成模型的基础上,采集目标说话人较少语料,即可快速克隆目标说话人的声音,实现了较好的迁移学习,使得模型快速收敛,实现了小数据量的语音合成系统。提供目标说话人的任意文本的TTS服务;且模型训练时长短,以达到对新说话人快速部署上线的目的;且可以复用到任意说话人,即可实现多说话人的音色快速克隆和复制。
另外,在迁移学习过程中,模型的迁移情况一般与模型的损失函数并非直接相关,因此本申请能够通过重构损失、MCD以及是否产生高频噪声等多个维度来综合评价训练过程中得到的语音合成模型,以实现最优模型的智能选择。
另外,使用不同目标用户语音生成的第二数据集对基础语音合成模型进行训练,可以生成用于合成不能目标用户语音的最终语音合成模型。实现了任意目标说话人的语音合成模型的训练。
在一个实施例中,步骤S200具体包括:
获取样本文本的图嵌入向量;
利用待训练语音合成模型所包含的图编码器对图嵌入向量进行编码,得到隐藏表示;
将隐藏表示作为投影层的输入,利用投影层构造先验分布的均值和方差;
获取样本文本对应的样本语音的第一线性频谱;
通过待训练语音合成模型所包含的后验编码器对第一线性频谱进行编码,得到后验隐变量;
利用待训练语音合成模型所包含的解码器对后验隐变量进行解码,得到合成语音对应的合成波形;
利用标准化流对后验隐变量进行参数化,得到参数化的隐变量;
利用单调对齐搜索对参数化的隐变量与先验分布的均值和方差之间进行对齐估计,得到样本文本与对应的样本语音之间的对齐关系;
根据对齐关系获取样本文本对应音素的第一时长信息;
将隐藏表示作为待训练语音合成模型所包含的随机时长预测器的输入,利用随机时长预测器对样本文本对应音素的时长进行预测,得到音素的第二时长信息;
根据第一时长信息与第二时长信息计算第一损失函数,根据第一损失函数迭代更新随机时长预测器的模型参数,直至达到收敛条件。
具体地,投影层为线性投影层,用于利用隐藏表示构建先验分布的均值和方差。更具体地,投影层包含仿射函数,利用仿射函数对隐藏表示进行投影,得到样本文本对应的先验分布的均值和方差。
使用后验隐变量中的部分序列作为待训练语音合成模型所包含的解码器的输入,利用解码器对后验隐变量的部分序列进行解码,得到合成语音对应波形域的合成波形。合成波形即合成语音。
对齐关系即对齐矩阵,表征文本和声谱的对齐。标准化流即Normalizing Flow,通过标准化流可以增加编码器的表达能力。通过单调对齐搜索算法(MAS)(一种对齐搜索算法),获得文本编码后预测的先验分布的均值和方差与后验隐变量通过Flow(流)后的正态分布的最优对齐矩阵。根据对齐关系可以获取样本文本所包含音素的时长标签,时长标签即音素的第一时长信息。
本实施例还训练随机时长预测器,使得随机时长预测器对文本所包含的音素时长进行预测,以用来匹配从对齐关系计算出的时长标签。随机时长预测器的音素时长预测能力是根据单调对齐搜索得到的对齐关系来校正训练的。
另外,根据第一mel谱图和第二mel谱图可以计算得到重构损失函数,根据重构损失函数得到梯度,根据梯度可以对模型的其他模块的模型参数进行迭代更新。
另外,本实施例使用线性频谱作为后验编码器的输入,相对梅尔频谱(mel谱图)来说为线性频谱为高分辨率的信息,高分辨率的信息能够提升语音合成模型的表现。
在一个实施例中,该方法还包括:获取所述样本文本对应的样本语音的第一mel谱图,获取所述合成波形对应的第二mel谱图;
步骤S300具体包括:
根据样本语音的第一mel谱图与对应的合成语音的第二mel谱图计算重构损失,
获取样本语音的第一MFCC特征序列,以及根据对应的合成语音的合成波形获取合成语音的第二MFCC特征序列,
对第一MFCC特征序列与第二MFCC特征序列进行对齐,得到样本语音与对应合成语音之间的特征差距。
具体地,语音转换的客观评测标准是MCD(Mel cepstral distortion),它表示的是转换后语音的MFCC特征与原始语音的MFCC特征的差距。测量MCD,需要把转换后语音和原始语音的MFCC特征序列进行对齐得到。
本实施例的重构损失函数具体如公式(2)所示:
Figure BDA0003641972060000111
其中,
Figure BDA0003641972060000112
表示预测的mel频谱即第二mel谱图,m表示为真实mel频谱即第一mel谱图,||表示L1正则损失,||||表示L2正则损失。
在一个实施例中,图嵌入向量包括多个结点;
利用待训练语音合成模型所包含的图编码器对图嵌入向量进行编码,得到隐藏表示包括:
对每个结点进行消息计算,得到每个结点对应的消息计算信息,
对每个结点对应的所有邻居结点的消息计算信息进行消息聚合,得到对应结点的结点聚合信息,将结点聚合信息作为隐藏表示。
具体地,图编码器使用文本图嵌入作为输入,由GAT、GCN或GGNN这一类GNN网络构成,图编码器的编码过程分为消息计算、消息聚合两个步骤。以本提案所采用的GCN模型为例:
(1)消息计算
对每一个结点进行消息计算,得到每个结点的消息计算信息如公式(3)所示:
Figure BDA0003641972060000113
(2)消息聚合
将每个结点对应的所有邻居节点的消息计算信息相加,再应用非线性激活函数,得到该结点的结点聚合信息如公式(4)所示:
Figure BDA0003641972060000114
GCN模型的数学表达形式如公式(5)所示:
Figure BDA0003641972060000115
其中,
Figure BDA0003641972060000116
为当前结点的结点聚合信息,σ为sigmoid激活函数,u为邻居结点,N(v)为当前结点的邻居结点的集合,W(l)为模型学习的GCN模型参数,
Figure BDA0003641972060000117
为当前结点的前一结点的结点聚合信息,
Figure BDA0003641972060000118
当前结点的消息计算信息。
本申请还提供了一种语音合成方法,该方法包括:
获取待合成文本的图嵌入向量作为目标图嵌入向量;
利用根据前面任一项语音合成模型的训练方法得到的已训练的语音合成模型所包含的图编码器对目标图嵌入向量进行编码,得到目标隐藏表示;
将所目标隐藏表示输入至已训练的语音合成模型所包含的随机时长预测器进行音素时长预测,得到目标音素的目标预测时长;
通过已训练的语音合成模型所包含的投影层将目标隐藏表示转换为目标先验分布的均值和方差;
结合目标预测时长从目标先验分布的均值和方差中采样目标隐变量;
通过已训练的语音合成模型所包含的基于流的解码器对目标隐变量进行编码并行合成目标合成波形,以得到目标合成语音。
具体地,在推理过程中,图编码器和随机时长预测器对先验分布和对齐的统计信息进行预测。然后,从先验分布中采样潜变量,通过基于流的解码器对潜变量进行变换,并行生成合成语音对应的目标合成波形,根据目标合成波形即得到目标合成语音。本实施例可构建目标说话人的TTS系统,对于任意指定文本,可以完成目标说话人的TTS语音合成。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
图3为本申请一实施例中语音合成模型的训练装置的结构框图。参考图3,该装置包括:
数据获取模块100,用于获取数据集,数据集包括多个文本语音对,每个文本语音对包括样本语音及对应的样本文本;
训练模块200,用于利用数据集对待训练语音合成模型进行训练,获取每个目标训练节点待训练合成模型预测的合成语音;
计算模块300,用于计算每个目标训练节点对应的样本语音与合成语音之间的重构损失和特征差距;
噪声判断模块400,用于判断每个目标训练节点对应的合成语音是否存在高频噪声;
排序模块500,用于根据重构损失和特征差距对不存在高频噪声的合成语音的合成效果进行排序;
选择模块600,用于根据排序结果及附加筛选规则确定合成效果最优的目标合成语音对应的语音合成模型为已训练的语音合成模型。
在一个实施例中,选择模块600具体包括:
第一筛选模块,用于根据排序结果选取合成效果排序不超过预设名次的目标合成语音作为候选语音;
听测评估模块,用于获取听测人员对候选语音的合成效果的听测评估结果;
第二筛选模块,用于根据听测评估结果选取合成效果最优的候选语音对应的语音合成模型作为已训练的语音合成模型。
在一个实施例中,数据集包括第一数据和第二数据集;
训练模块200具体包括:
第一数据获取模块,用于获取第一数据集,其中,第一数据集包括第一数量的第一文本语音对,每个第一文本语音对包括第一样本语音及对应的第一样本文本,
第一训练模块,用于利用第一数据集对待训练语音合成模型进行第一迭代训练,直至达到第一收敛条件,得到基础语音合成模型,
第二数据获取模块,用于获取由目标用户语音生成的第二数据集,其中,第二数据集包括第二数量的第二文本语音对,每个第二文本语音对包括第二样本语音及对应的第二样本,第一数量大于第二数量,
第二训练模块,用于利用第二数据集对基础语音合成模型进行第二迭代训练,直到达到第二收敛条件,获取第二迭代训练过程中每个目标训练节点基础合成模型预测的合成语音。
在一个实施例中,训练模块200具体包括:
第一转换模块,用于获取样本文本的图嵌入向量;
第一编码模块,用于利用待训练语音合成模型所包含的图编码器对图嵌入向量进行编码,得到隐藏表示;
第一投影模块,用于将隐藏表示作为投影层的输入,利用投影层构造先验分布的均值和方差;
第二转换模块,用于获取样本文本对应的样本语音的第一线性频谱;
第二编码模块,用于通过待训练语音合成模型所包含的后验编码器对第一线性频谱进行编码,得到后验隐变量;
解码模块,用于利用待训练语音合成模型所包含的解码器对后验隐变量进行解码,得到合成语音对应的合成波形;
第一标准流模块,用于利用标准化流对后验隐变量进行参数化,得到参数化的隐变量;
对齐估计模块,用于利用单调对齐搜索对参数化的隐变量与先验分布的均值和方差之间进行对齐估计,得到样本文本与对应的样本语音之间的对齐关系;
时长获取模块,用于根据对齐关系获取样本文本对应音素的第一时长信息;
第一时长预测模块,用于将隐藏表示作为待训练语音合成模型所包含的随机时长预测器的输入,利用随机时长预测器对样本文本对应音素的时长进行预测,得到音素的第二时长信息;
参数更新模块,用于根据第一时长信息与第二时长信息计算第一损失函数,根据第一损失函数迭代更新随机时长预测器的模型参数,直至达到收敛条件。
在一个实施例中,该装置还包括:
第三转换模块,用于获取样本文本对应的样本语音的第一mel谱图,获取合成波形对应的第二mel谱图;
计算模块300具体包括:
重构损失计算模块,用于根据样本语音的第一mel谱图与对应的合成语音的第二mel谱图计算重构损失,
特征提取模块,用于获取样本语音的第一MFCC特征序列,以及根据对应的合成语音的合成波形获取合成语音的第二MFCC特征序列,
特征差距计算模块,用于对第一MFCC特征序列与第二MFCC特征序列进行对齐,得到样本语音与对应合成语音之间的特征差距。
在一个实施例中,图嵌入向量包括多个结点;
第一编码模块具体包括:
消息计算模块,用于对每个结点进行消息计算,得到每个结点对应的消息计算信息,
消息聚合模块,用于对每个结点对应的所有邻居结点的消息计算信息进行消息聚合,得到对应结点的结点聚合信息,将结点聚合信息作为隐藏表示。
本申请还提供了一种语音合成装置,该装置包括:
第四转换模块,用于获取待合成文本的图嵌入向量作为目标图嵌入向量;
第三编码模块,用于利用已训练的语音合成模型所包含的图编码器对目标图嵌入向量进行编码,得到目标隐藏表示;
第二时长预测模块,用于将所目标隐藏表示输入至已训练的语音合成模型所包含的随机时长预测器进行音素时长预测,得到目标音素的目标预测时长;
第二投影模块,用于通过已训练的语音合成模型所包含的投影层将目标隐藏表示转换为目标先验分布的均值和方差;
采样模块,用于结合目标预测时长从目标先验分布的均值和方差中采样目标隐变量;
合成模块,用于通过已训练的语音合成模型所包含的基于流的解码器对目标隐变量进行编码并行合成目标合成波形,以得到目标合成语音。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
其中上述模块/单元中的“第一”和“第二”的意义仅在于将不同的模块/单元加以区分,并不用于限定哪个模块/单元的优先级更高或者其它的限定意义。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或模块的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或模块,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或模块,本申请中所出现的模块的划分,仅仅是一种逻辑上的划分,实际应用中实现时可以有另外的划分方式。
关于语音合成模型的训练装置的具体限定可以参见上文中对于语音合成模型的训练方法的限定,在此不再赘述。上述语音合成模型的训练装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
图3为本申请一实施例中计算机设备的内部结构框图。如图3所示,该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、输入装置和显示屏。其中,该计算机设备的处理器用于提供计算和控制能力。存储器包括存储介质和内存储器。存储介质可以是非易失性存储介质,也可以是易失性存储介质。存储介质存储有操作系统,还可存储有计算机可读指令,该计算机可读指令被处理器执行时,可使得处理器实现语音合成模型的训练方法,或,语音合成方法。该内存储器为存储介质中的操作系统和计算机可读指令的运行提供环境。该内存储器中也可储存有计算机可读指令,该计算机可读指令被处理器执行时,可使得处理器执行语音合成模型的训练方法,或,语音合成方法。该计算机设备的网络接口用于与外部服务器通过网络连接通信。计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机可读指令(例如计算机程序),处理器执行计算机可读指令时实现上述实施例中语音合成模型的训练方法(例如图1所示的步骤S100至步骤S600及该方法的其它扩展和相关步骤的延伸)的步骤,或,语音合成方法的步骤。或者,处理器执行计算机可读指令时实现上述实施例中语音合成模型的训练装置的各模块/单元的功能(例如图2所示模块100至模块600的功能),或,语音合成装置的各模块/单元的功能。为避免重复,这里不再赘述。
处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable GateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,处理器是计算机装置的控制中心,利用各种接口和线路连接整个计算机装置的各个部分。
存储器可用于存储计算机可读指令和/或模块,处理器通过运行或执行存储在存储器内的计算机可读指令和/或模块,以及调用存储在存储器内的数据,实现计算机装置的各种功能。存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、视频数据等)等。
存储器可以集成在处理器中,也可以与处理器分开设置。
本领域技术人员可以理解,图3中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机可读指令,计算机可读指令被处理器执行时实现上述实施例中语音合成模型的训练方法(例如图1所示的步骤S100至步骤S600及该方法的其它扩展和相关步骤的延伸)的步骤,或,语音合成方法的步骤。或者,计算机可读指令被处理器执行时实现上述实施例中语音合成模型的训练装置的各模块/单元的功能(例如图2所示模块100至模块600的功能),或语音合成装置的各模块/单元的功能。为避免重复,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指示相关的硬件来完成,所述的计算机可读指令可存储于一计算机可读取存储介质中,该计算机可读指令在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双倍速率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本申请各个实施例所述的方法。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (10)

1.一种语音合成模型的训练方法,其特征在于,所述方法包括:
获取数据集,所述数据集包括多个文本语音对,每个所述文本语音对包括样本语音及对应的样本文本;
利用所述数据集对待训练语音合成模型进行训练,获取每个目标训练节点所述待训练合成模型预测的合成语音;
计算每个所述目标训练节点对应的样本语音与合成语音之间的重构损失和特征差距;
判断每个所述目标训练节点对应的合成语音是否存在高频噪声;
根据所述重构损失和特征差距对目标合成语音的合成效果进行排序,其中,所述目标合成语音为不存在高频噪声的合成语音或存在的高频噪声在预设范围内的合成语音;
根据排序结果及附加筛选规则确定合成效果最优的目标合成语音对应的语音合成模型为已训练的语音合成模型。
2.根据权利要求1所述的方法,其特征在于,所述根据排序结果及附加筛选规则确定合成效果最优的目标合成语音对应的语音合成模型为已训练的语音合成模型,包括:
根据排序结果选取合成效果排序不超过预设名次的目标合成语音作为候选语音;
获取听测人员对所述候选语音的合成效果的听测评估结果;
根据所述听测评估结果选取合成效果最优的候选语音对应的语音合成模型作为已训练的语音合成模型。
3.根据权利要求1所述的方法,其特征在于,所述数据集包括第一数据和第二数据集;
所述利用所述数据集对待训练语音合成模型进行训练,获取每个目标训练节点所述待训练合成模型预测的合成语音,包括:
获取第一数据集,其中,所述第一数据集包括第一数量的第一文本语音对,每个所述第一文本语音对包括第一样本语音及对应的第一样本文本,
利用所述第一数据集对待训练语音合成模型进行第一迭代训练,直至达到第一收敛条件,得到基础语音合成模型,
获取由目标用户语音生成的第二数据集,其中,所述第二数据集包括第二数量的第二文本语音对,每个所述第二文本语音对包括第二样本语音及对应的第二样本,所述第一数量大于所述第二数量,
利用所述第二数据集对所述基础语音合成模型进行第二迭代训练,直到达到第二收敛条件,获取所述第二迭代训练过程中每个目标训练节点所述基础合成模型预测的合成语音。
4.根据权利要求1所述的方法,其特征在于,所述利用所述数据集对待训练语音合成模型进行训练,获取每个目标训练节点所述待训练合成模型预测的合成语音包括:
获取所述样本文本的图嵌入向量;
利用待训练语音合成模型所包含的图编码器对所述图嵌入向量进行编码,得到隐藏表示;
将所述隐藏表示作为投影层的输入,利用所述投影层构造先验分布的均值和方差;
获取所述样本文本对应的样本语音的第一线性频谱;
通过所述待训练语音合成模型所包含的后验编码器对所述第一线性频谱进行编码,得到后验隐变量;
利用所述待训练语音合成模型所包含的解码器对所述后验隐变量进行解码,得到合成语音对应的合成波形;
利用标准化流对所述后验隐变量进行参数化,得到参数化的隐变量;
利用单调对齐搜索对所述参数化的隐变量与所述先验分布的均值和方差之间进行对齐估计,得到所述样本文本与对应的样本语音之间的对齐关系;
根据所述对齐关系获取所述样本文本对应音素的第一时长信息;
将所述隐藏表示作为待训练语音合成模型所包含的随机时长预测器的输入,利用所述随机时长预测器对所述样本文本对应音素的时长进行预测,得到所述音素的第二时长信息;
根据第一时长信息与第二时长信息计算第一损失函数,根据第一损失函数迭代更新所述随机时长预测器的模型参数,直至达到收敛条件。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
获取所述样本文本对应的样本语音的第一mel谱图,获取所述合成波形对应的第二mel谱图;
所述计算每个所述目标训练节点对应的样本语音与合成语音之间的重构损失和特征差距,包括:
根据所述样本语音的第一mel谱图与对应的合成语音的第二mel谱图计算重构损失,
获取所述样本语音的第一MFCC特征序列,以及根据对应的合成语音的合成波形获取所述合成语音的第二MFCC特征序列,
对所述第一MFCC特征序列与所述第二MFCC特征序列进行对齐,得到所述样本语音与对应合成语音之间的特征差距。
6.根据权利要求4所述的方法,其特征在于,所述图嵌入向量包括多个结点;
所述利用待训练语音合成模型所包含的图编码器对所述图嵌入向量进行编码,得到隐藏表示包括:
对每个所述结点进行消息计算,得到每个所述结点对应的消息计算信息,
对每个结点对应的所有邻居结点的消息计算信息进行消息聚合,得到对应结点的结点聚合信息,将所述结点聚合信息作为隐藏表示。
7.一种语音合成方法,其特征在于,所述方法包括:
获取待合成文本的图嵌入向量作为目标图嵌入向量;
利用根据权利要求1-6任一项的语音合成模型的训练方法得到的已训练的语音合成模型所包含的图编码器对所述目标图嵌入向量进行编码,得到目标隐藏表示;
将所述目标隐藏表示输入至所述已训练的语音合成模型所包含的随机时长预测器进行音素时长预测,得到目标音素的目标预测时长;
通过所述已训练的语音合成模型所包含的投影层将所述目标隐藏表示转换为目标先验分布的均值和方差;
结合所述目标预测时长从所述目标先验分布的均值和方差中采样目标隐变量;
通过所述已训练的语音合成模型所包含的基于流的解码器对所述目标隐变量进行编码并行合成目标合成波形,以得到目标合成语音。
8.一种语音合成模型的训练装置,其特征在于,所述装置包括:
数据获取模块,用于获取数据集,所述数据集包括多个文本语音对,每个所述文本语音对包括样本语音及对应的样本文本;
训练模块,用于利用所述数据集对待训练语音合成模型进行训练,获取每个目标训练节点所述待训练合成模型预测的合成语音;
计算模块,用于计算每个所述目标训练节点对应的样本语音与合成语音之间的重构损失和特征差距;
噪声判断模块,用于判断每个所述目标训练节点对应的合成语音是否存在高频噪声;
排序模块,用于根据所述重构损失和特征差距对目标合成语音的合成效果进行排序,其中,所述目标合成语音为不存在高频噪声的合成语音或存在的高频噪声在预设范围内的合成语音;
选择模块,用于根据排序结果及附加筛选规则确定合成效果最优的目标合成语音对应的语音合成模型为已训练的语音合成模型。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机可读指令,其特征在于,所述处理器执行所述计算机可读指令时执行如权利要求1-6任一项所述的语音合成模型的训练方法的步骤,或,所述处理器执行所述计算机可读指令时执行如权利要求7所述的语音合成方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机可读指令,其特征在于,所述计算机可读指令被处理器执行时,使得所述处理器执行如权利要求1-6任一项所述的语音合成模型的训练方法的步骤,或,使得所述处理器执行如权利要求7所述的语音合成方法的步骤。
CN202210517651.2A 2022-05-13 2022-05-13 语音合成模型的训练及语音合成方法、装置、设备和介质 Pending CN114822497A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210517651.2A CN114822497A (zh) 2022-05-13 2022-05-13 语音合成模型的训练及语音合成方法、装置、设备和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210517651.2A CN114822497A (zh) 2022-05-13 2022-05-13 语音合成模型的训练及语音合成方法、装置、设备和介质

Publications (1)

Publication Number Publication Date
CN114822497A true CN114822497A (zh) 2022-07-29

Family

ID=82513301

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210517651.2A Pending CN114822497A (zh) 2022-05-13 2022-05-13 语音合成模型的训练及语音合成方法、装置、设备和介质

Country Status (1)

Country Link
CN (1) CN114822497A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116825081A (zh) * 2023-08-25 2023-09-29 摩尔线程智能科技(北京)有限责任公司 基于小样本学习的语音合成方法、装置及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116825081A (zh) * 2023-08-25 2023-09-29 摩尔线程智能科技(北京)有限责任公司 基于小样本学习的语音合成方法、装置及存储介质
CN116825081B (zh) * 2023-08-25 2023-11-21 摩尔线程智能科技(北京)有限责任公司 基于小样本学习的语音合成方法、装置及存储介质

Similar Documents

Publication Publication Date Title
Valle et al. Flowtron: an autoregressive flow-based generative network for text-to-speech synthesis
JP6989951B2 (ja) スピーチチェイン装置、コンピュータプログラムおよびdnn音声認識・合成相互学習方法
JP5768093B2 (ja) 音声処理システム
CN112037754B (zh) 一种语音合成训练数据的生成方法及相关设备
CN113470662A (zh) 生成和使用用于关键词检出系统的文本到语音数据和语音识别系统中的说话者适配
JP6860901B2 (ja) 学習装置、音声合成システムおよび音声合成方法
CN112289342A (zh) 使用神经网络生成音频
CN111081230B (zh) 语音识别方法和设备
CN106971709A (zh) 统计参数模型建立方法和装置、语音合成方法和装置
WO2022252904A1 (zh) 基于人工智能的音频处理方法、装置、设备、存储介质及计算机程序产品
EP4078571A1 (en) A text-to-speech synthesis method and system, a method of training a text-to-speech synthesis system, and a method of calculating an expressivity score
WO2024055752A9 (zh) 语音合成模型的训练方法、语音合成方法和相关装置
Shankar et al. A Multi-Speaker Emotion Morphing Model Using Highway Networks and Maximum Likelihood Objective.
JPWO2017146073A1 (ja) 声質変換装置、声質変換方法およびプログラム
JP2019144404A (ja) 音声変換学習装置、音声変換装置、方法、及びプログラム
CN117373431A (zh) 音频合成方法、训练方法、装置、设备及存储介质
CN117672176A (zh) 基于语音自监督学习表征的重读可控语音合成方法及装置
CN114822497A (zh) 语音合成模型的训练及语音合成方法、装置、设备和介质
JP2021039219A (ja) 音声信号処理装置、音声信号処理方法、音声信号処理プログラム、学習装置、学習方法及び学習プログラム
JP7360814B2 (ja) 音声処理装置及び音声処理プログラム
JP2017194510A (ja) 音響モデル学習装置、音声合成装置、これらの方法及びプログラム
Yang et al. A chaotic time series prediction model for speech signal encoding based on genetic programming
CN115810341A (zh) 音频合成方法、装置、设备以及介质
JP2020013008A (ja) 音声処理装置、音声処理プログラムおよび音声処理方法
US20230317085A1 (en) Audio processing device, audio processing method, recording medium, and audio authentication system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination