[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN112002305B - 语音合成方法、装置、存储介质及电子设备 - Google Patents

语音合成方法、装置、存储介质及电子设备 Download PDF

Info

Publication number
CN112002305B
CN112002305B CN202010746944.9A CN202010746944A CN112002305B CN 112002305 B CN112002305 B CN 112002305B CN 202010746944 A CN202010746944 A CN 202010746944A CN 112002305 B CN112002305 B CN 112002305B
Authority
CN
China
Prior art keywords
text data
phoneme
frequency spectrum
phoneme sequence
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010746944.9A
Other languages
English (en)
Other versions
CN112002305A (zh
Inventor
杨惠
梁光
吴雨璇
舒景辰
周鼎皓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Dami Technology Co Ltd
Original Assignee
Beijing Dami Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Dami Technology Co Ltd filed Critical Beijing Dami Technology Co Ltd
Priority to CN202010746944.9A priority Critical patent/CN112002305B/zh
Publication of CN112002305A publication Critical patent/CN112002305A/zh
Application granted granted Critical
Publication of CN112002305B publication Critical patent/CN112002305B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/14Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
    • G06F17/141Discrete Fourier transforms
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computational Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Algebra (AREA)
  • Discrete Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本申请实施例公开了一种语音合成方法、装置、存储介质及电子设备,属于计算机技术领域。方法包括:服务器获取文本数据,并将文本数据转换成至少一个音素序列,基于预训练的语音合成模型对至少一个音素序列进行语音合成处理得到文本数据对应的梅尔频谱,基于文本数据对应的梅尔频谱得到文本数据对应的合成语音,使服务器能精准地合成较为真实的语音。

Description

语音合成方法、装置、存储介质及电子设备
技术领域
本申请涉及计算机技术领域,尤其涉及一种语音合成方法、装置、存储介质及电子设备。
背景技术
随着互联网的发展,智能语音技术也随之得到了发展,并逐渐应用于导航、语音播报、语音交互等场景中,给用户的生活带来了极大的方便,语音合成是智能语音技术中较重要的处理过程,但在相关技术中,语音合成的效果较差,不能实现对声音的精准合成,进而导致所合成的语音不够真实。
发明内容
本申请实施例提供了一种语音合成方法、装置、存储介质及电子设备,可以解决相关技术中不能精准合成较为真实的语音的问题。所述技术方案如下:
第一方面,本申请实施例提供了一种语音合成方法,所述方法包括:
获取文本数据,并将所述文本数据转换成至少一个音素序列;
基于预训练的语音合成模型对所述至少一个音素序列进行语音合成处理得到所述文本数据对应的梅尔频谱;
基于所述文本数据对应的梅尔频谱得到所述文本数据对应的合成语音。
第二方面,本申请实施例提供了一种语音合成装置,所述语音合成装置包括:
获取模块,用于获取文本数据,并将所述文本数据转换成至少一个音素序列;
第一处理模块,用于基于预训练的语音合成模型对所述至少一个音素序列进行语音合成处理得到所述文本数据对应的梅尔频谱;
第二处理模块,用于基于所述文本数据对应的梅尔频谱得到所述文本数据对应的合成语音。
第三方面,本申请实施例提供一种计算机存储介质,所述计算机存储介质存储有多条指令,所述指令适于由处理器加载并执行上述的方法步骤。
第四方面,本申请实施例提供一种电子设备,可包括:处理器和存储器;其中,所述存储器存储有计算机程序,所述计算机程序适于由所述处理器加载并执行上述的方法步骤。
本申请一些实施例提供的技术方案带来的有益效果至少包括:
本申请实施例的方案在执行时,服务器获取文本数据,并将文本数据转换成至少一个音素序列,基于预训练的语音合成模型对至少一个音素序列进行语音合成处理得到文本数据对应的梅尔频谱,基于文本数据对应的梅尔频谱得到文本数据对应的合成语音,使服务器能精准地合成较为真实的语音。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种系统架构图;
图2是本申请实施例提供的语音合成方法的流程示意图;
图3是本申请实施例提供的语音合成方法的另一流程示意图;
图4是本申请实施例提供的一种语音合成模型结构示意图;
图5是本申请实施例提供的一种装置的结构示意图;
图6是本申请实施例提供的一种装置的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施例方式作进一步地详细描述。
图1示出了可以应用本申请实施例的语音合成方法或语音合成装置的示例性系统架构100的示意图。
如图1所示,系统架构100可以包括终端设备101、102、103中的一种或多种,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质,终端设备101、102、103上可以安装有各种通信客户端应用,例如:视频录制应用、视频播放应用、语音交互应用、搜索类应用、及时通信工具、邮箱客户端、社交平台软件等。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、便携式计算机和台式计算机等等。网络104可以包括各种类型的有线通信链路或无线通信链路,例如:有线通信链路包括光纤、双绞线或同轴电缆的,无线通信链路包括蓝牙通信链路、无线保真(WIreless-FIdelity,Wi-Fi)通信链路或微波通信链路等。终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为软件时,可以是安装于上述所列举的电子设备中。其可以实现呈多个软件或软件模块(例如:用来提供分布式服务),也可以实现成单个软件或软件模块,在此不作具体限定。当终端设备101、102、103为硬件时,其上还可以安装有显示设备和摄像头,显示设备显示可以是各种能实现显示功能的设备,摄像头用于采集视频流;例如:显示设备可以是阴极射线管显示器(Cathode raytubedisplay,简称CR)、发光二极管显示器(Light-emitting diode display,简称LED)、电子墨水屏、液晶显示屏(Liquid crystal display,简称LCD)、等离子显示面板(Plasmadisplaypanel,简称PDP)等。用户可以利用终端设备101、102、103上的显示设备,来查看显示的文字、图片、视频等信息。
需要说明的是,本申请实施例提供的语音合成方法通常由服务器105执行,相应的,语音合成装置通常设置于服务器105中。服务器105可以是提供各种服务的服务器,服务器105可以是硬件,也可以是软件。当服务器105为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器105为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块,在此不做具体限定。
本申请中的服务器105可以为提供各种服务的终端设备,如:服务器获取文本数据,并将文本数据转换成至少一个音素序列,基于预训练的语音合成模型对至少一个音素序列进行语音合成处理得到文本数据对应的梅尔频谱,基于文本数据对应的梅尔频谱得到文本数据对应的合成语音。
在此需要说明的是,本申请实施例所提供的语音合成方法可以由终端设备101、102、103中的一个或多个,和/或,服务器105执行,相应地,本申请实施例所提供的语音合成装置一般设置于对应终端设备中,和/或,服务器105中,但本申请不限于此。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
下面将结合附图2至附图3,对本申请实施例提供的语音合成方法进行详细介绍。请参见图2,为本申请实施例提供了一种语音合成方法的流程示意图。如图2所示,本申请实施例的所述方法可以包括以下步骤:
S201,获取文本数据,并将文本数据转换成至少一个音素序列。
其中,文本数据是指以文本形式呈现且包含内容信息的数据,音素序列是指排列成一列的音素元素,文本数据可以是英文单词的文本数据,该文本数据中每一个英文单词都对应有一个音素序列;文本数据也可以是中文词语,该文本数据中的每个词语都对应有一个音素序列。
一般的,用户可向服务器发送包含内容信息的文本数据,服务器在获取文本数据后,会通过查询音素表的方式将该文本数据中的每个单词转换成各自对应的音素序列,便于后续对文本数据对应的至少一个音素序列进行处理。
举例说明:文本数据由中文词语组成,文本数据内容为“今天你吃饭了吗?”,服务器经过查询音素表后,可将该文本数据转换成7个音素序列:{j,i,n}、{t,i,a,n}、{n,i}、{c,h,i}、{f,a,n}、{l,e}、{m,a},文本数据中的每个词语对应一个音素序列。
S202,基于预训练的语音合成模型对至少一个音素序列进行语音合成处理得到文本数据对应的梅尔频谱。
其中,梅尔频谱是指通过梅尔标度来表示的频谱,梅尔频谱包含有声音的特征。
一般的,在服务器得到文本数据对应的至少一个音素序列后,可通过预先训练好的语音合成模型对至少一个音素序列进行语音合成处理,得到与该文本数据对应的梅尔频谱,该梅尔频谱中包含有文本数据对应的声音特征,基于该梅尔频谱可确定与该文本数据对应的语音。
预训练的语音合成模型的训练过程可以包括:
服务器获取样本文本数据和样本语音数据,通过查询音素表将样本文本数据转换成至少一个音素序列,并将至少一个音素序列转换成至少一个音素特征向量,对至少一个音素特征向量进行降维处理得到第一特征向量,基于样本文本数据的文本序列信息对第一特征向量进行位置编码处理得到第二特征向量,文本序列信息用于表示样本文本数据中词的顺序和特征中的至少一种,对第二特征向量进行FFT快速傅里叶变换处理得到音素序列向量;对样本文本数据中至少一个音素序列的时长进行概率评估得到至少一个音素序列的发音时长,基于至少一个音素序列的发音时长对音素序列向量进行时长提取处理得到音素对齐向量;基于样本文本数据的文本序列信息对音素对齐向量进行位置编码处理得到第三特征向量,文本序列信息用于表示样本文本数据中词的顺序和特征中的至少一种,对第三特征向量进行FFT快速傅里叶变换处理得到第四特征向量,基于线性层对第四特征向量进行处理得到样本文本数据对应的梅尔频谱;计算样本文本数据对应的梅尔频谱与样本语音数据对应的梅尔频谱的损失值,在损失值小于或等于预设阈值时生成预训练的语音合成模型。
S203,基于文本数据对应的梅尔频谱得到文本数据对应的合成语音。
其中,合成语音是指经过精准合成处理得到的语音,合成语音能真实地体现用户的声音特征。
一般的,由于文本数据对应的梅尔频谱中包含有文本数据对应的声音特征,故可基于梅尔频谱中的特征信息,对梅尔频谱进行傅里叶变换处理得到文本数据对应的合成语音,为使最后得到的声音数据能更加真实,可基于预设信噪比计算得到背景噪声数据,并将背景噪声数据添加到合成语音中得到文本数据的语音,使该语音能更真实呈现用户需要的声音特征。
本申请实施例的方案在执行时,服务器获取文本数据,并将文本数据转换成至少一个音素序列,基于预训练的语音合成模型对至少一个音素序列进行语音合成处理得到文本数据对应的梅尔频谱,基于文本数据对应的梅尔频谱得到文本数据对应的合成语音,使服务器能精准地合成较为真实的语音。
请参见图3,为本申请实施例提供了一种语音合成方法的流程示意图,该语音合成方法可以包括以下步骤:
S301,获取文本数据,并将文本数据转换成至少一个音素序列。
其中,文本数据是指以文本形式呈现且包含内容信息的数据,音素序列是指排列成一列的音素元素,文本数据可以是英文单词的文本数据,该文本数据中每一个英文单词都对应有一个音素序列;文本数据也可以是中文词语,该文本数据中的每个词语都对应有一个音素序列。
一般的,用户可向服务器发送包含内容信息的文本数据,服务器在获取文本数据后,会通过查询音素表的方式将该文本数据中的每个单词转换成各自对应的音素序列,便于后续对文本数据对应的至少一个音素序列进行处理。
举例说明:文本数据由中文词语组成,文本数据内容为“今天你吃饭了吗?”,服务器经过查询音素表后,可将该文本数据转换成7个音素序列:{j,i,n}、{t,i,a,n}、{n,i}、{c,h,i}、{f,a,n}、{l,e}、{m,a},文本数据中的每个词语对应一个音素序列。
S302,基于预训练的语音合成模型,将至少一个音素序列转换成至少一个音素特征向量。
其中,音素序列是指排列成一列的音素元素,音素特征向量是指音素序列经过初步转换得到的包含音素序列对应的特征的向量。
一般的,可通过查询音素表的方式获得文本数据对应的音素序列,文本数据中的每个单词/词语均对应有一个音素序列,为后续能对得到的多个音素序列进行处理,需要将得到的多个音素序列转换成音素特征向量的形式,音素特征向量的数量与音素序列的数量相同,每个音素序列均对应有一个音素特征向量。
S303,对至少一个音素特征向量进行降维处理得到第一特征向量。
其中,第一特征向量是音素特征向量在降维后得到的向量,与原始维度的音素特征向量存在维度区别。
S304,基于文本数据的文本序列信息对第一特征向量进行位置编码处理得到第二特征向量。
其中,文本序列信息是文本数据中单词/词语的相关信息,文本序列信息可用于表示文本数据中词的顺序和特征中的至少一种;第二特征向量是第一特征向量经过位置编码处理后得到向量,与第一特征向量区别。
一般的,通过对第一特征向量进行位置编码处理,可将文本数据中的文本序列信息添加到第一特征向量中,并得到能体现时间序列的第二特征向量。
S305,对第二特征向量进行FFT快速傅里叶变换处理得到音素序列向量。
其中,音素序列向量是指音素序列经过多次转换后得到的以向量形式表示的向量。
一般的,可基于由FFT模块组成的,并包含有attention注意力机制、卷积层的transformer前馈网络对第二特征向量进行FFT处理,对第二特征向量中包含的参数进行训练,并提取需要关注的信息后,可得到音素序列向量。
S306,对至少一个音素序列的时长进行概率评估得到至少一个音素序列的发音时长。
其中,发音时长是指音素序列中各个音素发音时长的总和,每个音素序列均对应有一个发音时长,发音时长也即音素序列的时长信息。
S307,基于至少一个音素序列的发音时长对音素序列向量进行时长提取处理得到音素对齐向量。
其中,音素对齐向量是指基于音素序列的发音时长进行音素对齐后得到向量。
一般的,现有的提取音素序列中每个音素的时长信息是通过预训练好的模型进行提取的,效果较差,只实现了句子的对齐,并未实现音素到音素的对齐;在本方案中采用统计模型(经典解码器),对音素序列进行处理实现了对音素的强制对齐,具体包括:对每个单词/词语对应的音素序列进行发音时长的统计,进而对得到的每个音素序列的发音时长进行概率评估,从概率评估结果中选择概率最大的音素序列作为输出结果,由此实现了音素到音素的对齐,进而得到音素对齐的音素对齐向量。
S308,基于文本数据的文本序列信息对音素对齐向量进行位置编码处理得到第三特征向量。
其中,第三特征向量是音素对齐向量经过位置编码处理后得到向量,与第一特征向量、第二特征向量区别。
一般的,通过对音素对齐向量进行位置编码处理,可将文本数据中的文本序列信息添加到音素对齐特征向量中,并得到能体现时间序列的第三特征向量。
S309,对第三特征向量进行FFT快速傅里叶变换处理得到第四特征向量。
其中,第四特征向量是第三特征向量经过FFT处理后得到向量,与第一特征向量、第二特征向量、第三特征向量区别。
一般的,可基于由FFT模块组成的,并包含有attention注意力机制、卷积层的transformer前馈网络对第三特征向量进行FFT处理,对第三特征向量中包含的参数进行训练,并提取需要关注的信息后,可得到第四特征向量。
S310,基于线性层对第四特征向量进行处理得到当前的梅尔频谱。
其中,梅尔频谱是指通过梅尔标度来表示的频谱,梅尔频谱包含有声音的特征。
一般的,可基于线性层对第四特征向量进行处理得到文本数据当前对应的梅尔频谱α,并将文本数据当前对应的梅尔频谱α与比较标签(预设梅尔频谱)进行比较计算两者间的损失值,在该损失值达到预设阈值之前,基于上述步骤进行不断的迭代训练,直到在损失值小于或等于预设阈值时,可得到文本数据对应的梅尔频谱,进一步对该梅尔频谱进行处理则可得到文本数据对应的语音。
S311,计算当前的梅尔频谱与预设梅尔频谱的损失值。
其中,损失值是指文本数据当前的梅尔频谱α与比较标签(预设梅尔频谱)不一致程度,在损失值满足预设条件时,则可得到能合成文本数据对应的语音,的梅尔频谱,损失值越小,所得到的梅尔频谱能更真实地体现文本数据对应的语音特征。
S312,在损失值小于或等于预设阈值时,确定当前的梅尔频谱为文本数据对应的梅尔频谱。
其中,预设阈值是指当前的梅尔频谱与预设梅尔频谱间最大的损失值,在损失值小于或等于预先设定的最大损失值时,表明当前的梅尔频谱能真实体现文本数据对应的语音特征。
一般的,通过多次迭代训练,使文本数据当前的梅尔频谱α与比较标签(预设梅尔频谱)间的损失值降到预设阈值或低于预设阈值时,可得到能真实体现文本数据对应的语音特征的梅尔频谱,服务器可基于该梅尔频谱得到与输入的文本数据对应的语音。
举例说明:请参见图4的语音合成模型,主要包括音素嵌入模块、第一位置编码模块、第一FFT模块、长度调节模块、第二FFT模块、第二位置编码模块、Linear Layer线性层,音素嵌入模块、第一位置编码模块和第一FFT模块共同组成编码器,第二FFT模块、第二位置编码模块和Linear Layer线性层共同组成解码器。
(1)服务器获取文本数据A。
(2)对文本数据A进行编码处理:
音素嵌入(phoneme embedding)处理:基于文本数据A(如:“今天你吃饭了吗?”)提取音素序列,每一个词对应一个音素序列(如:“你”、“吃”等各自对应其音素序列),具体过程是:经过查询音素表,将文本数据A转换成多个音素序列(用特征向量X表示),并对特征向量X进行转化(经过矩阵关系运算降维处理),转换成特征向量Y;
位置编码(positional encoding)处理,基于向量计算,把文本数据A的文本序列信息加入到特征向量Y中,以体现时间序列,得到特征向量Z;
FFT处理:FFT模块是一种transformer前馈网络,包括attention注意力机制(包括自注意力机制,可关注重要信息)、卷积层(需要训练参数的网络),经过FFT模块的处理计算,由特征向量Z得到特征向量U。
(3)时长提取(Length regular)处理:现有方案是使用预训练好的模型,提取音素序列中每个音素的时长信息,但效果并不好(是句子的对齐,并未实现音素到音素的对齐);本方案通过使用统计模型(经典解码器),实现了音素的强制对齐,具体是:通过对每个单词进行发音时长的统计,对每个音素序列的时长进行概率评估,选择概率最大的序列作为输出结果,由此实现了音素到音素的对齐;进一步,基于得到的时长信息,对特征向量U进行运算,得到特征向量V。
(4)解码处理:
位置编码(positional encoding)处理:基于向量计算,把文本数据A的文本序列信息加入到特征向量V中,以体现时间序列,得到特征向量S;
FFT处理:经过FFT模块的处理计算,由特征向量S得到特征向量T;
Linear Layer线性层处理:特征向量T经过线性层处理可得到特征向量T对应的梅尔频谱α,与预设梅尔频谱β进行比较,即将预设梅尔频谱β作为比较标签,计算loss损失值,根据损失值并基于编码器和解码器不断进行迭代训练,在损失值小于或等于预设阈值时,表明此时可得到能真实体现文本数据对应的语音特征的梅尔频谱。
语音合成模型处理过程中用到的公式为:
(1)字(词)向量与位置编码:
X=EmbeddingLookup(X)+PositionalEnocoding;
X∈Rbatchsize*seq.len.*embed.dim.
(2)自注意力机制:
Q=Linear(X)=XWQ
K=Linear(X)=XWK
V=Linear(X)=XWV
Xattention=SelfAttention(Q,K,V);
(3)残差连接与Layer Normalization:
Xattention=X+Xattention
Xattention=LayerNorm(Xattention);
(4)FeedForward,其实是两层线性映射并用激活函数激活:
Xhidden=Activate(Linear(Linear(Xattention)));
(5)残差连接与Layer Normalization:
Xhidden=Xattention+Xhidden
Xhidden=LayerNorm(Xhidden);
X∈Rbatchsize*seq.len.*embed.dim.
S313,基于文本数据对应的梅尔频谱得到文本数据对应的合成语音。
其中,合成语音是指经过精准合成处理后的语音,合成语音能较真实地体现用户的声音特征。
一般的,由于文本数据对应的梅尔频谱中包含有文本数据对应的声音特征,故可基于梅尔频谱中的特征信息,对梅尔频谱进行傅里叶变换处理得到文本数据对应的合成语音,该合成语音能真实地体现用户需要的声音特征。
S314,基于预设信噪比计算得到背景噪声数据。
其中,信噪比是指电子设备或者电子系统中信号与噪声的比例,预设信噪比是可预先设定的合成语音信号与背景噪声的比例,通过预设的信噪比可得到背景噪声的相关数据。背景噪声数据可以是需要添加的噪声对应的功率信息。
S315,将背景噪声数据添加到合成语音中得到文本数据的语音。
一般的,基于合成语音的功率信息和背景噪声的功率信息,服务器可对合成语音进行添加噪声处理得到具有背景噪声的语音,也即文本数据对应的较为真实的语音,添加背景噪声后的合成语音更加真实自然。
本申请实施例的方案在执行时,服务器获取文本数据,并将文本数据转换成至少一个音素序列,基于预训练的语音合成模型,将至少一个音素序列转换成至少一个音素特征向量,对至少一个音素特征向量进行降维处理得到第一特征向量,基于文本数据的文本序列信息对第一特征向量进行位置编码处理得到第二特征向量,对第二特征向量进行FFT快速傅里叶变换处理得到音素序列向量,对至少一个音素序列的时长进行概率评估得到至少一个音素序列的发音时长,基于至少一个音素序列的发音时长对音素序列向量进行时长提取处理得到音素对齐向量,基于文本数据的文本序列信息对音素对齐向量进行位置编码处理得到第三特征向量,对第三特征向量进行FFT快速傅里叶变换处理得到第四特征向量,基于线性层对第四特征向量进行处理得到当前的梅尔频谱,计算当前的梅尔频谱与预设梅尔频谱的损失值,在损失值小于或等于预设阈值时,确定当前的梅尔频谱为文本数据对应的梅尔频谱,基于文本数据对应的梅尔频谱得到文本数据对应的合成语音,基于预设信噪比计算得到背景噪声数据,将背景噪声数据添加到合成语音中得到文本数据的语音,使服务器能精准地合成较为真实的语音。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
请参见图5,其示出了本申请一个示例性实施例提供的语音合成装置的结构示意图。以下简称装置5,装置5可以通过软件、硬件或者两者的结合实现成为终端的全部或一部分。装置5包括获取模块501、第一处理模块502、第二处理模块503。
获取模块501,用于获取文本数据,并将所述文本数据转换成至少一个音素序列;
第一处理模块502,用于基于预训练的语音合成模型对所述至少一个音素序列进行语音合成处理得到所述文本数据对应的梅尔频谱;
第二处理模块503,用于基于所述文本数据对应的梅尔频谱得到所述文本数据对应的合成语音。
可选地,所述第一处理模块502包括:
第一编码单元,用于基于所述预训练的语音合成模型,对所述至少一个音素序列进行编码处理得到音素序列向量;
第一时长提取单元,用于对所述音素序列向量进行时长提取处理得到音素对齐向量;
解码单元,用于对所述音素对齐向量进行解码处理得到当前的梅尔频谱;
第一计算单元,用于计算所述当前的梅尔频谱与预设梅尔频谱的损失值;
确定单元,用于在所述损失值小于或等于预设阈值时,确定所述当前的梅尔频谱为所述文本数据对应的梅尔频谱。
可选地,所述第一处理模块502包括:
第一处理单元,用于对所述至少一个音素序列进行音素嵌入处理得到第一特征向量;
第二编码单元,用于基于所述文本数据的文本序列信息对所述第一特征向量进行位置编码处理得到第二特征向量;其中,所述文本序列信息用于表示所述文本数据中词的顺序和特征中的至少一种;
第二处理单元,用于对所述第二特征向量进行FFT快速傅里叶变换处理得到所述音素序列向量。
可选地,所述第一处理模块502包括:
转换单元,用于将所述至少一个音素序列转换成至少一个音素特征向量;
第三处理单元,用于对所述至少一个音素特征向量进行降维处理得到所述第一特征向量。
可选地,所述第一处理模块502包括:
概率评估单元,用于对所述文本数据中至少一个音素序列的时长进行概率评估得到所述至少一个音素序列的发音时长;
第二时长提取单元,用于基于所述至少一个音素序列的所述发音时长对所述音素序列向量进行时长提取处理得到所述音素对齐向量。
可选地,所述第一处理模块502包括:
第三编码单元,用于基于所述文本数据的文本序列信息对所述音素对齐向量进行位置编码处理得到第三特征向量;其中,所述文本序列信息用于表示所述文本数据中词的顺序和特征中的至少一种;
第四处理单元,用于对所述第三特征向量进行FFT快速傅里叶变换处理得到第四特征向量;
第五处理单元,用于基于线性层对所述第四特征向量进行处理得到所述当前的梅尔频谱。
可选地,所述第二处理模块503还包括:
第二计算单元,用于基于预设信噪比计算得到背景噪声数据;
添加单元,用于将所述背景噪声数据添加到所述合成语音中得到所述文本数据的语音。
需要说明的是,上述实施例提供的装置5在执行语音合成方法时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的语音合成方法实施例属于同一构思,其体现实现过程详见方法实施例,这里不再赘述。
图6为本申请实施例提供的一种语音合成装置结构示意图,以下简称装置6,装置6可以集成于前述服务器或终端设备中,如图6所示,该装置包括:存储器602、处理器601、输入装置603、输出装置604和通信接口。
存储器602可以是独立的物理单元,与处理器601、输入装置603和输出装置604可以通过总线连接。存储器602、处理器601、输入装置603和输出装置604也可以集成在一起,通过硬件实现等。
存储器602用于存储实现以上方法实施例,或者装置实施例各个模块的程序,处理器601调用该程序,执行以上方法实施例的操作。
输入装置602包括但不限于键盘、鼠标、触摸面板、摄像头和麦克风;输出装置包括但限于显示屏。
通信接口用于收发各种类型的消息,通信接口包括但不限于无线接口或有线接口。
可选地,当上述实施例的分布式任务调度方法中的部分或全部通过软件实现时,装置也可以只包括处理器。用于存储程序的存储器位于装置之外,处理器通过电路/电线与存储器连接,用于读取并执行存储器中存储的程序。
处理器可以是中央处理器(central processing unit,CPU),网络处理器(network processor,NP)或者CPU和NP的组合。
处理器还可以进一步包括硬件芯片。上述硬件芯片可以是专用集成电路(application-specific integrated circuit,ASIC),可编程逻辑器件(programmablelogic device,PLD)或其组合。上述PLD可以是复杂可编程逻辑器件(complexprogrammable logic device,CPLD),现场可编程逻辑门阵列(field-programmable gatearray,FPGA),通用阵列逻辑(generic array logic,GAL)或其任意组合。
存储器可以包括易失性存储器(volatile memory),例如存取存储器(random-access memory,RAM);存储器也可以包括非易失性存储器(non-volatile memory),例如快闪存储器(flash memory),硬盘(hard disk drive,HDD)或固态硬盘(solid-state drive,SSD);存储器还可以包括上述种类的存储器的组合。
其中,处理器601调用存储器602中的程序代码用于执行以下步骤:
获取文本数据,并将所述文本数据转换成至少一个音素序列;
基于预训练的语音合成模型对所述至少一个音素序列进行语音合成处理得到所述文本数据对应的梅尔频谱;
基于所述文本数据对应的梅尔频谱得到所述文本数据对应的合成语音。
在一个或多个实施例中,处理器601还用于:
基于所述预训练的语音合成模型,对所述至少一个音素序列进行编码处理得到音素序列向量;
对所述音素序列向量进行时长提取处理得到音素对齐向量;
对所述音素对齐向量进行解码处理得到当前的梅尔频谱;
计算所述当前的梅尔频谱与预设梅尔频谱的损失值;
在所述损失值小于或等于预设阈值时,确定所述当前的梅尔频谱为所述文本数据对应的梅尔频谱。
在一个或多个实施例中,处理器601还用于:
对所述至少一个音素序列进行音素嵌入处理得到第一特征向量;
基于所述文本数据的文本序列信息对所述第一特征向量进行位置编码处理得到第二特征向量;其中,所述文本序列信息用于表示所述文本数据中词的顺序和特征中的至少一种;
对所述第二特征向量进行FFT快速傅里叶变换处理得到所述音素序列向量。
在一个或多个实施例中,处理器601还用于:
将所述至少一个音素序列转换成至少一个音素特征向量;
对所述至少一个音素特征向量进行降维处理得到所述第一特征向量。
在一个或多个实施例中,处理器601还用于:
对所述至少一个音素序列的时长进行概率评估得到所述至少一个音素序列的发音时长;
基于所述至少一个音素序列的所述发音时长对所述音素序列向量进行时长提取处理得到所述音素对齐向量。
在一个或多个实施例中,处理器601还用于:
基于所述文本数据的文本序列信息对所述音素对齐向量进行位置编码处理得到第三特征向量;其中,所述文本序列信息用于表示所述文本数据中词的顺序和特征中的至少一种;
对所述第三特征向量进行FFT快速傅里叶变换处理得到第四特征向量;
基于线性层对所述第四特征向量进行处理得到所述当前的梅尔频谱。
在一个或多个实施例中,处理器601还用于:
基于预设信噪比计算得到背景噪声数据;
将所述背景噪声数据添加到所述合成语音中得到所述文本数据的语音。
需要说明的是,上述实施例提供的装置6在执行语音合成方法时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的语音合成方法实施例属于同一构思,其体现实现过程详见方法实施例,这里不再赘述。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
本申请实施例还提供了一种计算机存储介质,所述计算机存储介质可以存储有多条指令,所述指令适于由处理器加载并执行如上述图2~图3所示实施例的方法步骤,具体执行过程可以参见图2~图3所示实施例的具体说明,在此不进行赘述。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。

Claims (8)

1.一种语音合成方法,其特征在于,所述方法包括:
获取文本数据,并将所述文本数据转换成至少一个音素序列;
基于预训练的语音合成模型对所述至少一个音素序列进行语音合成处理得到所述文本数据对应的梅尔频谱;
基于所述文本数据对应的梅尔频谱得到所述文本数据对应的合成语音;
所述基于预训练的语音合成模型对所述至少一个音素序列进行语音合成处理得到所述文本数据对应的梅尔频谱,包括:
基于所述预训练的语音合成模型,对所述至少一个音素序列进行编码处理得到音素序列向量;
对所述音素序列向量进行时长提取处理得到音素对齐向量;
对所述音素对齐向量进行解码处理得到当前的梅尔频谱;
计算所述当前的梅尔频谱与预设梅尔频谱的损失值;
在所述损失值小于或等于预设阈值时,确定所述当前的梅尔频谱为所述文本数据对应的梅尔频谱;
所述对所述至少一个音素序列进行编码处理得到音素序列向量,包括:
对所述至少一个音素序列进行音素嵌入处理得到第一特征向量;
基于所述文本数据的文本序列信息对所述第一特征向量进行位置编码处理得到第二特征向量;其中,所述文本序列信息用于表示所述文本数据中词的顺序和特征中的至少一种;
对所述第二特征向量进行FFT快速傅里叶变换处理得到所述音素序列向量。
2.根据权利要求1所述的方法,其特征在于,所述对所述至少一个音素序列进行音素嵌入处理得到第一特征向量,包括:
将所述至少一个音素序列转换成至少一个音素特征向量;
对所述至少一个音素特征向量进行降维处理得到所述第一特征向量。
3.根据权利要求1所述的方法,其特征在于,所述对所述音素序列向量进行时长提取处理得到音素对齐向量,包括:
对所述至少一个音素序列的时长进行概率评估得到所述至少一个音素序列的发音时长;
基于所述至少一个音素序列的所述发音时长对所述音素序列向量进行时长提取处理得到所述音素对齐向量。
4.根据权利要求1所述的方法,其特征在于,所述对所述音素对齐向量进行解码处理得到当前的梅尔频谱,包括:
基于所述文本数据的文本序列信息对所述音素对齐向量进行位置编码处理得到第三特征向量;其中,所述文本序列信息用于表示所述文本数据中词的顺序和特征中的至少一种;
对所述第三特征向量进行FFT快速傅里叶变换处理得到第四特征向量;
基于线性层对所述第四特征向量进行处理得到所述当前的梅尔频谱。
5.根据权利要求1所述的方法,其特征在于,所述基于所述文本数据对应的梅尔频谱得到所述文本数据对应的合成语音之后,包括:
基于预设信噪比计算得到背景噪声数据;
将所述背景噪声数据添加到所述合成语音中得到所述文本数据的语音。
6.一种语音合成装置,其特征在于,所述装置包括:
获取模块,用于获取文本数据,并将所述文本数据转换成至少一个音素序列;
第一处理模块,用于基于预训练的语音合成模型对所述至少一个音素序列进行语音合成处理得到所述文本数据对应的梅尔频谱;
所述第一处理模块还用于:基于所述预训练的语音合成模型,对所述至少一个音素序列进行编码处理得到音素序列向量;对所述音素序列向量进行时长提取处理得到音素对齐向量;对所述音素对齐向量进行解码处理得到当前的梅尔频谱;计算所述当前的梅尔频谱与预设梅尔频谱的损失值;在所述损失值小于或等于预设阈值时,确定所述当前的梅尔频谱为所述文本数据对应的梅尔频谱;对所述至少一个音素序列进行音素嵌入处理得到第一特征向量;基于所述文本数据的文本序列信息对所述第一特征向量进行位置编码处理得到第二特征向量;其中,所述文本序列信息用于表示所述文本数据中词的顺序和特征中的至少一种;对所述第二特征向量进行FFT快速傅里叶变换处理得到所述音素序列向量;
第二处理模块,用于基于所述文本数据对应的梅尔频谱得到所述文本数据对应的合成语音。
7.一种计算机存储介质,其特征在于,所述计算机存储介质存储有多条指令,所述指令适于由处理器加载并执行如权利要求1~5任意一项的方法步骤。
8.一种电子设备,其特征在于,包括:处理器和存储器;其中,所述存储器存储有计算机程序,所述计算机程序适于由所述处理器加载并执行如权利要求1~5任意一项的方法步骤。
CN202010746944.9A 2020-07-29 2020-07-29 语音合成方法、装置、存储介质及电子设备 Active CN112002305B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010746944.9A CN112002305B (zh) 2020-07-29 2020-07-29 语音合成方法、装置、存储介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010746944.9A CN112002305B (zh) 2020-07-29 2020-07-29 语音合成方法、装置、存储介质及电子设备

Publications (2)

Publication Number Publication Date
CN112002305A CN112002305A (zh) 2020-11-27
CN112002305B true CN112002305B (zh) 2024-06-18

Family

ID=73462550

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010746944.9A Active CN112002305B (zh) 2020-07-29 2020-07-29 语音合成方法、装置、存储介质及电子设备

Country Status (1)

Country Link
CN (1) CN112002305B (zh)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112466273B (zh) * 2020-12-10 2024-11-08 平安科技(深圳)有限公司 语音合成方法、装置、电子设备及存储介质
WO2022121176A1 (zh) * 2020-12-11 2022-06-16 平安科技(深圳)有限公司 语音合成方法、装置、电子设备及可读存储介质
CN112837673B (zh) * 2020-12-31 2024-05-10 平安科技(深圳)有限公司 基于人工智能的语音合成方法、装置、计算机设备和介质
CN112885328B (zh) * 2021-01-22 2024-06-28 华为技术有限公司 一种文本数据处理方法及装置
CN113345415B (zh) * 2021-06-01 2024-10-25 平安科技(深圳)有限公司 语音合成方法、装置、设备及存储介质
CN113327576B (zh) * 2021-06-03 2024-04-23 多益网络有限公司 语音合成方法、装置、设备及存储介质
CN113362804B (zh) * 2021-06-09 2024-03-19 平安科技(深圳)有限公司 一种合成语音的方法、装置、终端及存储介质
CN113257221B (zh) * 2021-07-06 2021-09-17 成都启英泰伦科技有限公司 一种基于前端设计的语音模型训练方法及语音合成方法
CN113450765B (zh) * 2021-07-29 2024-07-09 平安科技(深圳)有限公司 语音合成方法、装置、设备及存储介质
CN113903326A (zh) * 2021-09-27 2022-01-07 平安科技(深圳)有限公司 语音合成方法、装置、设备及存储介质
CN113763924B (zh) * 2021-11-08 2022-02-15 北京优幕科技有限责任公司 声学深度学习模型训练方法、语音生成方法及设备
CN114267375B (zh) * 2021-11-24 2022-10-28 北京百度网讯科技有限公司 音素检测方法及装置、训练方法及装置、设备和介质
CN114495899A (zh) * 2021-12-29 2022-05-13 深圳市优必选科技股份有限公司 一种基于时长信息的音频合成方法、装置及终端设备
CN115223537B (zh) * 2022-09-20 2022-12-02 四川大学 一种面向空管培训场景的语音合成方法及装置
CN116072098B (zh) * 2023-02-07 2023-11-14 北京百度网讯科技有限公司 音频信号生成方法、模型训练方法、装置、设备和介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107945786A (zh) * 2017-11-27 2018-04-20 北京百度网讯科技有限公司 语音合成方法和装置
CN109754778A (zh) * 2019-01-17 2019-05-14 平安科技(深圳)有限公司 文本的语音合成方法、装置和计算机设备

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107680597B (zh) * 2017-10-23 2019-07-09 平安科技(深圳)有限公司 语音识别方法、装置、设备以及计算机可读存储介质
KR102272554B1 (ko) * 2018-05-29 2021-07-05 한국과학기술원 텍스트- 다중 음성 변환 방법 및 시스템
CN109559735B (zh) * 2018-10-11 2023-10-27 平安科技(深圳)有限公司 一种基于神经网络的语音识别方法、终端设备及介质
CN110070852B (zh) * 2019-04-26 2023-06-16 平安科技(深圳)有限公司 合成中文语音的方法、装置、设备及存储介质
CN111161702B (zh) * 2019-12-23 2022-08-26 爱驰汽车有限公司 个性化语音合成方法、装置、电子设备、存储介质
WO2021127821A1 (zh) * 2019-12-23 2021-07-01 深圳市优必选科技股份有限公司 语音合成模型的训练方法、装置、计算机设备及存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107945786A (zh) * 2017-11-27 2018-04-20 北京百度网讯科技有限公司 语音合成方法和装置
CN109754778A (zh) * 2019-01-17 2019-05-14 平安科技(深圳)有限公司 文本的语音合成方法、装置和计算机设备

Also Published As

Publication number Publication date
CN112002305A (zh) 2020-11-27

Similar Documents

Publication Publication Date Title
CN112002305B (zh) 语音合成方法、装置、存储介质及电子设备
CN111627418B (zh) 语音合成模型的训练方法、合成方法、系统、设备和介质
CN112116903B (zh) 语音合成模型的生成方法、装置、存储介质及电子设备
CN112349273B (zh) 基于说话人的语音合成方法、模型训练方法及相关设备
CN112289299B (zh) 语音合成模型的训练方法、装置、存储介质以及电子设备
US11355097B2 (en) Sample-efficient adaptive text-to-speech
CN110309275A (zh) 一种对话生成的方法和装置
CN112164407B (zh) 音色转换方法及装置
CN116670757A (zh) 用于简化的流式和非流式语音识别的级联编码器
CN111930792A (zh) 数据资源的标注方法、装置、存储介质及电子设备
CN110880324A (zh) 语音数据的处理方法、装置、存储介质及电子设备
Yi et al. Focal Loss for Punctuation Prediction.
CN112364653A (zh) 用于语音合成的文本分析方法、装置、服务器和介质
JP2023550211A (ja) テキストを生成するための方法および装置
CN116863935B (zh) 语音识别方法、装置、电子设备与计算机可读介质
CN113205793B (zh) 音频生成方法、装置、存储介质及电子设备
CN115967833A (zh) 视频生成方法、装置、设备计存储介质
CN117043856A (zh) 高效流式非递归设备上的端到端模型
CN113314096A (zh) 语音合成方法、装置、设备和存储介质
JP7113000B2 (ja) 映像を生成するための方法および装置
CN113761174A (zh) 一种文本生成方法和装置
WO2022005625A1 (en) Speech synthesis and speech recognition
CN114093340A (zh) 语音合成方法、装置、存储介质及电子设备
CN113986958A (zh) 文本信息的转换方法、装置、可读介质和电子设备
CN117376634B (zh) 一种短视频配乐方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant