[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN113744749A - 一种基于心理声学域加权损失函数的语音增强方法及系统 - Google Patents

一种基于心理声学域加权损失函数的语音增强方法及系统 Download PDF

Info

Publication number
CN113744749A
CN113744749A CN202111098146.0A CN202111098146A CN113744749A CN 113744749 A CN113744749 A CN 113744749A CN 202111098146 A CN202111098146 A CN 202111098146A CN 113744749 A CN113744749 A CN 113744749A
Authority
CN
China
Prior art keywords
speech
noisy
neural network
loss function
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111098146.0A
Other languages
English (en)
Other versions
CN113744749B (zh
Inventor
贾海蓉
梅淑琳
吴永强
申陈宁
王鲜霞
张雪英
王峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taiyuan University of Technology
Original Assignee
Taiyuan University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taiyuan University of Technology filed Critical Taiyuan University of Technology
Priority to CN202111098146.0A priority Critical patent/CN113744749B/zh
Publication of CN113744749A publication Critical patent/CN113744749A/zh
Application granted granted Critical
Publication of CN113744749B publication Critical patent/CN113744749B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Quality & Reliability (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本发明涉及一种基于心理声学域加权损失函数的语音增强方法及系统,属于语音增强领域,获取训练语音集和测试语音集;对训练语音集中的语音样本进行预处理,得到带噪语音特征和时频掩蔽值;将带噪语音特征和时频掩蔽值输入到神经网络语音增强模型中进行训练,输出初步增强语音;将初步增强语音和纯净语音同时转换到心理声学Bark域上,计算语音信号的响度谱;根据响度谱计算语音失真误差和残留噪声误差,根据语音失真误差和残留噪声误差构建Bark域加权损失函数;采用误差反向传播算法对神经网络语音增强模型进行优化训练;将测试语音集中的带噪语音输入优化的神经网络语音增强模型,输出重构的增强语音,可提升语音信号的音质和可懂度。

Description

一种基于心理声学域加权损失函数的语音增强方法及系统
技术领域
本发明涉及语音增强领域,特别是涉及一种基于心理声学域加权损失函数的语音增强方法及系统。
背景技术
语音增强作为一种抑制背景噪声提高语音可懂度的关键技术,常应用于智能设备的前端,来提高人机交互的语音识别成功率。近年来,基于深度学习的神经网络已经成功应用在语音增强领域,并且相比传统的语音增强方法,神经网络语音增强方法增强后的语音质量取得了显著的改进。根据是否已知训练样本,该语音增强算法大致可以分为无监督语音增强和有监督语音增强两类。经典的无监督语音增强算法包括,谱减法、维纳滤波法和基于最小均方误差估计的语音增强方法。这些算法虽然实现简单,能够抑制平稳噪声,但其对噪声频谱的估计要求严格,对噪声过估计和欠估计,则会引起语音严重失真和残留噪声过多的问题,并且其对非平稳噪声的抑制性能较差,在低信噪比环境下,增强语音失真现象较多。因此,现有的基于神经网络的语音增强方法重构后得到的语音增强信号仍然存在语音失真和残留噪声过多导致的语音质量差、增强效果不明显的问题。
因此,目前亟需一种更加有效的语音增强方法,以解决现有的神经网络语音增强方法存在的语音失真和残留噪声过多导致的语音质量差、增强效果不明显的问题。
发明内容
本发明的目的是提供一种基于心理声学域加权损失函数的语音增强方法及系统,以增强语音质量,提升语音的可懂度,解决现有的神经网络语音增强方法存在的语音失真和残留噪声过多导致的语音质量差、增强效果不明显的问题。
为实现上述目的,本发明提供了如下方案:
一方面,本发明提供了一种基于心理声学域加权损失函数的语音增强方法,包括:
获取训练语音集和测试语音集;其中,所述训练语音集包括纯净语音、噪声以及一部分带噪语音,所述测试语音集包括另一部分所述带噪语音;
对所述训练语音集中的语音样本进行预处理,得到带噪语音特征和时频掩蔽值;
将所述带噪语音特征和所述时频掩蔽值输入到神经网络语音增强模型中进行预训练,输出初步增强语音;
将所述初步增强语音和所述纯净语音同时转换到心理声学Bark域上,并在所述心理声学Bark域上计算语音信号的响度谱;
根据所述响度谱计算语音失真误差和残留噪声误差,并根据所述语音失真误差和所述残留噪声误差构建Bark域加权损失函数;
根据所述Bark域加权损失函数,采用误差反向传播算法对所述神经网络语音增强模型进行训练,得到优化后的神经网络语音增强模型;
将所述测试语音集中的所述带噪语音输入所述优化后的神经网络语音增强模型,输出重构后的增强语音。
可选的,所述对所述训练语音集中的语音样本进行预处理,得到带噪语音特征和时频掩蔽值,具体包括:
对所述训练语音集中的所述带噪语音、所述纯净语音和所述噪声分别进行短时傅里叶变换,得到带噪语音频谱、纯净语音频谱和噪声频谱;
对所述带噪语音频谱进行语音特征提取,得到所述带噪语音特征;
对所述纯净语音频谱和所述噪声频谱分别进行时域分解,得到所述时频掩蔽值。
可选的,所述将所述初步增强语音和所述纯净语音同时转换到心理声学Bark域上,并在所述心理声学Bark域上计算语音信号的响度谱,具体包括:
利用Bark域变化矩阵将所述初步增强语音转换到所述心理声学Bark域上,并在所述心理声学Bark域上计算初步增强语音信号的响度谱,得到增强语音响度谱;
利用Bark域变化矩阵将所述纯净语音转换到所述心理声学Bark域上,并在所述心理声学Bark域上计算纯净语音信号的响度谱,得到纯净语音响度谱。
可选的,所述根据所述响度谱计算语音失真误差和残留噪声误差,并根据所述语音失真误差和所述残留噪声误差构建Bark域加权损失函数,具体包括:
根据所述增强语音响度谱和所述纯净语音响度谱计算得到所述语音失真误差和所述残留噪声误差;
引入加权因子,通过所述加权因子将所述语音失真误差和所述残留噪声误差结合,得到所述Bark域加权损失函数。
可选的,所述根据所述Bark域加权损失函数,采用误差反向传播算法对所述神经网络语音增强模型进行训练,得到优化后的神经网络语音增强模型,具体包括:
对所述神经网络语音增强模型进行训练,并根据Bark域加权损失函数值与预设阈值的大小关系,确定训练是否完成;
当所述Bark域加权损失函数值小于所述预设阈值时,则停止训练并保存网络参数,得到所述优化后的神经网络语音增强模型;
当所述Bark域加权损失函数值大于或等于所述预设阈值时,则采用误差反向传播算法调整网络参数继续训练,直至所述Bark域加权损失函数结果小于所述预设阈值为止。
可选的,所述将所述测试语音集中的所述带噪语音输入所述优化后的神经网络语音增强模型,输出重构后的增强语音,具体包括:
提取所述测试语音集中所述带噪语音的带噪语音特征,并输入所述优化后的神经网络语音增强模型中,输出预测时频掩蔽值;
根据所述预测时频掩蔽值对所述测试语音集中的所述带噪语音进行波形合成,得到所述重构后的增强语音。
可选的,所述提取所述测试语音集中所述带噪语音的带噪语音特征,具体包括:
对所述测试语音集中的所述带噪语音进行短时傅里叶变换,得到所述带噪语音频谱;
对所述带噪语音频谱进行语音特征提取,得到所述带噪语音特征。
可选的,所述根据所述预测时频掩蔽值对所述测试语音集中的所述带噪语音进行波形合成,得到所述重构后的增强语音,具体包括:
将所述预测时频掩蔽值与所述测试语音集中的所述带噪语音的幅度谱相乘,得到所述增强语音的幅度谱;
将所述增强语音的幅度谱与所述带噪语音的相位谱结合,得到所述重构后的增强语音。
可选的,所述神经网络语音增强模型为由两个受限玻尔兹曼机堆叠而成的深度神经网络语音增强模型。
另一方面,本发明还提供了一种基于心理声学域加权损失函数的语音增强系统,包括:
训练语音集和测试语音集获取模块,用于获取训练语音集和测试语音集;其中,所述训练语音集包括纯净语音、噪声以及一部分带噪语音,所述测试语音集包括另一部分所述带噪语音;
训练语音集预处理模块,用于对所述训练语音集中的语音样本进行预处理,得到带噪语音特征和时频掩蔽值;
神经网络语音增强模型训练模块,用于将所述带噪语音特征和所述时频掩蔽值输入到神经网络语音增强模型中进行预训练,输出初步增强语音;
心理声学Bark域转换与响度谱计算模块,用于将所述初步增强语音和所述纯净语音同时转换到心理声学Bark域上,并在所述心理声学Bark域上计算语音信号的响度谱;
Bark域加权损失函数构建模块,用于根据所述响度谱计算语音失真误差和残留噪声误差,并根据所述语音失真误差和所述残留噪声误差构建Bark域加权损失函数;
神经网络语音增强模型优化模块,用于根据所述Bark域加权损失函数,采用误差反向传播算法对所述神经网络语音增强模型进行训练,得到优化后的神经网络语音增强模型;
增强语音重构模块,用于将所述测试语音集中的所述带噪语音输入所述优化后的神经网络语音增强模型,输出重构后的增强语音。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明提出了一种基于心理声学域加权损失函数的语音增强方法,将增强语音和纯净语音同时转换到心理声学Bark域上,并在心理声学Bark域上计算出相应语音信号的响度谱,又利用响度谱计算得到语音失真误差和残留噪声误差,再根据语音失真误差和残留噪声误差构建Bark域加权损失函数,从而利用Bark域加权损失函数中的加权因子将语音失真误差和残留噪声误差结合到一起并参与到模型训练中的参数调节过程,实现了模型训练过程中语音失真误差和残留噪声误差的同时最小化,同时考虑语音失真误差和残留噪声误差两方面对增强语音的语音质量的影响,使得优化后的神经网络语音增强模型重构出的增强语音效果更好,有效提升了增强语音的音质和可懂度,解决了传统损失函数由于没有考虑到语音失真问题而导致的重构语音听觉感知度较差、语音可懂度不高的问题。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。以下附图并未刻意按实际尺寸等比例缩放绘制,重点在于示出本发明的主旨。
图1为本发明实施例1提供的基于心理声学域加权损失函数的语音增强方法的流程图;
图2为本发明实施例1提供的深度神经网络的训练过程示意图;
图3为本发明实施例1提供的Bark域加权损失函数的循环应用过程的流程图;
图4为本发明实施例1提供的将Bark域加权损失函数应用于深度神经网络过程的流程图;
图5为本发明实施例1提供的神经网络语音增强模型的训练阶段和测试阶段的流程图;
图6为本发明实施例1提供的White噪声下不同加权因子值在4种信噪比下的PESQ和STOI的对比曲线图;
图7为本发明实施例1提供的Babble噪声下不同加权因子值在4种信噪比下的PESQ和STOI的对比曲线图;
图8为本发明实施例1提供的基于MSE和Bark域加权损失函数的时域波形对比图;
图9为本发明实施例1提供的基于MSE和Bark域加权损失函数的语谱对比图;
图10为本发明实施例2提供的基于心理声学域加权损失函数的语音增强系统的结构框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
如本发明和权利要求书中所示,除非上下文明确提示例外情形,“一”、“一个”、“一种”和/或“该”等词并非特指单数,也可包括复数。一般说来,术语“包括”与“包含”仅提示包括已明确标识的步骤和元素,而这些步骤和元素不构成一个排它性的罗列,方法或者设备也可能包含其他的步骤或元素。
虽然本发明对根据本发明的实施例的系统中的某些模块做出了各种引用,然而,任何数量的不同模块可以被使用并运行在用户终端和/或服务器上。所述模块仅是说明性的,并且所述系统和方法的不同方面可以使用不同模块。
本发明中使用了流程图用来说明根据本发明的实施例的系统所执行的操作。应当理解的是,前面或下面操作不一定按照顺序来精确地执行。相反,根据需要,可以按照倒序或同时处理各种步骤。同时,也可以将其他操作添加到这些过程中,或从这些过程移除某一步或数步操作。
现有基于神经网络的语音增强算法是通过最小化重构语音和纯净语音间的MSE来进行增强的,这与人耳的听觉感知并不密切,会导致增强语音的语音可懂度较差。随后,研究人员提出使用SI-SDR作为网络的损失函数,使用SI-SDR优化的网络在消除噪声的同时会产生语音失真现象,使重构语音的听觉感知度较差,语音质量不高。基于此,本发明提出了一种基于心理声学域加权损失函数的语音增强方法及系统,用于优化神经网络语音增强系统,Bark域加权损失函数改变传统MSE直接在时域上最小化误差的方法,将信号转换到与听觉感知更加密切的Bark域上优化损失函数数值,从而提高增强语音的语音可懂度。并且为了使重构语音的残留噪声和语音失真两个方面同时达到最优,新损失函数引入加权因子平衡二者间关系,在训练过程中同时最小化,最终达到提高网络重构语音可懂度的目的。
以本发明采用的神经网络语音增强模型为例,该神经网络语音增强模型为加性噪声语音模型,其中加性语音指带噪语音的合成过程是由纯净语音与噪声相加得到的,模型训练时使用的是加性带噪语音。下面对比各种损失函数的神经网络优化方法:
传统均方误差(MSE)损失函数优化神经网络的方法:
假设带噪语音由纯净语音和噪声相加得到,并在一般情况下,将直接读入的信号从时域通过短时傅里叶变换转换到频域,结合时频域信息一起对带噪信号进行处理。则语音信号的频域表达式为:
Y(t,f)=X(t,f)+N(t,f)
其中,t表示时间帧,f表示频率帧,X(t,f)、N(t,f)和Y(t,f)分别表示纯净语音、噪声和带噪语音在t帧、f频率处的短时傅里叶变换。
MSE表示纯净值和输出值之间的平均差异,以MSE作为神经网络的损失函数,具体计算公式为:
Figure BDA0003269734560000071
其中,
Figure BDA0003269734560000072
表示传统均方误差损失函数优化神经网络预测的增强语音,Y表示传统均方误差损失函数优化神经网络下的纯净语音,n表示训练样本数量,ζMSE表示MSE损失函数的值。
标度不变信号失真比(SI-SDR)损失函数优化神经网络的方法:
通过大量的实验验证,SI-SDR作为深度学习网络的损失函数在语音客观评价性能指标上明显优于其他损失函数,其计算公式为:
Figure BDA0003269734560000073
其中,X表示标度不变信号失真比损失函数优化神经网络下的纯净语音,
Figure BDA0003269734560000081
表示标度不变信号失真比损失函数优化神经网络下的增强语音,α为最优尺度因子,
Figure BDA0003269734560000082
最终表达式为:
Figure BDA0003269734560000083
因此,SI-SDR损失函数定义公式为:ζSI-SDR=-SI-SDR。
本发明的目的是提供一种基于心理声学域加权损失函数的语音增强方法及系统,将增强输出和训练目标转换到符合听觉感知的心理声学Bark域上计算损失函数,利用人耳的掩蔽效应改善传统网络在时域上优化参数,增强语音听觉感知度不高的问题;其次,构建一种新加权损失函数,通过同时考虑噪声抑制和语音质量两个方面,进一步提高重构语音的语音可懂度;最后,将新提出的Bark域加权损失函数作为神经网络语音增强算法中网络参数的调优准则,并通过反向误差传播准则进行优化,得到最优的神经网络语音增强模型。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
实施例1
如图1所示,本实施例提出了一种基于心理声学域加权损失函数的语音增强方法,该方法具体包括以下步骤:
步骤S1、获取训练语音集和测试语音集;其中,所述训练语音集包括纯净语音、噪声以及一部分带噪语音,所述测试语音集包括另一部分所述带噪语音。
其中,带噪语音通常理解为掺有噪声的纯净语音,因此,带噪语音一般是由纯净语音和噪音混合后形成的混合语音。而本发明的终极目标就是对带噪语音进行语音增强,使带噪语音更加接近于纯净语音,使其更加清晰,可懂度更高。
应说明的是,步骤S1实际上就是将大量语音样本划分为训练语音集和测试语音集的过程,其中,训练语音集包括纯净语音样本、噪声样本以及带噪语音样本,由于是对带噪语音进行语音增强处理,因此,测试语音集中仅包括带噪语音样本,本实施例中将训练语音集中的带噪语音样本和测试语音集中的带噪语音样本的比例设置为3:1。应理解的是,这个比例值仅仅是一个优选值,本发明不对训练语音集和测试语音集中具体样本数量进行限定,因此,语音样本的具体的数量和比例并不是固定的、唯一的,可根据实际情况进行设置。
步骤S2、对所述训练语音集中的语音样本进行预处理,得到带噪语音特征和时频掩蔽值。具体包括:
步骤S2.1、对所述训练语音集中的所述带噪语音、所述纯净语音和所述噪声分别进行短时傅里叶变换,得到带噪语音频谱、纯净语音频谱和噪声频谱;
步骤S2.2、对所述带噪语音频谱进行语音特征提取,得到所述带噪语音特征;
语音特征提取是通过将语音波形以相对最小的数据速率转换为参数表示形式进行后续处理和分析来实现的。本实施例中,可以采用Mel频率倒谱系数(MFCC)、线性预测系数(LPC)、线性预测倒谱系数(LPCC)、线谱频率(LSF)、离散小波变换(DWT)或者感知线性预测(PLP)等语音提取技术其中一种方法进行语音特征提取,这些方法已经被普遍使用,具有很高的可靠性和可接受性,且语音特征提取不作为本发明的重点,因此,本实施例中不再赘述。
步骤S2.3、对所述纯净语音频谱和所述噪声频谱分别进行时域分解,得到所述时频掩蔽值。
语音频谱是指一个时域的语音信号在频域下的表示方式,可以针对语音信号进行短时傅里叶变换得到,简单来说,语音频谱可以表示一个语音信号是由哪些频率的弦波所组成,也可以看出各频率弦波的大小及相位等信息。而频谱分析是一种将复杂语音信号分解为较简单语音信号的技术。比如语音信号可以表示为许多不同频率简单信号的和,而找出一个语音信号在不同频率下的信息(例如幅度、功率、强度或相位等)的方法就是频谱分析。
本发明首先对语音信号进行短时傅里叶变换得到相应的频谱,然后直接对频谱进行时域分解得到时频掩蔽值。其中,时频掩蔽值是基于深度学习的神经网络语音增强模型的学习目标,当训练完成后,该模型输出的是预测的时频掩蔽值。
步骤S3、将所述带噪语音特征和所述时频掩蔽值输入到神经网络语音增强模型中进行预训练,输出初步增强语音。
应说明的是,这里的初步增强语音是在将带噪语音特征和所时频掩蔽值输入到神经网络语音增强模型中进行预训练阶段时初步输出的增强语音结果,可以是第一次输出的增强语音,也可是前几次训练中某一次输出的增强语音,由于此时的初步增强语音并不是训练完成后得到的优化后的神经网络语音增强模型的输出结果,因此,其相较于训练完成后最终模型输出的重构语音的清晰度较差,可懂度较差。
基于深度学习的语音增强算法的性能主要受输入网络的语音特征、学习目标和损失函数的三类所影响。损失函数又称为误差函数,在神经网络语音增强模型中起到优化网络参数的作用,可以表示模型对数据的拟合程度。在整个增强算法的训练过程中,使用误差反向传播(Error Back Propagation,BP)算法训练网络的过程如下:(1)使用当前参数计算出样本数据的输出值和当前纯净值间的误差;(2)根据得到的误差计算出网络输出层的梯度值;(3)将梯度值沿着与输入数据不同的方向传播到网络隐藏层,接着计算隐藏层神经元节点的梯度值;(4)根据上一步计算的数值更新网络各层神经元间连接的权重矩阵和偏置值。使用BP算法精细调优的目的是使网络预测的增强语音和实际纯净语音之间的误差达到最小,这可通过最小化损失函数的值来实现,本发明结合心理声学域提出一种更加符合人耳听觉感知的新损失函数来优化网络,图2示出了深度神经网络的具体训练过程。本发明中,深度神经网络由多层受限玻尔兹曼机(Restricted Boltzmann Machine,RBM)堆叠组成,其中,RBM隐含层和可见层的层内神经元无连接,可见层包括输入层和输出层。
本发明使用两个RBM堆叠成的深度神经网络进行语音增强,训练网络采取无监督预训练以及有监督反向微调的方法。其中,在无监督预训练阶段,采用对比散度算法(Contrastive Divergence,CD)预训练RBM,每一个RBM的输出作为下一个RBM的输入,多个RBM堆集逐层训练结束之后,在最后增加一个输出层,并设置与输入层相同的节点数,权值和偏置值随机初始化,即得到初始化好的神经网络语音增强模型,此时输出的就是初步增强语音,也就是对神经网络语音增强模型开始进行预训练并初始化好后最先输出的增强语音。在有监督反向微调阶段,经过无监督的预训练后,采用有监督反向微调的方法对深度神经网络进行精细调优,使训练得到的增强语音和原始纯净语音之间的损失函数间的误差值小于预设阈值,此时结束神经网络语音增强模型的训练,得到优化后的神经网络语音增强模型,再测试输出得到增强语音。
在实际操作过程中,如果选择的损失函数不恰当,即使训练的次数很多,也不会得到的增强效果好的神经网络语音增强模型。研究表明,使用SI-SDR作为深度学习网络的损失函数在语音客观评价性能指标上明显优于其他损失函数。但大多数语音增强算法都是以语音失真为代价来抑制噪声,增强语音的残留噪声和语音可懂度两个方面不能同时达到最佳。基于此,本发明采用的是基于心理声学Bark域的加权损失函数,该损失函数的具体构建过程如下:
步骤S4、将所述初步增强语音和所述纯净语音同时转换到心理声学Bark域上,并在所述心理声学Bark域上计算语音信号的响度谱。具体包括:
步骤S4.1、利用Bark域变化矩阵将所述初步增强语音转换到所述心理声学Bark域上,并在所述心理声学Bark域上计算初步增强语音信号的响度谱,得到增强语音响度谱;
步骤S4.2、利用Bark域变化矩阵将所述纯净语音转换到所述心理声学Bark域上,并在所述心理声学Bark域上计算纯净语音信号的响度谱,得到纯净语音响度谱。
图3示出了Bark域加权损失函数的循环应用过程,具体包括计算Bark域响度谱,计算加权损失函数,以及将Bark域加权损失函数应用于深度神经网络语音增强场景三个主要步骤。
首先计算Bark域响度谱,将增强语音通过变化矩阵H转换为Bark频率尺度,计算公式为:
Figure BDA0003269734560000121
其中,
Figure BDA0003269734560000122
表示增强语音信号,x表示纯净语音信号,H表示Bark域变换矩阵,
Figure BDA0003269734560000123
表示增强语音转换到Bark域的语音信号,表达式为:
Figure BDA0003269734560000124
其中,Q表示Bark域频带数,本实施例中Q取值为24;t表示帧数;
Figure BDA0003269734560000125
表示增强语音在第t帧,第q个频带的Bark域频谱,q表示频带,q=0,1,…,Q-1;T表示转置。
其次,将纯净语音通过变化矩阵H转换为Bark频率尺度,计算公式为:
b=H·x
其中,x表示纯净语音信号,H表示Bark域变换矩阵,b表示纯净语音转换到Bark域的语音信号,表达式为:
b=[B(t,0),B(t,1),…,B(t,Q-1)]T
其中,Q表示Bark域频带数,本实施例中Q取值为24;t表示时间帧,B(t,q)表示纯净语音在第t帧,第q个频带的Bark域频谱;
Figure BDA0003269734560000126
表示增强语音在第t帧,第q个频带的Bark域频谱,q表示频带,q=0,1,…,Q-1;T表示转置。
然后通过Zwicker转换准则将Bark域频谱转换成响度级,计算公式为:
Figure BDA0003269734560000127
其中,sl表示响度比例因子,本实施例中sl取值为0.08;P0(q)表示第q个频带的听力阈值,由于人耳无法感知,因此,本实施例将所有响度值小于听力阈值的频带设为0;γ表示加权幂指数,本实施例中γ取值为0.23;S(t,q)表示纯净语音在第t帧,第q个频带的响度谱;B(t,q)表示纯净语音在第t帧,第q个频带的Bark域频谱。
最后,将上述过程应用于转换后的Bark域信号,得到增强语音和纯净语音的Bark域响度谱,其表达式分别为:
Figure BDA0003269734560000131
Figure BDA0003269734560000132
其中,
Figure BDA0003269734560000133
表示增强语音的响度谱,S表示纯净语音的响度谱;S(t,q)表示纯净语音在第t帧,第q个频带的响度谱;
Figure BDA0003269734560000134
表示增强语音在第t帧,第q个频带的响度谱,T表示转置。
步骤S5、根据所述响度谱计算语音失真误差和残留噪声误差,并根据所述语音失真误差和所述残留噪声误差构建Bark域加权损失函数。
在构建加权损失函数时,为了更好的权衡语音失真和残留噪声两个方面,本发明将Bark域加权损失函数定义为:
ζnew-β=βζdistortion+(1-β)ζnoise
其中,ζnew-β表示加权损失函数;β为加权因子,β的取值在[0,1]之间变化,当β<0.5时,语音失真误差在降噪中起主要作用;当β>0.5时,残留噪声误差在降噪中起主要作用,当β=0.5时,语音失真误差和残留噪声误差在降噪中作用相当。因此,本发明能够通过将加权因子β设置为不同的值,实现语音失真和残留噪声之间的平衡。ζdistortion表示语音失真误差,其表示式为:
Figure BDA0003269734560000135
ζnoise表示噪声残留误差,其表达式为:
Figure BDA0003269734560000136
其中,λ为比例因子,其表达式为:
Figure BDA0003269734560000137
其中,|| ||2表示双竖线中间的变量的平方;
Figure BDA0003269734560000138
表示增强语音的响度谱,S表示纯净语音的响度谱;mean(·)表示求均值;
Figure BDA0003269734560000141
表示双竖线中间的变量的平方最小时λ的取值;T表示转置。
本发明从语音失真误差和残留噪声误差的角度入手,利用Bark域加权损失函数中的加权因子β将语音失真误差和残留噪声误差这两种误差结合到一起并参与到模型训练中的参数调节过程,使得语音失真误差和残留噪声误差同时达到最小化,由于同时考虑语音失真误差和残留噪声误差两方面对增强语音的语音质量的影响,从而使得优化后的神经网络语音增强模型重构出的增强语音效果更好,音质更强,可懂度更高,进而解决了传统损失函数由于没有考虑到语音失真问题而导致的重构语音听觉感知度较差、语音可懂度不高的问题。
步骤S6、根据所述Bark域加权损失函数,采用误差反向传播算法对所述神经网络语音增强模型进行训练,得到优化后的神经网络语音增强模型。具体包括:
步骤S6.1、对所述神经网络语音增强模型进行训练,并根据Bark域加权损失函数值与预设阈值的大小关系,确定训练是否完成;
步骤S6.2、当所述Bark域加权损失函数值小于所述预设阈值时,则停止训练并保存网络参数,得到所述优化后的神经网络语音增强模型;
当所述Bark域加权损失函数值大于或等于所述预设阈值时,则采用误差反向传播算法调整网络参数继续训练,直至所述Bark域加权损失函数结果小于所述预设阈值为止。
Bark域是专门针对人耳耳蜗特殊结构提出的一种声音的心理声学尺度,本发明通过将语音信号转换到心理声学Bark域上,构建出不同于传统损失函数的Bark域加权损失函数,并将Bark域加权损失函数应用于深度神经网络语音增强场景中,用于改进增强语音的语音质量问题,使重构的语音更符合人耳的听觉感知系统,具体过程如图4所示。
在神经网络训练阶段,选择Bark域加权损失函数作为反向调优的误差准则,使用基于梯度下降策略的误差反向传播(Accumulated Error Back Propagation,AEBP)算法,以目标的负梯度方向对网络参数进行调整,将网络可见输出单元计算的差异值,沿与输入数据不同的方向回传至隐层单元,计算出隐层神经元的差异梯度值,最后根据计算结果对神经网络各节点间的参数进行小幅调整,一直循环该调优过程,直至训练到损失函数值低于所设预设阈值ε即可结束训练,保存得到的最优的网络模型用于网络的测试阶段。图4中RBM为多层受限玻尔兹曼机,本发明的神经网络语音增强模型为由两个受限玻尔兹曼机堆叠而成的深度神经网络模型,其中,W0、W1为网络连接层之间的矩阵权重,V0、H0分别表示第一个RBM中的可见层和隐含层,V1、H1分别表示第二个RBM中的可见层和隐含层,ε为训练过程中优化损失函数的预设阈值,当训练的Bark域加权损失函数结果小于该预设阈值时,停止网络训练,输出增强语音,否则持续循环训练,直至Bark域加权损失函数结果小于预设阈值时终止训练。
步骤S7、将所述测试语音集中的所述带噪语音输入所述优化后的神经网络语音增强模型,输出重构后的增强语音。
如图5所示,神经网络语音增强模型包括训练阶段和测试阶段两个阶段,其中,在训练阶段,对训练语音集中的纯净语音和噪声分别进行时域分解后得到时频掩蔽值,并提取带噪语音的带噪语音特征后,将带噪语音特征和时频掩蔽值输入神经网络语音增强模型进行模型训练,同时在心理声学Bark域上计算初步增强语音信号的响度谱以及纯净语音信号的响度谱,从而构建出Bark域加权损失函数,然后再将Bark域加权损失函数与预设阈值的大小关系作为判断训练是否结束的条件,训练完成后得到优化后的神经网络语音增强模型,此时将测试语音集中带噪语音的带噪语音特征输入到优化后的神经网络语音增强模型中,得到预测出的时频掩蔽值,将预测出的时频掩蔽值用于波形合成得到最终重构出的增强语音。
步骤S7具体包括:
步骤S7.1、提取所述测试语音集中所述带噪语音的带噪语音特征,并输入所述优化后的神经网络语音增强模型中,输出预测时频掩蔽值,包括:
步骤S7.1.1、对所述测试语音集中的所述带噪语音进行短时傅里叶变换,得到所述带噪语音频谱;
步骤S7.1.2、对所述带噪语音频谱进行语音特征提取,得到所述带噪语音特征;
步骤S7.1.3、将所述带噪语音特征输入所述优化后的神经网络语音增强模型中,输出预测时频掩蔽值;
步骤S7.2、根据所述预测时频掩蔽值对所述测试语音集中的所述带噪语音进行波形合成,得到所述重构后的增强语音,具体包括:
步骤S7.2.1、将所述预测时频掩蔽值与所述测试语音集中的所述带噪语音的幅度谱相乘,得到所述增强语音的幅度谱;
步骤S7.2.2、将所述增强语音的幅度谱与所述带噪语音的相位谱结合,得到所述重构后的增强语音。
本发明首次提出了一个符合人耳听觉感知的新的损失函数,即基于心理声学Bark域的加权损失函数,简称Bark域加权损失函数,从模型优化的角度,该Bark域加权损失函数能够明显提高增强语音的语音质量和语音可懂度。在神经网络语音增强模型训练过程中,将增强语音和纯净语音同时转换到心理声学Bark域上,计算相应的响度谱,然后通过响度谱计算出可以表示语音失真程度的语音失真误差函数和噪声残留误差函数,再通过引入一个加权因子λ,将其整合在一起,在训练过程中同时将语音失真误差和噪声残留误差最小化,保证了增强语音的残留噪声和语音失真同时达到最小,与传统基于MSE优化的神经网络相比,该算法在不同信噪比下的增强语音效果得到显著改善,同时语音可懂度也有了明显提升。
以下采用实例对本发明方法的语音增强效果进行验证:
实验选用IEEE语音库,NOISE-92噪声库中的White噪声、Babble噪声、F16噪声以及Factory噪声。使用50条纯净语音在每种噪声下创建信噪比为-5dB、0dB和5dB、10dB的600条训练集。使用10条语音在相同条件下创建120条测试集。评价指标采用分段信噪比(Segmental SNR,SegSNR)、主观语音质量(Perceptual Evaluation OfSpeech Quality,PESQ)和短时客观可懂度(Short Term Objective Intelligibility,STOI)。得出的具体实验数据如下:
表1示出了DNN-MSE(Deep Neural Networks-Mean Square Error,DNN-MSE,深度神经网络-均方误差损失函数)和DNN-Bark域加权损失函数(DNN-Weighted loss functionin Bark,DNN-BW,深度神经网络-Bark域加权损失函数)的分段信噪比SegSNR的增强性能对比。表1中数据是在四种背景噪声不同信噪比下得到的三种评价指标的实验结果。分析表1中数据可知,本发明提出的DNN-BW算法可以更好的抑制噪声,其SegSNR值比带噪语音平均提升了9.1372dB,并且比使用传统MSE损失函数的SegSNR平均提升了0.3321dB。
表1 DNN-MSE和DNN-BW的SegSNR增强性能对比
Figure BDA0003269734560000171
表2和表3分别示出了DNN-MSE和DNN-BW的主观语音质量PESQ和短时客观可懂度STOI的增强性能对比:
表2 DNN-MSE和DNN-BW的主观语音质量PESQ增强性能对比
Figure BDA0003269734560000181
表3 DNN-MSE和DNN-BW的短时客观可懂度STOI增强性能对比
Figure BDA0003269734560000182
Figure BDA0003269734560000191
从表2和表3中可以直观看出,本发明提出的Bark域损失函数重构的增强语音比原始带噪语音的PESQ值提高了0.5351,STOI值提升了0.1002。比传统用MSE优化的深度神经网络的PESQ值和STOI值分别提升了0.1407和0.0208,证明了本发明提出的Bark域损失函数可以明显提高增强语音的语音可懂度和清晰度。
图6和图7分别示出了White噪声、Babble噪声下的不同加权因子值在4种信噪比下的主观语音质量PESQ和短时客观可懂度STOI的大小对比情况。其中,图6(a)为White噪声下不同加权因子下的PESQ得分情况;图6(b)为White噪声下不同加权因子下的STOI得分情况;图7(a)为Babble噪声下不同加权因子下的PESQ得分情况,图7(b)为Babble噪声下不同加权因子下的STOI得分情况。从图中可直观看出,无论是在White噪音、Babble噪声还是其他有色噪声下,当加权因子β=1时,本发明提出的损失函数可以看作是MSE,当加权因子β=0和β=1这两种极端情况下时,本发明的神经网络语音增强模型在不同信噪比下的性能指标均没有达到最优。通过全局来看,β的值在[0,0.6]之间时,各种性能指标呈上升趋势,而β的值在[0.6,1]之间时,相应的PESQ和STOI得分呈下降趋势。这表明当β的值在0.6左右时,将语音失真误差作为新构建的Bark域加权损失函数的主要因素,可以很好地实现降噪和语音失真之间的平衡策略。
为进一步验证本发明提出的Bark域加权损失函数的性能,采用MFCC(Mel-Frequency Cepstral Coefficients,MFCC)语音特征和IRM学习目标训练神经网络,设计两组对比实验,进一步说明符合人耳听觉的损失函数对于提高重构语音的语音质量的重要性。
实验1:采用基于传统MSE的损失函数训练神经网络语音增强模型。
实验2:采用本发明的Bark域加权损失函数训练神经网络语音增强模型。
为了直观展示本发明提出的Bark域加权损失函数的优越性,以5dB的Babble噪声下随机一组语音信号为例,图8示出了基于MSE和Bark域加权损失函数的时域波形对比图。其中,图8(a)为纯净语音的时域波形图,图8(b)为带噪语音的时域波形图,图8(c)为MSE损失函数优化的增强语音的时域波形图,图8(d)为本发明Bark域加权损失函数优化的增强语音的时域波形图。由图8中矩形框标注的位置可知,Bark域加权损失函数优化的增强语音较MSE优化的增强语音而言,对原始纯净语音信号的波形保持比较完整,语音失真程度较小;并且在静音段,本发明采用的Bark域加权损失函数优化的增强语音,抑制噪声的能力较强。
图9示出了基于MSE和Bark域加权损失函数的语谱对比图。其中,图9(a)为纯净语音的语谱图,图9(b)为带噪语音的语谱图,图9(c)为MSE损失函数优化的增强语音的语谱图,图9(d)为本发明Bark域加权损失函数优化的增强语音的语谱图。如图9所示,基于本发明提出的Bark域加权损失函数重构后的语音在频谱结构上保持更加完整,且频谱中残留的噪声少于基于传统MSE损失函数重构的语音,这与图8中的时域波形图反映出的信息相互映证。因此,本发明提出的语音增强方法,语音增强效果更佳,语音质量更高,可懂度也更高。
实施例2
如图10所示,本实施例提供了一种基于心理声学域加权损失函数的语音增强系统,该系统采用的是实施例1中的基于心理声学域加权损失函数的语音增强方法,系统各个模块的功能与实施例1的方法各个步骤相同且一一对应,该系统具体包括:
训练语音集和测试语音集获取模块M1,用于获取训练语音集和测试语音集;其中,所述训练语音集包括纯净语音、噪声以及一部分带噪语音,所述测试语音集包括另一部分所述带噪语音;
训练语音集预处理模块M2,用于对所述训练语音集中的语音样本进行预处理,得到带噪语音特征和时频掩蔽值;
神经网络语音增强模型训练模块M3,用于将所述带噪语音特征和所述时频掩蔽值输入到神经网络语音增强模型中进行预训练,输出初步增强语音;
心理声学Bark域转换与响度谱计算模块M4,用于将所述初步增强语音和所述纯净语音同时转换到心理声学Bark域上,并在所述心理声学Bark域上计算语音信号的响度谱;
Bark域加权损失函数构建模块M5,用于根据所述响度谱计算语音失真误差和残留噪声误差,并根据所述语音失真误差和所述残留噪声误差构建Bark域加权损失函数;
神经网络语音增强模型优化模块M6,用于根据所述Bark域加权损失函数,采用误差反向传播算法对所述神经网络语音增强模型进行训练,得到优化后的神经网络语音增强模型;
增强语音重构模块M7,用于将所述测试语音集中的所述带噪语音输入所述优化后的神经网络语音增强模型,输出重构后的增强语音。
本发明提出一种基于心理声学域加权损失函数的语音增强方法及系统,采用Bark域加权损失函数改变传统MSE直接在时域上最小化误差的方法,将增强语音信号同纯净语音信号一并转换到与听觉感知更加密切的Bark域上优化损失函数数值,从而提高了增强语音的语音可懂度。并且,为了使重构语音的残留噪声和语音失真两个方面同时达到最优,Bark域加权损失函数引入了加权因子以平衡残留噪声和语音失真两者之间的关系,在训练过程中实现了残留噪声和语音失真的同时最小化,最终达到提高网络重构语音可懂度的目的。
容易理解的是,除非另有定义,这里使用的所有术语(包括技术和科学术语)具有与本发明所属领域的普通技术人员共同理解的相同含义。还应当理解,诸如在通常字典里定义的那些术语应当被解释为具有与它们在相关技术的上下文中的含义相一致的含义,而不应用理想化或极度形式化的意义来解释,除非这里明确地这样定义。
上面是对本发明的说明,而不应被认为是对其的限制。尽管描述了本发明的若干示例性实施例,但本领域技术人员将容易地理解,在不背离本发明的新颖教学和优点的前提下可以对示例性实施例进行许多修改。因此,所有这些修改都意图包含在权利要求书所限定的本发明范围内。应当理解,上面是对本发明的说明,而不应被认为是限于所公开的特定实施例,并且对所公开的实施例以及其他实施例的修改意图包含在所附权利要求书的范围内。本发明由权利要求书及其等效物限定。

Claims (10)

1.一种基于心理声学域加权损失函数的语音增强方法,其特征在于,包括:
获取训练语音集和测试语音集;其中,所述训练语音集包括纯净语音、噪声以及一部分带噪语音,所述测试语音集包括另一部分所述带噪语音;
对所述训练语音集中的语音样本进行预处理,得到带噪语音特征和时频掩蔽值;
将所述带噪语音特征和所述时频掩蔽值输入到神经网络语音增强模型中进行预训练,输出初步增强语音;
将所述初步增强语音和所述纯净语音同时转换到心理声学Bark域上,并在所述心理声学Bark域上计算语音信号的响度谱;
根据所述响度谱计算语音失真误差和残留噪声误差,并根据所述语音失真误差和所述残留噪声误差构建Bark域加权损失函数;
根据所述Bark域加权损失函数,采用误差反向传播算法对所述神经网络语音增强模型进行训练,得到优化后的神经网络语音增强模型;
将所述测试语音集中的所述带噪语音输入所述优化后的神经网络语音增强模型,输出重构后的增强语音。
2.根据权利要求1所述的语音增强方法,其特征在于,所述对所述训练语音集中的语音样本进行预处理,得到带噪语音特征和时频掩蔽值,具体包括:
对所述训练语音集中的所述带噪语音、所述纯净语音和所述噪声分别进行短时傅里叶变换,得到带噪语音频谱、纯净语音频谱和噪声频谱;
对所述带噪语音频谱进行语音特征提取,得到所述带噪语音特征;
对所述纯净语音频谱和所述噪声频谱分别进行时域分解,得到所述时频掩蔽值。
3.根据权利要求1所述的语音增强方法,其特征在于,所述将所述初步增强语音和所述纯净语音同时转换到心理声学Bark域上,并在所述心理声学Bark域上计算语音信号的响度谱,具体包括:
利用Bark域变化矩阵将所述初步增强语音转换到所述心理声学Bark域上,并在所述心理声学Bark域上计算初步增强语音信号的响度谱,得到增强语音响度谱;
利用Bark域变化矩阵将所述纯净语音转换到所述心理声学Bark域上,并在所述心理声学Bark域上计算纯净语音信号的响度谱,得到纯净语音响度谱。
4.根据权利要求3所述的语音增强方法,其特征在于,所述根据所述响度谱计算语音失真误差和残留噪声误差,并根据所述语音失真误差和所述残留噪声误差构建Bark域加权损失函数,具体包括:
根据所述增强语音响度谱和所述纯净语音响度谱计算得到所述语音失真误差和所述残留噪声误差;
引入加权因子,通过所述加权因子将所述语音失真误差和所述残留噪声误差结合,得到所述Bark域加权损失函数。
5.根据权利要求1所述的语音增强方法,其特征在于,所述根据所述Bark域加权损失函数,采用误差反向传播算法对所述神经网络语音增强模型进行训练,得到优化后的神经网络语音增强模型,具体包括:
对所述神经网络语音增强模型进行训练,并根据Bark域加权损失函数值与预设阈值的大小关系,确定训练是否完成;
当所述Bark域加权损失函数值小于所述预设阈值时,则停止训练并保存网络参数,得到所述优化后的神经网络语音增强模型;
当所述Bark域加权损失函数值大于或等于所述预设阈值时,则采用误差反向传播算法调整网络参数继续训练,直至所述Bark域加权损失函数结果小于所述预设阈值为止。
6.根据权利要求1所述的语音增强方法,其特征在于,所述将所述测试语音集中的所述带噪语音输入所述优化后的神经网络语音增强模型,输出重构后的增强语音,具体包括:
提取所述测试语音集中所述带噪语音的带噪语音特征,并输入所述优化后的神经网络语音增强模型中,输出预测时频掩蔽值;
根据所述预测时频掩蔽值对所述测试语音集中的所述带噪语音进行波形合成,得到所述重构后的增强语音。
7.根据权利要求6所述的语音增强方法,其特征在于,所述提取所述测试语音集中所述带噪语音的带噪语音特征,具体包括:
对所述测试语音集中的所述带噪语音进行短时傅里叶变换,得到所述带噪语音频谱;
对所述带噪语音频谱进行语音特征提取,得到所述带噪语音特征。
8.根据权利要求6所述的语音增强方法,其特征在于,所述根据所述预测时频掩蔽值对所述测试语音集中的所述带噪语音进行波形合成,得到所述重构后的增强语音,具体包括:
将所述预测时频掩蔽值与所述测试语音集中的所述带噪语音的幅度谱相乘,得到所述增强语音的幅度谱;
将所述增强语音的幅度谱与所述带噪语音的相位谱结合,得到所述重构后的增强语音。
9.根据权利要求1所述的语音增强方法,其特征在于,所述神经网络语音增强模型为由两个受限玻尔兹曼机堆叠而成的深度神经网络模型。
10.一种基于心理声学域加权损失函数的语音增强系统,其特征在于,包括:
训练语音集和测试语音集获取模块,用于获取训练语音集和测试语音集;其中,所述训练语音集包括纯净语音、噪声以及一部分带噪语音,所述测试语音集包括另一部分所述带噪语音;
训练语音集预处理模块,用于对所述训练语音集中的语音样本进行预处理,得到带噪语音特征和时频掩蔽值;
神经网络语音增强模型训练模块,用于将所述带噪语音特征和所述时频掩蔽值输入到神经网络语音增强模型中进行预训练,输出初步增强语音;
心理声学Bark域转换与响度谱计算模块,用于将所述初步增强语音和所述纯净语音同时转换到心理声学Bark域上,并在所述心理声学Bark域上计算语音信号的响度谱;
Bark域加权损失函数构建模块,用于根据所述响度谱计算语音失真误差和残留噪声误差,并根据所述语音失真误差和所述残留噪声误差构建Bark域加权损失函数;
神经网络语音增强模型优化模块,用于根据所述Bark域加权损失函数,采用误差反向传播算法对所述神经网络语音增强模型进行训练,得到优化后的神经网络语音增强模型;
增强语音重构模块,用于将所述测试语音集中的所述带噪语音输入所述优化后的神经网络语音增强模型,输出重构后的增强语音。
CN202111098146.0A 2021-09-18 2021-09-18 一种基于心理声学域加权损失函数的语音增强方法及系统 Active CN113744749B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111098146.0A CN113744749B (zh) 2021-09-18 2021-09-18 一种基于心理声学域加权损失函数的语音增强方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111098146.0A CN113744749B (zh) 2021-09-18 2021-09-18 一种基于心理声学域加权损失函数的语音增强方法及系统

Publications (2)

Publication Number Publication Date
CN113744749A true CN113744749A (zh) 2021-12-03
CN113744749B CN113744749B (zh) 2023-09-19

Family

ID=78739931

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111098146.0A Active CN113744749B (zh) 2021-09-18 2021-09-18 一种基于心理声学域加权损失函数的语音增强方法及系统

Country Status (1)

Country Link
CN (1) CN113744749B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113921030A (zh) * 2021-12-07 2022-01-11 江苏清微智能科技有限公司 基于加权语音损失的语音增强神经网络训练方法及装置
CN114550739A (zh) * 2022-03-25 2022-05-27 科大讯飞股份有限公司 语音增强方法、相关设备及可读存储介质
CN114582330A (zh) * 2022-03-11 2022-06-03 中国科学技术大学 语音识别模型的训练方法、语音识别方法及电子设备
CN114648998A (zh) * 2022-03-10 2022-06-21 北京探境科技有限公司 语音降噪模型构建方法、语音降噪方法、装置及电子设备
CN114999514A (zh) * 2022-05-31 2022-09-02 青岛信芯微电子科技股份有限公司 一种语音增强模型的训练方法、装置及设备
CN114999519A (zh) * 2022-07-18 2022-09-02 中邮消费金融有限公司 一种基于双重变换的语音实时降噪方法及系统
CN115171714A (zh) * 2022-06-21 2022-10-11 深圳市北科瑞声科技股份有限公司 一种语音增强方法、装置、电子设备及存储介质
CN115424628A (zh) * 2022-07-20 2022-12-02 荣耀终端有限公司 一种语音处理方法及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110491407A (zh) * 2019-08-15 2019-11-22 广州华多网络科技有限公司 语音降噪的方法、装置、电子设备及存储介质
US20200227070A1 (en) * 2019-01-11 2020-07-16 Samsung Electronics Co., Ltd. End-to-end multi-task denoising for joint signal distortion ratio (sdr) and perceptual evaluation of speech quality (pesq) optimization
CN112581973A (zh) * 2020-11-27 2021-03-30 深圳大学 一种语音增强方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200227070A1 (en) * 2019-01-11 2020-07-16 Samsung Electronics Co., Ltd. End-to-end multi-task denoising for joint signal distortion ratio (sdr) and perceptual evaluation of speech quality (pesq) optimization
CN110491407A (zh) * 2019-08-15 2019-11-22 广州华多网络科技有限公司 语音降噪的方法、装置、电子设备及存储介质
CN112581973A (zh) * 2020-11-27 2021-03-30 深圳大学 一种语音增强方法及系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
XIAOFENG SHU等: "A Human Auditory Perception Loss Function Using Modified Bark Spectral Distortion for Speech Enhancement", 《NEURAL PROCESSING LETTERS》 *
贾海蓉;王栋;郭欣;: "基于DNN的子空间语音增强算法", 太原理工大学学报, no. 05 *
贾海蓉等: "基于双通道神经网络时频掩蔽的语音增强算法", 《华中科技大学学报(自然科学版)》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113921030A (zh) * 2021-12-07 2022-01-11 江苏清微智能科技有限公司 基于加权语音损失的语音增强神经网络训练方法及装置
CN113921030B (zh) * 2021-12-07 2022-06-07 江苏清微智能科技有限公司 一种基于加权语音损失的语音增强神经网络训练方法及装置
CN114648998A (zh) * 2022-03-10 2022-06-21 北京探境科技有限公司 语音降噪模型构建方法、语音降噪方法、装置及电子设备
CN114582330A (zh) * 2022-03-11 2022-06-03 中国科学技术大学 语音识别模型的训练方法、语音识别方法及电子设备
CN114550739A (zh) * 2022-03-25 2022-05-27 科大讯飞股份有限公司 语音增强方法、相关设备及可读存储介质
CN114999514A (zh) * 2022-05-31 2022-09-02 青岛信芯微电子科技股份有限公司 一种语音增强模型的训练方法、装置及设备
CN115171714A (zh) * 2022-06-21 2022-10-11 深圳市北科瑞声科技股份有限公司 一种语音增强方法、装置、电子设备及存储介质
CN114999519A (zh) * 2022-07-18 2022-09-02 中邮消费金融有限公司 一种基于双重变换的语音实时降噪方法及系统
CN115424628A (zh) * 2022-07-20 2022-12-02 荣耀终端有限公司 一种语音处理方法及电子设备

Also Published As

Publication number Publication date
CN113744749B (zh) 2023-09-19

Similar Documents

Publication Publication Date Title
CN113744749B (zh) 一种基于心理声学域加权损失函数的语音增强方法及系统
Lu et al. A study on speech enhancement based on diffusion probabilistic model
Su et al. Bandwidth extension is all you need
CN110120227B (zh) 一种深度堆叠残差网络的语音分离方法
CN108447495B (zh) 一种基于综合特征集的深度学习语音增强方法
Pandey et al. Self-attending RNN for speech enhancement to improve cross-corpus generalization
CN110085245B (zh) 一种基于声学特征转换的语音清晰度增强方法
CN112382301B (zh) 基于轻量级神经网络的含噪语音性别识别方法及系统
CN111899750B (zh) 联合耳蜗语音特征和跳变深层神经网络的语音增强算法
CN111326170B (zh) 联合时频域扩张卷积的耳语音向正常音转换方法及其装置
CN113571047B (zh) 一种音频数据的处理方法、装置及设备
Huang et al. Refined wavenet vocoder for variational autoencoder based voice conversion
CN108198566B (zh) 信息处理方法及装置、电子设备及存储介质
Kobayashi et al. Electrolaryngeal speech enhancement with statistical voice conversion based on CLDNN
Coto-Jimenez et al. Hybrid speech enhancement with wiener filters and deep lstm denoising autoencoders
Li et al. iMetricGAN: Intelligibility enhancement for speech-in-noise using generative adversarial network-based metric learning
Du et al. A joint framework of denoising autoencoder and generative vocoder for monaural speech enhancement
CN115273884A (zh) 基于频谱压缩和神经网络的多阶段全频带语音增强方法
Tu et al. DNN training based on classic gain function for single-channel speech enhancement and recognition
CN114283835A (zh) 一种适用于实际通信条件下的语音增强与检测方法
Jia et al. A deep learning-based time-domain approach for non-intrusive speech quality assessment
Chao et al. Cross-domain single-channel speech enhancement model with bi-projection fusion module for noise-robust ASR
CN116013339A (zh) 一种基于改进crn的单通道语音增强方法
Elshamy et al. DNN-based cepstral excitation manipulation for speech enhancement
Baby isegan: Improved speech enhancement generative adversarial networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20211203

Assignee: Shanxi Huibo Communication Engineering Co.,Ltd.

Assignor: Taiyuan University of Technology

Contract record no.: X2024980005626

Denomination of invention: A Speech Enhancement Method and System Based on Psychoacoustic Domain Weighted Loss Function

Granted publication date: 20230919

License type: Common License

Record date: 20240511

EE01 Entry into force of recordation of patent licensing contract