[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN115240700A - 一种声学设备及其声音处理方法 - Google Patents

一种声学设备及其声音处理方法 Download PDF

Info

Publication number
CN115240700A
CN115240700A CN202210950503.XA CN202210950503A CN115240700A CN 115240700 A CN115240700 A CN 115240700A CN 202210950503 A CN202210950503 A CN 202210950503A CN 115240700 A CN115240700 A CN 115240700A
Authority
CN
China
Prior art keywords
frame
processed
amplitude
frequency point
suppression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210950503.XA
Other languages
English (en)
Other versions
CN115240700B (zh
Inventor
徐鹏程
邓毅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Austar Hearing Science & Technology (xiamen) Co ltd
Original Assignee
Austar Hearing Science & Technology (xiamen) Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Austar Hearing Science & Technology (xiamen) Co ltd filed Critical Austar Hearing Science & Technology (xiamen) Co ltd
Priority to CN202210950503.XA priority Critical patent/CN115240700B/zh
Publication of CN115240700A publication Critical patent/CN115240700A/zh
Application granted granted Critical
Publication of CN115240700B publication Critical patent/CN115240700B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0224Processing in the time domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)

Abstract

本发明提供了一种声学设备及声音处理方法,声音处理方法包括获取设定帧长的声音信号;对所述声音信号进行时频转换,得到待处理帧的各频点幅度;计算所述待处理帧的冲击噪概率;得到所述待处理帧的各频点的抑制幅度;根据所述抑制幅度对所述声音信号进行抑制。本发明的声音处理方法能够对待处理帧声音信号的各频点幅度做调节,从而对突然发生的冲击性噪音进行抑制,使得声音信号整体上趋于稳定,保证声音的舒适度,同时保证言语声的清晰度。并且,因为只对频点的幅度进行调节,所以能够较好地保证音质的保真度。

Description

一种声学设备及其声音处理方法
技术领域
本发明涉及声学设备,特别是涉及一种声学设备及其声音处理方法。
背景技术
现今,麦克风-放大器-扬声器构成的实时扩音系统广泛应用于生活场景中。例如,助听器就是其中一种常见的扩音系统。在实时扩音系统中,对于突然发生的冲击性噪音,比如拍手、关门等声音通常具有比言语声更高的声压级。若同时对冲击性噪音进行放大,则会很大程度上影响用户的舒适度。
发明内容
本发明的一个目的是要提供一种能够解决上述任一问题的声学设备及其声音处理方法。
本发明一个进一步的目的是要使得经过处理的声音信号更加平滑。
本发明另一个进一步的目的是要保证对长时冲击噪的抑制效果。
特别地,本发明提供了一种声学设备的声音处理方法,包括:
获取设定帧长的声音信号;
对所述声音信号进行时频转换,得到待处理帧的各频点幅度;
计算所述待处理帧的冲击噪概率;
得到所述待处理帧的各频点的抑制幅度;
根据所述抑制幅度对所述声音信号进行抑制。
可选地,对所述声音信号进行时频转换的步骤包括:
按照公式:
Figure BDA0003788912690000011
对所述声音信号进行短时傅里叶变换;
按照公式:Amp(n,ω)=20·lg(|X(n,ω)|)计算各频点幅度;
计算所述待处理帧的冲击噪概率的步骤包括:
根据公式:
Figure BDA0003788912690000021
计算所述待处理帧的冲击噪概率;
其中,X(n,ω)是对应频谱分量;k是对应帧长;x(m)是输入信号;w(m)是窗函数;n是帧的次序数;Amp(n,ω)是各频点幅度;Alow为预设的幅值范围的最小值;Ahigh为预设的幅值范围的最大值;P(n)为范围归一化0至1的概率。
可选地,得到所述待处理帧的各频点的抑制幅度的步骤包括:
根据公式计算得到所述待处理帧的各频点的抑制幅度;
其中,公式为:
G(n,w)=min[max(Amp(n,ω)-Amp(n-1,ω)-Debounce,0),Limit_G]·P(n);
其中,G(n,ω)为抑制幅度;Debounce为预设去幅度变化抖动;Limit_G为限制抑制频点幅度最大值。
可选地,得到所述待处理帧的各频点的抑制幅度的步骤还包括:
判断所述待处理帧是否需要进行平滑抑制:
若是,取所述待处理帧前一帧各频点的抑制幅度的衰减值作为所述待处理帧各频点的抑制幅度;
若否,执行根据公式计算得到所述待处理帧的各频点的抑制幅度的步骤。
可选地,判断所述待处理帧是否需要进行平滑抑制的步骤包括:
判断所述待处理帧的冲击噪概率是否为0:
若是,判断所述待处理帧的前一帧是否存在抑制幅度,若是,执行取所述待处理帧前一帧各频点的抑制幅度的衰减值作为所述待处理帧各频点的抑制幅度的步骤,若否,执行根据公式计算得到所述待处理帧的各频点的抑制幅度的步骤;
若否,判断所述待处理帧的前一帧的冲击噪概率是否为0,若是,执行根据公式计算得到所述待处理帧的各频点的抑制幅度的步骤,若否,执行取所述待处理帧前一帧各频点的抑制幅度的衰减值作为所述待处理帧各频点的抑制幅度的步骤。
可选地,若所述待处理帧的冲击噪概率大于0并且所述待处理帧的前一帧的冲击噪概率大于0,执行取所述待处理帧前一帧各频点的抑制幅度的衰减值作为所述待处理帧各频点的抑制幅度的步骤之前还包括:
判断所述待处理帧的帧能量是否大于预设阈值,若否,执行取所述待处理帧前一帧各频点的抑制幅度的衰减值作为所述待处理帧各频点的抑制幅度的步骤;若是,判断所述待处理帧是否属于长时冲击噪,若是,取所述待处理帧前一帧各频点的抑制幅度作为所述待处理帧各频点的抑制幅度,若否,取所述待处理帧前一帧各频点的抑制幅度的衰减值与根据计算得到的所述待处理帧的抑制幅度的最大值作为抑制幅度。
可选地,判断所述待处理帧是否属于长时冲击噪的步骤包括:
判断帧能量大于预设阈值的连续帧数是否大于预设值,若是,执行取所述待处理帧前一帧各频点的抑制幅度作为所述待处理帧各频点的抑制幅度的步骤,若否,执行取所述待处理帧前一帧各频点的抑制幅度的衰减值与根据计算得到的抑制幅度的最大值作为抑制幅度的步骤。
可选地,根据所述抑制幅度对所述声音信号进行抑制的步骤包括:
使各频点幅度经过抑制后的保留信号幅度大于稳态环境音幅度。
可选地,计算所述待处理帧的冲击噪概率的步骤之前包括:
判断所述待处理帧是否为第一帧,若是,直接将所述待处理帧的声音信号进行输出。
特别地,本发明提供了一种声学设备,包括:
麦克风,配置成将获取的声音转换为实时音频数据;
放大器,配置成实时放大所述实时音频数据;
扬声器,配置成将放大后的实时音频数据转换为输出声音;
信号处理器,包括存储器、处理器及存储在所述存储器上并在所述处理器上运行的机器可执行程序,并且所述处理器执行所述机器可执行程序时实现上述任一项中的声学设备的声音处理方法。
本发明的声学设备及其声音处理方法,获取设定帧长的声音信号作为待处理帧,对声音信号进行时频转换,得到待处理帧的各频点幅度;计算待处理帧的冲击噪概率;根据冲击噪概率得到待处理帧的各频点的抑制幅度;根据抑制幅度对声音信号进行抑制。也就是说,能够对待处理帧声音信号的各频点幅度做调节,从而对突然发生的冲击性噪音进行抑制,使得声音信号整体上趋于稳定,保证声音的舒适度,同时保证言语声的清晰度。并且,因为只对频点的幅度进行调节,所以能够较好地保证音质的保真度。
进一步地,本发明的声学设备及其声音处理方法,通过判断待处理帧是否需要进行平滑抑制,当待处理帧需要进行平滑抑制时取所述待处理帧前一帧各频点的抑制幅度的衰减值作为所述待处理帧各频点的抑制幅度。因此,在能够对冲击噪进行抑制的基础上,能够避免经过抑制的多帧声音信号之间变化过于剧烈,进而有助于保证声音信号的舒适性。
更进一步地,通过在待处理帧处于长时冲击噪时取所述待处理帧前一帧各频点的抑制幅度作为所述待处理帧各频点的抑制幅度,从而能够保证对长时冲击噪的抑制效果。
根据下文结合附图对本发明具体实施例的详细描述,本领域技术人员将会更加明了本发明的上述以及其他目的、优点和特征。
附图说明
后文将参照附图以示例性而非限制性的方式详细描述本发明的一些具体实施例。附图中相同的附图标记标示了相同或类似的部件或部分。本领域技术人员应该理解,这些附图未必是按比例绘制的。附图中:
图1是根据本发明一个实施例的声学设备的示意性框图;
图2是根据本发明一个实施例的声学设备的声音处理方法的示意性流程图;
图3是根据本发明另一个实施例的声学设备的声音处理方法的示意性流程图;
图4是根据本发明又一个实施例的声学设备的声音处理方法的示意性流程图;
图5是根据本发明又一个实施例的声学设备的声音处理方法的示意性流程图;
图6是根据本发明一个实施例的声学设备的声音处理方法中判断是否需要平滑抑制的示意性流程图;
图7是根据本发明又一个实施例的声学设备的声音处理方法的示意性流程图。
具体实施方式
本领域技术人员应当理解的是,下文所描述的实施例仅仅是本发明的一部分实施例,而不是本发明的全部实施例,该一部分实施例旨在用于解释本发明的技术原理,并非用于限制本发明的保护范围。基于本发明提供的实施例,本领域普通技术人员在没有付出创造性劳动的情况下所获得的其它所有实施例,仍应落入到本发明的保护范围之内。
需要说明的是,在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。
如图1所示,在一个实施例中,声学设备10包括麦克风110、放大器120、扬声器130和信号处理器140。麦克风110配置成将获取的声音转换为实时音频数据。放大器120配置成实时放大所述实时音频数据。扬声器130配置成将放大后的实时音频数据转换为输出声音。信号处理器140包括存储器、处理器及存储在所述存储器上并在所述处理器上运行的机器可执行程序,并且所述处理器执行所述机器可执行程序时实现下述实施例中的声音处理方法。
如图2所示,在一个实施例中,声音处理方法包括:
步骤S202,获取设定帧长的声音信号。其中,帧长可以预先设定。
步骤S204,对声音信号进行时频转换,得到待处理帧的各频点幅度。
其中,具体方式为:先按照公式(1)对声音信号进行短时傅里叶变换:
Figure BDA0003788912690000051
在公式(1)中,X(n,ω)是对应频谱分量;k是对应帧长;x(m)是输入信号;w(m)是窗函数;n是帧的次序数。
按照公式(2)对得到的频谱分量进行处理,得到各频点幅度:
Amp(n,ω)=20·lg(|X(n,ω)|) (2)
在公式(2)中,Amp(n,ω)是各频点幅度。
步骤S206,计算待处理帧的冲击噪概率。
其中,具体计算公式为:
Figure BDA0003788912690000052
在公式(3)中,Alow为预设的幅值范围的最小值;Ahigh为预设的幅值范围的最大值;P(n)为范围归一化0至1的概率。
步骤S208,得到待处理帧的各频点的抑制幅度。
步骤S210,根据抑制幅度对声音信号进行抑制。具体来说,即根据计算得到的各频点的抑制幅度对各频点由公式(2)得到的各频点的幅度进行抑制。然后将抑制后的各频点幅度作为待处理帧的最终幅度进行输出。
在本实施例的方案中,通过计算待处理帧的冲击噪概率,再根据冲击噪概率得到待处理帧的各频点的抑制幅度,然后根据抑制幅度对声音信号进行抑制。也就是说,能够对待处理帧声音信号的各频点幅度做调节,从而对突然发生的冲击性噪音进行抑制,使得声音信号整体上趋于稳定,保证声音的舒适度,同时保证言语声的清晰度。并且,因为只对频点的幅度进行调节,所以能够较好地保证音质的保真度。
如图3所示,在一个实施例中,声音处理方法包括:
步骤S302,获取设定帧长的声音信号。
步骤S304,对声音信号进行时频转换,得到待处理帧的各频点幅度。
步骤S306,判断待处理帧是否为第一帧,若是,直接将待处理帧的声音信号进行输出。若否,执行步骤S308。
步骤S308,计算待处理帧的冲击噪概率。
步骤S310,得到待处理帧的各频点的抑制幅度。
步骤S312,根据抑制幅度对声音信号进行抑制。
具体来说,如果待处理帧为第一帧声音信号,直接将计算得到的各频点幅度作为输出幅度,对待处理帧的声音信号进行输出。如果待处理帧为第一帧之后的帧,得到各频点的抑制幅度后,利用抑制幅度对各频点的初始幅度进行抑制。然后将抑制后的各频点幅度作为待处理帧的输出幅度进行输出。
如图4所示,在一个实施例中,声音处理方法包括:
步骤S402,获取设定帧长的声音信号。
步骤S404,对声音信号进行时频转换,得到待处理帧的各频点幅度。
步骤S406,判断待处理帧是否为第一帧,若是,直接将待处理帧的声音信号进行输出。若否,执行步骤S408。
步骤S408,计算待处理帧的冲击噪概率。
步骤S410,根据公式计算得到待处理帧的各频点的抑制幅度。
具体来说,计算公式为:
G(n,w)=min[max(Amp(n,ω)-Amp(n-1,ω)-Debounce,0),Limit_G]·P(n) (4)
在公式(4)中,G(n,ω)为抑制幅度;Debounce为预设去幅度变化抖动;Limit_G为限制抑制频点幅度最大值。其中,Limit_G的值可以根据需要设定。对于不想将声音抑制太多的人或场景下(例如,对于某些人或某些场景下,鼓掌声大一些也没关系),使用者可以通过设定Limit_G的值来保证抑制幅度不会太大。而对于没有上述需求的使用者可以设定取消Limit_G值的影响(将Limit_G设定到最大值)。换句话说,根据公式计算得到所述待处理帧的各频点的抑制幅度的公式也可以为公式(5),从而满足不同使用者的使用需求。
G(n,ω)=max(Amp(n,ω)-Amp(n-1,ω)-Debounce,0)·P(n) (5)
步骤S412,根据抑制幅度对声音信号进行抑制。
具体来说,声学设备接收到预设帧长的声音信号,开始对这一帧的声音信号进行处理,这一帧就是待处理帧。经过时频转换后,可以得到待处理帧多个频点对应的幅度值。当待处理帧为接收的第一帧信号,不对各频点的幅度值进行处理。
从第二帧开始,每一个待处理帧开始计算冲击噪概率和各频点的抑制幅度。具体地,根据公式(3)得到的冲击噪概率为范围归一化0至1的概率,所以,待处理帧的冲击噪概率为0或大于0。如果待处理帧冲击噪概率为0,由公式(4)可以得知,那么待处理帧的抑制幅度为0,也就是不对声音信号的各频点的幅度值进行抑制,直接输出。如果待处理帧冲击噪概率不为0,也就是大于0,就可以获得各频点的抑制幅度(即G(n,ω)),利用抑制幅度对待处理帧各频点的原幅度值进行抑制,然后将抑制后的各频点幅度作为待处理帧的输出幅度进行输出。
如图5所示,在一个实施例中,得到待处理帧的各频点的抑制幅度的步骤包括:判断待处理帧是否需要进行平滑抑制:若是,取待处理帧前一帧各频点的抑制幅度的衰减值作为待处理帧各频点的抑制幅度;若否,执行根据公式计算得到待处理帧的各频点的抑制幅度的步骤。具体来说,本实施例的声音处理方法包括:
步骤S502,获取设定帧长的声音信号。
步骤S504,对声音信号进行时频转换,得到待处理帧的各频点幅度。
步骤S506,判断待处理帧是否为第一帧,若是,直接将待处理帧的声音信号进行输出。若否,执行步骤S508。
步骤S508,计算待处理帧的冲击噪概率。
步骤S510,判断待处理帧是否需要进行平滑抑制。若是,执行步骤S512,若否,执行步骤S514。
步骤S512,取待处理帧前一帧各频点的抑制幅度的衰减值作为待处理帧各频点的抑制幅度。
步骤S514,根据公式计算得到待处理帧的各频点的抑制幅度。
步骤S516,根据抑制幅度对声音信号进行抑制。
参照图6所示,具体地,步骤S510,判断待处理帧是否需要进行平滑抑制包括:
步骤S602,判断待处理帧的冲击噪概率是否为0。若是,执行步骤S604。若否,执行步骤S606。
步骤S604,判断待处理帧的前一帧是否存在抑制幅度,若是,执行步骤S608,若否,执行步骤S610。
步骤S606,判断待处理帧的前一帧的冲击噪概率是否为0,若是,执行步骤S610,若否,执行步骤S608。
步骤S608,取待处理帧前一帧各频点的抑制幅度的衰减值作为待处理帧各频点的抑制幅度。
步骤S610,根据公式计算得到待处理帧的各频点的抑制幅度。
具体来说,声学设备接收到预设帧长的声音信号,开始对这一帧的声音信号进行处理,这一帧就是待处理帧。经过时频转换后,可以得到待处理帧多个频点对应的幅度值。当待处理帧为接收的第一帧信号,不对各频点的幅度值进行处理。因此,将第一帧的冲击噪概率取为0且不存在抑制幅度。
从第二帧开始,每一个待处理帧开始计算冲击噪概率和各频点的抑制幅度。例如,第二帧冲击噪概率为0,因为第一帧不存在抑制幅度,那么第二帧根据公式计算各频点的抑制幅度,因为冲击噪概率为0,那么第二帧各频点的抑制幅度也是0,即不存在抑制幅度。
接着来说,第三帧冲击噪概率为0,因为第二帧不存在抑制幅度,那么第三帧根据公式计算各频点的抑制幅度,因为冲击噪概率为0,那么第三帧各频点的抑制幅度也是0。
而后每一帧的冲击噪概率均为0,直至第n帧,其冲击噪概率不为0,也就是大于0。因为其前一帧(第n-1帧)的冲击噪概率为0,所以第n帧根据公式计算各频点的抑制幅度。第n+1帧的冲击噪概率仍大于0,并且第n帧的冲击噪概率也大于0,所以,第n+1帧采用第n帧各频点的抑制幅度衰减后的数值作为本帧的抑制幅度。
然后,直至第n+10帧,待处理帧的冲击噪概率为0,因为第n+9帧存在抑制幅度。那么第n+10帧采用第n+9帧各频点的抑制幅度衰减后的数值作为本帧的抑制幅度。接着,第n+11帧的冲击噪概率为0,因为第n+10帧存在抑制幅度,那么第n+11帧采用第n+10帧各频点的抑制幅度衰减后的数值作为本帧的抑制幅度。
在本实施的方案中,通过判断待处理帧是否需要进行平滑抑制,当待处理帧需要进行平滑抑制时取所述待处理帧前一帧各频点的抑制幅度的衰减值作为所述待处理帧各频点的抑制幅度,因此,在能够对冲击噪进行抑制的基础上,能够避免经过抑制的多帧声音信号之间变化过于剧烈,进而有助于保证声音信号的舒适性。
需要说明的是,取前一帧各频点的抑制幅度的衰减值的方式可以是将前一帧各频点的抑制幅度减去固定值作为衰减值。例如,取固定值为2dB,假设第n帧需要进行平滑抑制,第n-1帧某一频点的抑制幅度为10dB,那么第n帧对应频点的抑制幅度为8dB。此种衰减方式下,可以是直至衰减值小于等于0,也可以是在衰减值小于预设值时直接取待处理帧抑制幅度为0。
或者,取前一帧各频点的抑制幅度的衰减值的方式可以是取前一帧各频点的抑制幅度的百分比值作为衰减值。例如,去百分比为90%,设第n帧需要进行平滑抑制,第n-1帧某一频点的抑制幅度为10dB,那么第n帧对应频点的抑制幅度为9dB。此种衰减方式下,直至衰减值小于等于预设值时直接取待处理帧抑制幅度为0。
如图7所示,在一个实施例中,若待处理帧的前一帧的冲击噪概率大于0并且待处理帧的前一帧的冲击噪概率大于0,执行取待处理帧前一帧各频点的抑制幅度的衰减值作为待处理帧各频点的抑制幅度的步骤之前还包括:
判断所述待处理帧的帧能量是否大于预设阈值,若否,执行取所述待处理帧前一帧各频点的抑制幅度的衰减值作为所述待处理帧各频点的抑制幅度的步骤;若是,判断所述待处理帧是否属于长时冲击噪,若是,取所述待处理帧前一帧各频点的抑制幅度作为所述待处理帧各频点的抑制幅度,若否,取所述待处理帧前一帧各频点的抑制幅度的衰减值与根据计算得到的抑制幅度的最大值作为抑制幅度。
具体步骤如下:
步骤S702,获取设定帧长的声音信号。
步骤S704,对声音信号进行时频转换,得到待处理帧的各频点幅度。
步骤S706,判断待处理帧是否为第一帧,若是,直接将待处理帧的声音信号进行输出。若否,执行步骤S708。
步骤S708,计算待处理帧的冲击噪概率。
步骤S710,判断待处理帧的冲击噪概率是否为0。若是,执行步骤S712。若否,执行步骤S714。
步骤S712,判断待处理帧的前一帧是否存在抑制幅度。若是,执行步骤S720,若否,执行步骤S722。
步骤S714,判断待处理帧的前一帧的冲击噪概率是否为0。若是,执行步骤S722,若否,执行步骤S716。
步骤S716,判断待处理帧的帧能量是否大于预设阈值。若是,执行步骤S718,若否,执行步骤S720。
步骤S718,判断待处理帧是否属于长时冲击噪。若是,执行步骤S724,若否,执行步骤S726。
具体地,判断待处理帧是否属于长时冲击噪的步骤包括:
判断帧能量大于预设阈值的连续帧数是否大于预设值。若是,则判定待处理帧属于长时冲击噪,那么执行步骤S724。若否,则判定待处理帧不属于长时冲击噪,那么执行步骤S726。
步骤S720,取待处理帧前一帧各频点的抑制幅度的衰减值作为待处理帧各频点的抑制幅度。
步骤S722,根据公式计算得到待处理帧的各频点的抑制幅度。
步骤S724,取待处理帧前一帧各频点的抑制幅度作为待处理帧各频点的抑制幅度。具体来说,就是将前一帧各频点的抑制幅度直接作为待处理帧各频点的抑制幅度。
步骤S726,取待处理帧前一帧各频点的抑制幅度的衰减值与根据计算得到的待处理帧的抑制幅度的最大值作为抑制幅度。
步骤S728,根据抑制幅度对声音信号进行抑制。
其中,计算信号能量值的方法本身为现有技术,此处不再赘述。
具体来说,声学设备接收到预设帧长的声音信号,开始对这一帧的声音信号进行处理,这一帧就是待处理帧。经过时频转换后,可以得到待处理帧多个频点对应的幅度值。当待处理帧为接收的第一帧信号,不对各频点的幅度值进行处理。因此,将第一帧的冲击噪概率取为0且不存在抑制幅度。
从第二帧开始,每一个待处理帧开始计算冲击噪概率和各频点的抑制幅度。例如,第二帧冲击噪概率为0,因为第一帧不存在抑制幅度,那么第二帧根据公式计算各频点的抑制幅度,因为冲击噪概率为0,那么第二帧各频点的抑制幅度也是0,即不存在抑制幅度。
接着来说,第三帧冲击噪概率为0,因为第二帧不存在抑制幅度,那么第三帧根据公式计算各频点的抑制幅度,因为冲击噪概率为0,那么第三帧各频点的抑制幅度也是0。
而后每一帧的冲击噪概率均为0,直至第n帧,其冲击噪概率不为0,也就是大于0。因为其前一帧(第n-1帧)的冲击噪概率为0,所以第n帧根据公式计算各频点的抑制幅度。第n+1帧的冲击噪概率仍大于0,并且第n帧的冲击噪概率也大于0,此时,需要判断第n+1帧的帧能量是否大于预设阈值。
若第n+1帧的帧能量小于预设阈值,则第n+1帧采用第n帧各频点的抑制幅度衰减后的数值作为本帧的抑制幅度。若第n+1帧的帧能量大于预设阈值,判断第n+1帧是否属于长时冲击噪。例如取预设值为10。因为到第n+1帧,帧能量大于预设阈值的帧数为2,所以判定第n+1帧不属于长时冲击噪,取第n帧各频点的抑制幅度的衰减值与根据计算得到第n+1帧的抑制幅度的最大值作为第n+1帧的抑制幅度。
然后,直至第n+11帧,每一帧的冲击噪概率都不为0且均大于预设阈值。此时,帧能量大于预设阈值的连续帧数为11帧,则判定第n+11帧待属于长时冲击噪。那么第n+11帧采用第n+10帧各频点的抑制幅度作为本帧的抑制幅度。
在本实施的方案中,通过判断待处理帧的帧能量是否大于阈值以及判断是否属于长时冲击噪,一方面,冲击噪重叠时,能够避免对后出现的冲击噪抑制不足的情况发生。另一方面,通过在待处理帧处于长时冲击噪时取所述待处理帧前一帧各频点的抑制幅度作为所述待处理帧各频点的抑制幅度,从而能够保证对长时冲击噪的抑制效果。
优选地,在一个实施例中,根据抑制幅度对声音信号进行抑制的步骤包括:使各频点幅度经过抑制后的保留信号幅度大于稳态环境音幅度,从而保证听感。
至此,本领域技术人员应认识到,虽然本文已详尽示出和描述了本发明的多个示例性实施例,但是,在不脱离本发明精神和范围的情况下,仍可根据本发明公开的内容直接确定或推导出符合本发明原理的许多其他变型或修改。因此,本发明的范围应被理解和认定为覆盖了所有这些其他变型或修改。

Claims (10)

1.一种声学设备的声音处理方法,包括:
获取设定帧长的声音信号;
对所述声音信号进行时频转换,得到待处理帧的各频点幅度;
计算所述待处理帧的冲击噪概率;
得到所述待处理帧的各频点的抑制幅度;
根据所述抑制幅度对所述声音信号进行抑制。
2.根据权利要求1所述的声学设备的声音处理方法,其中,
对所述声音信号进行时频转换的步骤包括:
按照公式:
Figure FDA0003788912680000011
对所述声音信号进行短时傅里叶变换;
按照公式:Amp(n,ω)=20·lg(|X(n,ω)|)计算各频点幅度;
计算所述待处理帧的冲击噪概率的步骤包括:
根据公式:
Figure FDA0003788912680000012
计算所述待处理帧的冲击噪概率;
其中,X(n,ω)是对应频谱分量;k是对应帧长;x(m)是输入信号;w(m)是窗函数;n是帧的次序数;Amp(n,ω)是各频点幅度;Alow为预设的幅值范围的最小值;Ahigh为预设的幅值范围的最大值;P(n)为范围归一化0至1的概率。
3.根据权利要求2所述的声学设备的声音处理方法,其中,
得到所述待处理帧的各频点的抑制幅度的步骤包括:
根据公式计算得到所述待处理帧的各频点的抑制幅度;
其中,公式为:
G(n,w)=min[max(Amp(n,ω)-Amp(n-1,ω)-Debounce,0),Limit_G]·P(n);
其中,G(n,ω)为抑制幅度;Debounce为预设去幅度变化抖动;Limit_G为限制抑制频点幅度最大值。
4.根据权利要求3所述的声学设备的声音处理方法,其中,
得到所述待处理帧的各频点的抑制幅度的步骤还包括:
判断所述待处理帧是否需要进行平滑抑制:
若是,取所述待处理帧前一帧各频点的抑制幅度的衰减值作为所述待处理帧各频点的抑制幅度;
若否,执行根据公式计算得到所述待处理帧的各频点的抑制幅度的步骤。
5.根据权利要求4所述的声学设备的声音处理方法,其中,
判断所述待处理帧是否需要进行平滑抑制的步骤包括:
判断所述待处理帧的冲击噪概率是否为0:
若是,判断所述待处理帧的前一帧是否存在抑制幅度,若是,执行取所述待处理帧前一帧各频点的抑制幅度的衰减值作为所述待处理帧各频点的抑制幅度的步骤,若否,执行根据公式计算得到所述待处理帧的各频点的抑制幅度的步骤;
若否,判断所述待处理帧的前一帧的冲击噪概率是否为0,若是,执行根据公式计算得到所述待处理帧的各频点的抑制幅度的步骤,若否,执行取所述待处理帧前一帧各频点的抑制幅度的衰减值作为所述待处理帧各频点的抑制幅度的步骤。
6.根据权利要求5所述的声学设备的声音处理方法,其中,
若所述待处理帧的冲击噪概率大于0并且所述待处理帧的前一帧的冲击噪概率大于0,执行取所述待处理帧前一帧各频点的抑制幅度的衰减值作为所述待处理帧各频点的抑制幅度的步骤之前还包括:
判断所述待处理帧的帧能量是否大于预设阈值,若否,执行取所述待处理帧前一帧各频点的抑制幅度的衰减值作为所述待处理帧各频点的抑制幅度的步骤;若是,判断所述待处理帧是否属于长时冲击噪,若是,取所述待处理帧前一帧各频点的抑制幅度作为所述待处理帧各频点的抑制幅度,若否,取所述待处理帧前一帧各频点的抑制幅度的衰减值与根据计算得到的所述待处理帧的抑制幅度的最大值作为抑制幅度。
7.根据权利要求6所述的声学设备的声音处理方法,其中,
判断所述待处理帧是否属于长时冲击噪的步骤包括:
判断帧能量大于预设阈值的连续帧数是否大于预设值,若是,执行取所述待处理帧前一帧各频点的抑制幅度作为所述待处理帧各频点的抑制幅度的步骤,若否,执行取所述待处理帧前一帧各频点的抑制幅度的衰减值与根据计算得到的抑制幅度的最大值作为抑制幅度的步骤。
8.根据权利要求1所述的声学设备的声音处理方法,其中,
根据所述抑制幅度对所述声音信号进行抑制的步骤包括:
使各频点幅度经过抑制后的保留信号幅度大于稳态环境音幅度。
9.根据权利要求1所述的声学设备的声音处理方法,其中,
计算所述待处理帧的冲击噪概率的步骤之前包括:
判断所述待处理帧是否为第一帧,若是,直接将所述待处理帧的声音信号进行输出。
10.一种声学设备,包括:
麦克风,配置成将获取的声音转换为实时音频数据;
放大器,配置成实时放大所述实时音频数据;
扬声器,配置成将放大后的实时音频数据转换为输出声音;
信号处理器,包括存储器、处理器及存储在所述存储器上并在所述处理器上运行的机器可执行程序,并且所述处理器执行所述机器可执行程序时实现根据权利要求1至9任一项中的声学设备的声音处理方法。
CN202210950503.XA 2022-08-09 2022-08-09 一种声学设备及其声音处理方法 Active CN115240700B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210950503.XA CN115240700B (zh) 2022-08-09 2022-08-09 一种声学设备及其声音处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210950503.XA CN115240700B (zh) 2022-08-09 2022-08-09 一种声学设备及其声音处理方法

Publications (2)

Publication Number Publication Date
CN115240700A true CN115240700A (zh) 2022-10-25
CN115240700B CN115240700B (zh) 2024-08-23

Family

ID=83679109

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210950503.XA Active CN115240700B (zh) 2022-08-09 2022-08-09 一种声学设备及其声音处理方法

Country Status (1)

Country Link
CN (1) CN115240700B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6629070B1 (en) * 1998-12-01 2003-09-30 Nec Corporation Voice activity detection using the degree of energy variation among multiple adjacent pairs of subframes
US20100014681A1 (en) * 2007-03-06 2010-01-21 Nec Corporation Noise suppression method, device, and program
CN103456310A (zh) * 2013-08-28 2013-12-18 大连理工大学 一种基于谱估计的瞬态噪声抑制方法
US20180331668A1 (en) * 2017-05-15 2018-11-15 Panasonic Intellectual Property Corporation Of America Noise suppression apparatus, noise suppression method, and non-transitory recording medium
CN111641799A (zh) * 2020-04-20 2020-09-08 合肥优尔电子科技有限公司 一种视频会议系统及其音频质量诊断方法
CN111755023A (zh) * 2020-04-15 2020-10-09 欧仕达听力科技(厦门)有限公司 基于等响度曲线的移频实时响度补偿方法
CN113470674A (zh) * 2020-03-31 2021-10-01 珠海格力电器股份有限公司 语音降噪方法、装置、存储介质及计算机设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6629070B1 (en) * 1998-12-01 2003-09-30 Nec Corporation Voice activity detection using the degree of energy variation among multiple adjacent pairs of subframes
US20100014681A1 (en) * 2007-03-06 2010-01-21 Nec Corporation Noise suppression method, device, and program
CN103456310A (zh) * 2013-08-28 2013-12-18 大连理工大学 一种基于谱估计的瞬态噪声抑制方法
US20180331668A1 (en) * 2017-05-15 2018-11-15 Panasonic Intellectual Property Corporation Of America Noise suppression apparatus, noise suppression method, and non-transitory recording medium
CN113470674A (zh) * 2020-03-31 2021-10-01 珠海格力电器股份有限公司 语音降噪方法、装置、存储介质及计算机设备
CN111755023A (zh) * 2020-04-15 2020-10-09 欧仕达听力科技(厦门)有限公司 基于等响度曲线的移频实时响度补偿方法
CN111641799A (zh) * 2020-04-20 2020-09-08 合肥优尔电子科技有限公司 一种视频会议系统及其音频质量诊断方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
S.P. PAO, ET AL.: "Shock-associated noise in supersonic jets", 《AIAA JOURNAL》, vol. 21, no. 5, 17 May 2012 (2012-05-17) *
赵彦平等: "冲击噪声环境下基于信号子空间的多通道语音增强算法", 《吉林大学学报(工学版)》, vol. 2, 28 February 2007 (2007-02-28) *

Also Published As

Publication number Publication date
CN115240700B (zh) 2024-08-23

Similar Documents

Publication Publication Date Title
TWI463817B (zh) 可適性智慧雜訊抑制系統及方法
JP5675848B2 (ja) レベルキューによる適応ノイズ抑制
US8521530B1 (en) System and method for enhancing a monaural audio signal
US9558755B1 (en) Noise suppression assisted automatic speech recognition
US8143620B1 (en) System and method for adaptive classification of audio sources
US9343073B1 (en) Robust noise suppression system in adverse echo conditions
JP2001134287A (ja) 雑音抑圧装置
JP2009014937A (ja) エコー抑圧装置、エコー抑圧方法及びコンピュータプログラム
US8718562B2 (en) Processing audio signals
JP7325445B2 (ja) ギャップ信頼度を用いた背景雑音推定
RU2725017C1 (ru) Устройство и способ для обработки аудиосигнала
WO2020023856A1 (en) Forced gap insertion for pervasive listening
JP2006129434A (ja) 自動利得制御方法、自動利得制御装置、自動利得制御プログラム及びこれを記録した記録媒体
JPH1098346A (ja) 自動利得調整装置
CN115240700B (zh) 一种声学设备及其声音处理方法
JP2005107448A (ja) 雑音低減処理方法、この方法を実施する装置、プログラム、記録媒体
JP2002140100A (ja) 騒音抑圧装置
JP2004032387A (ja) ハウリング制御装置及び補聴器
EP1211671A2 (en) Automatic gain control with noise suppression
CN117995215B (zh) 语音信号的处理方法、装置、计算机设备及存储介质
JP5036283B2 (ja) オートゲインコントロール装置、音響信号記録装置、映像・音響信号記録装置および通話装置
JP2013005106A (ja) 場内拡声装置、場内拡声方法、及びそのプログラム
JP2023130254A (ja) 音声処理装置および音声処理方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant