[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5666444B2 - 特徴抽出を使用してスピーチ強調のためにオーディオ信号を処理する装置及び方法 - Google Patents

特徴抽出を使用してスピーチ強調のためにオーディオ信号を処理する装置及び方法 Download PDF

Info

Publication number
JP5666444B2
JP5666444B2 JP2011521470A JP2011521470A JP5666444B2 JP 5666444 B2 JP5666444 B2 JP 5666444B2 JP 2011521470 A JP2011521470 A JP 2011521470A JP 2011521470 A JP2011521470 A JP 2011521470A JP 5666444 B2 JP5666444 B2 JP 5666444B2
Authority
JP
Japan
Prior art keywords
feature
spectral
control information
audio signal
band
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011521470A
Other languages
English (en)
Other versions
JP2011530091A (ja
Inventor
クリスチャン ウーレ
クリスチャン ウーレ
オリバー ヘルムース
オリバー ヘルムース
ベルンハルト グリル
ベルンハルト グリル
ファルコ リッデルブッシュ
ファルコ リッデルブッシュ
Original Assignee
フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン filed Critical フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン
Publication of JP2011530091A publication Critical patent/JP2011530091A/ja
Application granted granted Critical
Publication of JP5666444B2 publication Critical patent/JP5666444B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Tone Control, Compression And Expansion, Limiting Amplitude (AREA)
  • Stereophonic System (AREA)
  • Filters That Use Time-Delay Elements (AREA)

Description

本発明は、オーディオ信号処理の分野に関し、特に、処理された信号のスピーチ内容が客観的及び主観的なスピーチ明瞭度(intelligibity)を持つようなオーディオ信号のスピーチ強調の分野に関する。
スピーチ強調は、様々な用途において適用される。主たる用途は、補聴器におけるデジタル信号処理の使用である。補聴器におけるデジタル信号処理は、聴覚障害の回復のための新規かつ有効な手段を提供する。より高い音響信号品質の他に、デジタル補聴器は、特定のスピーチ処理の方策の実現を可能にする。これらの方策の多くにおいて、音響環境のスピーチ対雑音比(SNR)の推定が所望される。具体的には、スピーチ処理のための複雑なアルゴリズムが、特定の音響環境に合わせて最適化される応用が考えられるが、特定の仮定に合致しない状況においては、そのようなアルゴリズムが上手く働かない可能性がある。これは、静穏な環境又はSNRが所定のしきい値を下回る状況において処理アーチファクトを持ち込む可能性がある、雑音低減の仕組みに特に当てはまる。圧縮アルゴリズム及び増幅のパラメータの最適な選択は、スピーチ対雑音比に依存する可能性があるため、SNR推定に応じてパラメータセットを調整することが、効果をもたらすのに役立つ。さらに、SNR推定は、ウィーナー(Wiener)フィルタリング法又はスペクトルサブトラクション法などといった雑音低減の手法のための制御パラメータとして直接使用することもできる。
他の用途は、映画の音声のスピーチ強調の分野にある。多数の人々が、例えば聴覚的障害に起因して、映画のスピーチ内容の理解に困難を抱えていることが明らかになっている。映画の筋立てを辿るために、例えば独白、会話、アナウンス及びナレーションなど、オーディオトラックの関連するスピーチを理解することが重要である。聞き取りにくさを感じる人々は、例えば環境雑音及び音楽などといった背景音のレベルがスピーチに比べて高すぎると感じることが多くある。この場合、スピーチ信号のレベルを高め、背景音を弱めることが望まれ、換言すると、スピーチ信号のレベルを全体のレベルに対して高めることが望まれる。
スピーチ強調の主たる手法は、図3に示されているように、短時間スペクトル減衰とも称されるスペクトル重み付けである。出力信号y[k]が、入力信号x[k]のサブバンド信号X(ω)をサブバンド信号内の雑音エネルギーに応じて減衰させることによって計算される。
以下では、入力信号x[k]が所望のスピーチ信号s[k]と背景雑音b[k]との加算混合物であると仮定する。
Figure 0005666444
スピーチ強調は、スピーチの客観的な明瞭度及び/又は主観的な品質の改善である。
入力信号の周波数ドメイン表現は、ブロック30に示されているように、短時間フーリエ変換(STFT)、他の時間−周波数変換、又はフィルタバンクによって計算される。次に、入力信号は式(2)に従って周波数ドメインにおいてフィルタ処理される一方で、フィルタの周波数応答G(ω)は雑音エネルギーが少なくなるように計算される。出力信号は、時間−周波数変換又はフィルタバンクのそれぞれの逆処理によって計算される。
Figure 0005666444
適切なスペクトル重みG(ω)は、入力信号スペクトルX(ω)及び雑音スペクトル推定
Figure 0005666444
を使用し、あるいは線形サブバンドSNR
Figure 0005666444
を使用して、各スペクトル値についてブロック31において計算される。重み付けされたスペクトル値は、ブロック32において再び時間ドメインへと変換される。雑音抑制規則の有名な例は、スペクトルサブトラクション法(非特許文献1)及びウィーナーフィルタリングである。入力信号がスピーチ信号と雑音信号との加算混合物であり、スピーチ及び雑音が相関していないと仮定すると、スペクトルサブトラクション法のためのゲイン値は式(3)において与えられる。
Figure 0005666444
同様の重みは、式(4)に従って、線形サブバンドSNR推定
Figure 0005666444
からも導出される。
チャネル
Figure 0005666444
スペクトルサブトラクション法の様々な拡張、すなわちオーバーサブトラクション係数及びスペクトル・フロア・パラメータの使用(非特許文献2)、一般化形式(非特許文献3)、知覚基準の使用(例えば、非特許文献4)、及びマルチバンド・スペクトル・サブトラクション(例えば、非特許文献5)が、過去に提案されている。しかしながら、スペクトル重み付け法の決定的な部分は、瞬間的な雑音スペクトル又はサブバンドSNRの推定であり、それらは、特に雑音が静的でない場合に誤差に悩まされがちである。雑音推定による誤差は、残留ノイズ、スピーチ成分の歪み又はミュージカルノイズ(「調性品質を持つ震音(warbling with tonal quality)」)として説明されているアーチファクト(非特許文献6)につながる。
雑音推定のための簡単な手法は、スピーチの休止の最中の雑音スペクトルを測定し、平均することである。この手法は、雑音スペクトルがスピーチ行為の最中に時間変化した場合、及びスピーチの休止の検出に失敗した場合に、満足できる結果をもたらさない。スピーチ行為の最中でも雑音スペクトルを推定するための方法が過去に提案されており、非特許文献6に従って、
・最小トラッキングアルゴリズム
・時間再帰平均アルゴリズム
・ヒストグラムベースのアルゴリズム
に分類することができる。
最小統計を用いた雑音スペクトルの推定が、非特許文献7において提案されている。この方法は、各サブバンドにおける信号エネルギーの極小値のトラッキングに基づいている。雑音推定及びより高速な更新のための非線形な更新規則が、非特許文献8において提案されている。
時間−再帰平均アルゴリズムは、特定の周波数帯の推定SNRがきわめて低いときに常に、雑音スペクトルの推定及び更新を行う。これは、過去の雑音推定及び現在のスペクトルの重み付け平均を再帰的に計算することによって行われる。重み付けは、例えば、非特許文献9及び非特許文献10において、スピーチが存在する確率の関数として決定され、あるいは特定の周波数帯の推定SNRの関数として決定される。
ヒストグラムベースの方法は、サブバンドエネルギーのヒストグラムが多くの場合に2つのモードを持つという仮定に基づいている。大きな低エネルギーのモードは、スピーチを含まないか、又はスピーチの低エネルギー部分を含むセグメントのエネルギー値を蓄積する。高エネルギーのモードは、有声のスピーチ及び雑音を含むセグメントのエネルギー値を蓄積する。特定のサブバンドの雑音エネルギーが、低エネルギーのモードから割り出される(非特許文献11)。包括的な最近の再検討について、非特許文献6が参照される。
振幅変調の特徴を使用した教師あり学習に基づいてサブバンドSNRを推定するための方法が、非特許文献12及び非特許文献13に報告されている。
スピーチ強調の他の手法は、ピッチ同期フィルタ処理(pitch-synchronous filtering)(例えば非特許文献14)、スペクトル時間変調(STM)のフィルタ処理(例えば非特許文献15)、及び入力信号の正弦波モデル表現に基づくフィルタ処理(例えば非特許文献16)である。
非特許文献12及び非特許文献13に報告されているような、振幅変調の特徴を使用した教師あり学習に基づいてサブバンドSNRを推定するための方法は、2つのスペクトログラム処理段階が必要とされる点で不利である。第1のスペクトログラム処理段階は、時間ドメインオーディオ信号の時間/周波数スペクトログラムを生成する段階である。次いで、変調スペクトログラムを生成するために、スペクトル情報をスペクトルドメインから変調ドメインへと変換する別の「時間/周波数」変換が必要とされる。システムから必然的に生じる遅延、ならびにあらゆる変換アルゴリズムが生来的に有する時間/周波数分解能の問題ゆえに、この追加の変換操作が問題を招く。
この手順のさらなる結果は、雑音の推定が、雑音が静的ではなく、様々な雑音信号が生じうる状況において、かなり不正確になることである。
S. Boll, "Suppression of acoustic noise in speech using spectral subtraction", IEEE Trans. on Acoustics, Speech, and Signal Processing, vol. 27,no. 2, pp. 113-120, 1979 M. Berouti, R. Schwartz, J. Makhoul, "Enhancement of speech corruptedby acoustic noise", Proc.of the IEEE Int. Conf. on Acoustics, Speech, and Signal Processing, ICASSP,1979 J. Lim, A. Oppenheim, "Enhancement and bandwidth compression of noisy speech", Proc. of the IEEE, vol 67, no. 12, pp. 1586-1604, 1979 N. Virag, "Single channel speech enhancement based on masking properties of thehuman auditory system", IEEE Trans. Speech and Audio Proc., vol. 7, no. 2, pp. 126-137, 1999 S. Kamath, P. Loizou, "A multi-band spectral subtractionmethod for enhancing speech corrupted by colored noise", Proc. of the IEEE Int. Conf.Acoust. Speech Signal Processing, 2002 P.Loizou, Speech Enhancement: Theory and Practice, CRC Press, 2007 R. Martin "Spectral subtraction based onminimum statistics", Proc.of EUSIPCO, Edingburgh, UK, 1994 G. Doblinger, "Computationally Efficient Speech Enhancement By Spectral Minima Tracking In Subbands", Proc. of Eurospeech, Madrid,Spain, 1995 I. Cohen,"Noise estimation by minima controlled recursive averaging for robustspeech enhancement", IEEE Signal Proc. Letters, vol. 9,no. 1, pp. 12-15, 2002 L.Lin, W. Holmes, E. Ambikairajah, "Adaptive noise estimation algorithm for speech enhancement", Electronic Letters,vol. 39, no. 9, pp. 754-755, 2003 H. Hirsch, C. Ehrlicher, "Noise estimation techniquesfor robust speech recognition", Proc. of the IEEE Int. Conf. on Acoustics, Speech, and SignalProcessing, ICASSP, Detroit, USA, 1995 J. Tchorz, B.Kollmeier, "SNR Estimation based on amplitude modulation analysis with applications to noise suppression", IEEETrans. On Speech and Audio Processing, vol. 11, no. 3, pp. 184-192, 2003 M. Kleinschmidt, V.Hohmann,"Sub-bandSNR estimation using auditory feature processing", Speech Communication:Special Issue on Speech Processing for HearingAids, vol. 39, pp. 47-64, 2003 R. Frazier, S. Samsam,L. Braida, A. Oppenheim, "Enhancement of speech by adaptive filtering", Proc. of the IEEE Int. Conf.on Acoustics, Speech, and Signal Processing, ICASSP, Philadelphia, USA, 1976 N. Mesgarani, S.Shamma, "Speech enhancement based on filtering the spectro-temporal modulations", Proc. of the IEEE Int. Conf.on Acoustics, Speech, and Signal Processing, ICASSP, Philadelphia, USA, 2005 J. Jensen, J. Hansen, "Speech enhancement using aconstrained iterative sinusoidal model", IEEE Trans. on Speech and Audio Processing, vol. 9, no. 7, pp.731-740, 2001 H. Hermansky, N.Morgan, "RASTAProcessing of Speech", IEEE Trans. On Speech and Audio Processing, vol. 2, no. 4, pp.578-589, 1994 H. Hermansky, "Perceptual Linear Predictive Analysis for Speech", J. Ac. Soc. Am., vol. 87, no. 4, pp. 1738-1752, 1990
本発明の目的は、スピーチ強調のための改善された概念を提供することにある。
第1の態様によれば、前記目的は、オーディオ信号を処理してスピーチ強調フィルタのための制御情報を得る装置であって、前記オーディオ信号の短時間スペクトル表現の時間系列を取得し、複数の短時間スペクトル表現のために複数の周波数帯の各周波数帯における少なくとも1つの特徴を抽出する特徴抽出器であって、前記少なくとも1つの特徴が前記複数の周波数帯の1つの周波数帯における1つの短時間スペクトル表現のスペクトル形状を表す、特徴抽出器と、各周波数帯の前記少なくとも1つの特徴を結合パラメータを使用して結合させ、前記オーディオ信号の1つの時間部分について前記スピーチ強調フィルタのための制御情報を得る特徴結合器と、を備えた装置によって達成される。
第2の態様によれば、前記目的は、オーディオ信号を処理してスピーチ強調フィルタのための制御情報を得る方法であって、前記オーディオ信号の短時間スペクトル表現の時間系列を得るステップと、複数の短時間スペクトル表現のために複数の周波数帯の各周波数帯における少なくとも1つの特徴を抽出するステップであって、前記少なくとも1つの特徴が前記複数の周波数帯の1つの周波数帯における1つの短時間スペクトル表現のスペクトル形状を表す、ステップと、各周波数帯の前記少なくとも1つの特徴を結合パラメータを使用して結合させ、前記オーディオ信号の1つの時間部分について前記スピーチ強調フィルタのための制御情報を得るステップと、を含む方法によって達成される。
第3の態様によれば、前記目的は、オーディオ信号におけるスピーチ強調のための装置であって、オーディオ信号の一時間部分を表している複数の帯域についてフィルタ制御情報を得るために、オーディオ信号を処理する装置と、オーディオ信号の或る帯域を他の帯域に比べて可変に減衰させるように前記制御情報に基づいて制御することができる制御可能フィルタ(controllable filter)と、を備えた装置によって達成される。
第4の態様によれば、前記目的が、オーディオ信号のスピーチ強調の方法であって、オーディオ信号を処理し、オーディオ信号の1つの時間部分を表している複数の帯域についてフィルタ制御情報を得る方法と、前記制御情報に基づき、オーディオ信号の或る帯域が他の帯域に比べて可変に減衰させられるようにフィルタを制御するステップと、を含む方法によって達成される。
第5の態様によれば、前記目的は、特徴結合器の結合パラメータを決定するために当該特徴結合器に学習(training)させる装置であって、スピーチ強調フィルタへの周波数帯ごとの制御情報が既知である学習オーディオ信号について、当該学習オーディオ信号の短時間スペクトル表現の時間系列を取得し、複数の短時間スペクトル表現のために複数の周波数帯の各周波数帯における少なくとも1つの特徴を抽出する特徴抽出器であって、前記少なくとも1つの特徴が前記複数の周波数帯の1つの周波数帯における1つの短時間スペクトル表現のスペクトル形状を表す、特徴抽出器と、各周波数帯の前記少なくとも1つの特徴を前記特徴結合器に供給し、中間結合パラメータを使用して前記制御情報を計算し、前記中間結合パラメータを変化させ、変化後の前記制御情報を前記既知の制御情報と比較し、前記変化後の中間結合パラメータが前記既知の制御情報により良く一致する制御情報をもたらす場合に、前記中間結合パラメータを更新する最適化コントローラと、を備えている装置によって達成される。
第6の態様によれば、前記目的は、特徴結合器の結合パラメータを決定するために当該特徴結合器に学習させる方法であって、スピーチ強調フィルタへの周波数帯ごとの制御情報が既知である学習オーディオ信号について、当該学習オーディオ信号の短時間スペクトル表現の時間系列を得るステップと、複数の短時間スペクトル表現のために複数の周波数帯の各周波数帯における少なくとも1つの特徴を抽出するステップであって、前記少なくとも1つの特徴が前記複数の周波数帯の1つの周波数帯における1つの短時間スペクトル表現のスペクトル形状を表す、ステップと、各周波数帯の前記少なくとも1つの特徴を前記特徴結合器に供給するステップと、中間結合パラメータを使用して前記制御情報を計算するステップと、前記中間結合パラメータを変化させるステップと、変化後の前記制御情報を前記既知の制御情報と比較するステップと、前記変化後の中間結合パラメータが前記既知の制御情報により良く一致する制御情報をもたらす場合に、前記中間結合パラメータを更新するステップと、を含む方法によって達成される。
第7の態様によれば、前記目的は、コンピュータ上で実行されたときに本発明の方法のいずれか1つを実行するためのコンピュータプログラムによって達成される。
本発明は、特定の帯域内のオーディオ信号のスペクトル形状についての帯域ごとの情報が、スピーチ強調フィルタのための制御情報を決定するためにきわめて有用なパラメータであるという知見に基づいている。具体的には、複数の帯域及び複数の連続する短時間スペクトル表現について帯域ごとに決定されたスペクトル形状の情報の特徴が、オーディオ信号のスピーチ強調処理のために、オーディオ信号の有用な特徴描写を提供する。具体的には、スペクトル形状の特徴のセットがあり、各スペクトル形状の特徴が(バーク帯域、あるいは一般的には、周波数範囲において可変の帯域幅を有する帯域のような)複数のスペクトル帯域の中の1つの帯域に関連している場合には、前記特徴のセットが各帯域の信号/雑音比を決定するために活用できる。この目的のため、複数の帯域のスペクトル形状の特徴が、これらの特徴を結合パラメータを使用して結合させる特徴結合器によって処理され、オーディオ信号のある時間部分について、スピーチ強調フィルタへ送る制御情報が得られる。好ましくは、特徴結合器が、多数の結合パラメータによって制御されるニューラルネットワークを備えており、これらの結合パラメータは、スピーチ強調フィルタ処理を実際に実行する前に実行される学習段階において決定される。具体的には、ニューラルネットワークがニューラルネットワーク回帰法を実行する。特有の利点は、結合パラメータを、実際のスピーチ強調オーディオ材料とは異なってもよいオーディオ材料を用いた学習段階において決定することができ、したがって学習段階を1回だけ実行すればよく、この学習段階の後で結合パラメータが固定的に設定され、学習信号のスピーチ特性と類似するスピーチ特性を有する未知のオーディオ信号の各々に適用できることにある。そのようなスピーチ特性は、例えば一言語の特性であっても良いし、又は、欧州言語対アジア言語のような、言語のグループの特性であってもよい。
好ましくは、本発明の概念は、特徴抽出及びニューラルネットワークを使用してスピーチの特徴を学習することによって、雑音を推定することであり、本発明に従って抽出される特徴は、効率的かつ容易な方法で抽出できる単純な低レベルのスペクトル特徴であり、重要なことは、システムから必然的に生じる大きな遅延を発生させることなく抽出できる点である。したがって、本発明の概念は、雑音が非静的でありかつ種々の雑音信号が発生する状況においても、正確な雑音又はSNR推定をもたらすために特に有用である。
次に、本発明の好ましい実施形態を、添付の図面を参照してさらに詳しく説明する。
オーディオ信号を処理するための本発明の好ましい装置又は方法のブロック図である。 本発明の好ましい実施形態による特徴結合器の学習のための装置又は方法のブロック図である。 本発明の好ましい実施形態によるスピーチ強調装置及び方法を説明するためのブロック図である。 特徴結合器の学習及び最適化された結合パラメータを用いたニューラルネットワーク回帰法の適用の手順について、概要を示している。 ゲイン係数をSNRの関数として示しているプロットであり、適用されるゲイン(実線)が、スペクトルサブトラクションのゲイン(点線)及びウィーナーフィルタ(破線)と比較されている。 周波数帯ごとの特徴、及び全帯域幅についての好ましいさらなる特徴の概要である。 特徴抽出器の好ましい実施例を説明するフローチャートである。 周波数値ごとのゲイン係数の計算及びその後のスピーチ強調オーディオ信号部分の計算の好ましい実施例を説明するためのフローチャートを示している。 スペクトル重み付けの例を示しており、入力時間信号、推定サブバンドSNR、補間後の周波数bin内の推定SNR、スペクトルの重み付け、及び処理後の時間信号が示されている。 多層ニューラルネットワークを使用した特徴結合器の好ましい実施例の概略ブロック図である。
図1は、オーディオ信号10を処理して、スピーチ強調フィルタ12のための制御情報11を得る好ましい装置を示している。スピーチ強調フィルタは、複数の周波数帯の各々について周波数帯ごとの制御情報を使用してオーディオ信号10をフィルタ処理するものであり、スピーチ強調オーディオ出力信号13を得るための制御可能フィルタなど、多くの方法で実現することができる。後述するように、制御可能フィルタを時間/周波数変換器として実現することもでき、その場合は、個々に計算されたゲイン係数がスペクトル値又はスペクトル帯へと適用され、その後で周波数/時間変換が実行される。
図1の装置は、オーディオ信号の短時間スペクトル表現の時間シーケンスを取得し、複数の短時間スペクトル表現について複数の周波数帯の各周波数帯の少なくとも1つの特徴を抽出する特徴抽出器14を備えており、前記少なくとも1つの特徴は、複数の周波数帯の各周波数帯における短時間スペクトル表現のスペクトル形状を表している。さらに、特徴抽出器14を、スペクトル形状の特徴は別として、他の特徴を抽出するように構成してもよい。特徴抽出器14の出力にオーディオ短時間スペクトルの幾つかの特徴が出力され、これらの幾つかの特徴は、複数(少なくとも10、好ましくはさらに多く、20〜30など)の周波数帯の各周波数帯についてのスペクトル形状の特徴を少なくとも含んでいる。これらの特徴を、各帯域について生の特徴又は平均された特徴を得るために、そのまま使用することができ、あるいは幾何平均又は算術平均あるいは中央値処理又は他の統計モーメント処理(分散、歪度等)など、平均処理又は任意の他の処理を使用して処理することができる。その結果、これらの生及び/又は平均された特徴のすべてが特徴結合器15へと入力される。特徴結合器15は、複数のスペクトル形状の特徴及び好ましくは追加の特徴を、結合パラメータ入力部16を介して導入可能な結合パラメータを使用して結合させるが、結合パラメータ入力部16が不要であるように、結合パラメータが特徴結合器15に組み込まれていても、あるいはプログラムされていてもよい。特徴結合器の出力において、複数の周波数帯又は複数の「サブバンド」の各周波数帯又は各サブバンドについて、スピーチ強調フィルタのための制御情報がオーディオ信号の各時間部分について得られる。
好ましくは、特徴結合器15は、ニューラルネットワーク回帰回路として実現されるが、特徴結合器を、特徴抽出器14によって出力された特徴に任意の結合操作を適用し、必要な制御情報(帯域ごとのSNR値又は帯域ごとのゲイン係数など)を最終的にもたらす任意の他の数値的又は統計的に制御される特徴結合器として実現することもできる。ニューラルネットワークの応用の好ましい実施形態においては、学習段階(「学習段階training phase」とは、実例を用いた学習(learning)が実行される段階を意味する)が必要とされる。この学習段階において、図2に示されているような、特徴結合器15を学習させるための装置が使用される。具体的には、図2は、特徴結合器15に、当該特徴結合器の結合パラメータを決定するための学習をさせる装置を示している。この目的のため、図2の装置は、好ましくは図1の特徴抽出器14と同様に構成される特徴抽出器14を備えている。さらに、特徴結合器15も、図1の特徴結合器15と同様に構成されている。
図1に加えて、図2の装置は、学習オーディオ信号の制御情報21を入力として受け取る最適化コントローラ20を備えている。学習段階は、各帯域に既知のスピーチ/雑音比を有している既知の学習オーディオ信号に基づいて実行される。スピーチ部分及び雑音部分が、例えば互いに別々にもたらされ、帯域ごとの実際のSNRがオンザフライで測定され、すなわち学習動作の間に測定される。具体的には、特徴結合器15に特徴抽出器14からの特徴が供給されるように、最適化コントローラ20が特徴結合器を制御する。これらの特徴と先行する反復実行からもたらされる中間結合パラメータとに基づき、特徴結合器15が制御情報11を計算する。この制御情報11が最適化コントローラへと送られ、最適化コントローラ20において、学習オーディオ信号の制御情報21と比較される。中間結合パラメータが、最適化コントローラ20からの指示に応答して変更され、この変更された結合パラメータを使用して、追加の制御情報のセットが特徴結合器15によって計算される。この追加の制御情報が学習オーディオ信号の制御情報21により良く一致する場合、最適化コントローラ20は結合パラメータを更新し、これらの更新済みの結合パラメータ16を次の実行において中間結合パラメータとして使用されるように特徴結合器15へと送信する。これに代え、あるいはこれに加えて、更新された結合パラメータをさらなる使用のためにメモリに保存することができる。
図4は、ニューラルネットワーク回帰法での特徴抽出を使用するスペクトル重み付け処理の概要を示している。学習段階において、ニューラルネットワークのパラメータwが、参照サブバンドSNR値Rt及び学習アイテムxt[k]からの特徴を使用して計算される(これは図4の左側に示されている)。雑音推定及びスピーチ強調のフィルタ処理は、図4の右側に示されている。
本発明が提案する概念は、スペクトル重み付けの手法に従い、スペクトル重みを計算するために新規な方法を使用する。雑音の推定は、教師あり学習法に基づき、本発明の特徴セットを使用する。この特徴は、音調の信号成分と雑音の信号成分との間の区別を目的とする。さらに、本発明が提案する特徴は、より長い時間スケールにおける信号特性の進展を考慮する。
本発明が提案する雑音推定方法は、様々な変動する背景音に対処することを可能にする。変動する背景雑音におけるロバストなSNR推定が、図4に示されるような特徴抽出及びニューラルネットワーク回帰法によって得られる。実数値の重みが、バーク尺度にほぼ近い間隔の周波数帯のSNR推定から計算される。SNR推定のスペクトル分解能は、帯域のスペクトル形状の測定を可能にするためにかなり粗い。
図4の左側は、基本的には1回だけ実行すればよい学習段階に相当する。学習側41として示す図4の左側の手順は、図2の最適化コントローラ20へと入力される学習オーディオ信号の制御情報21を生成する参照SNR計算ブロック21を含んでいる。学習側に位置する図4の特徴抽出装置14は、図2の特徴抽出器14に相当する。特に、図2は学習オーディオ信号を受け取る装置として説明してきたが、その学習オーディオ信号とは、スピーチ部分及び背景部分で構成されているものである。有用な参照を実行できるように、背景部分bt及びスピーチ部分stは、互いに別々に入手可能であり、特徴抽出装置14への入力前に加算器43によって合計される。したがって、加算器43の出力が、図2の特徴抽出器14へと入力される学習オーディオ信号に相当する。
図4において符号15、20で示すニューラルネットワーク学習装置は図2におけるブロック15及び20に相当し、図2と同様の接続又は他の類似する接続により、メモリ40に保存可能な一組の結合パラメータwをもたらす。次に、本発明の概念を図4の適用側42で示すとおりに適用した場合、これらの結合パラメータは、図1の特徴結合器15に相当するニューラルネットワーク回帰装置15において使用される。図4のスペクトル重み付け装置12が図1の制御可能フィルタ12に相当し、図4の右側の特徴抽出器14が図1の特徴抽出器14に相当する。
本発明が提案する概念の簡潔な実現を以下に詳しく説明する。図4の特徴抽出器14は以下のように動作する。
異なる特徴からなるセット21は、サブバンドSNR推定のための最良の特徴セットを特定するために調査されたものであり、これらの特徴は、様々な設定にて結合され、かつ客観的な測定値及び非公式なリスニングによって評価されたものである。特徴選択プロセスは、スペクトルエネルギー、スペクトル流束(flux)、スペクトルの平坦度、スペクトルの歪度、LPC、及びRASTA−PLP係数を含む特徴のセットをもたらす。スペクトルのエネルギー、流束、平坦度、及び歪度の特徴は、臨界帯域スケールに応じたスペクトル係数から計算される。
上述の特徴を、図6を参照しながら詳述する。さらなる特徴は、スペクトルエネルギーのデルタ特徴ならびに低域通過フィルタ処理されたスペクトルエネルギー及びスペクトル流束のデルタ−デルタ特徴である。
図4のブロック15、20又は15において使用され、あるいは好適には図1又は図2の特徴結合器15において使用されるニューラルネットワークの構造を、図10を用いて説明する。特に、好ましいニューラルネットワークは、入力ニューロンの層100を含んでいる。一般に、n個の入力ニューロンを使用することができ、すなわち各入力特徴ごとに1つのニューロンを使用することができる。好ましくは、ニューラルネットワークは、特徴の数に対応する220個の入力ニューロンを有している。ニューラルネットワークは、p個の隠れ層ニューロンを有する隠れ層102をさらに備えている。一般に、pはnよりも小さく、好ましい実施形態においては、隠れ層が50個のニューロンを有している。ニューラルネットワークは、出力側にq個の出力ニューロンを有する出力層104を備えている。特に、出力ニューロンの数は、各出力ニューロンが各周波数帯のSNR(スピーチ対雑音比)情報など、各周波数帯のための制御情報をもたらすよう、周波数帯の数に等しくなる。例えば、好ましくは低い周波数から高い周波数へと増大する帯域幅を有する25個の異なる周波数帯が存在する場合、出力ニューロンの数qは25に等しい。このようにして、ニューラルネットワークは、計算された低レベルの特徴からのサブバンドSNR推定に適用される。ニューラルネットワークは、上述のように、220個の入力ニューロンと、50個のニューロンを有する1つの隠れ層102とを有している。出力ニューロンの数は周波数帯の数に等しい。好ましくは、隠れニューロンが双曲正接(hyperbolic tangent)である活性化関数を含んでおり、出力ニューロンの活性化関数が恒等(identity)である。
一般に、層102又は104からの各ニューロンは、すべての対応する入力(層102に関しては、全入力ニューロンの出力)を受け取る。次に、層102又は104の各ニューロンは、結合パラメータに応じた重み付けパラメータで重み付け加算を実行する。隠れ層は、パラメータに加えてバイアス値を含むことができる。したがって、バイアス値も結合パラメータに属する。詳しくは、各入力がそれに対応する結合パラメータによって重み付けされ、図10では例示的なボックス106によって示される重み付け操作の出力が各ニューロン内の加算器108へと入力される。加算器の出力又は出力ニューロンへの入力は、非線形関数110を備えることができ、そのような非線形関数を、場合に応じて、例えば隠れ層のニューロンの出力及び/又は入力に配置することができる。
ニューラルネットワークの重み付けは、クリーンなスピーチ信号と背景雑音との混合物で学習されるが、それらの参照SNRは分離された信号を使用して計算される。学習プロセスは、図4の左側に示されている。スピーチ及び雑音がアイテムごとに3dBのSNRで混合され、特徴抽出器へと供給される。このSNRは、時間的に一定である広帯域のSNR値である。データセットは、各々の長さが2.5秒の48個のスピーチ信号及び48個の雑音信号からなる2304個の組み合わせを含む。スピーチ信号は、7つの言語による異なる話者からのものである。雑音信号は、交通雑音、群衆雑音、及び種々の天然環境音の録音である。
特定のスペクトル重み付け規則においては、ニューラルネットワークの出力の2つの定義が適切である。すなわち、ニューラルネットワークを、時間変化するサブバンドSNR値R(ω)のための参照値を使用して学習させることができ、あるいは(SNR値から導出される)スペクトル重みG(ω)によって学習させることができる。非公式なリスニングにおいては、サブバンドSNRを参照値としたシミュレーションの方が、スペクトルの重み付けで学習させたニューラルネットワークと比べて、より良好な客観的結果及びより良好な性能が得られた。ニューラルネットワークは、100回の反復サイクルを使用して学習させる。この作業においては、スケールされた共役勾配に基づく学習アルゴリズムが使用される。
次に、スペクトル重み付け操作12の好ましい実施形態を説明する。
推定されたサブバンドSNR推定値が、入力スペクトルの周波数分解能へと線形補間され、線形比
Figure 0005666444
へと変換される。線形サブバンドSNRが、推定誤差からもたらされる可能性があるアーチファクトを少なくするために、IIR低域通過フィルタ処理を使用して時間及び周波数に沿って平滑化される。スペクトル重み付けのインパルス応答がDFTフレームの長さを超える場合に生じる周回畳み込み(circular convolution)の影響を軽減するために、周波数に沿った低域通過フィルタ処理がさらに必要とされる。上記フィルタ処理が2回実行される一方で、第2のフィルタ処理は、結果としてのフィルタがゼロの位相を有するように、(最後のサンプルから出発して)逆順で行われる。
図5は、SNRの関数としてのゲイン係数を示している。適用されるゲイン(実線)が、スペクトルサブトラクションのゲイン(点線)及びウィーナーフィルタ(破線)と比較されている。
スペクトルの重み付けが、式(5)の修正スペクトルサブトラクション規則に従って計算され、−18dBに制限される。
Figure 0005666444
パラメータα=3.5及びβ=1は、実験的に決定される。0dBのSNRを超えるこの特殊な減衰は、残留雑音を犠牲にしてスピーチ信号のひずみを回避するために選択されている。SNRの関数としての減衰曲線が、図5に示されている。
図9は、入力及び出力信号、推定されたサブバンドSNR、及びスペクトル重みの例を示している。
具体的には、図9はスペクトル重み付けの例を示しており、入力時間信号、推定されたサブバンドSNR、補間後の周波数binの推定されたSNR、スペクトル重み、及び処理済み時間信号を示している。
図6は、特徴抽出器14によって抽出されるべき好ましい特徴の概要を示している。特徴抽出器は、各低い分解能を持つ一つの周波数帯、すなわちSNR又はゲイン値が必要とされる25の周波数帯の各々について、その周波数帯における短時間スペクトル表現のスペクトル形状を表している特徴を抽出するのが望ましい。ある帯域におけるスペクトル形状は、その帯域内のエネルギーの分布を表し、いくつかの異なる計算規則によって構成可能である。
好ましいスペクトル形状の特徴は、スペクトル値の幾何平均をスペクトル値の算術平均によって除算したスペクトル平坦度(SFM)である。幾何平均/算術平均の定義において、n次のルート演算又は平均演算を実行する前に帯域内の各スペクトル値に冪(power)を適用することができる。
一般に、SFMのための計算式の分母における各スペクトル値を処理するための冪が分子に使用される冪よりも大きい場合に、スペクトルの平坦度を計算することもできる。その場合、分母及び分子の両方が、算術値の計算式を含むことができる。典型的には、分子における冪が2であり、分母における冪が1である。一般に、一般化されたスペクトル平坦度を得るためには、分子に使用される冪が分母に使用される冪よりも大きければよい。
周波数帯の全体にわたってエネルギーが等しく分布している帯域についてのSFMは、1よりも小さく、多数の周波数ラインにおいて0に近い小さな値に接近する一方で、エネルギーが帯域内のただ1つのスペクトル値に集中している場合には、例えばSFM値が1に等しいことがこの計算から明らかである。すなわち、高いSFM値はエネルギ−が帯域内のある位置に集中している帯域を表す一方で、低いSFM値はエネルギーが帯域内に等しく分布していることを示している。
他のスペクトル形状の特徴として、重心を中心とする分布の非対称性の指標であるスペクトル歪度が挙げられる。ある周波数帯内における短時間周波数表現のスペクトル形状に関する他の特徴も存在する。
スペクトル形状が一周波数帯について計算される一方で、一周波数帯について計算され、かつ図6に示され詳しく後述される他の特徴が存在する。また、必ずしも各周波数帯について計算される必要がなく、帯域幅全体について計算されるさらなる特徴も存在する。
スペクトルエネルギー
スペクトルエネルギーは、各時間フレーム及び各周波数帯について計算され、そのフレームの総エネルギーによって正規化される。さらに、スペクトルエネルギーは、二次IIRフィルタを使用して時間に沿って低域通過フィルタ処理される。
スペクトル流束
スペクトル流束SFは、連続する20フレームのスペクトルの間の非類似度として定義され、距離関数によって実行されることが多い。この作業において、スペクトル流束は、式(6)によるユークリッド距離を使用し、スペクトル係数X(m,k)、時間フレームインデックスm、サブバンドインデックスr、ならびに周波数帯の下限lr及び上限urによって計算される。
Figure 0005666444
スペクトル平坦度
ベクトルの平坦度又はスペクトルの調性(スペクトル平坦度に逆の相関関係を持つ)の計算のための種々の定義が存在する。ここで使用されるスペクトル平坦度SFMは、式(7)に示されるように、サブバンド信号のL個のスペクトル係数の幾何平均及び算術平均の比として計算される。
Figure 0005666444
スペクトル歪度
分布の歪度は、重心を中心とする非対称性の指標であり、ランダム変数の三次中央モーメントをその標準偏差の立方で除算したものとして定義される。
線形予測係数
LPCは、時系列の実際の値x(k)を、先行の値から、平方誤差
Figure 0005666444
が最小になるように予測する全極型フィルタの係数である。
Figure 0005666444
LPCは、自己相関法によって計算される。
メル周波数ケプストラム係数
パワースペクトルが、各周波数帯について単位重みを有する三角重み付け関数を使用してメルスケールに従ってワープさせられる。MFCCは、対数をとり、離散余弦変換を計算することによって計算される。
相対スペクトル知覚線形予測係数
RASTA−PLP係数(非特許文献17)は、以下の工程にてパワースペクトルから計算される。
1.スペクトル係数の大きさの圧縮
2.時間にわたるサブバンドエネルギーの帯域通過フィルタ処理
3.工程2の逆処理に関連する大きさの拡張
4.等ラウドネス曲線に対応する重みの乗算
5.係数を0.33の冪へと上げることによるラウドネスの知覚のシミュレーション
6.自己相関法による結果スペクトルの全極モデルの計算
知覚的線形予測(PLP)係数
PLP値は、RASTA−PLPと同様に、しかしながら工程1〜3を適用せずに計算される(非特許文献18)。
デルタ特徴
デルタ特徴は、過去において自動スピーチ認識及びオーディオコンテンツ分類に成功裏に適用されている。デルタ特徴の計算については、様々な方法が存在している。ここでは、9個のサンプル長を有する線形勾配で特徴の時間系列を畳み込むことによって計算される(特徴の時系列のサンプリングレートはSTFTのフレームレートに等しい)。デルタ−デルタ特徴は、デルタ特徴にデルタ演算を行うことによって得られる。
上述のように、人間の聴覚システムと同様に、低分解能周波数帯の帯域分離を有することが好ましい。したがって、対数帯域分離又はバーク状の帯域分離が好ましい。これは、低い中心周波数を有する帯域が、高い中心周波数を有する帯域よりも狭いことを意味する。スペクトル平坦度の計算においては、例えば、通常は1つの帯域内の最も低い周波数の値である値 r から、その所定の帯域内の最大のスペクトル値であるカウント値urまでの和の演算が実行される。より良好なスペクトル平坦度を得るために、低い帯域においては、少なくとも下方及び/又は上方に隣接する周波数帯からの一部又はすべてのスペクトル値を使用することが好ましい。これは、例えば第2の帯域についてのスペクトルの平坦度が、第2の帯域のスペクトル値ならびに第1の帯域及び/又は第3の帯域のスペクトル値を使用して計算されることを意味する。好ましい実施形態においては、第1又は第3のいずれかの帯域のスペクトル値だけが使用されるのではなく、第1の帯域及び第3の帯域のスペクトル値も使用される。これは、第2の帯域のSFMを計算するときに、式(7)のqが、第1の帯域の最初の(最も低い)スペクトル値に等しいlrから第3の帯域の最も高いスペクトル値に等しいurまでとなることを意味する。値lr及びurがその低分解能周波数帯域そのものの範囲内のスペクトル値の個数で十分となる所定の帯域に到達するまでは、上述の方法で、より多数のスペクトル値に基づいて、スペクトル形状の特徴を計算することができる。
特徴抽出器によって抽出される線形予測係数に関しては、式(8)のLPC係数aj若しくは最適化後に残る残余/誤差値のいずれかを使用するか、又は、特徴抽出器によって抽出されたLPC特徴に対して前記係数及び平方誤差値の両方が影響を与えるように、乗算又は正規化係数との加算などを用いた、係数及び誤差値の任意の組み合わせを使用することが好ましい。
スペクトル形状の特徴の利点は、それが低次元の特徴である点にある。例えば、10個の複素又は実数スペクトル値を有する周波数帯域幅を考えたとき、これら10個の複素又は実数スペクトル値のすべてを使用することは有益ではないであろうし、演算リソースの無駄であろうと考えられる。したがって、生のデータの次元よりも低い次元を有するスペクトル形状の特徴が抽出される。例えば、エネルギーが考慮される場合、生のデータは、10個の平方スペクトル値が存在するため、10という次元を有する。効率的に使用できるスペクトル形状の特徴を抽出するために、生のデータの次元よりも低い次元(好ましくは1又は2である)を有するスペクトル形状の特徴が抽出される。生データに対する同様の次元縮小は、例えば周波数帯のスペクトル包絡線への低レベルの多項式の適合が行われる場合に、達成することができる。例えば2つ又は3つのパラメータだけが適合された場合には、スペクトル形状の特徴は、多項式又は任意の他のパラメータ化システムのこれらの2つ又は3つのパラメータを含むことになる。一般に、周波数帯内のエネルギーの分布を表しており、生のデータの次元の5%未満、又は少なくとも50%未満、あるいはわずかに30%未満という低い次元を有するすべてのパラメータが有用である。
スペクトル形状の特徴を単独で使用するだけでも、オーディオ信号を処理するための装置について有利な挙動がもたらされることが判明しているが、少なくとも追加の帯域ごとの特徴を使用することが好ましい。改善された結果をもたらすうえで有用な追加の帯域ごとの特徴とは、各時間フレーム及び周波数帯について計算され、かつフレームの総エネルギーによって正規化された、帯域ごとのスペクトルエネルギーであることもまた示されている。この特徴は、低域通過フィルタ処理しても、しなくてもよい。さらに、スペクトル流束の特徴を加えることで、本発明の装置の性能が有利に向上し、帯域ごとのスペクトル形状の特徴が帯域ごとのスペクトルエネルギーの特徴及び帯域ごとのスペクトル流束の特徴に加えて使用されるときに、良好な性能をもたらす効率的な手順が得られることが明らかになっている。前記の追加の特徴に加えて、これも本発明の装置の性能を向上させる。
スペクトルエネルギーの特徴に関して述べたように、時間に沿ったこの特徴の低域通過フィルタ処理又は時間に沿った移動平均正規化の適用を加えることができるが、必ずしも適用の必要はない。前者の場合には、例えば対応する帯域についての5つの先行するスペクトル形状の特徴の平均が計算され、この計算の結果が、現在のフレームの現在の帯域についてのスペクトル形状の特徴として使用される。しかしながら、この平均化を、平均化の演算において現在の特徴を計算するために過去からの特徴だけでなく「未来」からの特徴も使用されるように、双方向的に適用することもできる。
次に、図1、図2又は図4に示したような特徴抽出器14の好ましい実施例を提示するために、図7及び図8を説明する。第1段階において、ステップ70に示されているとおり、オーディオサンプリング値のブロックを提供するために、オーディオ信号にウインドウが適用される。好ましくは、オーバーラップが適用される。これは、重なり範囲ゆえに、1つの同じオーディオサンプルが2つの連続するフレームにおいて生じることを意味し、オーディオサンプル値に関する50%のオーバーラップが好ましい。ステップ71において、ウインドウが適用されたオーディオサンプリング値のブロックについて、高い分解能である第1の分解能での周波数表現を得るために、時間/周波数変換が実行される。この目的のために、効率的なFFTにて実現される短時間フーリエ変換(STFT)が用いられる。ステップ71がオーディオサンプル値の時間的に連続するブロックに対して数回適用されるとき、この技術分野において公知のとおりスペクトログラムが得られる。ステップ72において、高分解能のスペクトル情報、すなわち高分解能のスペクトル値が、低分解能の周波数帯へとグループ化される。例えば、1024個又は2048個の入力値を有するFFTが適用される場合、1024個又は2048個のスペクトル値が存在するが、そのような高い分解能は必要とされず、意図もされない。代わりに、グループ化のステップ72は、高い分解能のスペクトルについて、例えばバーク帯域又は対数帯域分割から知られるような変化する帯域幅を有する帯域などの少数の帯域への分割をもたらす。次に、グループ化のステップ72に続いて、スペクトル形状の特徴及び好ましくは他の特徴の計算ステップ73が低分解能の帯域の各々について実行される。図7には示されていないが、周波数帯の全体に関するさらなる特徴をステップ70において得られたデータを使用して計算することができる。なぜなら、これらの全帯域幅の特徴については、ステップ71又はステップ72によって得られるいかなるスペクトル分離も必要でないからである。
ステップ73は、nよりも小さく、好ましくは周波数帯ごとに1又は2であるmの次元を有するスペクトル形状の特徴をもたらす。これは、ステップ72の後に存在する周波数帯ごとの情報が、特徴抽出器の動作によってステップ73の後に存在する低次元の情報へと圧縮されることを意味する。
図7に示されるように、ステップ71及びステップ72の付近において、時間/周波数変換及びグループ化のステップを別の操作で置き換えることができる。ステップ70の出力を、例えば出力において25個のサブバンド信号が得られるように低分解能のフィルタバンクでフィルタ処理することができる。次に、各サブバンドの高分解能の分析を実行し、スペクトル形状の特徴計算のための生データを得ることができる。この処理は、例えばサブバンド信号のFFT分析によって行うことができ、あるいはさらなるカスケードフィルタバンクによるなど、サブバンド信号の他の任意の分析によって行うことができる。
図8は、図1の制御可能フィルタ12、又は図3において説明され、若しくは図4に符号12で示されているスペクトル重み付けの特徴を実現するための好ましい手順を示している。ステップ80に示されているように、図4のニューラルネットワーク回帰ブロック15によって出力されるサブバンドSNR値などの低分解能の帯域ごとの制御情報の決定段階に続いて、ステップ81において、高分解能への線形補間が実行される。
図3のステップ30において実行され、あるいはステップ71において実行される短時間フーリエ変換によって得られ、もしくはステップ71及び72の右側に示されている代替の手順によって得られる各スペクトル値について、重み付け係数を最終的に得ることが目的である。ステップ81の後で、各スペクトル値についてのSNR値が得られる。しかしながら、このSNR値は依然として対数ドメインにあるので、ステップ82が各高分解能のスペクトル値について対数ドメインから線形ドメインへの変換をもたらす。
ステップ83において、各スペクトル値の線形SNR値(すなわち高分解能である)が、IIR低域通過フィルタ又はFIR低域通過フィルタなどを使用して、例えば任意の移動平均操作(moving average operations)を適用することで、時間及び周波数において平滑化される。ステップ84において、平滑化された線形SNR値に基づいて、各高分解能の周波数値のためのスペクトル重みが計算される。この計算は、図5に示した関数に基づくが、この図に示されている関数が対数項にて与えられている一方で、ステップ84において、各高分解能の周波数値のためのスペクトル重みは線形ドメインで計算される。
次に、ステップ85において、各スペクトル値と決定されたスペクトル重みとが乗算され、スペクトル重みの組で乗算された高分解能のスペクトル値の組が得られる。この処理済みのスペクトルはステップ86において周波数−時間変換される。適用シナリオに応じて及びステップ80において使用されるオーバーラップに応じて、ブロッキングアーチファクトに対処するために、2つの連続する周波数−時間変換段階によって得られる時間ドメインオーディオサンプリング値の2つのブロックの間でクロスフェーディング操作を実行することができる。
さらなるウインドウを周回畳み込みのアーチファクトを低減するために適用することができる。
ステップ86の結果は、改善されたスピーチ性能を有しており、すなわちスピーチ強調が実行されていない対応するオーディオ入力信号と比べてスピーチをより良く知覚することができるオーディオサンプル値のブロックである。
本発明の方法の特定の実施の要件に応じて、本発明の方法は、ハードウェア又はソフトウェアにて実現することができる。実現は、本発明の方法を実行するようにプログラム可能なコンピュータシステムと協働する電子的に読み取り可能な制御信号が保存されてなるデジタル記憶媒体、特に、ディスク、DVD、又はCDを使用して行うことができる。したがって、一般的に、本発明は、プログラムコードを機械読み取り可能なキャリアに保存して有しているコンピュータプログラム製品であり、このコンピュータプログラム製品がコンピュータ上で実行されるときに、プログラムコードが本発明の方法を実行するように動作する。したがって、換言すると、本発明の方法は、コンピュータ上で実行されるときに本発明の方法の少なくとも1つを実行するプログラムコードを有しているコンピュータプログラムである。
上述した実施形態は、あくまでも本発明の原理を例示するものにすぎない。本明細書において説明した構成及び詳細について、変更及び変形が当業者にとって明らかであることを理解すべきである。したがって、本発明は、添付の特許請求の範囲の技術的範囲によってのみ限定され、本明細書の実施形態の説明及び解説によって提示された特定の詳細によって限定されるものではない。

Claims (15)

  1. オーディオ信号を処理してスピーチ強調フィルタのための制御情報を得る装置であって、
    前記オーディオ信号の短時間スペクトル表現の時間系列を取得し、複数の短時間スペクトル表現のために複数の周波数帯の各周波数帯における少なくとも1つの特徴を抽出する特徴抽出器であって、前記少なくとも1つの特徴が前記複数の周波数帯の1つの周波数帯における1つの短時間スペクトル表現のスペクトル形状を表す、特徴抽出器と、
    各周波数帯の前記少なくとも1つの特徴を前記複数の周波数帯にわたって結合パラメータを使用して結合させ、前記オーディオ信号の1つの時間部分について前記スピーチ強調フィルタのための制御情報を得る特徴結合器と、
    前記特徴結合器の結合パラメータを決定するために当該特徴結合器に学習させる最適化コントローラとを備え、
    前記特徴抽出器は、スピーチ強調フィルタへの周波数帯ごとの制御情報が既知である学習オーディオ信号について、当該学習オーディオ信号の短時間スペクトル表現の時間系列を取得し、複数の短時間スペクトル表現のために複数の周波数帯の各周波数帯における少なくとも1つの特徴を抽出し、前記少なくとも1つの特徴が前記複数の周波数帯の1つの周波数帯における1つの短時間スペクトル表現のスペクトル形状を表すものであり、
    前記特徴抽出器は、前記学習オーディオ信号から抽出された、各周波数帯の前記少なくとも1つの特徴を前記特徴結合器へ供給し、
    前記特徴結合器は、中間結合パラメータを使用して前記制御情報を計算し、
    前記最適化コントローラは、前記中間結合パラメータを変化させ、変化後の前記制御情報を前記既知の制御情報と比較し、前記変化後の中間結合パラメータが前記既知の制御情報により良く一致する制御情報をもたらす場合に、前記中間結合パラメータを更新して前記結合パラメータを決定することを特徴とする、装置。
  2. 前記特徴抽出器が、短時間スペクトル表現の特性を表す少なくとも1つの追加の特徴を抽出し、前記追加の特徴によって表される前記短時間スペクトル表現の特性は、前記短時間スペクトル表現のスペクトル形状とは異なる特性であり、
    前記特徴結合器が、前記結合パラメータを使用して、各周波数帯について、前記少なくとも1つの追加の特徴と前記少なくとも1つの特徴とを結合させる、請求項1に記載の装置。
  3. 前記特徴抽出器が、周波数帯の中心周波数が高くなるにつれて帯域幅が大きくなる非一様な帯域幅の周波数帯を有するスペクトル表現の時間系列が得られる周波数変換操作を行う、請求項1に記載の装置。
  4. 前記特徴抽出器が、第1の特徴として、帯域内のエネルギー分布を表す帯域ごとのスペクトル平坦度を計算するか、又は第2の特徴として、スペクトル表現の導出元の信号フレームの総エネルギーに基づいて帯域ごとの正規化されたエネルギーを計算し、
    前記特徴結合器が、前記帯域ごとのスペクトル平坦度又は前記帯域ごとの正規化されたエネルギーを使用する、請求項1に記載の装置。
  5. 前記特徴抽出器が、各帯域について、時間的に連続するスペクトル表現の間の類似度又は非類似度を表すスペクトル流束、又は重心を中心とする非対称性を表すスペクトル歪度をさらに抽出する、請求項1〜4のいずれかに記載の装置。
  6. 前記特徴抽出器が、LPC誤差信号、所定次数までの線形予測係数、又はLPC誤差信号と線形予測係数との組み合わせを含むLPC特徴をさらに抽出し、あるいは前記特徴抽出器が、PLP係数、RASTA−PLP係数、メル周波数ケプストラム係数、又はデルタ特徴をさらに抽出する、請求項1に記載の装置。
  7. 前記特徴抽出器は、時間ドメインのオーディオサンプルの一ブロックについて前記線形予測係数の特徴を計算し、前記ブロックは、各周波数帯のスペクトル形状を表す前記少なくとも1つの特徴を抽出するために使用されるオーディオサンプルを含む、請求項6に記載の装置。
  8. 前記特徴抽出器は、一周波数帯のスペクトルの形状を計算するために、直接隣接する1つ又は2つの周波数帯のスペクトル情報をも使用する場合と、当該周波数帯のスペクトル情報だけを使用する場合とを含む請求項1に記載の装置。
  9. 前記特徴抽出器が、オーディオサンプルのブロックごとに各特徴について個別の特徴情報を抽出し、一周波数帯の個別の特徴情報の系列を結合させて、当該周波数帯について前記少なくとも1つの特徴を得る、請求項1に記載の装置。
  10. 前記特徴抽出器が、各周波数帯についていくつかのスペクトル値を計算し、当該いくつかのスペクトル値を結合させてスペクトル形状を表す前記少なくとも1つの特徴を取得し、前記少なくとも1つの特徴が前記周波数帯内の前記スペクトル値の数よりも小さい次元を有している、請求項1に記載の装置。
  11. オーディオ信号を処理してスピーチ強調フィルタのための制御情報を得る方法であって、
    前記スピーチ強調フィルタへの周波数帯ごとの制御情報が既知である学習オーディオ信号について、当該学習オーディオ信号の短時間スペクトル表現の時間系列を得るステップと、
    前記学習オーディオ信号について、複数の短時間スペクトル表現のために複数の周波数帯の各周波数帯における少なくとも1つの特徴を抽出するステップであって、前記少なくとも1つの特徴が前記複数の周波数帯の1つの周波数帯における1つの短時間スペクトル表現のスペクトル形状を表す、ステップと、
    前記学習オーディオ信号の各周波数帯における前記少なくとも1つの特徴から、中間結合パラメータを使用して前記制御情報を計算するステップと、
    前記中間結合パラメータを変化させるステップと、
    変化後の前記制御情報を前記既知の制御情報と比較するステップと、
    前記変化後の中間結合パラメータが前記既知の制御情報により良く一致する制御情報をもたらす場合に、前記中間結合パラメータを更新して結合パラメータを決定するステップと、
    前記オーディオ信号の短時間スペクトル表現の時間系列を得るステップと、
    複数の短時間スペクトル表現のために複数の周波数帯の各周波数帯における少なくとも1つの特徴を抽出するステップであって、前記少なくとも1つの特徴が前記複数の周波数帯の1つの周波数帯における1つの短時間スペクトル表現のスペクトル形状を表す、ステップと、
    各周波数帯の前記少なくとも1つの特徴を前記複数の周波数帯にわたって前記結合パラメータを使用して結合させ、前記オーディオ信号の1つの時間部分について前記スピーチ強調フィルタのための制御情報を得るステップと、
    を含む方法。
  12. オーディオ信号におけるスピーチ強調のための装置であって、
    前記オーディオ信号の一時間部分を表している複数の帯域についてフィルタ制御情報を得るために、前記オーディオ信号を処理する請求項1に記載の装置と、
    前記オーディオ信号の或る帯域を他の帯域に比べて可変に減衰させるように前記制御情報に基づいて制御することができる制御可能フィルタと、
    を備えた装置。
  13. 前記処理する装置が、前記制御情報が持つスペクトル分解能よりも高い分解能を有するスペクトル情報を提供する時間周波数変換器を備えており、
    前記制御情報を高い分解能へと補間し、補間後の制御情報を平滑化して、後処理済み制御情報を得る制御情報の後処理プロセッサをさらに備えており、
    前記後処理済み制御情報に基づいて、前記制御可能フィルタの制御可能なフィルタパラメータが設定される、請求項12に記載の装置。
  14. オーディオ信号のスピーチ強調の方法であって、
    前記オーディオ信号を処理し、オーディオ信号の1つの時間部分を表している複数の帯域についてフィルタ制御情報を得る請求項11に記載の方法と、
    前記制御情報に基づき、前記オーディオ信号の或る帯域が他の帯域に比べて可変に減衰させられるようにフィルタを制御するステップと、
    を含む方法。
  15. コンピュータ上で実行されたときに請求項11又は14に記載の方法を実行するためのコンピュータプログラム。
JP2011521470A 2008-08-05 2009-08-03 特徴抽出を使用してスピーチ強調のためにオーディオ信号を処理する装置及び方法 Active JP5666444B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US8636108P 2008-08-05 2008-08-05
US61/086,361 2008-08-05
US10082608P 2008-09-29 2008-09-29
EP08017124.2 2008-09-29
EP08017124.2A EP2151822B8 (en) 2008-08-05 2008-09-29 Apparatus and method for processing an audio signal for speech enhancement using a feature extraction
US61/100,826 2008-09-29
PCT/EP2009/005607 WO2010015371A1 (en) 2008-08-05 2009-08-03 Apparatus and method for processing an audio signal for speech enhancement using a feature extraction

Publications (2)

Publication Number Publication Date
JP2011530091A JP2011530091A (ja) 2011-12-15
JP5666444B2 true JP5666444B2 (ja) 2015-02-12

Family

ID=49170422

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011521470A Active JP5666444B2 (ja) 2008-08-05 2009-08-03 特徴抽出を使用してスピーチ強調のためにオーディオ信号を処理する装置及び方法

Country Status (13)

Country Link
US (1) US9064498B2 (ja)
EP (1) EP2151822B8 (ja)
JP (1) JP5666444B2 (ja)
KR (1) KR101266894B1 (ja)
CN (1) CN102124518B (ja)
AU (1) AU2009278263B2 (ja)
CA (1) CA2732723C (ja)
ES (1) ES2678415T3 (ja)
HK (1) HK1159300A1 (ja)
MX (1) MX2011001339A (ja)
RU (1) RU2507608C2 (ja)
TR (1) TR201810466T4 (ja)
WO (1) WO2010015371A1 (ja)

Families Citing this family (102)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8140331B2 (en) * 2007-07-06 2012-03-20 Xia Lou Feature extraction for identification and classification of audio signals
US9838784B2 (en) 2009-12-02 2017-12-05 Knowles Electronics, Llc Directional audio capture
DE102010009745A1 (de) * 2010-03-01 2011-09-01 Gunnar Eisenberg Verfahren und Vorrichtung zur Verarbeitung von Audiodaten
JP5738020B2 (ja) * 2010-03-11 2015-06-17 本田技研工業株式会社 音声認識装置及び音声認識方法
US8538035B2 (en) 2010-04-29 2013-09-17 Audience, Inc. Multi-microphone robust noise suppression
US8473287B2 (en) 2010-04-19 2013-06-25 Audience, Inc. Method for jointly optimizing noise reduction and voice quality in a mono or multi-microphone system
US8798290B1 (en) 2010-04-21 2014-08-05 Audience, Inc. Systems and methods for adaptive signal equalization
US8781137B1 (en) 2010-04-27 2014-07-15 Audience, Inc. Wind noise detection and suppression
US9245538B1 (en) * 2010-05-20 2016-01-26 Audience, Inc. Bandwidth enhancement of speech signals assisted by noise reduction
US8447596B2 (en) 2010-07-12 2013-05-21 Audience, Inc. Monaural noise suppression based on computational auditory scene analysis
JP5566846B2 (ja) * 2010-10-15 2014-08-06 本田技研工業株式会社 ノイズパワー推定装置及びノイズパワー推定方法並びに音声認識装置及び音声認識方法
JP2012163919A (ja) * 2011-02-09 2012-08-30 Sony Corp 音声信号処理装置、および音声信号処理方法、並びにプログラム
US9589580B2 (en) 2011-03-14 2017-03-07 Cochlear Limited Sound processing based on a confidence measure
JP2012235310A (ja) * 2011-04-28 2012-11-29 Sony Corp 信号処理装置および方法、プログラム、並びにデータ記録媒体
US8949118B2 (en) * 2012-03-19 2015-02-03 Vocalzoom Systems Ltd. System and method for robust estimation and tracking the fundamental frequency of pseudo periodic signals in the presence of noise
WO2014018004A1 (en) * 2012-07-24 2014-01-30 Nuance Communications, Inc. Feature normalization inputs to front end processing for automatic speech recognition
JP6234060B2 (ja) * 2013-05-09 2017-11-22 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation ターゲットドメインの学習用音声データの生成方法、生成装置、および生成プログラム
US9443533B2 (en) * 2013-07-15 2016-09-13 Rajeev Conrad Nongpiur Measuring and improving speech intelligibility in an enclosure
US9536540B2 (en) 2013-07-19 2017-01-03 Knowles Electronics, Llc Speech signal separation and synthesis based on auditory scene analysis and speech modeling
CN103474072B (zh) * 2013-10-11 2016-06-01 福州大学 利用纹理特征与随机森林的快速抗噪鸟鸣声识别方法
US10360901B2 (en) * 2013-12-06 2019-07-23 Nuance Communications, Inc. Learning front-end speech recognition parameters within neural network training
RU2720357C2 (ru) 2013-12-19 2020-04-29 Телефонактиеболагет Л М Эрикссон (Пабл) Способ оценки фонового шума, блок оценки фонового шума и машиночитаемый носитель
CA2936331A1 (en) * 2014-02-14 2015-08-20 Donald James DERRICK System for audio analysis and perception enhancement
US10176824B2 (en) * 2014-03-04 2019-01-08 Indian Institute Of Technology Bombay Method and system for consonant-vowel ratio modification for improving speech perception
CA2946824C (en) * 2014-04-25 2019-06-18 Ntt Docomo, Inc. Linear prediction coefficient conversion device and linear prediction coefficient conversion method
CN107112025A (zh) * 2014-09-12 2017-08-29 美商楼氏电子有限公司 用于恢复语音分量的系统和方法
US9881631B2 (en) 2014-10-21 2018-01-30 Mitsubishi Electric Research Laboratories, Inc. Method for enhancing audio signal using phase information
US9659578B2 (en) * 2014-11-27 2017-05-23 Tata Consultancy Services Ltd. Computer implemented system and method for identifying significant speech frames within speech signals
MX363414B (es) 2014-12-12 2019-03-22 Huawei Tech Co Ltd Aparato de procesamiento de señal para mejorar un componente de voz dentro de una señal de audio multi-canal.
KR102387567B1 (ko) * 2015-01-19 2022-04-18 삼성전자주식회사 음성 인식 방법 및 음성 인식 장치
US9668048B2 (en) 2015-01-30 2017-05-30 Knowles Electronics, Llc Contextual switching of microphones
CN104966517B (zh) * 2015-06-02 2019-02-01 华为技术有限公司 一种音频信号增强方法和装置
DK3118851T3 (da) * 2015-07-01 2021-02-22 Oticon As Forbedring af støjende tale baseret på statistiske tale- og støjmodeller
KR101677137B1 (ko) * 2015-07-17 2016-11-17 국방과학연구소 변조 스펙트로그램을 이용한 수중 방사체의 데몬 및 lofar 특징을 동시 추출하는 방법 및 장치
KR102494139B1 (ko) * 2015-11-06 2023-01-31 삼성전자주식회사 뉴럴 네트워크 학습 장치 및 방법과, 음성 인식 장치 및 방법
CN105611477B (zh) * 2015-12-27 2018-06-01 北京工业大学 数字助听器中深度和广度神经网络相结合的语音增强算法
WO2017141317A1 (ja) * 2016-02-15 2017-08-24 三菱電機株式会社 音響信号強調装置
EP3220367A1 (en) * 2016-03-14 2017-09-20 Tata Consultancy Services Limited System and method for sound based surveillance
US9820042B1 (en) 2016-05-02 2017-11-14 Knowles Electronics, Llc Stereo separation and directional suppression with omni-directional microphones
US11003987B2 (en) * 2016-05-10 2021-05-11 Google Llc Audio processing with neural networks
RU2620569C1 (ru) * 2016-05-17 2017-05-26 Николай Александрович Иванов Способ измерения разборчивости речи
JP6563874B2 (ja) * 2016-08-16 2019-08-21 日本電信電話株式会社 音源強調学習装置、音源強調装置、音源強調学習方法、プログラム
EP3301675B1 (en) 2016-09-28 2019-08-21 Panasonic Intellectual Property Corporation of America Parameter prediction device and parameter prediction method for acoustic signal processing
US10614827B1 (en) * 2017-02-21 2020-04-07 Oben, Inc. System and method for speech enhancement using dynamic noise profile estimation
US10504538B2 (en) 2017-06-01 2019-12-10 Sorenson Ip Holdings, Llc Noise reduction by application of two thresholds in each frequency band in audio signals
US10381020B2 (en) 2017-06-16 2019-08-13 Apple Inc. Speech model-based neural network-assisted signal enhancement
DE102017212431A1 (de) * 2017-07-20 2019-01-24 Robert Bosch Gmbh Verfahren und Vorrichtung zur Verarbeitung eines Signals
WO2019014890A1 (zh) * 2017-07-20 2019-01-24 大象声科(深圳)科技有限公司 一种通用的单声道实时降噪方法
US11270198B2 (en) * 2017-07-31 2022-03-08 Syntiant Microcontroller interface for audio signal processing
US20190066657A1 (en) * 2017-08-31 2019-02-28 National Institute Of Information And Communications Technology Audio data learning method, audio data inference method and recording medium
EP3688754A1 (en) 2017-09-26 2020-08-05 Sony Europe B.V. Method and electronic device for formant attenuation/amplification
US10325588B2 (en) 2017-09-28 2019-06-18 International Business Machines Corporation Acoustic feature extractor selected according to status flag of frame of acoustic signal
JP7214726B2 (ja) * 2017-10-27 2023-01-30 フラウンホッファー-ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ ニューラルネットワークプロセッサを用いた帯域幅が拡張されたオーディオ信号を生成するための装置、方法またはコンピュータプログラム
US10283140B1 (en) 2018-01-12 2019-05-07 Alibaba Group Holding Limited Enhancing audio signals using sub-band deep neural networks
CN110580910B (zh) * 2018-06-08 2024-04-26 北京搜狗科技发展有限公司 一种音频处理方法、装置、设备及可读存储介质
US10991379B2 (en) * 2018-06-22 2021-04-27 Babblelabs Llc Data driven audio enhancement
US11341983B2 (en) 2018-09-17 2022-05-24 Honeywell International Inc. System and method for audio noise reduction
EP4408022A3 (en) 2018-10-24 2024-10-16 Gracenote, Inc. Methods and apparatus to adjust audio playback settings based on analysis of audio characteristics
CN110008972B (zh) * 2018-11-15 2023-06-06 创新先进技术有限公司 用于数据增强的方法和装置
US11043214B1 (en) * 2018-11-29 2021-06-22 Amazon Technologies, Inc. Speech recognition using dialog history
KR102093929B1 (ko) * 2018-12-05 2020-03-26 중앙대학교 산학협력단 Cim 기반의 시스템 건전성 진단을 위한 장치 및 방법
JP7095586B2 (ja) * 2018-12-14 2022-07-05 富士通株式会社 音声補正装置および音声補正方法
CN109448749B (zh) * 2018-12-19 2022-02-15 中国科学院自动化研究所 基于有监督学习听觉注意的语音提取方法、系统、装置
CN111369986A (zh) * 2018-12-26 2020-07-03 成都启英泰伦科技有限公司 一种智能安全传输语音系统及方法
KR102096588B1 (ko) * 2018-12-27 2020-04-02 인하대학교 산학협력단 음향 장치에서 맞춤 오디오 잡음을 이용해 사생활 보호를 구현하는 기술
KR20200080913A (ko) 2018-12-27 2020-07-07 서울과학기술대학교 산학협력단 자기상관계수를 이용한 심층신경망 기반 신호처리 방법 및 장치
KR102188264B1 (ko) * 2019-01-04 2020-12-08 순천향대학교 산학협력단 언어재활 기반 발성 음성 평가 장치 및 방법
EP3694229B1 (en) 2019-02-08 2024-11-13 Oticon A/s A hearing device comprising a noise reduction system
KR102198273B1 (ko) * 2019-02-26 2021-01-04 한미란 머신러닝 기반의 음성데이터 분석 방법, 장치 및 프로그램
CN109767789A (zh) * 2019-03-06 2019-05-17 慧言科技(天津)有限公司 一种用于语音情感识别的新特征提取方法
WO2020209840A1 (en) * 2019-04-09 2020-10-15 Hewlett-Packard Development Company, L.P. Applying directionality to audio by encoding input data
EP3726529A1 (en) * 2019-04-16 2020-10-21 Fraunhofer Gesellschaft zur Förderung der Angewand Method and apparatus for determining a deep filter
EP3970141B1 (en) 2019-05-14 2024-02-28 Dolby Laboratories Licensing Corporation Method and apparatus for speech source separation based on a convolutional neural network
KR20200137561A (ko) * 2019-05-30 2020-12-09 국방과학연구소 잡음 환경 노이지 데이터를 생성하기 위한 데이터 생성장치, 데이터 생성방법 및 이를 이용한 잡음 제거장치 및 잡음 제거방법
CN110534123B (zh) * 2019-07-22 2022-04-01 中国科学院自动化研究所 语音增强方法、装置、存储介质、电子设备
WO2021019643A1 (ja) * 2019-07-29 2021-02-04 日本電信電話株式会社 印象推定装置、学習装置、それらの方法、およびプログラム
CN110491407B (zh) * 2019-08-15 2021-09-21 广州方硅信息技术有限公司 语音降噪的方法、装置、电子设备及存储介质
CN110473567B (zh) * 2019-09-06 2021-09-14 上海又为智能科技有限公司 基于深度神经网络的音频处理方法、装置及存储介质
CN110556123B (zh) * 2019-09-18 2024-01-19 腾讯科技(深圳)有限公司 频带扩展方法、装置、电子设备及计算机可读存储介质
CN110556122B (zh) * 2019-09-18 2024-01-19 腾讯科技(深圳)有限公司 频带扩展方法、装置、电子设备及计算机可读存储介质
CN117975976A (zh) * 2019-09-18 2024-05-03 腾讯科技(深圳)有限公司 频带扩展方法、装置、电子设备及计算机可读存储介质
US11587575B2 (en) * 2019-10-11 2023-02-21 Plantronics, Inc. Hybrid noise suppression
JP7348812B2 (ja) * 2019-10-31 2023-09-21 東京都公立大学法人 雑音抑制装置、雑音抑制方法及び音声入力機器
CN111061909B (zh) * 2019-11-22 2023-11-28 腾讯音乐娱乐科技(深圳)有限公司 一种伴奏分类方法和装置
CN111223493B (zh) * 2020-01-08 2022-08-02 北京声加科技有限公司 语音信号降噪处理方法、传声器和电子设备
CN111259776B (zh) * 2020-01-13 2023-04-18 浙江大学 一种基于同步平均主成分时频分析的确定性信号提取方法
CN113140225B (zh) * 2020-01-20 2024-07-02 腾讯科技(深圳)有限公司 语音信号处理方法、装置、电子设备及存储介质
US11562763B2 (en) * 2020-02-10 2023-01-24 Samsung Electronics Co., Ltd. Method for improving sound quality and electronic device using same
KR102329353B1 (ko) * 2020-03-17 2021-11-22 성균관대학교산학협력단 심층 신경망을 이용한 음성 발생 방향 추론 방법 및 그 장치
US11521637B1 (en) * 2020-08-19 2022-12-06 Amazon Technologies, Inc. Ratio mask post-filtering for audio enhancement
CN111986660A (zh) * 2020-08-26 2020-11-24 深圳信息职业技术学院 一种神经网络子带建模的单通道语音增强方法、系统及存储介质
US20220101872A1 (en) * 2020-09-25 2022-03-31 Descript, Inc. Upsampling of audio using generative adversarial networks
CN112349277B (zh) * 2020-09-28 2023-07-04 紫光展锐(重庆)科技有限公司 结合ai模型的特征域语音增强方法及相关产品
US11694692B2 (en) 2020-11-11 2023-07-04 Bank Of America Corporation Systems and methods for audio enhancement and conversion
GB202018375D0 (en) * 2020-11-23 2021-01-06 Rossi Lisa Audio signal processing systems and methods
US11475869B2 (en) 2021-02-12 2022-10-18 Plantronics, Inc. Hybrid noise suppression for communication systems
CN115116469B (zh) * 2022-05-25 2024-03-15 腾讯科技(深圳)有限公司 特征表示的提取方法、装置、设备、介质及程序产品
CN115116446B (zh) * 2022-06-21 2024-11-01 成都理工大学 一种噪声环境下说话人识别模型构建方法
US20240161765A1 (en) * 2022-11-16 2024-05-16 Cisco Technology, Inc. Transforming speech signals to attenuate speech of competing individuals and other noise
GB2625773A (en) * 2022-12-23 2024-07-03 Airbus Defence & Space Ltd Determination of signal characteristics
GB2625772A (en) * 2022-12-23 2024-07-03 Airbus Defence & Space Ltd Determination of signal characteristics
US20240304186A1 (en) * 2023-03-08 2024-09-12 Google Llc Audio signal synthesis from a network of devices

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5822742A (en) 1989-05-17 1998-10-13 The United States Of America As Represented By The Secretary Of Health & Human Services Dynamically stable associative learning neural network system
JP3084721B2 (ja) * 1990-02-23 2000-09-04 ソニー株式会社 雑音除去回路
DE4227826C2 (de) * 1991-08-23 1999-07-22 Hitachi Ltd Digitales Verarbeitungsgerät für akustische Signale
JP3247011B2 (ja) 1994-04-12 2002-01-15 富士通株式会社 セル配置改善装置及び方法
SE505175C2 (sv) 1994-12-01 1997-07-07 Ericsson Telefon Ab L M Förfarande och telekommunikationssystem för att åstadkomma ett abonnentstyrt uppkopplingsförlopp i ett telekommunikationsnät
US5960391A (en) 1995-12-13 1999-09-28 Denso Corporation Signal extraction system, system and method for speech restoration, learning method for neural network model, constructing method of neural network model, and signal processing system
SE506034C2 (sv) * 1996-02-01 1997-11-03 Ericsson Telefon Ab L M Förfarande och anordning för förbättring av parametrar representerande brusigt tal
EP0878790A1 (en) * 1997-05-15 1998-11-18 Hewlett-Packard Company Voice coding system and method
FR2786908B1 (fr) * 1998-12-04 2001-06-08 Thomson Csf Procede et dispositif pour le traitement des sons pour correction auditive des malentendants
DE19948308C2 (de) * 1999-10-06 2002-05-08 Cortologic Ag Verfahren und Vorrichtung zur Geräuschunterdrückung bei der Sprachübertragung
FI116643B (fi) * 1999-11-15 2006-01-13 Nokia Corp Kohinan vaimennus
DE60104091T2 (de) * 2001-04-27 2005-08-25 CSEM Centre Suisse d`Electronique et de Microtechnique S.A. - Recherche et Développement Verfahren und Vorrichtung zur Sprachverbesserung in verrauschte Umgebung
JP3933909B2 (ja) * 2001-10-29 2007-06-20 日本放送協会 音声/音楽混合比推定装置およびそれを用いたオーディオ装置
US7949522B2 (en) * 2003-02-21 2011-05-24 Qnx Software Systems Co. System for suppressing rain noise
JP2004341339A (ja) * 2003-05-16 2004-12-02 Mitsubishi Electric Corp 雑音抑圧装置
AU2003904207A0 (en) 2003-08-11 2003-08-21 Vast Audio Pty Ltd Enhancement of sound externalization and separation for hearing-impaired listeners: a spatial hearing-aid
JP4150798B2 (ja) * 2004-07-28 2008-09-17 国立大学法人徳島大学 デジタルフィルタリング方法、デジタルフィルタ装置、デジタルフィルタプログラム及びコンピュータで読み取り可能な記録媒体
RU52536U1 (ru) * 2005-12-08 2006-03-27 Общество с ограниченной ответственностью "Филком" Цифровой модуль преобразования речи
EP1918910B1 (en) * 2006-10-31 2009-03-11 Harman Becker Automotive Systems GmbH Model-based enhancement of speech signals
JP5141180B2 (ja) * 2006-11-09 2013-02-13 ソニー株式会社 周波数帯域拡大装置及び周波数帯域拡大方法、再生装置及び再生方法、並びに、プログラム及び記録媒体
US8352257B2 (en) * 2007-01-04 2013-01-08 Qnx Software Systems Limited Spectro-temporal varying approach for speech enhancement
JP2010539792A (ja) * 2007-09-12 2010-12-16 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション スピーチ増強
US8521530B1 (en) * 2008-06-30 2013-08-27 Audience, Inc. System and method for enhancing a monaural audio signal

Also Published As

Publication number Publication date
WO2010015371A1 (en) 2010-02-11
EP2151822A1 (en) 2010-02-10
AU2009278263B2 (en) 2012-09-27
AU2009278263A1 (en) 2010-02-11
CA2732723A1 (en) 2010-02-11
EP2151822B8 (en) 2018-10-24
CN102124518B (zh) 2013-11-06
CA2732723C (en) 2016-10-11
HK1159300A1 (en) 2012-07-27
US20110191101A1 (en) 2011-08-04
KR101266894B1 (ko) 2013-05-24
TR201810466T4 (tr) 2018-08-27
MX2011001339A (es) 2011-05-10
EP2151822B1 (en) 2018-04-25
CN102124518A (zh) 2011-07-13
KR20110044990A (ko) 2011-05-03
ES2678415T3 (es) 2018-08-10
RU2507608C2 (ru) 2014-02-20
RU2011105976A (ru) 2012-08-27
US9064498B2 (en) 2015-06-23
JP2011530091A (ja) 2011-12-15

Similar Documents

Publication Publication Date Title
JP5666444B2 (ja) 特徴抽出を使用してスピーチ強調のためにオーディオ信号を処理する装置及び方法
US10504539B2 (en) Voice activity detection systems and methods
RU2329550C2 (ru) Способ и устройство для улучшения речевого сигнала в присутствии фонового шума
JP6169849B2 (ja) 音響処理装置
KR101461774B1 (ko) 대역폭 확장기
CN104823236B (zh) 语音处理系统
JP5842056B2 (ja) 雑音推定装置、雑音推定方法、雑音推定プログラム及び記録媒体
Kim et al. Nonlinear enhancement of onset for robust speech recognition.
WO2022068440A1 (zh) 啸叫抑制方法、装置、计算机设备和存储介质
KR100784456B1 (ko) Gmm을 이용한 음질향상 시스템
CN113593604A (zh) 检测音频质量方法、装置及存储介质
KR102718917B1 (ko) 음성 신호에서의 마찰음의 검출
Uhle et al. Speech enhancement of movie sound
Thiagarajan et al. Pitch-based voice activity detection for feedback cancellation and noise reduction in hearing aids
Surendran et al. Variance normalized perceptual subspace speech enhancement
Tiwari et al. Speech enhancement using noise estimation with dynamic quantile tracking
Maganti et al. Sub-band spectral variance feature for noise robust ASR
Rao et al. Implementation and evaluation of spectral subtraction with minimum statistics using WOLA and FFT modulated filter banks
BRPI0911932B1 (pt) Equipamento e método para processamento de um sinal de áudio para intensificação de voz utilizando uma extração de característica
Farsi et al. Robust speech recognition based on mixed histogram transform and asymmetric noise suppression
Kamaraju et al. Speech Enhancement Technique Using Eigen Values
Brookes et al. Enhancement

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130409

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130703

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131003

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140821

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141210

R150 Certificate of patent or registration of utility model

Ref document number: 5666444

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250