[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6169910B2 - 音声処理装置 - Google Patents

音声処理装置 Download PDF

Info

Publication number
JP6169910B2
JP6169910B2 JP2013143079A JP2013143079A JP6169910B2 JP 6169910 B2 JP6169910 B2 JP 6169910B2 JP 2013143079 A JP2013143079 A JP 2013143079A JP 2013143079 A JP2013143079 A JP 2013143079A JP 6169910 B2 JP6169910 B2 JP 6169910B2
Authority
JP
Japan
Prior art keywords
reverberation
unit
acoustic model
speech
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013143079A
Other languages
English (en)
Other versions
JP2015018015A (ja
Inventor
一博 中臺
一博 中臺
圭佑 中村
圭佑 中村
ランディ ゴメス
ランディ ゴメス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2013143079A priority Critical patent/JP6169910B2/ja
Priority to US14/265,612 priority patent/US9208782B2/en
Publication of JP2015018015A publication Critical patent/JP2015018015A/ja
Application granted granted Critical
Publication of JP6169910B2 publication Critical patent/JP6169910B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02082Noise filtering the noise being echo, reverberation of the speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Circuit For Audible Band Transducer (AREA)

Description

本発明は、音声処理装置に関する。
室内で放射された音は、壁面や設置物で反射が繰り返されることによって残響が生じる。残響が付加されると周波数特性が原音声から変化するため音声認識率が低下することがある。また、過去に発された音声が現在発されている音声に重畳するため明瞭度が低下することがある。そこで、残響環境下で収録した音声から残響成分を抑圧する残響抑圧技術が従来から開発されている。
例えば、特許文献1には、逆フィルタ処理部で適応的に同定した帰還経路のインパルス応答を用いて残響空間の伝達関数を求め、残響音声信号を伝達関数の大きさで除算することにより音源信号を復元する残響除去方法について記載されている。特許文献1に記載の残響除去方法では、残響特性を示すインパルスレスポンスを推定するが、残響時間は0.2〜2.0秒と比較的長いため、演算量が過大になり処理遅延が著しくなる。そのため、音声認識等への応用が広がらなかった。
また、非特許文献1には、予め残響時間が異なる残響環境下で学習しておいた音響モデルを複数個準備しておき、音声が収録された環境において最も尤度が高くなる音響モデルを検索する方法が記載されている。残響時間とは、最大値を基準とした残響の強度が所定の強度に減衰するまでの時間である。この方法では、検索した音響モデルを用いて音声認識が行われる。
特許第4396449公報
H−G.Hirsch,Harald Finster,A New Approach for the Adaptation of HMMs to Reveberation and Backgraound Noise,Speech Communication,Elsevier,2008,244−263
しかしながら、非特許文献1に記載の方法では、音源と収音部との位置関係が考慮されていない。他方、ある残響空間において残響時間はほぼ一定であるが、音源から収音部までの距離に応じて残響成分の強度と直接音の強度との比が変化する。そのため、必ずしもその残響時間に応じた音響モデルが選択されるとは限らず、音声認識精度が低下することがあった。
本発明は上記の点に鑑みてなされたものであり、残響特性を計測しなくても音声認識精度を向上する残響抑圧を実現できる音声処理装置を提供する。
(1)本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、音源からの音声を収録する収音部と前記音源までの距離に反比例する成分の寄与がそれぞれ異なることを特徴とする複数の残響特性のそれぞれについて、当該残響特性による残響成分の寄与を示す補正データと、当該残響特性による残響が付加された残響付加音声で学習した適応音響モデルとを対応付け、収録した音声について前記適応音響モデルに基づく尤度を算出し、算出した尤度が最も大きい適応音響モデルに対応する補正データを選択する残響特性選択部と、前記補正データに基づいて前記音声から残響成分を除去する残響除去部と、を備えることを特徴とする音声処理装置である。
(2)本発明の他の態様は、(1)の音声処理装置であって、前記残響特性選択部は、前記補正データ及び前記適応音響モデルにそれぞれの残響特性に係る前記距離を示す距離データが対応付け、前記算出した尤度が最も大きい適応音響モデルに対応する距離データを選択することを特徴とする。
(3)本発明の他の態様は、(2)の音声処理装置であって、予め定めた距離に係る残響特性による残響が付加された残響付加音声で学習した第1の音響モデルと、残響を無視できる環境下での音声を用いて学習された第2の音響モデルから、前記残響特性選択部が選択した距離データが示す距離に応じた音響モデルを予測する音響モデル予測部と、前記音響モデル予測部が予測した音響モデルを用いて、前記音声について音声認識処理を行う音声認識部と、を備えることを特徴とする。
上述した(1)の構成によれば、収録した音声について最も尤度が大きい適応音響モデルに係る残響特性を示す補正データが選択され、その補正データが示す残響成分が音声から除去される。そのため、残響特性を計測しなくても音声認識精度を向上する残響抑圧を実現できる。
また、収音部から音源までの距離によって異なる音源から放射される直接音による寄与が考慮されるため、残響抑圧精度を向上させることができる。
上述した(2)の構成によれば、選択した適応音響モデルに対応した距離を選択することで、収音部から音源までの距離を推定することができる。
上述した(3)の構成によれば、選択した距離に基づいて第1の音響モデルと第2の音響モデルから残響環境に応じた音響モデルが予測される。予測された音響モデルを用いて音声認識処理が行われるため音声認識精度が向上する。
本発明の実施形態に係る音声処理装置の配置例を示す平面図である。 本実施形態に係る音声処理装置の構成を示すブロック図である。 係数算出処理の例を示すフローチャートである。 本実施形態に係る補正データ生成部の構成を示すブロック図である。 本実施形態に係る残響特性選択部の構成を示すブロック図である。 本実施形態に係る残響モデルデータ生成処理を示すフローチャートである。 本実施形態に係る音声処理を示すフローチャートである。 RTFの測定環境の例を示す平面図である。 平均RTFの例を示す図である。 RTFの利得の例を示す図である。 処理方法毎の単語認識率の一例を示す図である。 処理方法毎の単語認識率の他の例を示す図である。 本実施形態の変形例に係る音声処理装置の構成を示すブロック図である。 本変形例に係る音声処理を示すフローチャートである。
以下、図面を参照しながら本発明の実施形態について説明する。
図1は、本実施形態に係る音声処理装置11の配置例を示す平面図である。
この配置例では、残響環境として部屋Rmにおいて発話者Spが収音部12(後述)の中心部から距離rだけ離れた位置に所在し、音声処理装置11が収音部12に接続されていることを示す。部屋Rmは、到来した音波を反射する内壁を有する。収音部12は、音源として発話者Spから直接到来した音声と、内壁を反射した音声を収録する。音源から直接到来した音声、反射した音声を、それぞれ直接音(direct sound)、反射音(reflection)と呼ぶ。反射音のうち、直接音が発されてからの経過時間が所定の時間よりも比較的短く(例えば、約30ms以下)、反射回数が比較的少なくそれぞれの反射パターンが区別される部分は、初期反射(early reflection)と呼ばれる。反射音のうち、それよりも経過時間が長く、反射回数が多くそれぞれの反射パターンを区別できない部分は、後期反射(late reflection)、後期残響(late reverberation)又は単に残響(reverberation)と呼ばれる。初期反射と後期反射とを区分する時間は、部屋Rmの大きさによっても異なるが、音声認識においては処理単位となるフレーム長がその時間に相当する。前フレームで処理した直接音及び初期反射に係る後期反射が、現フレームの処理に影響することによる。
一般に、音源が収音部12に近接する(rが小さい)ほど、音源からの直接音が主となり相対的に残響の割合が少なくなる。また、残響成分のうち周波数が低い成分ほど含まれる割合が多い。以下の説明では、収音部12で収録される音声のうち、発話者Spが収音部12に近接しているために残響成分が無視できるほど少ない音声を近接発話音声(close−talking speech)と呼ぶことがある。つまり、近接発話音声は、残響成分を含まない又は無視できるほど少ない音声であるクリーン音声(clean speech)の一態様である。これに対し、発話者Spが収音部12から離れているために残響成分を有意に含んでいる音声を遠隔発話音声(distant−talking speech)と呼ぶことがある。従って、「遠隔」とは、必ずしも距離rが大きいことに限られない。
音声処理装置11は、複数の残響特性のそれぞれについて、当該残響特性による残響成分の寄与を示す補正データと、当該残響特性による残響が付加された残響付加音声で学習した適応音響モデルを生成し、これらを対応付けて記憶する。音声処理装置11は、収録した音声について前記適応音響モデルに基づく尤度を算出し、算出した尤度が最も大きい適応音響モデルに対応する補正データを選択し、選択した補正データに基づいて前記音声から残響成分を除去する。そして、音声処理装置11は、残響成分を除去音声について音声認識処理を行う。
ここで、複数の残響特性において、収音部12と音源までの距離に反比例する成分の寄与がそれぞれ異なる。また、音源が収音部12に近接するほど相対的に残響の割合が少なくなり、周波数が低いほど残響の割合が、周波数が低いほど少ないという特性がある。音声処理装置11は、このような特性を有する残響特性を合成し、合成した残響特性を用いる。
これにより、残響特性を逐次に計測しなくても音声認識精度を向上する残響抑圧を実現できる。
収音部12は、1個又は複数(N個、Nは0よりも大きい整数)のチャネルの音響信号を収録し、収録したNチャネルの音響信号を音声処理装置11に送信する。収音部12には、N個のマイクロホンがそれぞれ異なる位置に配置されている。収音部12は、収録したNチャネルの音響信号を無線で送信してもよいし、有線で送信してもよい。Nが1よりも大きい場合には、送信の際にチャネル間で音響信号が同期していればよい。収音部12の位置は、固定されていてもよいし、車両、航空機、ロボット等の移動体に設置され、移動が可能であってもよい。
次に、本実施形態に係る音声処理装置11の構成について説明する。
図2は、本実施形態に係る音声処理装置11の構成を示すブロック図である。
音声処理装置11は、残響特性合成部101、音声信号取得部102、残響付加部103、音響モデル適応部104、補正データ生成部105、残響特性選択部106、音源分離部107、特徴量算出部108、残響除去部109、及び音声認識部110を含んで構成される。
残響特性合成部101は、予め定めた残響モデルに基づいて目標とする距離r’に応じた残響特性A’[r] kΔ(ω,r’)を示す残響特性データを合成する。kは、その反比例する成分の寄与の度合いを示す整数、Δは、kによる寄与の度合いの幅を示す実数、ωは周波数を示す。kは、1からK(1より大きい予め定めた整数、例えば、5)までの値である。K、Δは、予め動作確認もしくは事前学習を行って定めておく。残響特性合成部101は、合成した残響特性データを残響付加部103及び補正データ生成部105に出力する。この残響モデルでは、残響特性A’[r] kΔ(ω,r’)が距離r’に応じて反比例する成分を含むと仮定されている。この残響特性データを合成する処理(残響特性合成処理)については後述する。
音声信号取得部102は、クリーン音声の音声信号を取得し、取得した音声信号を残響付加部103、補正データ生成部105に出力する。音声信号取得部102は、例えば、クリーン音声を示す音声信号が記憶されるデータベースである。音声信号取得部102は、音声処理装置11の外部から音声信号を入力する音声インタフェースであってもよい。
残響付加部103は、音声信号取得部102から入力された時間領域の音声信号を予め定めた時間間隔(例えば、10ms)で周波数領域の周波数領域係数s(ω)に変換して、周波数領域係数を示す周波数領域係数データを生成する。残響付加部103は、変換した周波数領域係数に残響特性合成部101から入力された残響特性データを示す残響特性A’[r] kΔ(ω,r’)をそれぞれ乗じて、残響が付加された音声(残響付加音声、reverbed speech)の周波数領域係数s[r] kΔ(ω,r’)を算出する。残響付加部103は、算出した周波数領域係数s[r] kΔ(ω,r’)を示す残響付加周波数領域係数データを音響モデル適応部104に出力する。
音響モデル適応部104は、予めクリーン音声で尤度が最大になるように学習された音響モデルπ(c)を記憶させた記憶部(図示せず)を備える。音響モデルπ(c)は、例えば、混合ガウスモデル(GMM:Gaussian Mixture Model)である。音響モデル適応部104は、予め記憶した音響モデルπ(c)に対し、残響付加部103から入力された残響付加周波数領域係数データが示す周波数領域係数s[r] kΔ(ω,r’)をそれぞれ用いて尤度が最大になる適応音響モデルπ[r] kΔを生成する。
音響モデル適応部104は、適応音響モデルπ[r] kΔを生成する際、例えば、最大尤度線形回帰法(MLLR:Maximum Likelihood Linear Regression)を用いる。これにより、比較的少量の学習用データを用いて適応音響モデルπ[r] kΔを生成することができる。
音響モデル適応部104は、生成した適応音響モデルπ[r] kΔを残響特性選択部106が有する残響モデル記憶部1061(図5)に記憶させる。音響モデルについては、後述する。
補正データ生成部105は、残響特性合成部101から入力された残響特性データに基づいて、各音源について予め定めた周波数帯域b毎に重み係数(weighting parameters)δb,[r] kΔをそれぞれ算出する。ここで、bは、1からBの間の整数、Bは予め定めた周波数帯域の数を示す1よりも大きい整数である。重み係数δb,[r] kΔは、残響付加音声のパワーのうち後期反射のパワーの割合を示す指標である。
補正データ生成部105は、重み係数δb,[r] kΔで補正した後期反射のパワーと残響付加音声のパワーの差が最小化されるように、重み係数δb,[r] kΔを算出する。補正データ生成部105は、算出した重み係数δb,[r] kΔを示す補正データを適応音響モデルπ[r] kΔと対応付けて残響特性選択部106の残響モデル記憶部1061(図5)に記憶する。補正データ生成部105の構成については、後述する。
残響特性選択部106は、特徴量算出部108から入力された特徴量データが示す音響特徴量T[u’]について、残響モデル記憶部1061に記憶されている音響モデルπ[r] kΔ毎に尤度P(T[u‘]|π[r] kΔ)を算出する。残響特性選択部106は、算出した尤度P(T[u‘]|π[r] kΔ)が最大となる音響モデルπ[r] kΔを選択し、選択した音響モデルπ[r] kΔに対応する補正データを残響モデル記憶部1061から読み出す。読み出した補正データが示す重み係数δb,[r] kΔは、上述したように残響特性A’[r] kΔ(ω,r’)からに基づいて得られた係数である。残響特性選択部106は、読み出した補正データを残響除去部109に出力する。残響特性選択部106の構成については、後述する。
音源分離部107は、収音部12から入力されたNチャネルの音響信号について音源分離処理を行って1個又は複数の音源の音響信号に分離する。音源分離部107は、分離した音源毎の音響信号を特徴量算出部108及び残響除去部109に出力する。
音源分離部107は、音源分離処理として、例えば、GHDSS(Geometric−constrained Highorder Decorrelation−based Source Separation)法を用いる。GHDSS法は、1種のブラインド分離処理(blind deconvolution)である。GHDSS法については後述する。音源分離部107は、GHDSS法に代えて、その他の音源分離処理、例えば、音源方向を推定し、推定した音源方向に感度が最も高くなるように指向性を制御する適応ビームフォーミング法(adaptive beamforming)を用いてもよい。また、音源方向を推定する際、音源分離部107は、MUSIC(Multiple Signal Classification)法を用いてもよい。
特徴量算出部108は、音源分離部107から入力された音響信号について予め定めた時間間隔(例えば、10ms)毎に音響特徴量T(u’)を算出する。音響特徴量は、例えば、静的メル尺度対数スペクトル(static MSLS:Mel−Scale Log Spectrum)、デルタMSLS及び1個のデルタパワーの組である。これらの係数の組は特性ベクトル(feature vector)とも呼ばれる。
特徴量算出部108は、算出した音響特徴量T(u’)を示す特徴量データを残響特性選択部106に出力する。
残響除去部109は、音源分離部107から入力された音響信号を周波数帯域b毎の成分(周波数成分)に分離し、分離した周波数成分毎に残響特性選択部106から入力された補正データが示す重み係数δb,[r] kΔを用いて振幅を補正する。これにより、残響の一部である後期反射の成分が除去される。残響除去部109は、振幅を補正した帯域成分を周波数帯域b間で合成して残響が除去された音声(残響除去音声、dereverbed speech)を示す残響除去音声信号を生成する。残響除去部109は、入力された音響信号の振幅を補正する際に位相を変更しない。残響除去部109は、生成した残響除去音声信号を音声認識部110に出力する。
残響除去部109は、振幅を補正する際、残響除去音声信号の振幅|e(ω,t)|が例えば式(1)を満たすように算出する。
|e(ω,t)|=|r(ω,t)|−δb,[r] kΔ|r(ω,t)|
(|r(ω,t)|−δb,[r] kΔ|r(ω,t)|)が0より大きい場合)
|e(ω,t)|=β|r(ω,t)| (それ以外の場合) … (1)
式(1)において、r(ω,t)は、入力された音響信号の周波数領域係数を示す。式(1)の上段が示す処理により音響信号のパワーから後期反射の成分が除去される。式(1)の下段において、βは下限係数(flooring coefficient)である。βは、1よりも0に近似した予め定めた正の微小な値(例えば、0.05)である。このように、β|r(ω,t)|の項を設けて、残響除去音声信号において最低限の振幅を維持することで異音が検知されにくくなる。
音声認識部110は、残響除去部109から入力された残響除去音声信号について音声認識処理を行い、発話内容(例えば、単語、文を示すテキスト)を認識し、認識した発話内容を示す認識データを外部に出力する。
ここで、音声認識部110は、残響除去音声信号について予め定めた時間間隔(例えば、10ms)毎に音響特徴量を算出する。音響特徴量は、例えば、特徴量算出部108で算出した特徴量と同様なもの、静的メル尺度対数スペクトル(MSLS:Mel−Scale Log Spectrum)、デルタMSLS及び1個のデルタパワーの組である。
音声認識部110は、算出した音響特徴量について予め設定された音響モデルλを用いて音素を認識する。音響モデルλは、例えば、連続隠れマルコフモデル(continuous HMM:Hidden Markov Model)である。連続HMMは、出力分布密度が連続関数になっているモデルであり、その出力分布密度が複数の正規分布を基底として重み付け加算して示される。音響モデルλは、クリーン音声を用いて尤度が最大になるように学習されたものであってもよい。
音声認識部110は、認識した音素からなる音素列について予め設定された言語モデルを用いて発話内容を認識する。言語モデルは、音素列から単語や文を認識する際に用いられる統計モデルである。
(残響特性合成処理)
次に、残響特性合成部101における残響特性合成処理について説明する。
残響特性合成部101は、例えば、式(2)、(3)を用いて距離r’に応じた残響伝達関数(RTF:Reverberation Transfer Function) A’(ω,r’)を定める。RTFは、周波数ω毎の直接音のパワーに対する残響のパワーの比を示す係数であり、残響特性の一つの指標である。
A’(ω,r’)=f(r’)A(ω,r) … (2)
式(2)において、f(r’)は、距離r’に依存する利得である。A(ω,r)は、距離rに置かれた音源について予め測定されたRTFを示す。距離r’は、目標となる距離(目標距離)を示し、RTFを測定する距離rと区別して表記されている。f(r’)は、式(3)で表される。
f(r’)=α/r’+α … (3)
式(3)において、α、αは、それぞれ距離r’に反比例する成分の寄与を示す係数、距離r’に依存しない一定の成分の寄与を示す係数である。この距離r’に反比例する成分の寄与は、直接音の寄与を示す。
式(2)、(3)は、(i)部屋Rmにおいて音源の位置によってRTFの位相が変化しない、(ii)RTFの振幅は、距離r’に反比例して減衰する成分を含む、という仮定(i)(ii)に基づく。
具体的には、残響特性合成部101は、予め次に説明する処理を行って係数α、αを定めておく。
図3は、係数算出処理の例を示すフローチャートである。
(ステップS101)残響特性合成部101は、i個(iは、1よりも大きい整数、例えば、3個)のRTF A(ω,r)を予め計測しておく。距離r(iは、1からiまでの整数を示す)は、各々異なる距離である。例えば、収音部12が複数のマイクロホンを備える場合には、既知の出力音響信号に基づく音を再生したとき、残響特性合成部101は、各マイクロホンが収録した音響信号を用いてRTF A(ω,r)を取得することができる。その後、ステップS102に進む。
(ステップS102)残響特性合成部101は、取得したRTF A(ω,r)のそれぞれについて、周波数間で平均して平均RTF <A(r)>を算出する。残響特性合成部101は、平均RTF <A(r)>を算出する際、例えば、式(4)を用いる。
Figure 0006169910
式(4)において、|…|は、…の絶対値を示す。pは、各周波数を示すインデックス(frequency bin)である。p、pは、平均をとる周波数の区間の最高周波数、最低周波数を示すインデックスを示す。
その後、ステップS103に進む。
(ステップS103)残響特性合成部101は、平均RTF <A(r)>を式(2)、(3)で示される残響モデルに適合するように、係数α、αを算出する。残響特性合成部101は、例えば、式(5)を用いて係数α、αを算出する。
[α,α=([F[F])−1[F[F] … (5)
式(5)において、[…]は、ベクトル又は行列を示す。Tは、ベクトル又は行列の転置を示す。[F]は、式(6)に示すように、距離の逆数1/rと1からなるベクトルを各列に有する行列である。[F]は、平均RTF <A(r)>を各列に有する行列である。
Figure 0006169910
その後、図3に示す処理を終了する。
残響特性合成部101は、式(5)、(6)を用いて算出した係数α、αを式(3)に代入して、式(7)に示すように残響特性A’[r] kΔ(ω,r’)の利得fkΔ(r’)をk毎に算出する。
kΔ(r’)=k・Δ・α/r’+α … (7)
式(7)は、距離r’に反比例する成分が、式(3)における同じ成分のk・Δ倍である。
残響特性合成部101は、算出した利得fkΔ(r’)とRTF A(ω,r)に基づいて、式(8)を用いて残響特性A’[r] kΔ(ω,r’)をk毎に算出する。
A’[r] kΔ=fkΔ(r’)A(ω,r) … (8)
式(8)は、式(3)のf(r’)をfkΔ(r’)に置き換えた式である。つまり、式(7)を用いてk毎に利得fkΔ(r’)を変更することで、距離r’に反比例する成分の寄与を変化させて、K個の残響特性A’[r] kΔ(ω,r’)に多重化することができる。これにより、擬似的にK個の距離r’による特性が異なる残響特性A’[r] kΔ(ω,r’)を合成することができる。
(音響モデル)
まず、音響モデル適応部104で扱われる音響モデルπ(c)として、例えば、GMMについて説明する。GMMは、入力された音響特徴量に対する出力確率を複数(例えば、256個)の正規分布を基底として重みづけ加算して表す音響モデルの一種である。従って、音響モデルπ(c)は、混合重み係数、平均値、共分散行列といった統計量で規定される。また、出力確率を算出する際に用いられる正規分布の組(mixture)が所定のクラス毎に分類されている。
音響モデル適応部104は、MLLRを用いて残響特性A’[r] kΔ(ω,r’)毎に、2種類の変換行列[Wmc kΔ]、[Hmc kΔ]を定めることができる。ここで、cは、それぞれクラスを示し、mはクラスcにおける正規分布の組を示す。[…]は、…が行列又はベクトルであることを示す記号である。これらの変換行列は、音響モデルπ(c)を残響特性A’[r] kΔ(ω,r’)に係る適応音響モデルπ[r] kΔに変換する行列である。変換行列[Wmc kΔ]、[Hmc kΔ]は、それぞれ式(9)、(10)に示す関係を有する。
[μmc kΔ]=[Wmc kΔ][ζmc] … (9)
[Σmc kΔ]=[Bmc[Hmc kΔ][Bmc] … (10)
式(9)において、[μmc kΔ]は、平均ベクトル(mean vector)を示す。平均ベクトル[μmc kΔ]は、適応音響モデルπ[r] kΔを形成する正規分布の平均値を要素として有するベクトルである。[ζmc]は、拡張平均ベクトル(extended mean vector)である。拡張平均ベクトル[ζmc]は、バイアスオフセット値(bias offset)wと平均ベクトル[μmc (c)]を結合したベクトル、つまり[w,[μmc (c)と表されるベクトルである。バイアスオフセット値wは、1又は0の値であり、それぞれバイアスオフセットを用いるか否かを示す。平均ベクトル[μmc (c)]は、もとの音響モデルπ[r] (c)を形成する正規分布の平均値を要素として有するベクトルである。
式(10)において、[Σmc kΔ]は、共分散行列(covariance matrix)を示す。共分散行列[Σmc kΔ]は、適応音響モデルπ[r] kΔを形成する正規分布の共分散を要素として有するベクトルである。[Bmc]は、コレスキ因子(Choleski factor)の逆行列[Cmc−1である。コレスキ因子[Cmc]は、共分散行列[Σmc]と式(11)に示す関係を有する。
[Σmc−1=[Cmc][Cmc … (11)
共分散行列[Σmc]は、もとの音響モデルπ[r] (c)を形成する正規分布の共分散行列を要素として有する行列である。
従って、音響モデル適応部104は、もとの音響モデルπ[r] (c)について、式(9)、(10)に示す関係を用いて残響特性A’[r] kΔ(ω,r’)毎に適応音響モデルπ[r] kΔに変換することができる。
(補正データ生成部105の構成)
次に、本実施形態に係る補正データ生成部105の構成について説明する。
図4は、本実施形態に係る補正データ生成部105の構成を示すブロック図である。
補正データ生成部105は、後期反射特性設定部1051、残響特性設定部1052、2つの乗算部1053−1、1053−2、及び重み算出部1054を備える。
後期反射特性設定部1051は、残響特性合成部101から入力された残響特性データが示すRTF A’[r] kΔ(ω,r’)に係る後期反射特性として後期反射の伝達関数A’L,[r] kΔ(ω,r’)を乗算部1053−1に乗算係数として設定する。
ここで、後期反射特性設定部1051は、RTF A’[r] kΔ(ω,r’)を時間領域に変換したインパルス応答を算出し、算出したインパルス応答から所定の経過時間(例えば、30ms)よりも後の成分を抽出する。後期反射特性設定部1051は、抽出した成分を周波数領域に変換して後期反射特性の伝達関数A’L,[r] kΔ(ω,r’)を算出することができる。
残響特性設定部1052は、残響特性合成部101から入力された残響特性データが示すRTF A’[r] kΔ(ω,r’)を乗算部1053−2に乗算係数として設定する。
乗算部1053−1、1053−2は、音声信号取得部102からそれぞれ入力された音声信号を周波数領域に変換した周波数領域係数と、それぞれに設定された乗算係数を乗算し、残響付加音声の周波数領域係数r[r] kΔ(ω,r’,t)、後期反射の周波数領域係数l[r] kΔ(ω,r’t)を算出する。ここで、tは、その時点におけるフレーム時刻を示す。乗算部1053−1、1053−2は、算出した残響付加音声の周波数領域係数r[r] kΔ(ω,r’t)、後期反射の周波数領域係数l[r] kΔ(ω,r’t)を、それぞれ重み算出部1054に出力する。
重み算出部1054は、乗算部1053−1、1053−2から残響付加音声の周波数領域係数r[r] kΔ(ω,r’t)、後期反射の周波数領域係数l[r] kΔ(ω,r’t)がそれぞれ入力される。重み算出部1054は、周波数帯域b毎に残響付加音声の周波数領域係数r[r] kΔ(ω,r’t)と後期反射の周波数領域係数l[r] kΔ(ω,r’t)との間の平均二乗誤差(mean square error)Eb,[r] kΔが最も小さくなる重み係数δb,[r] kΔを算出する。平均二乗誤差Eb,[r] kΔは、例えば、式(12)で表される。
Figure 0006169910
式(12)において、Tは、その時点までの予め定めた時間長(例えば、10秒)を示す。重み算出部1054は、周波数帯域b毎に算出した重み係数δb,[r] kΔを示す補正データを残響特性選択部106の残響モデル記憶部1061(図5)に記憶する。
(残響特性選択部106の構成)
次に、本実施形態に係る残響特性選択部106の構成について説明する。
図5は、本実施形態に係る残響特性選択部106の構成を示すブロック図である。
残響特性選択部106は、残響モデル記憶部1061、尤度算出部1062、及び補正データ読出部1063を含んで構成される。
残響モデル記憶部1061には、音響モデル適応部104が生成した適応音響モデルπ[r] kΔと補正データ生成部105が生成した補正データが対応付けて記憶されている。
尤度算出部1062は、特徴量算出部108から入力された特徴量データが示す音響特徴量T[u’]について、残響モデル記憶部1061に記憶された音響モデルπ[r] kΔのそれぞれについて尤度P(T[u’]|π[r] kΔ)を算出し、算出した尤度P(T[u‘]|π[r] kΔ)を補正データ読出部1063に出力する。
補正データ読出部1063は、尤度算出部1062から入力された尤度P(T[u’]|π[r] kΔ)のうち最大となる尤度max(P(T[u’]|π[r] kΔ))に係る音響モデルπ[r] kΔを選択する。補正データ読出部1063は、選択した音響モデルπ[r] kΔに対応付けられた補正データを残響モデル記憶部1061から読み出し、読み出した補正データを残響除去部109に出力する。
(GHDSS法)
次に、音源分離部107で用いられるGHDSS法について説明する。
GHDSS法は、収録された多チャネルの音響信号を音源毎の音響信号に分離する一つの方法である。この方法では、分離行列(separation matrix)[V(ω)]が逐次に算出され、入力音声ベクトル[x(ω)]に分離行列[V(ω)]を乗算して音源ベクトル[u(ω)]が推定される。分離行列[V(ω)]は、各音源から収音部12の各マイクロホンまでの伝達関数を要素とする伝達関数行列[H(ω)]の擬似逆行列(pseudo−inverse matrix)である。入力音声ベクトル[x(ω)]は、各チャネルの音響信号の周波数領域係数を要素とするベクトルである。音源ベクトル[u(ω)]は、各音源が発する音響信号の周波数領域係数を要素とするベクトルである。
GHDSS法は、分離行列[V(ω)]を算出する際、分離尖鋭度(separation sharpness)JSS、幾何制約度(geometric constraints)JGCといった2つのコスト関数をそれぞれ最小化するように音源ベクトル[u(ω)]を算出する方法である。
分離尖鋭度JSSは、1つの音源が他の音源として誤って分離される度合いを表す指標値であり、例えば、式(13)で表される。
Figure 0006169910
式(13)において、||…||は、…のフロベニウスノルム(Frobenius norm)を示す。*は、ベクトル又は行列の共役転置(conjugate transpose)を示す。diag(…)は、…の対角要素からなる対角行列(diagonal matrix)を示す。
幾何制約度JGCは、音源ベクトル[u(ω)]の誤差の度合いを表す指標値であり、例えば、式(14)で表される。
Figure 0006169910
式(14)において、[I]は、単位行列(unit matrix)を示す。
(残響モデルデータ生成処理)
次に、本実施形態に係る残響モデルデータ生成処理について説明する。次に説明する残響モデルデータ生成処理は、後述する音声処理を行う前に予め実行しておく。
図6は、本実施形態に係る残響モデルデータ生成処理を示すフローチャートである。
(ステップS201)残響特性合成部101は、予め定めた残響モデルに基づいて目標とする距離r’に応じた残響特性A’[r] kΔ(ω,r’)を示す残響特性データを合成する。残響特性合成部101は、合成した残響特性データを残響付加部103及び補正データ生成部105に出力する。その後、ステップS202に出力する。
(ステップS202)残響付加部103は、音声信号取得部102から入力された時間領域の音声信号を周波数領域の周波数領域係数に変換し、変換した周波数領域係数に残響特性合成部101から入力された残響特性データを示す残響特性A’[r] kΔ(ω,r’)をそれぞれ乗じて、残響付加音声の周波数領域係数s[r] kΔ(ω,r’)を算出する。算出した周波数領域係数s[r] kΔ(ω,r’)を示す残響付加周波数領域係数データを音響モデル適応部104に出力する。その後、ステップS204に出力する。
(ステップS203)音響モデル適応部104は、予め記憶した音響モデルπ(c)に対し、残響付加部103から入力された残響付加周波数領域係数データが示す変換係数s[r] kΔ(ω,r’)をそれぞれ用いて尤度が最大になる適応音響モデルπ[r] kΔを生成する。音響モデル適応部104は、生成した適応音響モデルπ[r] kΔを残響モデル記憶部1061に記憶する。その後、ステップS203に出力する。
(ステップS204)補正データ生成部105は、残響特性合成部101から入力された残響特性データに基づいて、各音源について予め定めた周波数帯域b毎に重み係数δb,[r] kΔをそれぞれ算出する。ここで、重み係数δb,[r] kΔは、重み係数δb,[r] kΔで補正した後期反射のパワーと残響付加音声のパワーの差が最小化されるように算出される。補正データ生成部105は、算出した重み係数δb,[r] kΔを示す補正データを適応音響モデルπ[r] kΔと対応付けて残響モデル記憶部1061に記憶する。その後、図6に示す処理を終了する。
(音声処理)
次に、本実施形態に係る音声処理について説明する。
図7は、本実施形態に係る音声処理を示すフローチャートである。
(ステップS301)音源分離部107は、収音部12から入力されたNチャネルの音響信号について音源分離処理を行って1個又は複数の音源の音響信号に分離する。音源分離部107は、分離した音源毎の音響信号を特徴量算出部108及び残響除去部109に出力する。その後、ステップS302に進む。
(ステップS302)特徴量算出部108は、音源分離部107から入力された音響信号について予め定めた時間間隔毎に音響特徴量T(u’)を算出し、算出した音響特徴量T(u’)を示す特徴量データを残響特性選択部106に出力する。その後、ステップS303に進む。
(ステップS303)残響特性選択部106は、特徴量算出部108から入力された特徴量データが示す音響特徴量T[u’]について、残響モデル記憶部1061が記憶する音響モデルπ[r] kΔに基づく尤度P(T[u’]|π[r] kΔ)をそれぞれ算出する。残響特性選択部106は、算出した尤度P(T[u’]|π[r] kΔ)が最大となる音響モデルπ[r] kΔを選択し、選択した音響モデルπ[r] kΔに対応する補正データを残響モデル記憶部1061から読み出す。読み出した補正データを残響除去部109に出力する。その後、ステップS304に進む。
(ステップS304)残響除去部109は、音源分離部107から入力された音響信号を周波数帯域b毎の成分に分離し、分離した周波数帯域成分毎に残響特性選択部106から入力された補正データが示す重み係数δb,[r] kΔを用いて振幅を補正する。残響除去部109は、振幅を補正した帯域成分を周波数帯域b間で合成して残響除去音声を示す残響除去音声信号を生成し、生成した残響除去音声信号を音声認識部110に出力する。その後、ステップS305に進む。
(ステップS305)音声認識部110は、残響除去部109から入力された残響除去音声信号について音声認識処理を行い、発話内容を認識し、認識した発話内容を示す認識データを外部に出力する。その後、図7に示す処理を終了する。
(RTFの実測例)
次に、RTFの実測例について説明する。
図8は、RTFの測定環境の例を示す平面図である。
RTFは、既知の音響信号に基づく音を音源から発し、収音部12で収録した音響信号を用いて得ることができる。図8において、収音部12の中心を黒丸で示し、音源の位置を収音部12から右方に向う線分T0の×印で示す。ここで、距離rは0.5m、1.0m、1.5m、2.0m、2.5mである。
測定は、異なる残響特性を有する2つの実験室Rm1、Rm2でそれぞれ行った、実験室Rm1、Rm2の残響時間(reverberation time)T60は、それぞれ240ms、640msである。T60は、RTFが最大値から−60dBに低減するまでの経過時間である。各実験室において、収音部12を起点とする線分T1−T6の×印で示す各計測位置でRTFを計測しておく。線分T1、T2、T3の方向は、線分T0から右回りに20°、40°、60°の方向である。線分T4、T5、T6の方向は、線分T0から左回りに20°、40°、60°の方向である。
図9は、平均RTFの例を示す図である。
横軸はサンプル数、縦軸は平均RTFを示す。この例では、1サンプルは、1フレームに相当する。図9において、距離rが0.5m、0.6m、0.7m、0.9m、1.0m、1.5m、2.0m、2.5mのそれぞれについて、平均RTFが曲線で示されている。平均RTFは、距離rが大きくなるに従って低下する。例えば、距離rが0.5m、1.0m、2.0mであるとき、平均RTFは、それぞれ1.4×10−8、0.33×10−8、0.08×10−8となり、距離rの増加に応じて減少する。また、距離rにかかわらず、第100サンプルよりも後のサンプルで、平均RTFがほぼ0に低下する。この点は、位相が距離rに依存しないこと、つまり上述した仮定(i)を裏付ける。
図10は、RTFの利得の例を示す図である。
横軸は距離、縦軸は利得を示す。この例では、RTFの利得について、実測値が+印で示され、上述した残響モデルによる推定値が実線で示される。実測値は、推定値の周囲に分散し、距離rが小さいほど分散が大きくなる傾向がある。しかしながら、各距離rでの実測値の最大値、最小値同士も距離rにほぼ反比例する。例えば、実測値の最大値は、距離0.5m、1.0、2.0m、それぞれについて3.6、1.7、0.8となる。従って、これらの実測値は、係数α、αを調整することで推定値に近似できる。この点は、上述した仮定(ii)を裏付ける。
(実験結果)
次に、本実施形態に係る音声処理装置11を用いて音声認識精度を検証した実験結果について説明する。
実験は、上述した実験室Rm1、Rm2それぞれで行った。発話回数は、RTFを測定した各計測位置について200回であり、認識対象の語彙数は2万語である。音声認識部110では、音響モデルとして連続HMMの一種である、計8256個の正規分布からなるPTM(Phonetically Tied Mixture、音素内タイドミクスチャ)HMMを用いた。音響モデルを学習させる際、クリーン音声の学習用データベース(training database)として日本語新聞記事文(JNAS:Japanese Newspaper Article Sentence)コーパス(corpus)を用いた。音声認識部110で用いた言語モデルは、標準単語トライグラムモデル(standard word trigram model)である。
実験では、次の6通りの方法で発話された音声を処理し、処理した音声を用いて音声認識を行い、単語認識率を観測した。A.処理を行わない(unprocessed)、B.既存のブラインド残響除去(blind dereverberation)、C.従来のスペクトラルサブトラクション、D.残響除去部109による後期反射成分の除去(本実施形態)、E.残響除去部109による後期反射成分の除去と音響モデル適応部104によって選択した補正データの使用(本実施形態)、F.実測したRTFを用いた反響除去。
(単語認識率の例)
図11、図12は、処理方法毎の単語認識率の例を示す図である。
図11、図12には、それぞれ実験室Rm1、Rm2で得られた単語認識率(単位は%)が示されている。各行は発話された音声の処理方法(方法A−F)を示し、各列は距離r’を示す。
実験室Rm1、Rm2との間では、残響時間がより長い実験室Rm2の方が、単語認識率が低い。また、同一の実験室同士については、距離が大きくなるほど単語認識率が低い。単語認識率は、方法A、B、C、D、E、Fの順に高くなる。例えば、実験室Rm1、距離r’=2.5mの場合、本実施形態に係る方法Dでの50.8%は、従来技術に係る方法Cの46.1%よりも有意に高い。この結果は、上述した残響モデルに基づいた残響除去により従来技術よりも音声認識率が向上することを示す。
また、本実施形態に係る方法Eでの55.4%は、方法Dでの50.8%よりも有意に高く、方法Fでの56.1%とほぼ同等である。このことから、上述した音響モデルに基づいて選択した補正データを用いた残響除去により、残響特性を測定しなくとも残響特性が十分に除去された場合と同等な高い音声認識率を得ることができる。
以上に説明したように、本実施形態に係る音声処理装置(例えば、音声処理装置11)は、複数の残響特性のそれぞれについて、当該残響特性による残響成分の寄与を示す補正データと、当該残響特性による残響が付加された残響付加音声で学習した適応音響モデルとを対応付け、収録した音声について適応音響モデルに基づく尤度を算出し、算出した尤度が最も大きい適応音響モデルに対応する補正データを選択する残響特性選択部(例えば、残響特性選択部106)と、補正データに基づいて音声から残響成分を除去する残響除去部(例えば、残響除去部109)と、を備える。
このため、本実施形態に係る音声処理装置では、収録した音声について最も尤度が大きい適応音響モデルに係る残響特性を示す補正データが選択され、その補正データが示す残響成分が音声から除去される。従って、残響特性を計測しなくても音声認識精度を向上する残響抑圧を実現できる。
また、本実施形態に係る音声処理装置は、複数の残響特性において、音源からの音声を収録する収音部と前記音源までの距離に反比例する成分の寄与がそれぞれ異なる。このため、残響特性を合成する際に、収音部から音源までの距離によって異なる音源から放射される直接音による寄与を考慮することができるため、残響抑圧精度を向上させることができる。
(変形例)
次に、本実施形態に係る変形例について説明する。上述した実施形態と同一の構成については、同一の符号を付して説明を援用する。
図13は、本変形例に係る音声処理装置11aの構成を示すブロック図である。
音声処理装置11aは、残響特性合成部101a、音声信号取得部102、残響付加部103、音響モデル適応部104、補正データ生成部105、残響特性選択部106a、音源分離部107、特徴量算出部108、残響除去部109、音声認識部110及び音響モデル更新部(音響モデル予測部)111aを含んで構成される。
即ち、音声処理装置11aは、音声処理装置11(図2)において、残響特性合成部101及び残響特性選択部106に代えて、残響特性合成部101a及び残響特性選択部106aを備える。また、音声処理装置11aは、さらに音響モデル更新部111aを備える。
残響特性合成部101aは、上述した残響モデルに基づいて複数のそれぞれ異なる距離r’に応じた残響特性A’[r](ω,r’)を示す残響特性データを合成する。
具体的には、残響特性合成部101aは、上述した係数算出処理(図3)を行って係数α、αを定め、定めた係数α、αを式(3)に代入して、式(15)に示すように残響特性A’[r](ω,r’)の利得f(r’)を算出する。
f(r’)=α/r’+α … (15)
残響特性合成部101は、式(16)に示すように算出した利得f(r’)と予め取得したRTF A(ω,r)を乗じて残響特性A’[r](ω,r’)を算出する。
A’[r](ω,r’)=f(r’)A(ω,r) … (16)
式(15)の第1項のα/r’は、式(7)のk・Δ・α/r’から置き換えられている。つまり、式(15)の第1項は、距離r’の関数として明示される。このことは、後述する距離r’を陽に用いる処理を行ううえで好都合である。
残響特性合成部101aは、合成した残響特性データを残響付加部103、補正データ生成部105に出力する。残響付加部103、音響モデル適応部104、及び補正データ生成部105は、上述した処理において残響特性A’[r] kΔ(ω,r’)を示す。ここでは、残響特性データの代わりに残響特性A’[r](ω,r’)を示す残響特性データを用いる。
従って、残響特性選択部106aには、音響モデル適応部104が生成した適応音響モデルπ[r] と補正データ生成部105が生成した補正データが入力される。適応音響モデルπ[r] は、残響特性A’[r](ω,r’)に基づく残響付加周波数領域係数データを用いて尤度が最大になるように学習された音響モデルである。また、この補正データは、残響特性A’[r](ω,r’)について後期反射のパワーと残響付加音声のパワーの差が最小化されるように定められた重み係数δb,[r] を示すデータである。
残響特性選択部106aは、残響モデル記憶部1061a(図示せず)、尤度算出部1062(図5)及び補正データ読出部1063a(図示せず)を含んで構成される。
残響モデル記憶部1061aには、音響モデル適応部104が生成した適応音響モデルπ[r] 、補正データ生成部105が生成した補正データ及び距離r’を示す距離データが対応付けて記憶される。
従って、尤度算出部1062は、残響モデル記憶部1061aに記憶された音響モデルπ[r] のそれぞれについて尤度P(T[u’]|π[r] )を算出し、算出した尤度P(T[u’]|π[r] )を補正データ読出部1063aに出力する。
補正データ読出部1063aは、尤度算出部1062から入力された尤度P(T[u’]|π[r] )のうち最大となる尤度max(P(T[u’]|π[r] ))に係る音響モデルπ[r] を選択する。補正データ読出部1063aは、選択した音響モデルπ[r] kΔに対応付けられた補正データと距離データを残響モデル記憶部1061aから読み出す。補正データ読出部1063aは、読み出した補正データを残響除去部109に出力し、読み出した距離データを音響モデル更新部111aに出力する。以下の説明では、読み出した距離データが示す距離をr’と表す。これにより、検出するためのハードウェアを具備しなくても、距離r’を検出することができる。
音響モデル更新部111aには、クリーン音声(即ち、距離r)を用いて学習して生成された音響モデルλ(c)と、予め定めた距離rで発話された音声を用いて尤度が最大化されるように学習して生成された音響モデルλ(r)とが予め記憶されている記憶部を備える。音響モデルλ(c)、λ(r)は、上述した、クリーン音声による音響モデルπ[r] (c)、適応音響モデルπ[r] kΔ、π[r] kΔとは別個である。これらを区別するために、音響モデルλ(c)、λ(r)を、認識モデルλ(c)、λ(r)と呼ぶ。
音響モデル更新部111aは、記憶された2つの認識モデルλ(c)、λ(r)を用いて残響特性選択部106aから入力された距離データが示す距離r’に基づいて予測(predict)して認識モデルλ’を生成する。ここで、符号(c)、(r)は、それぞれクリーン音声、距離rで発話された残響付加音声を示す。予測とは、補間(interpolation)と外挿(extrapolation)のいずれも含む概念である。音響モデル更新部111aは、生成した認識モデルλ’を音声認識部110に出力し、音声認識部110が用いていた認識モデルをこの認識モデルλ’に更新する。これにより、音声認識部110は、音響モデル更新部111aが生成した音響モデルλ’を用いて音声認識処理を行う。ここでは、認識モデルλ(c)、λ(r)を、それぞれクリーン音響モデルλ(c)、残響付加音響モデルλ(r)と呼んで区別することがある。
(認識モデルを予測する処理)
次に、認識モデルを予測する処理について説明する。
認識モデルλ(c)、λ(r)は、音響特徴量に基づいて音素を認識する際に用いられる。認識モデルλ(c)、λ(r)は、例えば、連続隠れマルコフモデル(continuous HMM:Hidden Markov Model)である。連続HMMは、出力分布密度が連続関数になっているモデルであり、その出力分布密度が複数の正規分布を基底として重み付け加算して示される。例えば、残響付加音響モデルλ(r)は、例えば、正規分布毎の混合重み係数(mixture weight)[Cim (r)]、平均値(mean)[μim (r)]、共分散行列(covariance matrix)[Σim (r)]、遷移確率(transition probability)aij (r)といった統計量(statistics)で規定される。ここで、i、jは、それぞれ現在の状態、遷移先の状態を示すインデックスである。mは、上述した周波数帯域を示すインデックスである。クリーン音響モデルλ(c)も、残響付加音響モデルλ(r)と同じ種類の統計量[Cim (c)]、μim (c)、[Σim (c)]、aij (c)で規定される。
混合重み係数Cim (r)、平均値[μim (r)]、共分散行列[Σim (r)]、遷移確率aij (r)は、累積混合要素占有確率(Probability of accumulated mixture component occupancy)Lim (r)、状態占有確率(Probability of state occupancy)Lij (r)、平均(mean)[mij (r)]、分散(variance)[vij (r)]、といった十分統計量で表され、式(17)−(20)に示す関係を有する。
im (r)=Lim (r)/Σm=1 im (r) … (17)
[μim (r)]=[mij (r)]/Lim (r) … (18)
[Σim (r)]=[vij (r)]/Lim (r)−[μim (r)][μim (r) … (19)
ij (r)=Lij (r)/Σj=1 ij (r) … (20)
式(20)において、i、jは、それぞれ現在の状態、遷移先の状態を示すインデックスであり、Jは、遷移先の状態の数を示す。以下の説明では、累積混合要素占有確率Lim (r)、状態占有確率Lij (r)、平均[mij (r)]、分散[vij (r)]を事前確率(priors)β(r)と総称する。
音響モデル更新部111aは、認識モデルλ(r)、λ(c)を用いて、認識モデルλ(r)を基準として距離r’に応じた係数τ(r’)で線形予測(補間又は外挿)して音響モデルλ’を生成する。音響モデル更新部111aは、音響モデルλ’を生成する際、例えば、式(21)−(24)を用いる。
Figure 0006169910
Figure 0006169910
Figure 0006169910
Figure 0006169910
式(21)−(24)において、Lim (c)、Lij (c)、[mij (c)]、[vij (c)]は、それぞれクリーン音響モデルλ(c)での累積混合要素占有確率、状態占有確率、平均、分散であり、事前確率β(c)と総称する。係数τ(r’)は、r’=0のとき0となり、r’が大きくなるほど係数τ(r’)が減少する関数である。また、r’が0に近づくほど係数τ(r’)は無限大に漸近する。
事前確率β(c)はパワーレベルが増加することに伴い増加するため、距離r’に応じて変動する。式(21)−(24)に示すように、これらの統計量に基づいて線形予測を行うことで音響モデルλ’が高精度で予測される。従って、音声認識部110が、予測された音響モデルλ’を用いて音声認識処理を行うことで認識率が向上する。
次に、本変形例に係る音声処理について説明する。
図14は、本変形例に係る音声処理を示すフローチャートである。
図14に示す音声処理は、ステップS301、S302、S303a、S304、S305及びS306aを有する。即ち、この音声処理は、図7に示す音声処理において、ステップS303に代えてステップS303aを有し、さらにステップS306aを有する。
この音声処理では、ステップS301、S302が行われた後、ステップS303aに進む。
(ステップS303a)残響特性選択部106aは、特徴量算出部108から入力された特徴量データが示す音響特徴量T[u’]について、予め記憶された音響モデルπ[r] のそれぞれについて尤度P(T[u’]|π[r] )を算出する。残響特性選択部106aは、算出した尤度P(T[u’]|π[r] )が最大となる尤度max(P(T[u’]|π[r] ))に係る音響モデルπ[r] に対応付けられた補正データと距離データを特定する。残響特性選択部106aは、特定した補正データを残響除去部109に出力し、特定した距離データを音響モデル更新部111aに出力する。その後、ステップS304に進む。ステップS304が行われた後、ステップS306aに進む。
(ステップS306a)音響モデル更新部111aは、2つの認識モデルλ(c)、λ(r)を用いて残響特性選択部106aから入力された距離データが示す距離r’に基づいて予測して認識モデルλ’を生成する。音響モデル更新部111aは、音声認識部110に生成した認識モデルλ’を設定する。その後、ステップS305を行い、図14に示す処理を終了する。
なお、音声処理装置11aは、音響モデル更新部111aに限らず、距離r’に応じた他の処理を行う構成を備えてもよい。距離r’に応じた他の処理を行う構成とは、例えば、距離r’に応じて他の音源から取得した音響信号の音量を制御する音量制御部(図示せず)である。また、そのような構成は、距離r’が予め定めた距離の閾値よりも大きくなったとき、音声認識部110における音声認識処理を停止する認識制御部(図示せず)であってもよい。
このように、本変形例では、距離を検出するためのハードウェアを具備せずに、残響環境下で発声された音声に基づいて、その音声の音源である距離r’を検出できる。その距離r’に応じて認識モデルの予測等、種々の制御を行うことができる。
ここで、本変形例に係る音声処理装置(例えば、音声処理装置11a)は、予め定めた距離に係る残響特性による残響が付加された残響付加音声で学習した第1の音響モデル(例えば、残響付加音響モデル)と、残響を無視できる環境下での音声を用いて学習された第2の音響モデル(例えば、クリーン音響モデル)から、残響特性選択部(例えば、残響特性選択部106a)で選択された距離データが示す距離に応じた音響モデルを予測する音響モデル予測部(例えば、音響モデル更新部111a)と、予測された音響モデルを用いて、残響が除去された音声に対して音声認識処理を行う音声認識部(例えば、音声認識部110)を備える。
このため、本変形例によれば、クリーン音響モデルと残響付加音響モデルから選択した距離に基づいて残響環境に応じた音響モデルが予測され、予測された音響モデルを用いて音声認識処理が行われるため音声認識精度が向上する。
なお、上述した実施形態において、残響特性合成部101は、残響特性A’[r] kΔ(ω,r’)を生成する際、距離r’に反比例する成分に代え、又はこれとともに、距離r’によらない一定の成分(例えば、式(3)における係数αの項)について多重化してもよい。
なお、上述した実施形態、変形例において、収音部12が備えるマイクロホンの個数Nが1である場合には、音源分離部107は省略されてもよい。
上述した音声処理装置11、11aは、収音部12と一体化されていてもよい。
なお、上述した実施形態において、尤度算出部1062は、残響モデル記憶部1061に記憶された適応音響モデルπ[r] kΔのうち少なくとも2個を選択し、選択した適応音響モデルについて予測処理を行ってもよい。この予測処理において、尤度算出部1062は、選択した適応音響モデルをそれぞれ形成する統計量について各適応音響モデルの寄与を示す予測係数で重み付け演算を行う。尤度算出部1062は、重み付け演算が行われた統計量から予測された適応音響モデルを形成する。その場合、尤度算出部1062は、予測された適応音響モデルに基づいて、特徴量算出部108から入力された特徴量データが示す音響特徴量T[u’]について尤度を算出する。そして、補正データ読出部1063は、算出した尤度が最大となる適応音響モデルの組と、予測係数を選択する。
そして、補正データ読出部1063は、選択した適応音響モデルの組のそれぞれに対応する補正データが示す重み係数δb,[r] kΔについて、選択した予測係数を用いて予測処理を行って重み係数を算出する。補正データ読出部1063は、算出した重み係数を示す補正データを残響除去部109に出力する。
これにより、予め離散的に設定された重み係数δb,[r] kΔが残響環境に応じて平滑化されるため、残響除去精度が向上し、ひいては音声認識精度が向上する。
また、上述した変形例でも、尤度算出部1062は、残響モデル記憶部1061aに記憶された適応音響モデルπ[r] のうち少なくとも2個を選択し、選択した適応音響モデルについて予測処理を行ってもよい。尤度算出部1062は、予測された適応音響モデルに基づいて、特徴量算出部108から入力された特徴量データが示す音響特徴量T[u’]について尤度を算出し、算出した尤度が最大となる適応音響モデルの組と、予測係数を選択する。補正データ読出部1063aは、選択した適応音響モデルの組のそれぞれに対応する補正データが示す重み係数δb,[r] について、選択した予測係数を用いて予測処理を行って重み係数を算出し、算出した重み係数を示す補正データを残響除去部109に出力する。これにより、残響除去精度が向上し、ひいては音声認識精度が向上する。
上述した変形例において、補正データ読出部1063aは、選択した適応音響モデルの組のそれぞれに対応する距離データが示す距離r’について予測処理に用いた係数を用いて予測処理を行って距離を算出し、算出した距離を示す距離データを音響モデル更新部111aに出力してもよい。
これにより、予め離散的に設定された距離が残響環境に応じて平滑化されるため、距離の推定精度が向上し、この距離を用いて予測した音響モデルを用いることで音声認識精度が向上する。
なお、上述した実施形態及び変形例における音声処理装置11、11aの一部、例えば、残響特性合成部101、101a、音声信号取得部102、残響付加部103、音響モデル適応部104、補正データ生成部105、残響特性選択部106、106a、音源分離部107、特徴量算出部108、残響除去部109、音声認識部110及び音響モデル更新部111aをコンピュータで実現するようにしてもよい。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、音声処理装置11、11aに内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
また、上述した実施形態及び変形例における音声処理装置11、11aの一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。音声処理装置11、11aの各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
11、11a…音声処理装置、
101、101a…残響特性合成部、102…音声信号取得部、103…残響付加部、
104…音響モデル適応部、105…補正データ生成部、
1051…後期反射特性設定部、1052…残響特性設定部、
1053(1053−1、1053−2)…乗算部、1054…重み算出部、
106、106a…残響特性選択部、
1061、1061a…残響モデル記憶部、1062…尤度算出部、
1063、1063a…補正データ読出部、
107…音源分離部、108…特徴量算出部、109…残響除去部、110…音声認識部、
111a…音響モデル更新部(音響モデル予測部)
12…収音部

Claims (3)

  1. 音源からの音声を収録する収音部と前記音源までの距離に反比例する成分の寄与がそれぞれ異なることを特徴とする複数の残響特性のそれぞれについて、当該残響特性による残響成分の寄与を示す補正データと、当該残響特性による残響が付加された残響付加音声で学習した適応音響モデルとを対応付け、収録した音声について前記適応音響モデルに基づく尤度を算出し、算出した尤度が最も大きい適応音響モデルに対応する補正データを選択する残響特性選択部と、
    前記補正データに基づいて前記音声から残響成分を除去する残響除去部と、
    を備えることを特徴とする音声処理装置。
  2. 前記残響特性選択部は、前記補正データ及び前記適応音響モデルにそれぞれの残響特性に係る前記距離を示す距離データを対応付け、前記算出した尤度が最も大きい適応音響モデルに対応する距離データを選択することを特徴とする請求項に記載の音声処理装置。
  3. 予め定めた距離に係る残響特性による残響が付加された残響付加音声で学習した第1の音響モデルと、残響を無視できる環境下での音声を用いて学習された第2の音響モデルから、前記残響特性選択部が選択した距離データが示す距離に応じた音響モデルを予測する音響モデル予測部と、
    前記音響モデル予測部が予測した音響モデルを用いて、前記音声について音声認識処理を行う音声認識部と、
    を備えることを特徴とする請求項に記載の音声処理装置。
JP2013143079A 2013-07-08 2013-07-08 音声処理装置 Active JP6169910B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013143079A JP6169910B2 (ja) 2013-07-08 2013-07-08 音声処理装置
US14/265,612 US9208782B2 (en) 2013-07-08 2014-04-30 Speech processing device, speech processing method, and speech processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013143079A JP6169910B2 (ja) 2013-07-08 2013-07-08 音声処理装置

Publications (2)

Publication Number Publication Date
JP2015018015A JP2015018015A (ja) 2015-01-29
JP6169910B2 true JP6169910B2 (ja) 2017-07-26

Family

ID=52133397

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013143079A Active JP6169910B2 (ja) 2013-07-08 2013-07-08 音声処理装置

Country Status (2)

Country Link
US (1) US9208782B2 (ja)
JP (1) JP6169910B2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5841986B2 (ja) * 2013-09-26 2016-01-13 本田技研工業株式会社 音声処理装置、音声処理方法、及び音声処理プログラム
US9338761B2 (en) * 2014-02-26 2016-05-10 Empire Technology Development Llc Presence-based device mode modification
JP6543843B2 (ja) * 2015-06-18 2019-07-17 本田技研工業株式会社 音源分離装置、および音源分離方法
WO2017151362A1 (en) * 2016-02-29 2017-09-08 Ember Technologies, Inc. Liquid container and module for adjusting temperature of liquid in container
JP6703460B2 (ja) * 2016-08-25 2020-06-03 本田技研工業株式会社 音声処理装置、音声処理方法及び音声処理プログラム
US10219098B2 (en) * 2017-03-03 2019-02-26 GM Global Technology Operations LLC Location estimation of active speaker
US10468032B2 (en) * 2017-04-10 2019-11-05 Intel Corporation Method and system of speaker recognition using context aware confidence modeling
CN109754821B (zh) * 2017-11-07 2023-05-02 北京京东尚科信息技术有限公司 信息处理方法及其系统、计算机系统和计算机可读介质
KR102527278B1 (ko) * 2017-12-04 2023-04-28 삼성전자주식회사 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체
US11011162B2 (en) 2018-06-01 2021-05-18 Soundhound, Inc. Custom acoustic models
JP6891144B2 (ja) * 2018-06-18 2021-06-18 ヤフー株式会社 生成装置、生成方法及び生成プログラム
US10818296B2 (en) 2018-06-21 2020-10-27 Intel Corporation Method and system of robust speaker recognition activation
US20220114995A1 (en) * 2019-07-03 2022-04-14 Hewlett-Packard Development Company, L.P. Audio signal dereverberation
CN114008999B (zh) 2019-07-03 2024-09-03 惠普发展公司,有限责任合伙企业 声学回声消除
US11657828B2 (en) * 2020-01-31 2023-05-23 Nuance Communications, Inc. Method and system for speech enhancement

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0566790A (ja) * 1991-09-10 1993-03-19 Oki Electric Ind Co Ltd 音声認識方法
JPH06236196A (ja) * 1993-02-08 1994-08-23 Nippon Telegr & Teleph Corp <Ntt> 音声認識方法および装置
JP2000075889A (ja) * 1998-09-01 2000-03-14 Oki Electric Ind Co Ltd 音声認識システム及び音声認識方法
JP2000194392A (ja) * 1998-12-25 2000-07-14 Sharp Corp 騒音適応型音声認識装置及び騒音適応型音声認識プログラムを記録した記録媒体
JP2003131683A (ja) * 2001-10-22 2003-05-09 Sony Corp 音声認識装置および音声認識方法、並びにプログラムおよび記録媒体
US8073147B2 (en) * 2005-11-15 2011-12-06 Nec Corporation Dereverberation method, apparatus, and program for dereverberation
JP2009003008A (ja) * 2007-06-19 2009-01-08 Advanced Telecommunication Research Institute International 雑音抑圧装置、音声認識装置、雑音抑圧方法、及びプログラム
JP2009216835A (ja) * 2008-03-07 2009-09-24 Fujitsu Ten Ltd 音響エコー除去装置、車載装置および音響エコー除去方法
JP5079761B2 (ja) * 2009-09-01 2012-11-21 日本電信電話株式会社 直間比推定装置、音源距離測定装置、雑音除去装置、各装置の方法と、装置プログラム

Also Published As

Publication number Publication date
JP2015018015A (ja) 2015-01-29
US9208782B2 (en) 2015-12-08
US20150012268A1 (en) 2015-01-08

Similar Documents

Publication Publication Date Title
JP6169910B2 (ja) 音声処理装置
JP6077957B2 (ja) 音声処理装置、音声処理方法、及び音声処理プログラム
CN112447191B (zh) 信号处理装置以及信号处理方法
US9972315B2 (en) Speech processing device, speech processing method, and speech processing system
JP6261043B2 (ja) 音声処理装置、音声処理方法、及び音声処理プログラム
JP5706782B2 (ja) 音源分離装置及び音源分離方法
JP5124014B2 (ja) 信号強調装置、その方法、プログラム及び記録媒体
JP5738020B2 (ja) 音声認識装置及び音声認識方法
US11894010B2 (en) Signal processing apparatus, signal processing method, and program
JP6124949B2 (ja) 音声処理装置、音声処理方法、及び音声処理システム
US20170140771A1 (en) Information processing apparatus, information processing method, and computer program product
JP6454916B2 (ja) 音声処理装置、音声処理方法及びプログラム
US10403300B2 (en) Spectral estimation of room acoustic parameters
EP2058797A1 (en) Discrimination between foreground speech and background noise
US9858949B2 (en) Acoustic processing apparatus and acoustic processing method
US10283115B2 (en) Voice processing device, voice processing method, and voice processing program
JP5841986B2 (ja) 音声処理装置、音声処理方法、及び音声処理プログラム
JP6543848B2 (ja) 音声処理装置、音声処理方法及びプログラム
JP2014145838A (ja) 音響処理装置及び音響処理方法
Karbasi et al. Twin-HMM-based non-intrusive speech intelligibility prediction
Garg et al. A comparative study of noise reduction techniques for automatic speech recognition systems
US9875755B2 (en) Voice enhancement device and voice enhancement method
KR101068666B1 (ko) 잡음 환경에서 적응적인 잡음 제거도에 기초한 잡음 제거 방법 및 장치
JP2003076393A (ja) 騒音環境下における音声推定方法および音声認識方法
WO2020230460A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170629

R150 Certificate of patent or registration of utility model

Ref document number: 6169910

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150