[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5485909B2 - オーディオ信号処理方法及び装置 - Google Patents

オーディオ信号処理方法及び装置 Download PDF

Info

Publication number
JP5485909B2
JP5485909B2 JP2010541397A JP2010541397A JP5485909B2 JP 5485909 B2 JP5485909 B2 JP 5485909B2 JP 2010541397 A JP2010541397 A JP 2010541397A JP 2010541397 A JP2010541397 A JP 2010541397A JP 5485909 B2 JP5485909 B2 JP 5485909B2
Authority
JP
Japan
Prior art keywords
signal
scale factor
compensation
data
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010541397A
Other languages
English (en)
Other versions
JP2011509428A (ja
Inventor
ヒュン リム,ジェ
スー キム,ドン
クク リ,ヒュン
ヨン ユン,スン
スク パン,ヘ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2011509428A publication Critical patent/JP2011509428A/ja
Application granted granted Critical
Publication of JP5485909B2 publication Critical patent/JP5485909B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/028Noise substitution, i.e. substituting non-tonal spectral components by noisy source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • G10L19/035Scalar quantisation

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本発明は、オーディオ信号の損失信号を処理する信号処理方法及び装置に関する。本発明は、広範囲のアプリケーションに適するものであるが、特に、オーディオ信号の損失信号の処理に適する。
一般に、マスキング(masking)効果は、心理音響理論によるもので、大きさの大きい信号に隣接した小さい信号が大きい信号によって遮蔽されることによって、人間の聴覚構造がこれをよく認知できないという特性を用いるものである。このようなマスキング効果を用いることによって、オーディオ信号のエンコーディング時に一部のデータを損失するおそれがある。
従来のデコーダは、マスキング及び量子化による損失信号を補償するのに不十分であるという問題を有する。
したがって、本発明は、従来技術の制限及び欠点に起因する1つまたはそれより多い問題点を解決するオーディオ信号処理方法及び装置としてなされたものである。
本発明の目的は、マスキング過程及び量子化過程で損失した信号を非常に少ないビットの情報を用いて補償できる信号処理方法及び装置を提供することにある。
本発明の他の目的は、周波数ドメイン上のマスキング及び時間ドメイン上のマスキングなどの多様な方式を適宜組み合わせてマスキングを行うことができる信号処理方法及び装置を提供することにある。
本発明の更に他の目的は、音声信号及びオーディオ信号などのように互いに異なる特性を有する信号をその特性によって適切な方式で処理しながらも、ビット率を最小化することができる信号処理方法及び装置を提供することにある。
本発明のさらなる特徴および利点は、以下の説明に記述されており、その一部についてはこの説明から明らかであり、また、発明の一般として理解できるであろう。本発明の目的および他の利点は、添付の図面とともに記載された説明および請求項で特に指摘した構成によって理解および実現できるであろう。
本発明の目的に従い、これら及び他の利点を達成するために、オーディオ信号処理方法は、スペクトルデータ及び損失信号補償パラメータを獲得し;前記スペクトルデータに基づいて損失信号を検出し;前記損失信号補償パラメータに基づいて、ランダム信号を用いて前記損失信号に対応する第1の補償データを生成し;前記第1の補償データに対応するスケールファクタを生成し、前記第1の補償データに前記スケールファクタを適用して第2の補償データを生成することを含む。
好適には、前記損失信号は、前記スペクトルデータが基準値以下である信号に該当する。
好適には、前記損失信号補償パラメータは補償レベル情報を含み、前記第1の補償データのレベルは前記補償レベル情報に基づいて決定される。
好適には、前記スケールファクタは、スケールファクタ基準値及びスケールファクタ差分値を用いて生成されたもので、前記スケールファクタ基準値は前記損失信号補償パラメータに含まれる。
好適には、前記第2の補償データはスペクトル係数に該当する。
本発明の目的に従い、これら及び他の利点をさらに達成するために、オーディオ信号処理装置は、スペクトルデータ及び損失信号補償パラメータを獲得するデマルチプレクサと、前記スペクトルデータに基づいて損失信号を検出する損失信号検出ユニットと、前記損失信号補償パラメータに基づいて、ランダム信号を用いて前記損失信号に対応する第1の補償データを生成する補償データ生成ユニットと、前記第1の補償データに対応するスケールファクタを生成し、前記第1の補償データに前記スケールファクタを適用して第2の補償データを生成するリスケーリングユニットと、を含む。
本発明の目的に従い、これら及び他の利点をさらに達成するために、オーディオ信号処理方法は、マスキングしきい値に基づいてマスキング効果を適用して入力信号のスペクトル係数を量子化することによって、スケールファクタ及びスペクトルデータを生成し;前記入力信号のスペクトル係数、前記スケールファクタ及び前記スペクトルデータを用いて損失信号を決定し;前記損失信号を補償するための損失信号補償パラメータを生成することを含む。
好適には、前記損失信号補償パラメータは、補償レベル情報及びスケールファクタ基準値を含み、前記補償レベル情報は、前記損失信号のレベルと関連した情報に対応し、前記スケールファクタ基準値は、前記損失信号のスケーリングと関連した情報に対応する。
本発明の目的に従い、これら及び他の利点をさらに達成するために、オーディオ信号処理装置は、マスキングしきい値に基づいてマスキング効果を適用して入力信号のスペクトル係数を量子化することによって、スケールファクタ及びスペクトルデータを獲得する量子化ユニットと、前記入力信号のスペクトル係数、前記スケールファクタ及び前記スペクトルデータを用いて損失信号を決定し、前記損失信号を補償するための損失信号補償パラメータを生成する損失信号予測ユニットと、を含む。
好適には、前記補償パラメータは、補償レベル情報及びスケールファクタ基準値を含み、前記補償レベル情報は、前記損失信号のレベルと関連した情報に対応し、前記スケールファクタ基準値は、前記損失信号のスケーリングと関連した情報に対応する。
本発明の目的に従い、これら及び他の利点をさらに達成するために、デジタルオーディオデータを格納し、コンピュータで読み取り可能な格納媒体において、前記デジタルオーディオデータは、スペクトルデータ、スケールファクタ及び損失信号補償パラメータを含み、前記損失信号補償パラメータは、量子化による損失信号を補償するための情報として補償レベル情報を含み、前記補償レベル情報は前記損失信号のレベルと関連した情報に対応する。
前述の概略的な説明および後述の詳細な説明はともに例示的かつ典型例であり、請求された本発明についてさらなる説明を提供するものであることを理解すべきである。
本発明は、次のような効果と利点を提供する。
第一に、マスキング及び量子化過程で損失された信号をデコーディング過程で補償できるので、音質が向上するという効果がある。
第二に、損失信号を補償するために非常に少ないビットの情報のみが必要であるので、ビット数を著しく節減させることができる。
第三に、周波数ドメイン上のマスキング及び時間ドメイン上のマスキングなどの多様な方式でマスキングを行うことによって、マスキングによるビット節減を最大化しながらも、ユーザの選択によってマスキングによる損失信号を補償し、結果として、音質損失を最小化できるという効果がある。
第四に、音声信号の特性を有する信号は音声コーディング方式でデコーディングし、オーディオ信号の特性を有する信号はオーディオコーディング方式でデコーディングするので、各信号の特性に符合するデコーディング方式が適応的に選択されるという効果がある。
本発明の実施例に係る損失信号分析装置の構成図である。 本発明の実施例に係る損失信号分析方法のフローチャートである。 スケールファクタ及びスペクトルデータを説明するための図である。 スケールファクタの適用範囲に対する各例を説明するための図である。 図1のマスキング/量子化ユニットの詳細な構成図である。 本発明の実施例に係るマスキング過程を説明するための図である。 本発明の実施例に係る損失信号分析装置が適用されたオーディオ信号エンコーディング装置の第1の例を示す図である。 本発明の実施例に係る損失信号分析装置が適用されたオーディオ信号エンコーディング装置の第2の例を示す図である。 本発明の実施例に係る損失信号補償装置の構成図である。 本発明の実施例に係る損失信号補償方法のフローチャートである。 本発明の実施例に係る第1の補償データ生成過程を説明するための図である。 本発明の実施例に係る損失信号補償装置が適用されたオーディオ信号デコーディング装置の第1の例を示す図である。 本発明の実施例に係る損失信号補償装置が適用されたオーディオ信号デコーディング装置の第2の例を示す図である。
以下、添付の図面を参照して本発明の好適な実施例を詳細に説明する。
本発明において、次の用語は次のような基準で解釈され、記載されていない用語も下記の趣旨によって解釈される。「コーディング」は、場合によってエンコーディング又はデコーディングに解釈され、「情報」は、値、パラメータ、係数、成分などを総称する用語であって、場合によって異なる意味に解釈されることもあり、本発明がこれに限定されることはない。
ここで、オーディオ信号は、広義では、ビデオ信号と区分される概念として、再生時に聴覚で識別可能な信号を意味し、狭義では、音声信号と区分される概念として、音声特性のない信号又は音声特性の少ない信号を意味する。
本発明に係るオーディオ信号処理方法及び装置は、損失信号分析装置及び方法又は損失信号補償装置及び方法になり、さらに、この装置及び方法が適用されたオーディオ信号エンコーディング方法及び装置又はオーディオ信号デコーディング方法及び装置になる。以下、損失信号分析/補償装置及び方法について説明し、オーディオ信号エンコーディング/デコーディング装置が行うオーディオ信号エンコーディング/デコーディング方法について説明する。
図1は、本発明の実施例に係るオーディオ信号エンコーディング装置の構成を示す図であり、図2は、本発明の実施例に係るオーディオ信号エンコーディング方法の順序を示す図である。
まず、図1及び図2のうち図1を参照すれば、損失信号分析装置100は、損失信号予測ユニット120を含み、マスキング/量子化ユニット110をさらに含むことができる。ここで、損失信号予測ユニット120は、損失信号決定ユニット122及びスケールファクタコーディングユニット124を含むことができる。以下、図1及び図2を参照しながら説明する。
まず、マスキング/量子化ユニット110は、心理音響モデルを用いてスペクトルデータに基づいてマスキングしきい値を生成する。そして、マスキング/量子化ユニット110は、このマスキングしきい値を用いてダウンミックス(DMX)に該当するスペクトル係数を量子化することによって、スケールファクタ及びスペクトルデータを獲得する(S110段階)。ここで、スペクトル係数は、MDCT(Modified Discrete Transform)を通して獲得されたMDCT係数であるが、本発明がこれに限定されることはない。ここで、マスキングしきい値は、マスキング効果を適用するためのものである。
マスキング効果は、心理音響理論によるもので、大きさの大きい信号に隣接した小さい信号が大きい信号によって遮蔽されることによって、人間の聴覚構造がこれをよく認知できないという特性を用いるものである。
例えば、周波数帯域に該当する各データのうち最も大きい信号が中間に存在し、この信号より遥かに小さい大きさの信号が周辺にいくつか存在する。ここで、最も大きい信号がマスカー(masker)になり、このマスカーを基準にしてマスキングカーブが描かれる。このマスキングカーブによって遮蔽される小さい信号は、マスキングされた信号又はマスキー(maskee)になる。マスキングは、このマスキングされた信号を除外し、残りの信号のみを有効な信号として残すことである。このとき、マスキング効果で除去された各損失信号は、原則的に0にセッティングされ、場合によってデコーダで復元されるが、これについては、本発明に係る損失信号補償方法及び装置についての説明と共に後で説明する。
一方、本発明に係るマスキング方式には多様な実施例が存在するが、これについての具体的な説明は、図5及び図6を参照して後で具体的に説明する。
上述したように、マスキング効果を適用するためにはマスキングしきい値が用いられるが、マスキングしきい値が用いられる過程は次の通りである。
各スペクトル係数はスケールファクタバンド単位で分けられるが、このスケールファクタバンド別にエネルギー(En)を求めることができる。このときに得られた各エネルギー値を対象にして心理音響モデル理論によるマスキングスキームを適用することができる。そして、スケールファクタ単位のエネルギー値である各マスカーからマスキングカーブを得る。そして、これを連結すれば、全体的なマスキングカーブを得ることができる。このマスキングカーブを参照し、各スケールファクタバンド別に量子化の基本になるマスキングしきい値(Eth)を獲得することができる。
マスキング/量子化ユニット110は、前記マスキングしきい値を用いてマスキング及び量子化を行うことによって、スペクトル係数からスケールファクタ及びスペクトルデータを獲得するが、まず、スペクトル係数は、下記の数式1のように、整数であるスケールファクタ及び整数であるスペクトルデータを通して類似した形態で表現される。このように整数である二つのファクタで表現されることが量子化過程である。
Figure 0005485909
ここで、「X」はスペクトル係数、「scalefactor」はスケールファクタ、「spectral data」はスペクトルデータである。
数式1によれば、等号が使用されていないことが分かる。すなわち、スケールファクタとスペクトルデータが整数のみを有し、その値の解像度によって任意のXを全て表現できないことから、等号が成立しない。したがって、数式1の右辺は、下記の数式2のようにX’で表現される。
Figure 0005485909
図3は、本発明の実施例に係る量子化過程を説明するための図であり、図4は、スケールファクタの適用範囲に対する各例を説明するための図である。
まず、図3には、スペクトル係数(a、b、cなど)をスケールファクタ(A、B、Cなど)及びスペクトルデータ(a’、b’、c’など)で表す過程が概念的に示されている。スケールファクタ(A、B、Cなど)は、グループ(特定バンド又は特定区間)に適用されるファクタである。このように、所定のグループ(例えば、スケールファクタバンド)を代表するスケールファクタを用いて、そのグループに属する各係数の大きさを一括的に変換することによって、コーディング効率を高めることができる。
一方、このようにスペクトル係数を量子化する過程でエラーが発生しうるが、このエラー信号は、次の数式3のように元の係数Xと量子化による値X’との差として見ることができる。
Figure 0005485909
ここで、Xは数式1、X’は数式2で表現された通りである。
前記エラー信号(Error)に対応するエネルギーが量子化エラー(Eerror)である。
このように獲得されたマスキングしきい値(Eth)及び量子化エラー(Eerror)を用いて下記の数式4に表示された条件を満足するように、スケールファクタ及びスペクトルデータを求める。
Figure 0005485909
ここで、Ethはマスキングしきい値で、Eerrorは量子化エラーである。
すなわち、前記条件を満足すれば、量子化エラーがマスキングしきい値より小さくなるので、量子化によるノイズのエネルギーはマスキング効果によって遮蔽される。すなわち、量子化によるノイズは聴取者によって聞き取れないことがある。
このように前記条件を満足するようにスケールファクタ及びスペクトルデータを生成して伝送すれば、デコーダは、これを用いて元のオーディオ信号とほぼ同一の信号を生成することができる。
しかし、ビットレートの不足によって量子化の解像度が充分でないことから前記条件を満足しない場合、音質劣化が発生するおそれがある。特に、あらゆるスケールファクタバンド内に存在するスペクトルデータが全て0になる場合、音質劣化が著しく感じられる。また、心理音響モデルによる前記条件を満足するとしても、特定人には音質劣化が感じられることもある。このようにスペクトルデータが0になってはならない区間で0に変換される信号などは、元の信号から損失される信号になる。
図4には、スケールファクタが適用される対象に対する多様な例が示されている。
まず、図4の(A)を参照すれば、特定フレーム(frameN)に属するk個のスペクトルデータが存在するとき、スケールファクタ(scf)は、一つのスペクトルデータに対応するファクタであることが分かる。図4の(B)を参照すれば、一つのフレーム内にスケールファクタバンド(sfb)が存在し、スケールファクタの適用対象は、特定スケールファクタバンド内に存在するスペクトルデータであることが分かる。一方、図4の(C)を参照すれば、スケールファクタの適用対象は、特定フレーム内に存在するスペクトルデータ全体であることが分かる。すなわち、スケールファクタの適用対象は多様であるが、一つのスペクトルデータ、一つのスケールファクタバンドに存在する多数のスペクトルデータ、一つのフレーム内に存在する多数のスペクトルデータのうち一つである。
このように、マスキング/量子化ユニットは、上記のような方式でマスキング効果を適用してスケールファクタ及びスペクトルデータを獲得する。
再び図1及び図2を参照すれば、損失信号予測ユニット120の損失信号決定ユニット122は、元のダウンミックス(スペクトル係数)と量子化されたオーディオ信号(スケールファクタ及びスペクトルデータ)を分析することによって、損失信号を決定する(S120段階)。
具体的には、スケールファクタ及びスペクトルデータを用いてスペクトル係数を復元し、この係数と元のスペクトル係数との差を求め、前記数式3のようなエラー信号(Error)を獲得する。前記数式4のような条件下でスケールファクタとスペクトルデータを決定する。すなわち、補正されたスケールファクタ及び補正されたスペクトルデータを出力する。場合(例えば、ビットレートが低い場合)によっては、数式4のような条件にしたがわないこともある。
このようにスケールファクタとスペクトルデータを確定した後、これによる損失信号を決定する。損失信号は、条件にしたがって基準値以下の信号になったり、条件から逸脱するが、任意に基準値にセッティングされる信号になる。ここで、基準値は0であるが、本発明がこれに限定されることはない。
損失信号決定ユニット122は、上記のように損失信号を決定した後、この損失信号に対応する補償レベル情報を生成する。このとき、補償レベル情報は、損失信号のレベルに対応する情報である。デコーダが補償レベル情報を用いて損失信号を補償する場合、補償レベル情報に対応する値より小さい絶対値を有する損失信号に補償することができる。
スケールファクタコーディングユニット124は、スケールファクタを受信し、特定領域に対応するスケールファクタに対してスケールファクタ基準値及びスケールファクタ差分値を生成する(S140段階)。ここで、特定領域は、損失信号が存在する領域のうち一部に対応する領域である。例えば、特定バンドに属する情報がいずれも損失信号に対応する領域に該当するが、本発明がこれに限定されることはない。
一方、前記スケールファクタ基準値は、フレームごとに決定される値になる。そして、前記スケールファクタ差分値は、スケールファクタからスケールファクタ基準値を引いた値であって、スケールファクタが適用される対象(例えば、フレーム、スケールファクタバンド、各サンプルなど)ごとに決定される値であるが、本発明がこれに限定されることはない。
上述したS130段階で生成された補償レベル情報及びS140段階で生成されたスケールファクタ基準値が損失信号補償パラメータとしてデコーダに伝送され、スケールファクタ差分値とスペクトルデータは元のスキームとしてデコーダに伝送される。
以上、損失信号の予測過程について説明したが、以下では、上述したように、図5及び図6を参照しながら本発明の実施例に係るマスキング方式について具体的に説明する。
マスキング方式における多様な実施例
図5を参照すれば、マスキング/量子化ユニット120は、周波数マスキング部112、時間マスキング部114、マスカー決定部116及び量子化部118を含むことが分かる。
周波数マスキング部112は、周波数ドメイン上でのマスキングを処理することによってマスキングしきい値を算出し、時間マスキング部114は、時間ドメイン上でのマスキングを処理することによってマスキングしきい値を算出する。マスカー決定部116は、周波数ドメイン上又は時間ドメイン上でのマスカーを決定する役割を担当する。また、量子化部118は、周波数マスキング部112又は時間マスキング部114によって算出されたマスキングしきい値を用いてスペクトル係数を量子化する。
一方、図6の(A)を参照すれば、時間ドメインのオーディオ信号が存在することが分かる。オーディオ信号は、特定数のサンプルをグルーピングしたフレーム単位で処理されるが、図6の(B)は、各フレームのデータに対して周波数変換を行った結果を示す図である。
図6の(B)を参照すれば、一つのフレームに対応するデータが一つのバー形態で表示されており、縦軸は周波数軸である。一つのフレーム内で各バンドに対応するデータは、バンド単位で周波数ドメイン上のマスキング処理が完了した結果である。すなわち、周波数ドメイン上のマスキング処理は、図5の周波数マスキング部112によって行われる。
一方、ここで、バンドは、臨界帯域(critical band:クリティカルバンド)に該当するが、臨界帯域は、人間の聴覚構造において周波数領域全体に対する刺激を独立的に受け入れる各区間の単位を意味する。任意の臨界帯域内に特定マスカーが存在し、そのバンド内でマスキング処理が行われるが、このマスキング処理は、隣接した臨界帯域内の他の信号には影響を与えない。
一方、図6の(C)は、各バンドごとに存在するデータのうち特定バンドに該当するデータの大きさを見やすくするために縦軸で表示した図である。
図6の(C)を参照すれば、横軸は時間軸であって、フレーム別(Fn-1、Fn、Fn+1)にデータの大きさが縦軸方向に表示されていることが分かる。このフレーム別データがそれぞれ独立的にマスカーとしての機能を行い、このマスカーを基準にしてマスキングカーブが描かれる。このマスキングカーブを基準にして時間方向にマスキング処理を行うことができる。ここで、時間ドメイン上のマスキングは、図5の時間マスキング部114によって行われる。
以下、図5の各構成要素がそれぞれの機能を行うための多様な方式について説明する。
1.マスキング処理方向
図6の(C)には、マスカーを基準にして右側方向のみが示されているが、時間マスキング部114は、時間的に順方向のマスキング処理だけでなく、逆方向のマスキング処理も行うことができる。時間軸上で隣接した未来に大きな信号が存在する場合、それより時間的にやや先んじた現在信号のうち大きさの小さい信号は、人間の聴覚機関に影響を及ぼさないことがある。具体的には、その小さい信号を認知する前に、隣接した未来の大きな信号によってその信号が埋め込まれることがある。もちろん、逆方向にマスキング効果が起きる時間範囲は、順方向にマスキング効果が起きる時間範囲より短い。
2.マスカー算出基準
マスカー決定部116は、マスカーを決定するにおいて、最も大きい信号をマスカーとして決定することができ、該当臨界帯域に属する各信号に基づいてマスカーの大きさを決定することができる。例えば、臨界帯域の信号全体に対して平均値を求めたり、絶対値の平均を求めたり、エネルギーの平均を求めることによってマスカーの大きさを決定することもでき、その他の代表値をマスカーとして使用することもできる。
3.マスキング処理単位
周波数マスキング部112は、周波数変換された結果をマスキング処理するにおいて、マスキング処理単位を異ならせることができる。具体的に、周波数変換の結果として、同一フレーム内でも時間上に連続した複数の信号が生成される。例えば、ウェーブレットパケット変換(Wavelet Packet Transform:WPT)、 FV―MLT (Frequency Varying Modulated Lapped Transform)などの周波数変換の場合、一つのフレーム内でも同一の周波数領域で時間上に連続する複数の信号が生成される。このような周波数変換の場合、図6に示したフレーム単位で存在していた各信号がより小さい単位で存在するようになり、マスキング処理は、この小さい単位の各信号間で行われる。
4.マスキング処理の遂行条件(マスカーのしきい値、マスキングカーブ形態)
マスカー決定部116は、マスカーを決定するにおいて、マスカーのしきい値を設定したり、マスキングカーブ形態を決定することができる。
周波数変換を行えば、一般的に高周波に行くほど各信号の値が徐々に小さくなる。このような小さい信号は、マスキング処理を行わないとしても、量子化過程で0になる。また、各信号の大きさが小さい分だけマスカーの大きさも小さいので、マスカーによって除去される効果がなく、マスキング効果の意味がなくなる。
このようにマスキング処理が無意味になる場合があるので、マスカーのしきい値を設定することによって、マスカーが適正な大きさ以上である場合のみにマスキング処理を行うことができる。このしきい値は、あらゆる周波数範囲に対して同一である。また、高周波に行くほど信号の大きさが徐々に小さくなる特性を用いて、このしきい値は、その大きさが高周波に行くほど徐々に小さくなるように設定することができる。
また、マスキングカーブの形状は、周波数にしたがって緩慢な傾斜又は急な傾斜を有するように説明することができる。
また、信号の大きさが不均一な信号、すなわち、トランジェント信号が存在する部分でマスキング効果がより大きく表れるので、トランジェント信号であるか、それともステーショナリー信号であるかに対する特性に基づいてマスカーのしきい値を定めることができる。また、このような特性に基づいてマスカーのカーブ形態も決定することができる。
5.マスキング処理順序
上述したように、マスキング処理としては、周波数マスキング部112による周波数ドメイン上の処理、及び時間マスキング部114による時間ドメイン上の処理がある。これらを同時に使用する場合、次のような順序で処理することができる。
すなわち、i)周波数ドメイン上のマスキングを先に処理し、その次に時間ドメイン上のマスキングを適用したり、ii)周波数変換を通して時間順に配列された信号を対象にしてマスキングを先に適用し、その次に周波数軸上にマスキングを処理したり、iii )周波数変換を通して得られた信号を対象にして周波数軸上のマスキング理論と時間軸上のマスキング理論を同時に適用し、二つの方法によって得られたカーブを通して得られた値でマスキングを適用したり、iv)上記の三つの方法を組み合わせて行うことができる。
以下では、図7を参照しながら図1及び図2を参照して説明した本発明の実施例に係る損失信号分析装置が適用されたオーディオ信号エンコーディング装置及び方法の第1の例について説明する。
図7を参照すれば、オーディオ信号エンコーディング装置200は、複数チャネルエンコーダ210、オーディオ信号エンコーダ220、音声信号エンコーダ230、損失信号分析装置240及びマルチプレクサ250を含む。
複数チャネルエンコーダ210は、複数のチャネル信号(二つ以上のチャネル信号)(以下、マルチャネル信号)の入力を受け、ダウンミックスを行うことによってモノ又はステレオのダウンミックス信号を生成し、ダウンミックス信号をマルチャネル信号にアップミックスするために必要な空間情報を生成する。ここで、空間情報は、チャネルレベル差情報、チャネル間相関情報、チャネル予測係数及びダウンミックスゲイン情報などを含むことができる。
ここで、複数チャネルエンコーダ210で生成されたダウンミックス信号は、時間ドメインの信号、又は周波数変換が行われた周波数ドメインの情報である。さらに、ダウンミックス信号がバンド別スペクトル係数である場合もあるが、本発明がこれに限定されることはない。
オーディオ信号エンコーディング装置200がモノ信号を受信する場合、複数チャネルエンコーダ210がモノ信号をダウンミックスせずにバイパスできることは当然である。
一方、オーディオ信号エンコーディング装置200は、帯域拡張エンコーダ(図示せず)をさらに含むことができる。帯域拡張エンコーダ(図示せず)は、ダウンミックス信号の一部帯域(例えば、高周波帯域)のスペクトルデータを除外し、この除外されたデータを復元するための帯域拡張情報を生成することができる。したがって、デコーダでは、残りの帯域のダウンミックスと帯域拡張情報のみで全帯域のダウンミックスを復元することができる。
オーディオ信号エンコーダ220は、ダウンミックス信号の特定フレーム又は特定セグメントが大きいオーディオ特性を有する場合、オーディオコーディング方式によってダウンミックス信号をエンコーディングする。ここで、オーディオコーディング方式は、AAC(Advanced Audio Coding)標準又はHE―AAC(High Efficiency Advanced Audio Coding)標準にしたがうものであるが、本発明がこれに限定されることはない。一方、オーディオ信号エンコーダ220は、MDCT(Modified Discrete Transform)エンコーダに該当する。
音声信号エンコーダ230は、ダウンミックス信号の特定フレーム又は特定セグメントが大きい音声特性を有する場合、音声コーディング方式にしたがってダウンミックス信号をエンコーディングする。ここで、音声コーディング方式は、AMR―WB(Adaptive multi―rate Wide―Band)標準にしたがうものであるが、本発明がこれに限定されることはない。
一方、音声信号エンコーダ230は、線形予測符号化(LPC:Linear Prediction Coding)方式をさらに用いることができる。ハーモニック信号が時間軸上で高い重複性を有する場合、過去の信号から現在の信号を予測する線形予測によってモデリングされるが、この場合、線形予測符号化方式を採択すれば、符号化効率を高めることができる。一方、音声信号エンコーダ230はタイムドメインエンコーダに該当する。
損失信号分析装置240は、オーディオコーディング方式又は音声コーディング方式でコーディングされたスペクトルデータを受信し、マスキング及び量子化を行い、これによて損失された信号を補償するための損失信号補償パラメータを生成する。一方、損失信号分析装置240は、オーディオ信号エンコーダ220によってコーディングされたスペクトルデータのみに対して損失信号補償パラメータを生成することができる。損失信号分析装置240が行う機能及び段階は、図1及び図2を参照して説明した損失信号分析装置100が行う機能及び段階と同一である。
マルチプレクサ250は、空間情報、損失信号補償パラメータ、スケールファクタ(又はスケールファクタ差分値)及びスペクトルデータなどを多重化してオーディオ信号ビットストリームを生成する。
図8は、本発明の実施例に係る損失信号分析装置が適用されたオーディオ信号エンコーディング装置の第2の例を示す図である。
図8を参照すれば、オーディオ信号エンコーディング装置300は、ユーザインタフェース310及び損失信号分析装置320を含み、マルチプレクサ330をさらに含むことができる。
ユーザインタフェース310は、ユーザから入力信号を受信し、損失信号分析装置320に損失信号分析に関する命令信号を伝達する。具体的には、ユーザが損失信号予測モードを選択した場合、ユーザインタフェース310は、損失信号分析に関する命令信号を損失信号分析装置320に伝達する。また、ユーザがロービットレートモードを選択した場合、ロービットレートを合わせるために、オーディオ信号のうち一部が強制に0にセッティングされる。したがって、ユーザインタフェース310は、損失信号分析に関する命令信号を損失信号分析装置320に伝達することができる。また、ユーザインタフェース310は、ビットレートに関する情報のみを損失信号分析装置320にそのまま伝達することもできる。
損失信号分析装置320は、図1及び図2を参照して説明した損失信号分析装置100とほぼ類似している。ただし、ユーザインタフェース310から損失信号分析に関する命令信号を受信した場合のみに損失信号分析装置320は損失信号補償パラメータを生成する。また、損失信号分析に関する命令信号の代わりに、ビットレートに関する情報のみを受信した場合、損失信号分析装置320はこれに基づいて損失信号補償パラメータを生成するかどうかを決定し、該当段階を行うことができる。
マルチプレクサ330は、損失信号分析装置320によって生成された量子化されたスペクトルデータ(スケールファクタを含む)及び損失信号補償パラメータを多重化してビットストリームを生成する。
図9は、本発明の実施例に係る損失信号補償装置の構成を示す図であり、図10は、本発明の実施例に係る損失信号補償方法の順序を示す図である。
まず、図9を参照すれば、本発明の実施例に係る損失信号補償装置400は、損失信号検出ユニット410及び補償データ生成ユニット420を含み、スケールファクタ獲得ユニット430及びリスケーリングユニット440をさらに含むことができる。以下、図9及び図10を参照しながら損失信号補償装置400がオーディオ信号の損失を補償する方法について説明する。
損失信号検出ユニット410は、スペクトルデータに基づいて損失信号を検出する。損失信号は、該当スペクトルデータが予め決定された値(例えば、0)以下である信号に該当する。この信号は、サンプルに対応するビン(bin)単位である。このような損失信号は、上述したように、マスキング及び量子化過程で所定値以下になるために発生する。このように損失信号が発生し、特に信号が0である区間が発生すれば、場合によって音質劣化をもたらすようになる。マスキング効果が人間の聴覚構造を通した認知特性を用いるものであるとしても、全ての人がマスキング効果による音質劣化を認知できないわけではない。また、信号の大きさ変化が激しいトランジェント区間でマスキング効果が集中的に適用される場合、部分的な音質劣化が生じるようになる。したがって、このような損失区間に適切な信号を充填することによって音質を向上させることができる。
補償データ生成ユニット420は、損失信号補償パラメータのうち損失信号補償レベル情報を用いて、ランダム信号を用いて前記損失信号に対応する第1の補償データを生成する(S220段階)。第1の補償データは、補償レベル情報に対応する大きさのランダム信号である。
図11は、本発明の実施例に係る第1の補償データ生成過程を説明するための図である。図11の(A)は、損失された各信号の各バンド別スペクトルデータ(a’、b’、c’など)を示す図であり、図11の(B)は、第1の補償データのレベル範囲を示す図である。具体的には、補償データ生成ユニット420は、補償レベル情報に対応する特定値(例えば、2)以下のレベルを有する第1の補償データを生成することができる。
スケールファクタ獲得ユニット430は、スケールファクタ基準値とスケールファクタ差分値を用いてスケールファクタを生成する(S230段階)。ここで、スケールファクタは、エンコーダでスペクトル係数をスケーリングするための情報である。ここで、損失信号基準値は、損失信号が存在する区間のうち一部の区間に対応する値であるが、例えば、サンプル全体が0からなるバンドに対応する。前記一部の区間に対しては、スケールファクタ差分値にスケールファクタ基準値が組み合わされる(例えば、加算される)ことによってスケールファクタが獲得され、その残りの区間に対しては、伝送されたスケールファクタ差分値がそのままスケールファクタになる。
リスケーリングユニット440は、第1の補償データ又は伝送されたスペクトルデータをスケールファクタでリスケーリングすることによって、第2の補償データを生成する(S240段階)。具体的には、リスケーリングユニット440は、損失信号が存在する領域に対しては第1の補償データをリスケーリングし、その他の領域に対しては伝送されたスペクトルデータをリスケーリングする。第2の補償データは、スペクトルデータ及びスケールファクタから生成されたスペクトル係数に該当する。このスペクトル係数は、後で説明するオーディオ信号デコーダ又は音声信号デコーダに入力される。
図12は、本発明の実施例に係る損失信号補償装置が適用されたオーディオ信号デコーディング装置の第1の例を示す図である。
図12を参照すれば、オーディオ信号デコーディング装置500は、デマルチプレクサ510、損失信号補償装置520、オーディオ信号デコーダ530、音声信号デコーダ540及び複数チャネルデコーダ550を含む。
デマルチプレクサ510は、オーディオ信号ビットストリームからスペクトルデータ、損失信号補償パラメータ及び空間情報などを抽出する。
損失信号補償装置520は、伝送されたスペクトルデータ及び損失信号補償パラメータに基づいて、ランダム信号を用いて損失信号に対応する第1の補償データを生成し、第1の補償データに前記スケールファクタを適用することによって第2の補償データを生成する。損失信号補償装置520は、図9及び図10を参照して説明した損失信号補償装置400とほぼ同一の機能を行う構成要素である。一方、損失信号補償装置520は、オーディオ特性を有するスペクトルデータのみに対して損失復元信号を生成することができる。
一方、オーディオ信号デコーディング装置500は、帯域拡張デコーダ(図示せず)をさらに含むことができる。帯域拡張デコーダ(図示せず)は、損失復元信号に対応するスペクトルデータのうち一部又は全部を用いて他の帯域(例えば、高周波帯域)のスペクトルデータを生成する。このとき、エンコーダから伝送された帯域拡張情報が用いられる。
オーディオ信号デコーダ530は、損失復元信号に対応するスペクトルデータ(場合によって、帯域拡張デコーダによって生成されたスペクトルデータを含む)のオーディオ特性が大きい場合、オーディオコーディング方式でスペクトルデータをデコーディングする。ここで、オーディオコーディング方式は、上述したように、AAC標準、HE―AAC標準にしたがう。
音声信号デコーダ540は、前記スペクトルデータの音声特性が大きい場合、音声コーディング方式でダウンミックス信号をデコーディングする。音声コーディング方式は、上述したように、AMR―WB標準にしたがうが、本発明がこれに限定されることはない。
複数チャネルデコーダ550は、デコーディングされたオーディオ信号(すなわち、デコーディングされた損失復元信号)がダウンミックスである場合、空間情報を用いてマルチャネル信号(ステレオ信号を含む)の出力チャネル信号を生成する。
図13は、本発明の実施例に係る損失信号補償装置が適用されたオーディオ信号デコーディング装置の第2の例を示す図である。
図13を参照すれば、オーディオ信号デコーディング装置600は、デマルチプレクサ610、損失信号補償装置620及びユーザインタフェース630を含む。
デマルチプレクサ610は、ビットストリームを受信し、これから損失信号補償パラメータ及び量子化されたスペクトルデータなどを抽出する。もちろん、スケールファクタ(差分値)がさらに抽出される。
損失信号補償装置620は、図9及び図10を参照して説明した損失信号補償装置400とほぼ同一の機能を行う装置である。ただし、損失信号補償パラメータがデマルチプレクサ610から受信された場合、損失信号補償装置620はこの事実をユーザインタフェース630に知らせる。ユーザインタフェース630から損失信号補償に対する命令信号が受信された場合、損失信号補償装置620は損失信号を補償する機能を行う。
ユーザインタフェース630は、損失信号補償装置620から損失信号補償パラメータの存在に対する情報が受信された場合、ディスプレイなどによって表示することによって、ユーザにその情報の存在を知らせる。
そして、ユーザによって損失信号補償モードが選択された場合、ユーザインタフェース630は、損失信号補償装置620に損失信号補償に対する命令信号を伝達する。このように損失信号補償装置が適用されたオーディオ信号デコーディング装置は、上記のような構成要素を備えることによって、ユーザの選択によって損失信号を補償したり、損失信号を補償しなかったりする。
本発明に係るオーディオ信号処理方法は、コンピュータで実行されるためのプログラムで製作され、コンピュータで読み取り可能な記録媒体に格納される。また、本発明に係るデータ構造を有するマルチメディアデータも、コンピュータで読み取り可能な記録媒体に格納される。前記コンピュータで読み取り可能な記録媒体は、コンピュータシステムによって読まれるデータが格納されるあらゆる種類の格納装置を含む。コンピュータで読み取り可能な記録媒体の例としては、ROM、RAM、CD―ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ格納装置などがあり、キャリアウェーブ(例えば、インターネットを介した伝送)の形態で具現されるものも含む。また、前記エンコーディング方法によって生成されたビットストリームは、コンピュータで読み取り可能な記録媒体に格納されたり、有無線通信網を用いて伝送される。
以上のように、本発明を限定された実施例と図面によって説明したが、本発明がこれによって限定されることはなく、本発明の属する技術分野で通常の知識を有する者によって本発明の技術思想と下記に記載する特許請求の範囲の均等範囲内で多様な修正及び変形が可能であることは当然である。
本発明は、オーディオ信号をエンコーディング及びデコーディングするのに適用される。

Claims (9)

  1. オーディオ信号ビットストリームからスペクトルデータ及び損失信号補償パラメータを抽出するステップであって、前記損失信号補償パラメータは補償レベル情報及びスケールファクタ基準値を含む、ステップと
    前記スペクトルデータに基づいて損失信号を検出するステップと
    前記補償レベル情報に基づいて、ランダム信号を用いて前記損失信号に対応する第1の補償データを生成するステップであって、前記第1の補償データのレベルは前記補償レベル情報に基づいて決定される、ステップと
    スケールファクタが0に量子化されたすべてのスペクトルデータサンプルを有するバンドに対応するとき、前記スケールファクタ基準値スケールファクタ差分値を加えることによって前記スケールファクタを生成するステップと
    前記第1の補償データに前記スケールファクタを適用して第2の補償データを生成するステップと、
    を有するオーディオ信号処理方法。
  2. 前記損失信号は、前記スペクトルデータが基準値以下である信号に該当する、請求項1に記載のオーディオ信号処理方法。
  3. 前記スケールファクタが0に量子化されたすべてのスペクトルデータサンプルを有する前記バンドに対応しないとき、前記スケールファクタ差分値に基づいてスケールファクタを生成するステップを更に有し、
    前記補償レベル情報は前記損失信号のレベルに対応する、請求項1に記載のオーディオ信号処理方法。
  4. 前記第2の補償データはスペクトル係数に該当する、請求項1に記載のオーディオ信号処理方法。
  5. オーディオ信号ビットストリームからスペクトルデータ及び損失信号補償パラメータを抽出するデマルチプレクサであって、前記損失信号補償パラメータは補償レベル情報及びスケールファクタ基準値を含む、デマルチプレクサと、
    前記スペクトルデータに基づいて損失信号を検出する損失信号検出ユニットと、
    前記補償レベル情報に基づいて、ランダム信号を用いて前記損失信号に対応する第1の補償データを生成する補償データ生成ユニットであって、前記第1の補償データのレベルは前記補償レベル情報に基づいて決定される、補償データ生成ユニットと、
    スケールファクタが0に量子化されたすべてのスペクトルデータサンプルを有するバンドに対応するとき、前記スケールファクタ基準値スケールファクタ差分値を加えることによって前記スケールファクタを生成し、前記第1の補償データに前記スケールファクタを適用して第2の補償データを生成するリスケーリングユニットと、
    を備えるオーディオ信号処理装置。
  6. 前記損失信号は、前記スペクトルデータが基準値以下である信号に該当する、請求項5に記載のオーディオ信号処理装置。
  7. 前記リスケーリングユニットは、前記スケールファクタが0に量子化されたすべてのスペクトルデータサンプルを有する前記バンドに対応しないとき、前記スケールファクタ差分値に基づいてスケールファクタを生成し、
    前記補償レベル情報は前記損失信号のレベルに対応する、請求項5に記載のオーディオ信号処理装置。
  8. スケールファクタ基準値及びスケールファクタ差分値を用いて前記スケールファクタを生成するスケールファクタ獲得ユニットをさらに含み、
    前記スケールファクタ基準値は前記損失信号補償パラメータに含まれる、請求項5に記載のオーディオ信号処理装置。
  9. 前記第2の補償データはスペクトル係数に該当する、請求項5に記載のオーディオ信号処理装置。
JP2010541397A 2007-12-31 2008-12-31 オーディオ信号処理方法及び装置 Active JP5485909B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US1780307P 2007-12-31 2007-12-31
US61/017,803 2007-12-31
US12002308P 2008-12-04 2008-12-04
US61/120,023 2008-12-04
PCT/KR2008/007868 WO2009084918A1 (en) 2007-12-31 2008-12-31 A method and an apparatus for processing an audio signal

Publications (2)

Publication Number Publication Date
JP2011509428A JP2011509428A (ja) 2011-03-24
JP5485909B2 true JP5485909B2 (ja) 2014-05-07

Family

ID=40824520

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010541397A Active JP5485909B2 (ja) 2007-12-31 2008-12-31 オーディオ信号処理方法及び装置

Country Status (9)

Country Link
US (1) US9659568B2 (ja)
EP (1) EP2229676B1 (ja)
JP (1) JP5485909B2 (ja)
KR (1) KR101162275B1 (ja)
CN (1) CN101933086B (ja)
AU (1) AU2008344134B2 (ja)
CA (1) CA2711047C (ja)
RU (1) RU2439718C1 (ja)
WO (1) WO2009084918A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8364471B2 (en) * 2008-11-04 2013-01-29 Lg Electronics Inc. Apparatus and method for processing a time domain audio signal with a noise filling flag
US8498874B2 (en) * 2009-09-11 2013-07-30 Sling Media Pvt Ltd Audio signal encoding employing interchannel and temporal redundancy reduction
EP2375410B1 (en) 2010-03-29 2017-11-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. A spatial audio processor and a method for providing spatial parameters based on an acoustic input signal
JP5557286B2 (ja) * 2010-11-11 2014-07-23 株式会社エー・アンド・デイ ノッキング判定方法及び装置
MX338070B (es) * 2011-10-21 2016-04-01 Samsung Electronics Co Ltd Metodo y aparato de ocultamiento de error de trama y metodo y aparato de decodificación de audio.
CN105976824B (zh) 2012-12-06 2021-06-08 华为技术有限公司 信号解码的方法和设备
EP2830061A1 (en) 2013-07-22 2015-01-28 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding and decoding an encoded audio signal using temporal noise/patch shaping
EP2830060A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Noise filling in multichannel audio coding
KR102231756B1 (ko) * 2013-09-05 2021-03-30 마이클 안토니 스톤 오디오 신호의 부호화, 복호화 방법 및 장치
EP3067887A1 (en) 2015-03-09 2016-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal
WO2016142002A1 (en) 2015-03-09 2016-09-15 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder, method for encoding an audio signal and method for decoding an encoded audio signal
EP3483883A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio coding and decoding with selective postfiltering
EP3483882A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Controlling bandwidth in encoders and/or decoders
EP3483878A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder supporting a set of different loss concealment tools
EP3483879A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Analysis/synthesis windowing function for modulated lapped transformation
EP3483886A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Selecting pitch lag
WO2019091576A1 (en) 2017-11-10 2019-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoders, audio decoders, methods and computer programs adapting an encoding and decoding of least significant bits
EP3483884A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Signal filtering
WO2019091573A1 (en) 2017-11-10 2019-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding and decoding an audio signal using downsampling or interpolation of scale parameters
EP3483880A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Temporal noise shaping
CN110556119B (zh) * 2018-05-31 2022-02-18 华为技术有限公司 一种下混信号的计算方法及装置
CN111405419B (zh) * 2020-03-26 2022-02-15 海信视像科技股份有限公司 音频信号处理方法、装置及可读存储介质
CN112624317B (zh) * 2020-11-10 2022-07-12 宁波职业技术学院 一种基于音频分析的mbr膜组件检测方法与系统
CN114399996A (zh) * 2022-03-16 2022-04-26 阿里巴巴达摩院(杭州)科技有限公司 处理语音信号的方法、装置、存储介质及系统

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19730129C2 (de) * 1997-07-14 2002-03-07 Fraunhofer Ges Forschung Verfahren zum Signalisieren einer Rauschsubstitution beim Codieren eines Audiosignals
KR100335611B1 (ko) * 1997-11-20 2002-10-09 삼성전자 주식회사 비트율 조절이 가능한 스테레오 오디오 부호화/복호화 방법 및 장치
RU2190237C2 (ru) 2000-11-24 2002-09-27 Федеральное государственное унитарное предприятие "Центральный научно-исследовательский институт "Морфизприбор" Приемный тракт гидроакустической станции с линейной антенной, устраняющий неоднозначность определения направления прихода сигнала
JP3984468B2 (ja) * 2001-12-14 2007-10-03 松下電器産業株式会社 符号化装置、復号化装置及び符号化方法
US7447631B2 (en) * 2002-06-17 2008-11-04 Dolby Laboratories Licensing Corporation Audio coding system using spectral hole filling
JP2004010415A (ja) 2002-06-06 2004-01-15 Kawasaki Refract Co Ltd マグクロ質吹き付け補修材
JP4849466B2 (ja) 2003-10-10 2012-01-11 エージェンシー フォー サイエンス, テクノロジー アンド リサーチ デジタル信号をスケーラブルビットストリームにエンコードする方法、及びスケーラブルビットストリームをデコードする方法
US7283634B2 (en) * 2004-08-31 2007-10-16 Dts, Inc. Method of mixing audio channels using correlated outputs
SE0402649D0 (sv) 2004-11-02 2004-11-02 Coding Tech Ab Advanced methods of creating orthogonal signals
RU2404506C2 (ru) * 2004-11-05 2010-11-20 Панасоник Корпорэйшн Устройство масштабируемого декодирования и устройство масштабируемого кодирования
RU2288550C1 (ru) 2005-02-28 2006-11-27 Владимир Анатольевич Ефремов Способ передачи сообщений любой физической природы, например способ передачи звуковых сообщений, и система для его осуществления
US7885809B2 (en) * 2005-04-20 2011-02-08 Ntt Docomo, Inc. Quantization of speech and audio coding parameters using partial information on atypical subsequences
US7539612B2 (en) * 2005-07-15 2009-05-26 Microsoft Corporation Coding and decoding scale factor information
KR101218776B1 (ko) * 2006-01-11 2013-01-18 삼성전자주식회사 다운믹스된 신호로부터 멀티채널 신호 생성방법 및 그 기록매체
ES2259571B1 (es) 2006-01-12 2007-10-01 Cal Thermic, S.L. Radiador electrico de calefaccion.
JP4627737B2 (ja) * 2006-03-08 2011-02-09 シャープ株式会社 デジタルデータ復号化装置
US20070270987A1 (en) * 2006-05-18 2007-11-22 Sharp Kabushiki Kaisha Signal processing method, signal processing apparatus and recording medium
US7885819B2 (en) * 2007-06-29 2011-02-08 Microsoft Corporation Bitstream syntax for multi-process audio decoding

Also Published As

Publication number Publication date
AU2008344134B2 (en) 2011-08-25
RU2439718C1 (ru) 2012-01-10
EP2229676B1 (en) 2013-11-06
EP2229676A1 (en) 2010-09-22
AU2008344134A1 (en) 2009-07-09
KR20100086001A (ko) 2010-07-29
KR101162275B1 (ko) 2012-07-04
US9659568B2 (en) 2017-05-23
US20110015768A1 (en) 2011-01-20
EP2229676A4 (en) 2011-01-19
WO2009084918A1 (en) 2009-07-09
JP2011509428A (ja) 2011-03-24
CN101933086A (zh) 2010-12-29
CA2711047A1 (en) 2009-07-09
CA2711047C (en) 2015-08-04
CN101933086B (zh) 2013-06-19

Similar Documents

Publication Publication Date Title
JP5485909B2 (ja) オーディオ信号処理方法及び装置
CN101868821B (zh) 用于处理信号的方法和装置
JP5267362B2 (ja) オーディオ符号化装置、オーディオ符号化方法及びオーディオ符号化用コンピュータプログラムならびに映像伝送装置
US9275648B2 (en) Method and apparatus for processing audio signal using spectral data of audio signal
US8364471B2 (en) Apparatus and method for processing a time domain audio signal with a noise filling flag
TWI498882B (zh) 音訊解碼器
WO2012070370A1 (ja) 音声符号化装置、方法およびプログラム、並びに、音声復号装置、方法およびプログラム
KR20120008537A (ko) 복호화 장치 및 복호화 방법, 및 복호화 장치를 구비하는 통신 단말 장치 및 기지국 장치
JPWO2011080916A1 (ja) 音声符号化装置および音声符号化方法
KR101108955B1 (ko) 오디오 신호 처리 방법 및 장치
KR20100050414A (ko) 오디오 신호 처리 방법 및 장치

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120703

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121003

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20121011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130820

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140220

R150 Certificate of patent or registration of utility model

Ref document number: 5485909

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250