[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6179122B2 - オーディオ符号化装置、オーディオ符号化方法、オーディオ符号化プログラム - Google Patents

オーディオ符号化装置、オーディオ符号化方法、オーディオ符号化プログラム Download PDF

Info

Publication number
JP6179122B2
JP6179122B2 JP2013031476A JP2013031476A JP6179122B2 JP 6179122 B2 JP6179122 B2 JP 6179122B2 JP 2013031476 A JP2013031476 A JP 2013031476A JP 2013031476 A JP2013031476 A JP 2013031476A JP 6179122 B2 JP6179122 B2 JP 6179122B2
Authority
JP
Japan
Prior art keywords
channel signal
signal
channel
unit
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013031476A
Other languages
English (en)
Other versions
JP2014160212A (ja
Inventor
俊輔 武内
俊輔 武内
洋平 岸
洋平 岸
鈴木 政直
政直 鈴木
晃 釜野
晃 釜野
美由紀 白川
美由紀 白川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013031476A priority Critical patent/JP6179122B2/ja
Priority to US14/090,546 priority patent/US9508352B2/en
Priority to EP13194815.0A priority patent/EP2770505B1/en
Publication of JP2014160212A publication Critical patent/JP2014160212A/ja
Application granted granted Critical
Publication of JP6179122B2 publication Critical patent/JP6179122B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/12Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being prediction coefficients

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Stereophonic System (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本発明は、例えば、オーディオ符号化装置、オーディオ符号化方法、オーディオ符号化プログラムに関する。
従来より、3チャネル以上のチャネルを有するマルチチャネルオーディオ信号のデータ量を圧縮するためのオーディオ信号の符号化方式が開発されている。そのような符号化方式の一つとして、Moving Picture Experts Group (MPEG)により標準化されたMPEG Surround方式が知られている。MPEG Surround方式では、例えば、符号化対象となる5.1チャネル(5.1ch)のオーディオ信号が時間周波数変換され、その時間周波数変換により得られた周波数信号がダウンミックスされることにより、一旦3チャネルの周波数信号が生成される。さらに、その3チャネルの周波数信号が再度ダウンミックスされることにより2チャネルのステレオ信号に対応する周波数信号が算出される。そしてステレオ信号に対応する周波数信号は、Advanced Audio Coding(AAC)符号化方式及びSpectral Band Replication(SBR)符号化方式により符号化される。その一方で、MPEG Surround方式では、5.1chの信号を3チャネルの信号へダウンミックスする際、及び3チャネルの信号を2チャネルの信号へダウンミックスする際、音の広がりまたは定位を表す空間情報が算出され、この空間情報が符号化される。このように、MPEG Surround方式では、マルチチャネルオーディオ信号をダウンミックスすることにより生成されたステレオ信号とデータ量の比較的少ない空間情報が符号化される。これにより、MPEG Surround方式では、マルチチャネルオーディオ信号に含まれる各チャネルの信号を独立に符号化するよりも高い圧縮効率が得られる。
MPEG Surround方式では、符号化情報量を削減するため、3チャネル周波数信号をステレオ周波数信号と2つの予測係数(channel prediction coefficient)に分けて符号化する。予測係数とは、3チャネル中の一つのチャネルの信号をその他の2つのチャネルの信号に基づいて予測符号化するための係数である。この予測係数は符号帳と称されるテーブルに複数格納されている。この符号帳は、使用ビット効率の向上の為に用いられるものである。符号化器と復号器で予め定められた共通の(あるいは共通の方法で作成する)符号帳を持つことで、少ないビット数でより重要な情報を送ることが出来る。復号時においては、上述の予測係数に基づいて3チャネル中の一つのチャネルの信号を再現する。この為、符号化時においては、符号帳から予測係数を選択する必要がある。
符号帳から予測係数を選択する方法は、予測符号化される前のチャネル信号と予測符号化された後のチャネル信号の差分で規定される誤差を、符号帳に格納されている全ての予測係数を用いて算出し、予測符号化における誤差が最小になる予測係数を選択する方法が開示されている。また、最小二乗法を用いた計算法により誤差が最小になる予測係数を算出する方法も開示されている。
特表2008−517338号公報
上述の最小二乗法を用いた計算法では、少ない処理量で誤差が最小になる予測係数を算出することは出来るものの、最小二乗法の解が存在しない場合があり、この場合には予測係数を算出することは出来ない。更には、最小二乗法を用いた計算法は、符号帳に格納されている予測係数を用いることを前提としていない為、算出した予測係数が符号帳に格納されていない場合がある。この為、予測符号化においては、符号帳に格納されている全ての予測係数を用いて、予測符号化における誤差が最も小さくなる予測係数を選択することが一般的な手法とされている。
しかしながら、符号帳から予測係数を選択する方法においては、選択出来る予測係数が有限個数である為、予測符号化における誤差が0になることは少なく、予測符号化における音質の劣化が少なからず発生していることが現状である。予測符号化時における誤差成分を表した残差信号を生成する手法も存在するが、符号化効率(低ビットレート化)を考慮すると好ましくはない。
本発明は、符号化効率を低下させずに予測符号化における誤差を抑制させることが可能となるオーディオ符号化装置を提供することを目的とする。
本発明が開示するオーディオ符号化装置は、オーディオ信号に含まれる複数のチャネルに含まれる第1チャネル信号と第2チャネル信号と、符号帳に含まれる複数の予測係数とに基づいて、当該複数のチャネルに含まれる第3チャネル信号を予測符号化するオーディオ符号化装置である。当該オーディオ符号化装置は、予測符号化前の当該第3チャネル信号と予測符号化後の当該第3チャネル信号の差分で規定される誤差が最小となる当該第1チャネル信号と当該第2チャネル信号にそれぞれ対応する当該予測係数を選択する選択部を有する。更に、当該オーディオ符号化装置は、当該誤差が更に小さくなる様に当該第1チャネル信号または当該第2チャネル信号を制御する制御部を有する。
なお、本発明の目的及び利点は、請求項において特に指摘されたエレメント及び組み合わせにより実現され、かつ達成されるものである。また、上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を制限するものではないことを理解されたい。
本明細書に開示されるオーディオ符号化装置は、予測符号化における誤差を抑制させることが可能となる。
一つの実施形態によるオーディオ符号化装置の機能ブロック図である。 予測係数に対する量子化テーブル(符号帳)の一例を示す図である。 マスキング閾値の概念図である。 類似度に対する量子化テーブルの一例を示す図である。 インデックスの差分値と類似度符号の関係を示すテーブルの一例を示す図である。 強度差に対する量子化テーブルの一例を示す図である。 符号化されたオーディオ信号が格納されたデータ形式の一例を示す図である。 オーディオ符号化処理の動作フローチャートである。 実施例1における予測符号化の概念図である。 一つの実施形態によるオーディオ符号化装置のハードウェア構成図である。 一つの実施形態によるオーディオ復号装置の機能ブロックを示す図である。 一つの実施形態によるオーディオ符号化復号システムの機能ブロックを示す図(その1)である。 一つの実施形態によるオーディオ符号化復号システムの機能ブロックを示す図(その2)である。
以下に、一つの実施形態によるオーディオ符号化装置、オーディオ符号化方法及びオーディオ符号化用コンピュータプログラム、ならびにオーディオ復号装置の実施例を図面に基づいて詳細に説明する。なお、この実施例は開示の技術を限定するものではない。
(実施例1)
図1は、一つの実施形態によるオーディオ符号化装置1の機能ブロック図である。図1に示す様に、オーディオ符号化装置1は,時間周波数変換部11、第1ダウンミックス部12、第2ダウンミックス部15、予測符号化部13、チャネル信号符号化部18、空間情報符号化部22、多重化部23を有する。
また、予測符号化部13は、選択部14を含み、第2ダウンミックス部15は、算出部16と制御部17を含んでいる。更に、チャネル信号符号化部18は、SBR(Spectral Band Replication)符号化部19と、周波数時間変換部20と、AAC(Advanced Audio Coding)符号化部21を含んでいる。
オーディオ符号化装置1が有するこれらの各部は、それぞれ別個の回路として形成される。あるいはオーディオ符号化装置1が有するこれらの各部は、その各部に対応する回路が集積された一つの集積回路としてオーディオ符号化装置1に実装されてもよい。さらに、オーディオ符号化装置1が有するこれらの各部は、オーディオ符号化装置1が有するプロセッサ上で実行されるコンピュータプログラムにより実現される、機能モジュールであってもよい。
時間周波数変換部11は、オーディオ符号化装置1に入力されたマルチチャネルオーディオ信号の時間領域の各チャネルの信号をそれぞれフレーム単位で時間周波数変換することにより、各チャネルの周波数信号に変換する。本実施形態では、時間周波数変換部11は、次式のQuadrature Mirror Filter(QMF)フィルタバンクを用いて、各チャネルの信号を周波数信号に変換する。
(数1)

Figure 0006179122

ここでnは時間を表す変数であり、1フレームのオーディオ信号を時間方向に128等分したときのn番目の時間を表す。なお,フレーム長は、例えば、10〜80msecの何れかとすることができる。またkは周波数帯域を表す変数であり、周波数信号が有する周波数帯域を64等分したときのk番目の周波数帯域を表す。またQMF(k,n)は、時間n、周波数kの周波数信号を出力するためのQMFである。時間周波数変換部11は、QMF(k,n)を入力されたチャネルの1フレーム分のオーディオ信号に乗じることにより、そのチャネルの周波数信号を生成する。なお、時間周波数変換部11は、高速フーリエ変換、離散コサイン変換、修正離散コサイン変換など、他の時間周波数変換処理を用いて、各チャネルの信号をそれぞれ周波数信号に変換してもよい。
時間周波数変換部11は、フレーム単位で各チャネルの周波数信号を算出する度に、各チャネルの周波数信号を第1ダウンミックス部12へ出力する。
第1ダウンミックス部12は、各チャネルの周波数信号を受け取る度に、それら各チャネルの周波数信号をダウンミックスすることにより、左チャネル,中央チャネル及び右チャネルの周波数信号を生成する。例えば、第1ダウンミックス部12は、次式に従って、以下の3個のチャネルの周波数信号を算出する。
(数2)

Figure 0006179122



Figure 0006179122


Figure 0006179122
ここで、LRe(k,n)は、左前方チャネルの周波数信号L(k,n)のうちの実数部を表し、LIm(k,n)は、左前方チャネルの周波数信号L(k,n)のうちの虚数部を表す。またSLRe(k,n)は、左後方チャネルの周波数信号SL(k,n)のうちの実数部を表し、SLIm(k,n)は、左後方チャネルの周波数信号SL(k,n)のうちの虚数部を表す。そしてLin(k,n)は、ダウンミックスにより生成される左チャネルの周波数信号である。なお、LinRe(k,n)は、左チャネルの周波数信号のうちの実数部を表し、LinIm(k,n)は、左チャネルの周波数信号のうちの虚数部を表す。
同様に、RRe(k,n)は、右前方チャネルの周波数信号R(k,n)のうちの実数部を表し、RIm(k,n)は、右前方チャネルの周波数信号R(k,n)のうちの虚数部を表す。またSRRe(k,n)は、右後方チャネルの周波数信号SR(k,n)のうちの実数部を表し、SRIm(k,n)は、右後方チャネルの周波数信号SR(k,n)のうちの虚数部を表す。そしてRin(k,n)は、ダウンミックスにより生成される右チャネルの周波数信号である。なお、RinRe(k,n)は、右チャネルの周波数信号のうちの実数部を表し、RinIm(k,n)は、右チャネルの周波数信号のうちの虚数部を表す。
さらに、CRe(k,n)は、中央チャネルの周波数信号C(k,n)のうちの実数部を表し、CIm(k,n)は、中央チャネルの周波数信号C(k,n)のうちの虚数部を表す。またLFERe(k,n)は、重低音チャネルの周波数信号LFE(k,n)のうちの実数部を表し、LFEIm(k,n)は、重低音チャネルの周波数信号LFE(k,n)のうちの虚数部を表す。そしてCin(k,n)は、ダウンミックスにより生成される中央チャネルの周波数信号である。なお、CinRe(k,n)は、中央チャネルの周波数信号Cin(k,n)のうちの実数部を表し、CinIm(k,n)は、中央チャネルの周波数信号Cin(k,n)のうちの虚数部を表す。
また、第1ダウンミックス部12は、ダウンミックスされる二つのチャネルの周波数信号間の空間情報として、音の定位を表す情報であるその周波数信号間の強度差と、音の広がりを表す情報となる当該周波数信号間の類似度を周波数帯域ごとに算出する。第1ダウンミックス部12が算出するこれらの空間情報は、3チャネル空間情報の一例である。本実施形態では、第1ダウンミックス部12は、次式に従って左チャネルについての周波数帯域kの強度差CLDL(k)と類似度ICCL(k)を算出する。
(数3)

Figure 0006179122

(数4)

Figure 0006179122


Figure 0006179122

ここで、Nは、1フレームに含まれる時間方向のサンプル点数であり、本実施形態では、Nは128である。また、eL(k)は、左前方チャネルの周波数信号L(k,n)の自己相関値であり、eSL(k)は、左後方チャネルの周波数信号SL(k,n)の自己相関値である。またeLSL(k)は、左前方チャネルの周波数信号L(k,n)と左後方チャネルの周波数信号SL(k,n)との相互相関値である。
同様に、第1ダウンミックス部12は、次式に従って右チャネルについての周波数帯域kの強度差CLDR(k)と類似度ICCR(k)を算出する。
(数5)

Figure 0006179122

(数6)

Figure 0006179122


Figure 0006179122

ここで、eR(k)は、右前方チャネルの周波数信号R(k,n)の自己相関値であり、eSR(k)は、右後方チャネルの周波数信号SR(k,n)の自己相関値である。またeRSR(k)は、右前方チャネルの周波数信号R(k,n)と右後方チャネルの周波数信号SR(k,n)との相互相関値である。
さらに、第1ダウンミックス部12は、次式に従って中央チャネルについての周波数帯域kの強度差CLDC(k)を算出する。
(数7)

Figure 0006179122


Figure 0006179122

ここで、eC(k)は、中央チャネルの周波数信号C(k,n)の自己相関値であり、eLFE(k)は、重低音チャネルの周波数信号LFE(k,n)の自己相関値である。
第1ダウンミックス部12は、3チャネルの周波数信号を生成した後、更に、左チャネルの周波数信号と中央チャネルの周波数信号をダウンミックスすることにより、ステレオ周波数信号のうちの左側周波数信号を生成する。第1ダウンミックス部12は、右チャネルの周波数信号と中央チャネルの周波数信号をダウンミックスすることにより、ステレオ周波数信号のうちの右側周波数信号を生成する。第1ダウンミックス部12は、例えば、次式に従ってステレオ周波数信号の左側周波数信号L0(k,n)及び右側周波数信号R0(k,n)を生成する。さらに第1ダウンミックス部12は、例えば、符号帳に含まれる予測係数を選択する為に利用される中央チャネルの信号C0(k,n)を次式に従って算出する。
(数8)

Figure 0006179122
ここで、Lin(k,n)、Rin(k,n)、Cin(k,n)は、それぞれ、第1ダウンミックス部12により生成された左チャネル、右チャネル及び中央チャネルの周波数信号である。左側周波数信号L0(k,n)は、元のマルチチャネルオーディオ信号の左前方チャネル、左後方チャネル、中央チャネル及び重低音チャネルの周波数信号が合成されたものとなる。同様に、右側周波数信号R0(k,n)は、元のマルチチャネルオーディオ信号の右前方チャネル、右後方チャネル、中央チャネル及び重低音チャネルの周波数信号が合成されたものとなる。
第1ダウンミックス部12は、左側周波数信号L0(k,n)、右側周波数信号R0(k,n)、中央チャネルの信号C0(k,n)を、第2ダウンミックス部15へ出力する。また、第1ダウンミックス部12は、空間情報となる強度差CLDL(k)、CLDR(k)、CLDC(k)と、類似度ICCL(k)、ICCR(k)を空間情報符号化部22へ出力する。
第2ダウンミックス部15は、第1ダウンミックス部12から受け取った左側周波数信号L0(k,n)、右側周波数信号R0(k,n)、中央チャネルの信号C0(k,n)の3チャネルの周波数信号のうちの二つの周波数信号をダウンミックスすることにより、2チャネルのステレオ周波数信号を生成する。例えば、2チャネルのステレオ周波数信号は、左側周波数信号L0(k,n)と右側周波数信号R0(k,n)から生成される。そして、第2ダウンミックス部15は、後述する制御ステレオ周波数信号をチャネル信号符号化部18へ出力する。なお、上述の(数8)の左側周波数信号L0(k,n)と、右側周波数信号R0(k,n)を展開すると次式の通りとなる。
(数9)


Figure 0006179122
予測符号化部13に含まれる選択部14は、第2ダウンミックス部15においてダウンミックスされる二つのチャネルの周波数信号についての予測係数を符号帳から選択する。左側周波数信号L0(k,n)と右側周波数信号R0(k,n)とから、中央チャネルの信号C0(k,n)の予測符号化を行う場合は、第2ダウンミックス部15は、右側周波数信号R0(k,n)と左側周波数信号L0(k,n)をダウンミックスすることにより、2チャネルのステレオ周波数信号を生成する。なお、予測符号化部13に含まれる選択部14は、予測符号化を行う場合、周波数帯域ごとに、C0(k,n)と、L0(k,n)、R0(k,n)から次式で定義される予測符号化前と予測符号化後の周波数信号の誤差d(k,n)が最小となる予測係数c1(k)とc2(k)を符号帳から選択する。この様にして予測符号化部13は、予測符号化後の中央チャネルの信号C'0(k,n)を予測符号化する。
(数10)

Figure 0006179122


Figure 0006179122

また、上述の(数10)は、実数部と虚数部を用いると次式の通りに表現できる。
(数11)

Figure 0006179122


Figure 0006179122


Figure 0006179122

なお、L0Re(k,n)はL0(k,n)の実数部、L0Im(k,n)はL0(k,n)の虚数部、R0Re(k,n)はR0(k,n)の実数部、R0Im(k,n)はR0(k,n)の虚数部を表す。
予測符号化部13は、符号帳に含まれる予測係数c1(k)、c2(k)を用いて、予測符号化部13が有する予測係数c1(k)、c2(k)の代表値とインデックス値との対応関係を示した量子化テーブル(符号帳)を参照する。そして、予測符号化部13は、量子化テーブルを参照することにより、各周波数帯域についての予測係数c1(k)、c2(k)に対して、最も値が近いインデックス値を決定する。ここで、具体例について説明する。図2は、予測係数に対する量子化テーブル(符号帳)の一例を示す図である。図2に示す量子化テーブル200において、行201、203、205、207及び209の各欄はインデックス値を表す。一方、行202、204、206、208及び210の各欄は、それぞれ、同じ列の行201、203、205、207及び209の各欄に示されたインデックス値に対応する予測係数の代表値を表す。例えば、予測符号化部13は、周波数帯域kに対する予測係数c1(k)が1.2である場合、予測係数c1(k)に対するインデックス値を12に設定する。
次に、予測符号化部13は、各周波数帯域について、周波数方向に沿ってインデックス間の差分値を求める。例えば、周波数帯域kに対するインデックス値が2であり、周波数帯域(k-1)に対するインデックス値が4であれば、予測符号化部13は、周波数帯域kに対するインデックスの差分値を−2とする。
次に、予測符号化部13は、インデックス間の差分値と予測係数符号の対応を示した符号化テーブルを参照する。そして予測符号化部13は、符号化テーブルを参照することにより、予測係数cm(k)(m=1,2 or m=1)の各周波数帯域kの差分値に対する予測係数符号idxcm(k)(m=1,2 or m=1)を決定する。予測係数符号は、類似度符号と同様に、例えば、ハフマン符号あるいは算術符号など、出現頻度が高い差分値ほど符号長が短くなる可変長符号とすることができる。なお、量子化テーブル及び符号化テーブルは、予め、予測符号化部13が有する図示しないメモリに格納される。図1において、予測符号化部13は、予測係数符号idxcm(k)(m=1,2)を空間情報符号化部22へ出力する。また、予測符号化部13は、誤差d(k,n)と予測係数c1(k)、c2(k)を第2ダウンミックス部15に出力する。
第2ダウンミックス部15は、左側周波数信号L0(k,n)、右側周波数信号R0(k,n)、中央チャネルの信号C0(k,n)の3チャネルの周波数信号を第1ダウンミックス部から受け取る。また、第2ダウンミックス部15は、誤差d(k,n)と、予測係数c1(k)、c2(k)を予測符号化部13から受け取る。第2ダウンミックス部15に含まれる算出部16は、例えば、誤差d(k,n)が0以外の場合に、左側周波数信号L0(k,n)、右側周波数信号R0(k,n)にそれぞれ対応するマスキング閾値threshold-L0(k,n)、threshold-R0(k,n)を算出する。なお、誤差d(k,n)が0の場合は、第2ダウンミックス部15が左側周波数信号L0(k,n)と右側周波数信号R0(k,n)から2チャネルのステレオ周波数信号を生成し、当該ステレオ周波数信号をチャネル信号符号化部18に出力すれば良い。
マスキング閾値とは、マスキング効果により人間に知覚されないスペクトル電力の限界値であり、静的マスキング閾値(qthr)と動的マスキング閾値(dthr)の組み合わせにより規定することが出来る。なお、静的マスキング閾値(qthr)とは、聴覚的に人間が知覚出来ない最小可聴域であり、例えば、公知の技術であるISO/IEC13818-7記載の閾値を使用することが出来る。また、動的マスキング閾値(dthr)とは、任意の周波数においてスペクトル電力が大きい信号を入力すると、その近接する周辺帯域のスペクトル電力が知覚されない限界値であり、例えば、公知の技術であるISO/IEC13818-7規格に記載の方法で求めることが出来る。
図3は、マスキング閾値の概念図である。図3においては、左側周波数信号L0(k,n)を例として用いているが、右側周波数信号R0(k,n)でも同様の概念となる為、右側周波数信号R0(k,n)の詳細な説明は省略する。図3には、任意のL0(k,n)のパワーが示されており、当該パワーに基づいて動的マスキング閾値(dthr)が規定される。また、静的マスキング閾値(qthr)は一意的に規定される。上述の通り、マスキング閾値未満の音は知覚されないことになる。実施例1においては、この現象を利用し、左側周波数信号L0(k,n)や右側周波数信号R0(k,n)を音質に影響を与えない範囲で制御する。具体的には、マスキング閾値threshold-L0(k,n)の範囲内であれば、左側周波数信号L0(k,n)を自在に制御しても主観的な音質に影響を及ぼすことがない。なお、実施例1においては、主観的な音質に影響を与えない閾値の例としてマスキング閾値を例として挙げているが、マスキング閾値以外のパラメータを適用することも可能である、マスキング閾値threshold-L0(k,n)、threshold-R0(k,n)は次式を用いて算出することが出来る。
(数12)

Figure 0006179122

算出部16は算出したマスキング閾値threshold-L0(k,n)、threshold-R0(k,n)ならびに、左側周波数信号L0(k,n)、右側周波数信号R0(k,n)、中央チャネルの信号C0(k,n)の3チャネルの周波数信号を制御部17に出力する。なお、算出部16は上述の(数12)において、静的マスキング閾値(qthr)または動的マスキング閾値(dthr)の何れか一つのみを用いてマスキング閾値threshold-L0(k,n)、threshold-R0(k,n)を算出しても良い。
制御部17は、左側周波数信号L0(k,n)、右側周波数信号R0(k,n)、マスキング閾値threshold-L0(k,n)、threshold-R0(k,n)に基づいて、左側周波数信号L0(k,n)、右側周波数信号R0(k,n)に対して主観的な音質に影響を及ぼさない範囲となる許容制御範囲R0thr(k,n)、L0thr(k,n)を、例えば、ISO/IEC13818-7記載の方法を用いて算出する。制御部17は、許容制御範囲R0thr(k,n)ならびにL0thr(k,n)を、例えば次式を用いて算出することが出来る。
(数13)

Figure 0006179122
制御部17は、上述の(数13)を用いて算出した許容制御範囲R0thr(k,n)、ならびにL0thr(k,n)に基づいて、誤差d’(k,n)が最小となる様に、左側周波数信号L0(k,n)の制御量ΔL0(k,n)ならびに、右側周波数信号R0(k,n)の制御量ΔR0(k,n)を規定する。なお、誤差d’(k,n)の詳細は後述する。制御量ΔL0(k,n)と制御量ΔR0(k,n)の規定方法は、例えば、以下に記載する方法を用いることが出来る。始めに制御部17は、許容制御範囲R0thr(k,n)、L0thr(k,n)の範囲内で任意に制御量を選択する。制御部17は、例えば、次式の範囲内で制御量ΔL0(k,n)と制御量ΔR0(k,n)を任意に選択する。
(数14)

Figure 0006179122

但し、ΔL0Re(k,n)は、L0(k,n)の実数部の制御量、ΔL0Im(k,n)は、L0(k,n)の虚数部の制御量、ΔR0Re(k,n)は、R0(k,n)の実数部の制御量、ΔR0Im(k,n)は、R0(k,n)の虚数部の制御量である。
次に制御部17は、左側周波数信号L0(k,n)の制御量ΔL0Re(k,n)とΔL0Im(k,n)、右側周波数信号R0(k,n)の制御量ΔR0Re(k,n)とΔR0Im(k,n)、ならびに、予測係数c1(k)、c2(k)に基づいて、再予測制御後の中央チャネルの信号C’’0(k,n)を次式を用いて算出する。
(数15)

Figure 0006179122

但し、L0Re(k,n)はL0(k,n)の実数部、L0Im(k,n)はL0(k,n)の虚数部を表し、R0Re(k,n)はR0(k,n)の実数部、R0Im(k,n)はR0(k,n)の虚数部を表す。
制御部17は、再予測制御後の中央チャネルの信号C’’0(k,n)と予測符号化前の中央チャネルの信号C0(k,n)の差分で規定される誤差d’(k,n)を、次式を用いて算出する。
(数16)

Figure 0006179122

但し、C0Re(k,n)はC0(k,n)の実数部、C0Im(k,n)はC0(k,n)の虚数部を表し、C’’0Re(k,n)はC’’0(k,n)の実数部、C0Im(k,n)はC’’0(k,n)の虚数部を表す。
制御部17は、誤差d’(k,n)が最小となる制御量ΔL0Re(k,n)とΔL0Im(k,n)、ならびに、制御量ΔR0Re(k,n)とΔR0Im(k,n)に基づいて、左側周波数信号L0(k,n)、右側周波数信号R0(k,n)を次式に基づいて制御し、制御左側周波数信号L’0(k,n)と、制御右側周波数信号R’0(k,n)を生成する。
(数17)

Figure 0006179122
第2ダウンミックス15は、制御部17が生成した制御左側周波数信号L’0(k,n)と、制御右側周波数信号R’0(k,n)を、制御ステレオ周波数信号としてチャネル信号符号化部18へ出力する。なお、制御ステレオ周波数信号を、単にステレオ周波数信号と称しても良い。
チャネル信号符号化部18は、第2ダウンミックス部15から受け取った制御ステレオ周波数信号を符号化する。なお、チャネル信号符号化部18には、SBR符号化部19と、周波数時間変換部20と、AAC符号化部21が含まれる。
SBR符号化部19は、制御ステレオ周波数信号を受け取る度に、チャネルごとに、制御ステレオ周波数信号のうち、高周波数帯域に含まれる成分である高域成分を、SBR符号化方式にしたがって符号化する。これにより、SBR符号化部19は、SBR符号を生成する。例えば、SBR符号化部19は、特開2008−224902号公報に開示されているように、SBR符号化の対象となる高域成分と強い相関のある各チャネルの周波数信号の低域成分を複製する。なお、低域成分は、SBR符号化部19が符号化対象とする高域成分が含まれる高周波数帯域よりも低い低周波数帯域に含まれる各チャネルの周波数信号の成分であり、後述するAAC符号化部21により符号化される。そしてSBR符号化部19は、複製された高域成分の電力を、元の高域成分の電力と一致するように調整する。またSBR符号化部19は、元の高域成分のうち、低域成分との差異が大きく、低域成分を複写しても、高域成分を近似できない成分を補助情報とする。そしてSBR符号化部19は、複製に利用された低域成分と対応する高域成分の位置関係を表す情報と、電力調整量と補助情報を量子化することにより符号化する。SBR符号化部19は、上記の符号化された情報であるSBR符号を多重化部23へ出力する。
周波数時間変換部20は、制御ステレオ周波数信号を受け取る度に、各チャネルの制御ステレオ周波数信号を時間領域のステレオ信号に変換する。例えば、時間周波数変換部11がQMFフィルタバンクを用いる場合、周波数時間変換部20は、次式に示す複素型のQMFフィルタバンクを用いて各チャネルの制御ステレオ周波数信号を周波数時間変換する。
(数18)

Figure 0006179122

ここでIQMF(k,n)は、時間n、周波数kを変数とする複素型のQMFである。なお、時間周波数変換部11が、高速フーリエ変換、離散コサイン変換、修正離散コサイン変換など、他の時間周波数変換処理を用いている場合、周波数時間変換部20は、その時間周波数変換処理の逆変換を使用する。周波数時間変換部20は、各チャネルの周波数信号を周波数時間変換することにより得られた各チャネルのステレオ信号をAAC符号化部21へ出力する。
AAC符号化部21は、各チャネルのステレオ信号を受け取る度に、各チャネルの信号の低域成分をAAC符号化方式にしたがって符号化することにより、AAC符号を生成する。そこで、AAC符号化部21は、例えば、特開2007−183528号公報に開示されている技術を利用できる。具体的には、AAC符号化部21は、受け取った各チャネルのステレオ信号を離散コサイン変換することにより、再度制御ステレオ周波数信号を生成する。そしてAAC符号化部21は、再生成した制御ステレオ周波数信号から心理聴覚エントロピー(PE;Perceptual Entropy)を算出する。PEは、リスナーが雑音を知覚することがないようにそのブロックを量子化するために必要な情報量を表す。
このPEは、打楽器が発する音のようなアタック音など、信号レベルが短時間で変化する音に対して大きな値となる特性を持つ。そこで、AAC符号化部21は、PEの値が比較的大きくなるフレームに対しては、窓を短くし、PEの値が比較的小さくなるブロックに対しては、窓を長くする。例えば、短い窓は、256個のサンプルを含み、長い窓は、2048個のサンプルを含む。AAC符号化部21は、決定された長さを持つ窓を用いて各チャネルのステレオ信号に対して修正離散コサイン変換(MDCT;Modified Discrete Cosine Transform)を実行することにより、各チャネルのステレオ信号をMDCT係数の組に変換する。そしてAAC符号化部21は、MDCT係数の組を量子化し、その量子化されたMDCT係数の組を可変長符号化する。AAC符号化部21は、可変長符号化されたMDCT係数の組と、量子化係数など関連する情報を、AAC符号として多重化部23へ出力する。
空間情報符号化部22は、第1ダウンミックス部12から受け取った空間情報と、予測符号化部13から受け取った予測係数符号からMPEG Surround符号(以下、MPS符号と称する)を生成する。
空間情報符号化部22は、空間情報中の類似度の値とインデックス値の対応を示した量子化テーブルを参照する。そして空間情報符号化部22は、量子化テーブルを参照することにより、各周波数帯域についてそれぞれの類似度ICCi(k)(i=L,R,0)と最も値が近いインデックス値を決定する。なお、量子化テーブルは、予め、空間情報符号化部22が有する図示しないメモリ等に格納される。
図4は、類似度に対する量子化テーブルの一例を示す図である。図4に示す量子化テーブル400において、上段の行410の各欄はインデックス値を表し、下段の行420の各欄は、同じ列のインデックス値に対応する類似度の代表値を表す。また、類似度が取りうる値の範囲は−0.99〜+1である。例えば、周波数帯域kに対する類似度が0.6である場合、量子化テーブル400では、インデックス値3に対応する類似度の代表値が、周波数帯域kに対する類似度に最も近い。そこで、空間情報符号化部22は、周波数帯域kに対するインデックス値を3に設定する。
次に、空間情報符号化部22は、各周波数帯域について、周波数方向に沿ってインデックス間の差分値を求める。例えば、周波数帯域kに対するインデックス値が3であり、周波数帯域(k-1)に対するインデックス値が0であれば、空間情報符号化部22は、周波数帯域kに対するインデックスの差分値を3とする。
空間情報符号化部22は、インデックス値の差分値と類似度符号の対応を示した符号化テーブルを参照する。そして空間情報符号化部22は、符号化テーブルを参照することにより、類似度ICCi(k)(i=L,R,0)の各周波数についてインデックス間の差分値に対する類似度符号idxicci(k)(i=L,R,0)を決定する。なお、符号化テーブルは、予め、空間情報符号化部22が有するメモリ等に格納される。また、類似度符号は、例えば、ハフマン符号あるいは算術符号など、出現頻度が高い差分値ほど符号長が短くなる可変長符号とすることができる。
図5は、インデックスの差分値と類似度符号の関係を示すテーブルの一例を示す図である。図5に示す例では、類似度符号はハフマン符号である。図5に示す符号化テーブル500において、左側の列の各欄はインデックスの差分値を表し、右側の列の各欄は、同じ行のインデックスの差分値に対応する類似度符号を表す。例えば、周波数帯域kの類似度ICCL(k)に対するインデックスの差分値が3である場合、空間情報符号化部22は、符号化テーブル500を参照することにより、周波数帯域kの類似度ICCL(k)に対する類似度符号idxiccL(k)を"111110"に設定する。
空間情報符号化部22は、強度差の値とインデックス値との対応関係を示した量子化テーブルを参照する。そして空間情報符号化部22は、量子化テーブルを参照することにより、各周波数についての強度差CLDj(k)(j=L,R,C,1,2)と最も値が近いインデックス値を決定する。空間情報符号化部22は、各周波数帯域について、周波数方向に沿ってインデックス間の差分値を求める。例えば、周波数帯域kに対するインデックス値が2であり、周波数帯域(k-1)に対するインデックス値が4であれば、空間情報符号化部22は、周波数帯域kに対するインデックスの差分値を−2とする。
空間情報符号化部22は、インデックス間の差分値と強度差符号の対応を示した符号化テーブルを参照する。そして空間情報符号化部22は、符号化テーブルを参照することにより、強度差CLDj(k)の各周波数帯域kの差分値に対する強度差符号idxcldj(k)(j=L,R,C)を決定する。強度差符号は、類似度符号と同様に、例えば、ハフマン符号あるいは算術符号など、出現頻度が高い差分値ほど符号長が短くなる可変長符号とすることができる。なお、量子化テーブル及び符号化テーブルは、予め空間情報符号化部22が有するメモリに格納される。
図6は、強度差に対する量子化テーブルの一例を示す図である。図6に示す量子化テーブル600において、行610、630及び650の各欄はインデックス値を表し、行620、640及び660の各欄は、それぞれ、同じ列の行610、630及び650の各欄に示されたインデックス値に対応する強度差の代表値を表す。例えば、周波数帯域kに対する強度差CLDL(k)が10.8dBである場合、量子化テーブル600では、インデックス値5に対応する強度差の代表値がCLDL (k)に最も近い。そこで、空間情報符号化部22は、CLDL(k)に対するインデックス値を5に設定する。
空間情報符号化部22は、類似度符号idxicci(k)、強度差符号idxcldj(k)及び、予測係数符号idxcm(k)を用いてMPS符号を生成する。例えば、空間情報符号化部22は、類似度符号idxicci(k)、強度差符号idxcldj(k)及び予測係数符号idxcm(k)を所定の順序に従って配列することにより、MPS符号を生成する。この所定の順序については、例えば、ISO/IEC23003−1:2007に記述されている。空間情報符号化部22は、生成したMPS符号を多重化部23へ出力する。
多重化部23は、AAC符号、SBR符号及びMPS符号を所定の順序に従って配列することにより多重化する。そして多重化部23は、多重化により生成された符号化オーディオ信号を出力する。図7は、符号化されたオーディオ信号が格納されたデータ形式の一例を示す図である。図7の例では、符号化オーディオ信号は、MPEG-4 ADTS(Audio Data Transport Stream)形式に従って作成される。図7に示される符号化データ列700において、データブロック710にAAC符号が格納される。またADTS形式のFILLエレメントが格納されるブロック720の一部領域にSBR符号及びMPS符号が格納される。
図8は、オーディオ符号化処理の動作フローチャートを示す。なお、図8に示されたフローチャートは、1フレーム分のマルチチャネルオーディオ信号に対する処理を表す。オーディオ符号化装置1は、マルチチャネルオーディオ信号を受信し続けている間、フレームごとに図8に示されたオーディオ符号化処理の手順を繰り返し実行する。
時間周波数変換部11は、各チャネルの信号を周波数信号に変換する(ステップS801)。時間周波数変換部11は、各チャネルの周波数信号を第1ダウンミックス部12へ出力する。
次に、第1ダウンミックス部12は、各チャネルの周波数信号をダウンミックスすることにより右、左、中央の3チャネルの周波数信号{L0(k,n)、R0(k,n)、C0(k,n)}を生成する。さらに第1ダウンミックス部12は、右、左、中央の各チャネルの空間情報を算出する(ステップS802)。第1ダウンミックス部12は、3チャネルの周波数信号を予測符号化部13ならびに第2ダウンミックス部15へ出力する。
予測符号化部13は、左側周波数信号L0(k,n)、右側周波数信号R0(k,n)、中央チャネルの信号C0(k,n)の3チャネルの周波数信号を第1ダウンミックス部12から受け取る。予測符号化部13に含まれる選択部14は、ダウンミックスされる二つのチャネルの周波数信号についての予測係数を符号帳から上述の(数10)を用いて、予測符号化前と予測符号化後の周波数信号の誤差d(k,n)が最小となる予測係数c1(k)、c2(k)を符号帳から選択する(ステップS803)。予測符号化部13は、予測係数c1(k)、c2(k)に対応する予測係数符号idxcm(k)(m=1,2)を空間情報符号化部22へ出力する。また、予測符号化部13は、誤差d(k,n)と、予測係数c1(k)、c2(k)を第2ダウンミックス部15に出力する。
第2ダウンミックス部15は、左側周波数信号L0(k,n)、右側周波数信号R0(k,n)、中央チャネルの信号C0(k,n)の3チャネルの周波数信号を第1ダウンミックス部から受け取る。また、第2ダウンミックス部15は、誤差d(k,n)と、予測係数c1(k)、c2(k)を予測符号化部13から受け取る。算出部16は、誤差d(k,n)が0か否かを判断する(ステップS804)。誤差d(k,n)が0の場合(ステップS804−No)は、オーディオ符号化装置1は、第2ダウンミックス部15にステレオ周波数信号を生成させ、当該ステレオ周波数信号をチャネル信号符号化部18に出力させた上でステップS811に処理を進める。誤差d(k,n)が0以外の場合(ステップS804−Yes)は、算出部16は、マスキング閾値threshold-L0(k,n)、またはthreshold-R0(k,n)を、上述の(数12)を用いて算出する(ステップS805)。なお、算出部16は、マスキング閾値threshold-L0(k,n)とthreshold-R0(k,n)のいずれか一方のみを算出しても良い。この場合は、以降の処理を、マスキング閾値を算出した周波数成分のみ処理の対象とすることが出来る。算出部16は、算出したマスキング閾値threshold-L0(k,n)、threshold-R0(k,n)ならびに、左側周波数信号L0(k,n)、右側周波数信号R0(k,n)、中央チャネルの信号C0(k,n)の3チャネルの周波数信号を制御部17に出力する。
制御部17は、左側周波数信号L0(k,n)、右側周波数信号R0(k,n)、マスキング閾値threshold-L0(k,n)、threshold-R0(k,n)に基づいて、左側周波数信号L0(k,n)、右側周波数信号R0(k,n)に対して主観的な音質に影響を及ぼさない範囲となる許容制御範囲R0thr(k,n)、L0thr(k,n)を、上述の(数13)を用いて算出する(ステップS806)。制御部17は、上述の(数13)を用いて算出した許容制御範囲R0thr(k,n)、ならびにL0thr(k,n)に基づいて、誤差d’(k,n)が最小となる様に、左側周波数信号L0(k,n)の制御量ΔL0(k,n)ならびに、右側周波数信号R0(k,n)の制御量ΔR0(k,n)を規定する。この為、制御部17は、上述の(数14)の範囲内で制御量ΔL0(k,n)と制御量ΔR0(k,n)を任意に選択する(ステップS807)。制御部17は、再予測制御後の中央チャネルの信号C’’0(k,n)と予測符号化前の中央チャネルの信号C0(k,n)の差分で規定される誤差d’(k,n)を、上述の(数16)を用いて算出する(ステップS808)。
制御部17は、誤差d’(k,n)が許容制御範囲内で最小か否かを判断し(ステップS809)、誤差d’(k,n)が最小でない場合(ステップS809−No)は、制御部17は、ステップS807〜S809の処理を繰り返す。制御部17は、誤差d’(k,n)が許容制御範囲内で最小となる場合(ステップS809−Yes)は、誤差d’(k,n)が最小となる制御量ΔL0Re(k,n)とΔL0Im(k,n)、ならびに、制御量ΔR0Re(k,n)とΔR0Im(k,n)に基づいて、左側周波数信号L0(k,n)、右側周波数信号R0(k,n)を、上述の(数15)に基づいて制御し、制御左側周波数信号L’0(k,n)と、制御右側周波数信号R’0(k,n)を生成することで、制御ステレオ周波数信号を生成する(ステップS810)。第2ダウンミックス15は、制御部17が生成した制御左側周波数信号L’0(k,n)と、制御右側周波数信号R’0(k,n)を、制御ステレオ周波数信号としてチャネル信号符号化部18へ出力する。
チャネル信号符号化部18は、受け取った各チャネルの制御ステレオ周波数信号またはステレオ周波数信号のうち、高域成分をSBR符号化する。またチャネル信号符号化部18は、受け取った各チャネルの制御ステレオ周波数信号またはステレオ周波数信号のうち、SBR符号化されない低域成分をAAC符号化する(ステップS811)。そしてチャネル信号符号化部18は、複製に利用された低域成分と対応する高域成分の位置関係を表す情報などのSBR符号と、AAC符号を多重化部23へ出力する。
空間情報符号化部22は、第1ダウンミックス部12から受け取った符号化する空間情報と、予測符号化部15から受け取った予測係数符号からMPS符号を生成する(ステップS812)。そして空間情報符号化部22は、MPS符号を多重化部23へ出力する。
最後に、多重化部23は、生成されたSBR符号、AAC符号、MPS符号を多重化することにより、符号化されたオーディオ信号を生成する(ステップS813)。多重化部23は、符号化されたオーディオ信号を出力する。そしてオーディオ符号化装置1は、符号化処理を終了する。
なお、オーディオ符号化装置1は、ステップS811の処理とステップS812の処理を並列に実行してもよい。あるいは、オーディオ符号化装置1は、ステップS811の処理を行う前にステップS812の処理を実行してもよい。
図9は、実施例1における予測符号化の概念図である。図9において、座標軸となるRe軸とIm軸はそれぞれ周波数信号の実数部と虚数部を示す。左側周波数信号L0(k,n)、右側周波数信号R0 (k,n)ならびに中央チャネルの信号C0 (k,n)は、上述の(数2)、(数8)、(数9)等で表現されている通り、それぞれ実数部と虚数部からなるベクトルで表現することが可能である。
図9においては、左側周波数信号L0(k,n)のベクトルと、右側周波数信号R0(k,n)のベクトル、予測符号化される中央チャネルの信号C0(k,n)のベクトルを模式的に示している。なお、予測符号化においては、中央チャネルの信号C0(k,n)が、左側周波数信号L0(k,n)、右側周波数信号R0(k,n)ならびに予測係数c1(k)、c2(k)によってベクトル分解が出来ることを利用している。
ここで、予測符号化部13は、上述の通り、予測符号化前の中央チャネルの信号C0(k,n)と予測符号化後の中央チャネルの信号C'0(k,n)の周波数信号の誤差d(k,n)が最小となる予測係数c1(k)とc2(k)を符号帳から選択することで、中央チャネルの信号C0(k,n)を予測符号化することが可能となる。なお、この概念を数式で示したものが上述の(数9)である。しかしながら、符号帳から予測係数を選択する方法においては、選択出来る予測係数が有限個数である為、予測符号化における誤差は0に収束するとは限らない。一方、実施例1においては、左側周波数信号L0(k,n)、右側周波数信号R0(k,n)に対して主観的な音質に影響を及ぼさない範囲となる許容制御範囲R0thr(k,n)、L0thr(k,n)の範囲で左側周波数信号L0(k,n)と右側周波数信号R0(k,n)を制御することが出来る。また制御の範囲が図2のテーブル200に示す量子化テーブルとは異なり許容制御範囲内であれば任意の係数で制御できる為、予測符号化における誤差を大幅に改善することが可能となる。以上の理由により、実施例1におけるオーディオ符号化装置によれば、符号化効率を低下させずに予測符号化における誤差を抑制させることが可能となる。
(実施例2)
実施例1における図1に示す算出部16は、誤差d(k,n)が0以外の場合に、左側周波数信号L0(k,n)、右側周波数信号R0(k,n)にそれぞれ対応するマスキング閾値threshold-L0(k,n)、threshold-R0(k,n)を算出する。実施例2における算出部16は、誤差d(k,n)が0以外の場合に、初めに中央チャネルの信号C0(k,n)のマスキング閾値threshold-C0(k,n)を算出する。マスキング閾値threshold-C0(k,n)の算出方法は、上述のマスキング閾値threshold-L0(k,n)、threshold-R0(k,n)と同様の方法を用いることが出来る為、詳細な説明は省略する。
算出部16は、例えば制御部17から予測係数c1(k)、c2(k)を受け取り、上述の数(10)を用いて、予測符号化後の中央チャネルの信号C'0(k,n)を生成する。中央チャネルの信号C0(k,n)と予測符号化後の中央チャネルの信号C'0(k,n)の絶対値の差分がマスキング閾値threshold-C0(k,n)未満の場合は、予測符号化後の中央チャネルの信号C'0(k,n)の誤差は主観的な音質に影響を与えないと考えることが出来る。この場合、第2ダウンミックス部15が第2左側周波数信号L0(k,n)、右側周波数信号R0(k,n)から2チャネルのステレオ周波数信号を生成し、当該ステレオ周波数信号をチャネル信号符号化部18に出力する。中央チャネルの信号C0(k,n)と予測符号化後の中央チャネルの信号C'0(k,n)の絶対値の差分がマスキング閾値threshold-C0(k,n)より大きい場合は、オーディオ符号化装置1は、実施例1に示す方法で制御ステレオ周波数信号を生成すれば良い。なお、マスキング閾値threshold-C0(k,n)を第1閾値と称しても良い。
実施例2におけるオーディオ符号化装置によれば、符号化効率を低下させずに予測符号化における誤差の抑制と演算負荷を軽減させることが可能となる。
(実施例3)
図1に示す、図1の制御部17は、左側周波数信号L0(k,n)、右側周波数信号R0(k,n)の双方を制御しているが、左側周波数信号L0(k,n)または右側周波数信号R0(k,n)のいずれか一方のみを制御することのみでも制御ステレオ周波数信号を生成することが可能である。例えば、制御部17は、右側周波数信号R0(k,n)のみ制御する場合は、上述の(数14)、(数15)において、R0(k,n)関する式のみを用いて、誤差d’(k,n)を(数16)により算出し、(数17の)R’0(k,n)を算出する。そして、第2ダウンミックス15は、制御右側周波数信号R’0(k,n)と左側周波数信号L0(k,n)を制御ステレオ周波数信号としてチャネル信号符号化部18へ出力する。
実施例3におけるオーディオ符号化装置によれば、符号化効率を低下させずに予測符号化における誤差の抑制と演算負荷を軽減させることが可能となる。
(実施例4)
図10は、他の実施形態によるオーディオ符号化装置のハードウェア構成図である。図10に示すように、オーディオ符号化装置1は、制御部901、主記憶部902、補助記憶部903、ドライブ装置904、ネットワークI/F部906、入力部907、表示部908を含む。これら各構成は、バスを介して相互にデータ送受信可能に接続されている。
制御部901は、コンピュータの中で、各装置の制御やデータの演算、加工を行うCPUである。また、制御部901は、主記憶部902や補助記憶部903に記憶されたプログラムを実行する演算装置であり、入力部907や記憶装置からデータを受け取り、演算、加工した上で、表示部908や記憶装置などに出力する。
主記憶部902は、ROM(Read Only Memory)やRAM(Random Access Memory)などであり、制御部901が実行する基本ソフトウェアであるOSやアプリケーションソフトウェアなどのプログラムやデータを記憶または一時保存する記憶装置である。
補助記憶部903は、HDD(Hard Disk Drive)などであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。
ドライブ装置904は、記録媒体905、例えばフレキシブルディスクからプログラムを読み出し、補助記憶部903にインストールする。
また、記録媒体905に、所定のプログラムを格納し、この記録媒体905に格納されたプログラムはドライブ装置904を介してオーディオ符号化装置1にインストールされる。インストールされた所定のプログラムは、オーディオ符号化装置1により実行可能となる。
ネットワークI/F部906は、有線及び/又は無線回線などのデータ伝送路により構築されたLAN(Local Area Network)、WAN(Wide Area Network)などのネットワークを介して接続された通信機能を有する周辺機器とオーディオ符号化装置1とのインターフェースである。
入力部907は、カーソルキー、数字入力及び各種機能キー等を備えたキーボード、表示部908の表示画面上でキーの選択等を行うためのマウスやスライスパット等を有する。また、入力部907は、ユーザが制御部901に操作指示を与えたり、データを入力したりするためのユーザインターフェースである。
表示部908は、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)等により構成され、制御部901から入力される表示データに応じた表示が行われる。
なお、上述したオーディオ符号化処理は、コンピュータに実行させるためのプログラムとして実現されてもよい。このプログラムをサーバ等からインストールしてコンピュータに実行させることで、上述したオーディオ符号化処理を実現することができる。
また、このプログラムを記録媒体905に記録し、このプログラムが記録された記録媒体905をコンピュータや携帯端末に読み取らせて、前述したオーディオ符号化処理を実現させることも可能である。なお、記録媒体905は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的、電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。
さらに他の実施形態によれば、オーディオ符号化装置のチャネル信号符号化部は、制御ステレオ周波数信号を他の符号化方式に従って符号化してもよい。例えば、チャネル信号符号化部は、周波数信号全体をAAC符号化方式にしたがって符号化してもよい。この場合、図1に示されたオーディオ符号化装置において、SBR符号化部は省略される。
また、符号化の対象となるマルチチャネルオーディオ信号は、5.1chオーディオ信号に限られない。例えば、符号化の対象となるオーディオ信号は、3ch、3.1chまたは7.1chなど、複数のチャネルを持つオーディオ信号であってもよい。この場合も、オーディオ符号化装置は、各チャネルのオーディオ信号を時間周波数変換することにより、各チャネルの周波数信号を算出する。そしてオーディオ符号化装置は、各チャネルの周波数信号をダウンミックスすることにより、元のオーディオ信号よりもチャネル数が少ない周波数信号を生成する。
上記の各実施形態におけるオーディオ符号化装置が有する各部の機能をコンピュータに実現させるコンピュータプログラムは、半導体メモリ、磁気記録媒体または光記録媒体などの記録媒体に記憶された形で提供されてもよい。
また、上記の各実施形態におけるオーディオ符号化装置は、コンピュータ、ビデオ信号の録画機または映像伝送装置など、オーディオ信号を伝送または記録するために利用される各種の機器に実装させることが可能である。
(実施例5)
図11は、一つの実施形態によるオーディオ復号装置100の機能ブロックを示す図である。図11に示す様に、オーディオ復号装置100は、分離部101、チャネル信号復号部102、空間情報復号部106、予測復号部107、アップミックス部108、周波数時間変換部109を含んでいる。また、チャネル信号復号部102は、AAC復号部103、時間周波数変換部104、SBR復号部105を含んでいる。
オーディオ復号装置100が有するこれらの各部は、それぞれ別個の回路として形成される。あるいはオーディオ復号装置100が有するこれらの各部は、その各部に対応する回路が集積された一つの集積回路としてオーディオ復号装置100に実装されてもよい。さらに、オーディオ復号装置100が有するこれらの各部は、オーディオ復号装置100が有するプロセッサ上で実行されるコンピュータプログラムにより実現される、機能モジュールであってもよい。
分離部101は、多重化された符号化オーディオ信号を外部から受け取る。分離部101は、符号化オーディオ信号に含まれる符号化された状態のAAC符号、SBR符号とMPS符号を分離する。なお、AAC符号、SBR符号をチャネル符号化信号と称し、MPS符号を符号化空間情報と称しても良い。なお、分離方法は、例えば、ISO/IEC14496−3に記載の方法を用いることが出来る。分離部101は、分離したMPS符号を空間情報復号部106へ、AAC符号をAAC復号部103へ、SBR復号部105へ出力する。
空間情報復号部106は、分離部101からMPS符号を受け取る。空間情報復号部106は、MPS符号から図4に示す類似度に対する量子化テーブルの一例を用いて類似度ICCi(k)を復号し、アップミックス部108に出力する。また、空間情報復号部106は、MPS符号から図6に示す強度差に対する量子化テーブルの一例を用いて強度差CLDj(k)を復号し、アップミックス部108に出力する。また、空間情報復号部106は、MPS符号化から図2に示す予測係数に対する量子化テーブルの一例を用いて予測係数を復号し、予測復号部107へ出力する。
AAC復号部103は、分離部101からMPS符号を受け取り、各チャネルの信号の低域成分をAAC復号方式に従って復号し、時間周波数変換部104へ出力する。なお、AAC復号方法は、例えば、ISO/IEC 13818−7に記載の方法を用いることが出来る。
時間周波数変換部104は、AAC復号部103で復号された時間信号である各チャネルの信号を、例えば、ISO/IEC14496−3記載のQMFフィルタバンクを用いて周波数信号へ変換し、SBR復号部105へ出力する。また、時間周波数変換部104は、次式に示す複素型のQMFフィルタバンクを用いて時間周波数変換しても良い。
(数19)

Figure 0006179122

ここでQMF(k,n)は、時間n、周波数kを変数とする複素型のQMFである。
SBR復号部105は、各チャネルの信号の高域成分をSBR復号方式に従って復号する。なお、SBR復号方法は、例えばISO/IEC14496−3に記載の方法を用いることが出来る。
チャネル信号復号部102は、AAC復号部103と、SBR復号部105で復号された各チャネルのステレオ周波数信号を予測復号部107へ出力する。
予測復号部107は、空間情報復号部106から受け取る予測係数と、チャネル信号復号部102から受け取る制御ステレオ周波数信号から予測符号化された何れかの中央チャネル信号C0(k,n)の予測復号を行う。例えば、予測復号部107は、制御左側周波数信号L’0(k,n)と制御右側周波数信号R’0(k,n)の制御ステレオ周波数信号と予測係数c1(k)、c2(k)から、中央チャネル信号C0(k,n)を、次式により予測復号することができる。
(数20)

Figure 0006179122

予測復号部107は、制御左側周波数信号L0(k,n)、制御右側周波数信号R0(k,n)、中央チャネル信号C0(k,n)をアップミックス部108に出力する。
アップミックス部108は、予測復号部107から受け取った制御左側周波数信号L’0(k,n)、制御右側周波数信号R’0(k,n)、中央チャネル信号C0(k,n)について、次式に従いマトリクス変換を行う。
(数21)

Figure 0006179122

ここで、Lout(k,n)、Rout(k,n)、Cout(k,n)は、それぞれ、左チャネル、右チャネル及び中央チャネルの周波数信号である。アップミックス部108は、マトリクス変換した、左チャネルの周波数信号Lout(k,n)、右チャネルの周波数信号Rout(k,n)及び、中央チャネルの周波数信号Cout(k,n)と、空間情報復号部106から受け取る空間情報から、例えば、5.1chのオーディオ信号へアップミックスする。なお、アップミックス方法は例、えば、ISO/IEC23003―1に記載の方法を用いることが出来る。
周波数時間変換部109は、アップミックス部108から受け取る各信号を、次式に示すQMFフィルタバンクを用いて周波数信号から時間信号に変換する。
(数22)

Figure 0006179122
この様に、実施例4に開示するオーディオ復号装置においては、誤差を抑制させた予測符号化されたオーディオ信号を、正確に復号することが出来る。
(実施例5)
図12は、一つの実施形態によるオーディオ符号化復号システム1000の機能ブロックを示す図(その1)である。図13は、一つの実施形態によるオーディオ符号化復号システム1000の機能ブロックを示す図(その2)である。図12と図13に示す様に、オーディオ符号化復号システム1000は、時間周波数変換部11、第1ダウンミックス部12、第2ダウンミックス部15、予測符号化部13、チャネル信号符号化部18、空間情報符号化部22、多重化部23を有する。また、予測符号化部13は、選択部14を含み、第2ダウンミックス部15は、算出部16と制御部17を含んでいる。更に、チャネル信号符号化部18は、SBR(Spectral Band Replication)符号化部19と、周波数時間変換部20と、AAC(Advanced Audio Coding)符号化部21を含んでいる。また、オーディオ符号化復号システム1000は、分離部101、チャネル信号復号部102、空間情報復号部106、予測復号部107、アップミックス部108、周波数時間変換部109を含んでいる。また、チャネル信号復号部102は、AAC復号部103、時間周波数変換部104、SBR復号部105を含んでいる。なお、オーディオ符号化復号システム1000が含む各機能は、図1ならびに図11に示す機能と同様となる為、詳細な説明は省略する。
また、上述の実施例において、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
ここに挙げられた全ての例及び特定の用語は、当業者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。
以上説明した実施形態及びその変形例に関し、更に以下の付記を開示する。
(付記1)
オーディオ信号に含まれる複数のチャネルに含まれる第1チャネル信号と第2チャネル信号と、符号帳に含まれる複数の予測係数とに基づいて、前記複数のチャネルに含まれる第3チャネル信号を予測符号化するオーディオ符号化装置において、
予測符号化前の前記第3チャネル信号と予測符号化後の前記第3チャネル信号の差分で規定される誤差が最小となる前記第1チャネル信号と前記第2チャネル信号にそれぞれ対応する前記予測係数を選択する選択部と、
前記誤差が更に小さくなる様に前記第1チャネル信号または前記第2チャネル信号を制御する制御部
を備えることを特徴とするオーディオ符号化装置。
(付記2)
前記第1チャネル信号または前記第2チャネル信号のマスキング閾値を算出する算出部を更に備え、
前記制御部は、前記マスキング閾値より規定される許容制御量に基づいて、前記誤差が更に小さくなる様に前記第1チャネル信号または前記第2チャネル信号を制御することを特徴とする付記1記載のオーディオ符号化装置。
(付記3)
前記制御部は、前記誤差が所定の第1閾値以上の場合に、前記第1チャネル信号または前記第2チャネル信号を制御することを特徴とする付記1または付記2記載のオーディオ符号化装置。
(付記4)
前記第1閾値は、前記予測符号化前の前記第3チャネル信号のマスキング閾値に基づいて規定されることを特徴とする付記3記載のオーディオ符号化装置。
(付記5)
前記マスキング閾値は、静的マスキング閾値または動的マスキング閾値であることを特徴とする付記2記載のオーディオ符号化装置。
(付記6)
オーディオ信号に含まれる複数のチャネルに含まれる第1チャネル信号と第2チャネル信号と、符号帳に含まれる複数の予測係数とに基づいて、前記複数のチャネルに含まれる第3チャネル信号を予測符号化するオーディオ符号化方法において、
予測符号化前の前記第3チャネル信号と予測符号化後の前記第3チャネル信号の差分で規定される誤差が最小となる前記第1チャネル信号と前記第2チャネル信号にそれぞれ対応する前記予測係数を選択し、
前記誤差が更に小さくなる様に前記第1チャネル信号または前記第2チャネル信号を制御する
ことを含むことを特徴とするオーディオ符号化方法。
(付記7)
前記第1チャネル信号または前記第2チャネル信号のマスキング閾値を算出することを更に含み、
前記制御することは、前記マスキング閾値より規定される許容制御量に基づいて、前記誤差が更に小さくなる様に前記第1チャネル信号または前記第2チャネル信号を制御することを特徴とする付記6記載のオーディオ符号化方法。
(付記8)
前記制御することは、前記誤差が所定の第1閾値以上の場合に、前記第1チャネル信号または前記第2チャネル信号を制御することを特徴とする付記6または付記7記載のオーディオ符号化方法。
(付記9)
前記第1閾値は、前記予測符号化前の前記第3チャネル信号のマスキング閾値に基づいて規定されることを特徴とする付記7記載のオーディオ符号化方法。
(付記10)
前記マスキング閾値は、静的マスキング閾値または動的マスキング閾値であることを特徴とする付記7記載のオーディオ符号化方法。
(付記11)
オーディオ信号に含まれる複数のチャネルに含まれる第1チャネル信号と第2チャネル信号と、符号帳に含まれる複数の予測係数とに基づいて、前記複数のチャネルに含まれる第3チャネル信号を予測符号化することをコンピュータに実行させるオーディオ符号化用コンピュータプログラムであって、コンピュータに、
予測符号化前の前記第3チャネル信号と予測符号化後の前記第3チャネル信号の差分で規定される誤差が最小となる前記第1チャネル信号と前記第2チャネル信号にそれぞれ対応する前記予測係数を選択し、
前記誤差が更に小さくなる様に前記第1チャネル信号または前記第2チャネル信号を制御する
ことを実行させることを特徴とするオーディオ符号化プログラム。
(付記12)
前記第1チャネル信号または前記第2チャネル信号のマスキング閾値を算出することを更に含み、
前記制御することは、前記マスキング閾値より規定される許容制御量に基づいて、前記誤差が更に小さくなる様に前記第1チャネル信号または前記第2チャネル信号を制御することを特徴とする付記11記載のオーディオ符号化プログラム。
(付記13)
前記制御することは、前記誤差が所定の第1閾値以上の場合に、前記第1チャネル信号または前記第2チャネル信号を制御することを特徴とする付記11または付記12記載のオーディオ符号化プログラム。
(付記14)
前記第1閾値は、前記予測符号化前の前記第3チャネル信号のマスキング閾値に基づいて規定されることを特徴とする付記13記載のオーディオ符号化プログラム。
(付記15)
前記マスキング閾値は、静的マスキング閾値または動的マスキング閾値であることを特徴とする付記12記載のオーディオ符号化プログラム。
(付記16)
オーディオ信号に含まれる複数のチャネルに含まれる第1チャネル信号と第2チャネル信号と、符号帳に含まれる複数の予測係数とに基づいて、前記複数のチャネルに含まれる第3チャネル信号を予測符号化するオーディオ符号化装置において、
予測符号化前の前記第3チャネル信号と予測符号化後の前記第3チャネル信号の差分で規定される誤差を選択する選択部と、
前記誤差が前記予測符号化前の前記第3チャネル信号のマスキング閾値未満か否かを判定する判定部と、
前記マスキング閾値以上の場合、前記誤差が更に小さくなる様に前記第1チャネル信号または前記第2チャネル信号を制御する制御部
を備えることを特徴とするオーディオ符号化装置。
(付記17)
オーディオ信号に含まれる複数のチャネルに含まれる第1チャネル信号と第2チャネル信号と、符号帳に含まれる複数の予測係数とに基づいて、前記複数のチャネルに含まれる第3チャネル信号を予測復号するオーディオ復号装置において、
予測符号化前の前記第3チャネル信号と予測符号化後の前記第3チャネル信号の差分で規定される誤差が最小となる前記第1チャネル信号と前記第2チャネル信号にそれぞれ対応する前記予測係数が選択された後に、前記誤差が更に小さくなる様に前記第1チャネル信号または前記第2チャネル信号が制御された符号化チャネル信号と、
前記複数のチャネル間の強度差と類似度を含む符号化空間情報と、
が多重化された入力信号を分離する分離部と、
復号処理された前記第1チャネル信号、前記第2チャネル信号ならびに前記第3チャネル信号をアップミックスするアップミックス部
を備えることを特徴とするオーディオ復号装置。
(付記18)
オーディオ信号に含まれる複数のチャネルに含まれる第1チャネル信号と第2チャネル信号と、符号帳に含まれる複数の予測係数とに基づいて、前記複数のチャネルに含まれる第3チャネル信号を予測符号化するオーディオ符号化復号システムにおいて、
予測符号化前の前記第3チャネル信号と予測符号化後の前記第3チャネル信号の差分で規定される誤差が最小となる前記第1チャネル信号と前記第2チャネル信号にそれぞれ対応する前記予測係数を選択する選択部と、
前記誤差が更に小さくなる様に前記第1チャネル信号または前記第2チャネル信号を制御する制御部と、
前記第1チャネル信号または前記第2チャネル信号が制御された符号化チャネル信号と、前記複数のチャネル間の強度差と類似度を含む符号化空間情報とが多重化された入力信号を分離する分離部と、
復号処理された前記第1チャネル信号、前記第2チャネル信号ならびに前記第3チャネル信号をアップミックスするアップミックス部
を備えることを特徴とするオーディオ符号化復号システム。
1 オーディオ符号化装置
11 時間周波数変換部
12 第1ダウンミックス部
13 予測符号化部
14 選択部
15 第2ダウンミックス部
16 算出部
17 制御部
18 チャネル信号符号化部
19 SBR符号化部
20 周波数時間変換部
21 AAC符号化部
22 空間情報符号化部
23 多重化部
100 オーディオ復号装置
101 分離部
102 チャネル信号復号部
103 AAC復号部
104 時間周波数変換部
105 SBR復号部
106 空間情報復号部
107 予測復号部
108 アップミックス部
109 周波数時間変換部

Claims (7)

  1. オーディオ信号に含まれる複数のチャネルに含まれる第1チャネル信号と第2チャネル信号と、符号帳に含まれる複数の予測係数とに基づいて、前記複数のチャネルに含まれる第3チャネル信号を予測符号化するオーディオ符号化装置において、
    予測符号化前の前記第3チャネル信号と予測符号化後の前記第3チャネル信号の差分で規定される誤差が最小となる前記第1チャネル信号と前記第2チャネル信号にそれぞれ対応する前記予測係数を選択する選択部と、
    前記第1チャネル信号及び前記第2チャネル信号のいずれかまたは双方のマスキング閾値を算出する算出部と、
    前記各マスキング閾値より規定される許容制御量の範囲内で、前記誤差が更に小さくなる様に前記第1チャネル信号及び前記第2チャネル信号のいずれかまたは双方を制御する制御部
    を備えることを特徴とするオーディオ符号化装置。
  2. 前記制御部は、前記誤差が所定の第1閾値以上の場合に、前記第1チャネル信号または前記第2チャネル信号を制御することを特徴とする請求項1記載のオーディオ符号化装置。
  3. 前記第1閾値は、前記予測符号化前の前記第3チャネル信号のマスキング閾値に基づいて規定されることを特徴とする請求項2記載のオーディオ符号化装置。
  4. 前記マスキング閾値は、静的マスキング閾値または動的マスキング閾値であることを特徴とする請求項1記載のオーディオ符号化装置。
  5. オーディオ信号に含まれる複数のチャネルに含まれる第1チャネル信号と第2チャネル信号と、符号帳に含まれる複数の予測係数とに基づいて、前記複数のチャネルに含まれる第3チャネル信号を予測符号化するオーディオ符号化方法において、
    予測符号化前の前記第3チャネル信号と予測符号化後の前記第3チャネル信号の差分で規定される誤差が最小となる前記第1チャネル信号と前記第2チャネル信号にそれぞれ対応する前記予測係数を選択し、
    前記第1チャネル信号及び前記第2チャネル信号のいずれかまたは双方のマスキング閾値を算出し、
    前記各マスキング閾値より規定される許容制御量の範囲内で、前記誤差が更に小さくなる様に前記第1チャネル信号及び前記第2チャネル信号のいずれかまたは双方を制御する
    ことを含むことを特徴とするオーディオ符号化方法。
  6. オーディオ信号に含まれる複数のチャネルに含まれる第1チャネル信号と第2チャネル信号と、符号帳に含まれる複数の予測係数とに基づいて、前記複数のチャネルに含まれる第3チャネル信号を予測符号化することをコンピュータに実行させるオーディオ符号化用コンピュータプログラムであって、コンピュータに、
    予測符号化前の前記第3チャネル信号と予測符号化後の前記第3チャネル信号の差分で規定される誤差が最小となる前記第1チャネル信号と前記第2チャネル信号にそれぞれ対応する前記予測係数を選択し、
    前記第1チャネル信号及び前記第2チャネル信号のいずれかまたは双方のマスキング閾値を算出し、
    前記各マスキング閾値より規定される許容制御量の範囲内で、前記誤差が更に小さくなる様に前記第1チャネル信号及び前記第2チャネル信号のいずれかまたは双方を制御する
    ことを実行させることを特徴とするオーディオ符号化プログラム。
  7. オーディオ信号に含まれる複数のチャネルに含まれる第1チャネル信号と第2チャネル信号と、符号帳に含まれる複数の予測係数とに基づいて、前記複数のチャネルに含まれる第3チャネル信号を予測符号化するオーディオ符号化装置において、
    予測符号化前の前記第3チャネル信号と予測符号化後の前記第3チャネル信号の差分で規定される誤差を算出する制御部と、
    前記第1チャネル信号、前記第2チャネル信号のいずれかまたは双方、及び前記第3チャネル信号のマスキング閾値を算出する算出部と、
    前記誤差が前記予測符号化前の前記第3チャネル信号のマスキング閾値未満か否かを判定する判定部
    を備え、
    前記制御部は、前記誤差が前記予測符号化前の前記第3チャネル信号の前記マスキング閾値以上の場合、前記第1チャネル信号及び前記第2チャネル信号のいずれかまたはそれぞれのマスキング閾値より規定される許容制御量の範囲内で、前記誤差が更に小さくなる様に前記第1チャネル信号及び前記第2チャネル信号のいずれかまたは双方を制御する
    ことを特徴とするオーディオ符号化装置。
JP2013031476A 2013-02-20 2013-02-20 オーディオ符号化装置、オーディオ符号化方法、オーディオ符号化プログラム Expired - Fee Related JP6179122B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013031476A JP6179122B2 (ja) 2013-02-20 2013-02-20 オーディオ符号化装置、オーディオ符号化方法、オーディオ符号化プログラム
US14/090,546 US9508352B2 (en) 2013-02-20 2013-11-26 Audio coding device and method
EP13194815.0A EP2770505B1 (en) 2013-02-20 2013-11-28 Audio coding device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013031476A JP6179122B2 (ja) 2013-02-20 2013-02-20 オーディオ符号化装置、オーディオ符号化方法、オーディオ符号化プログラム

Publications (2)

Publication Number Publication Date
JP2014160212A JP2014160212A (ja) 2014-09-04
JP6179122B2 true JP6179122B2 (ja) 2017-08-16

Family

ID=49667057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013031476A Expired - Fee Related JP6179122B2 (ja) 2013-02-20 2013-02-20 オーディオ符号化装置、オーディオ符号化方法、オーディオ符号化プログラム

Country Status (3)

Country Link
US (1) US9508352B2 (ja)
EP (1) EP2770505B1 (ja)
JP (1) JP6179122B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5799824B2 (ja) * 2012-01-18 2015-10-28 富士通株式会社 オーディオ符号化装置、オーディオ符号化方法及びオーディオ符号化用コンピュータプログラム
JP6303435B2 (ja) 2013-11-22 2018-04-04 富士通株式会社 オーディオ符号化装置、オーディオ符号化方法、オーディオ符号化用プログラム、オーディオ復号装置

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5956674A (en) * 1995-12-01 1999-09-21 Digital Theater Systems, Inc. Multi-channel predictive subband audio coder using psychoacoustic adaptive bit allocation in frequency, time and over the multiple channels
US7110941B2 (en) * 2002-03-28 2006-09-19 Microsoft Corporation System and method for embedded audio coding with implicit auditory masking
US7454331B2 (en) * 2002-08-30 2008-11-18 Dolby Laboratories Licensing Corporation Controlling loudness of speech in signals that contain speech and other types of audio material
US7502743B2 (en) * 2002-09-04 2009-03-10 Microsoft Corporation Multi-channel audio encoding and decoding with multi-channel transform selection
JP4676140B2 (ja) * 2002-09-04 2011-04-27 マイクロソフト コーポレーション オーディオの量子化および逆量子化
SE0402652D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Methods for improved performance of prediction based multi- channel reconstruction
JP2007183528A (ja) 2005-12-06 2007-07-19 Fujitsu Ltd 符号化装置、符号化方法、および符号化プログラム
JP4606507B2 (ja) * 2006-03-24 2011-01-05 ドルビー インターナショナル アクチボラゲット 多チャンネル信号のパラメータ表現からの空間ダウンミックスの生成
CA2874451C (en) * 2006-10-16 2016-09-06 Dolby International Ab Enhanced coding and parameter representation of multichannel downmixed object coding
JP4984983B2 (ja) 2007-03-09 2012-07-25 富士通株式会社 符号化装置および符号化方法
US9177569B2 (en) * 2007-10-30 2015-11-03 Samsung Electronics Co., Ltd. Apparatus, medium and method to encode and decode high frequency signal
KR101373004B1 (ko) * 2007-10-30 2014-03-26 삼성전자주식회사 고주파수 신호 부호화 및 복호화 장치 및 방법
WO2009057329A1 (ja) * 2007-11-01 2009-05-07 Panasonic Corporation 符号化装置、復号装置およびこれらの方法
JP2011518345A (ja) * 2008-03-14 2011-06-23 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション スピーチライク信号及びノンスピーチライク信号のマルチモードコーディング
EP2144231A1 (en) * 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme with common preprocessing
EP2144229A1 (en) * 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Efficient use of phase information in audio encoding and decoding
EP2144230A1 (en) * 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme having cascaded switches
ES2592416T3 (es) * 2008-07-17 2016-11-30 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Esquema de codificación/decodificación de audio que tiene una derivación conmutable
CA2949616C (en) * 2009-03-17 2019-11-26 Dolby International Ab Advanced stereo coding based on a combination of adaptively selectable left/right or mid/side stereo coding and of parametric stereo coding
WO2011013983A2 (en) * 2009-07-27 2011-02-03 Lg Electronics Inc. A method and an apparatus for processing an audio signal
WO2011034376A2 (en) * 2009-09-17 2011-03-24 Lg Electronics Inc. A method and an apparatus for processing an audio signal
EP2375409A1 (en) * 2010-04-09 2011-10-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder, audio decoder and related methods for processing multi-channel audio signals using complex prediction
JP5533502B2 (ja) * 2010-09-28 2014-06-25 富士通株式会社 オーディオ符号化装置、オーディオ符号化方法及びオーディオ符号化用コンピュータプログラム
US9026434B2 (en) * 2011-04-11 2015-05-05 Samsung Electronic Co., Ltd. Frame erasure concealment for a multi rate speech and audio codec
US9070361B2 (en) * 2011-06-10 2015-06-30 Google Technology Holdings LLC Method and apparatus for encoding a wideband speech signal utilizing downmixing of a highband component

Also Published As

Publication number Publication date
JP2014160212A (ja) 2014-09-04
EP2770505B1 (en) 2016-09-28
US9508352B2 (en) 2016-11-29
US20140236603A1 (en) 2014-08-21
EP2770505A1 (en) 2014-08-27

Similar Documents

Publication Publication Date Title
JP4616349B2 (ja) ステレオ互換性のあるマルチチャネルオーディオ符号化
KR101395254B1 (ko) 부가정보 비트스트림 변환을 포함하는 다양한 채널로 구성된 다객체 오디오 신호의 부호화 및 복호화 장치 및 방법
US7719445B2 (en) Method and apparatus for encoding/decoding multi-channel audio signal
JP2009524108A (ja) 拡張帯域周波数コーディングによる複素変換チャネルコーディング
RU2696952C2 (ru) Аудиокодировщик и декодер
EP2345026A1 (en) Apparatus for binaural audio coding
TW201603004A (zh) 解碼壓縮高階保真立體音響表示之方法及裝置,及編碼壓縮高階保真立體音響表示之方法及裝置
KR20170017873A (ko) 오디오 신호 처리 장치 및 방법, 부호화 장치 및 방법, 및 프로그램
JP5949270B2 (ja) オーディオ復号装置、オーディオ復号方法、オーディオ復号用コンピュータプログラム
US20120163608A1 (en) Encoder, encoding method, and computer-readable recording medium storing encoding program
JP6179122B2 (ja) オーディオ符号化装置、オーディオ符号化方法、オーディオ符号化プログラム
JP5799824B2 (ja) オーディオ符号化装置、オーディオ符号化方法及びオーディオ符号化用コンピュータプログラム
JP6051621B2 (ja) オーディオ符号化装置、オーディオ符号化方法、オーディオ符号化用コンピュータプログラム、及びオーディオ復号装置
JP6303435B2 (ja) オーディオ符号化装置、オーディオ符号化方法、オーディオ符号化用プログラム、オーディオ復号装置
JP5990954B2 (ja) オーディオ符号化装置、オーディオ符号化方法、オーディオ符号化用コンピュータプログラム、オーディオ復号装置、オーディオ復号方法ならびにオーディオ復号用コンピュータプログラム
JP6299202B2 (ja) オーディオ符号化装置、オーディオ符号化方法、オーディオ符号化プログラム及びオーディオ復号装置
CN105336334B (zh) 多声道声音信号编码方法、解码方法及装置
KR20140037118A (ko) 오디오 신호 처리방법, 오디오 부호화장치, 오디오 복호화장치, 및 이를 채용하는 단말기
KR20080010981A (ko) 데이터 부호화/복호화 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151007

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170703

R150 Certificate of patent or registration of utility model

Ref document number: 6179122

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees