JP4441989B2 - Encoding apparatus and encoding method - Google Patents
Encoding apparatus and encoding method Download PDFInfo
- Publication number
- JP4441989B2 JP4441989B2 JP2000159931A JP2000159931A JP4441989B2 JP 4441989 B2 JP4441989 B2 JP 4441989B2 JP 2000159931 A JP2000159931 A JP 2000159931A JP 2000159931 A JP2000159931 A JP 2000159931A JP 4441989 B2 JP4441989 B2 JP 4441989B2
- Authority
- JP
- Japan
- Prior art keywords
- digital audio
- encoding
- data
- file
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
この発明は、オーディオデータ等のディジタル信号に係る符号化装置および符号化方法に関する。
【0002】
【従来の技術】
オーディオ信号の高能率符号化に係る従来技術として、例えば、時間領域のオーディオ信号を単位時間毎にブロック化し、ブロック毎の時間軸上の信号を周波数軸上の信号に変換(直交変換)して複数の周波数帯域に分割し、各帯域毎に符号化するブロック化周波数帯域分割方式の一つである変換符号化方法が知られている。また、時間領域のオーディオ信号を単位時間毎にブロック化せずに、複数の周波数帯域に分割して符号化する非ブロック化周波数帯域分割方法の一つである帯域分割符号化(サブ・バンド・コーディング(SBC:Sub Band Coding ))方法が知られている。
【0003】
さらに、上述の帯域分割符号化と変換符号化とを組み合わせてなる高能率符号化方法も知られている。この方法では、例えば、帯域分割符号化方式によって分割した各帯域毎の信号を、変換符号化方式によって周波数領域の信号に直交変換し、直交変換された各帯域毎に符号化が施される。
【0004】
ここで、上述した帯域分割符号化方式に使用される帯域分割用フィルタとしては、例えばQMF(Quadrature Mirror filter)等のフィルタがある。QMFについては、例えば、 R.E.Crochiere Digital coding of speech in subbands Bell Syst.Tech. J. Vol.55, No.8(1976)に述べられている。また、ICASSP 83, BOSTON Polyphase Quadrature filters-A new subband coding technique JosephH. Rothweiler には、ポリフェーズ クワドラチャ フィルタ(Polyphase Quadrature filter) などの等バンド幅のフィルタ分割手法および装置が述べられている。
【0005】
また、直交変換としては、例えば、入力オーディオ信号を所定単位時間(フレーム)でブロック化し、該ブロック毎に高速フーリエ変換(FFT)やコサイン変換(DCT)、モディファイドDCT変換(MDCT)等を行うことで時間軸を周波数軸に変換するような方法が知られている。MDCTについては、例えば、ICASSP 1987 Subband/Transform Coding Using Filter Bank Designs Based on Time Domain Aliasing Cancellation J.P.Princen A.B.Bradley Univ. of Surrey Royal Melbourne Inst.of Tech. に述べられている。
【0006】
一方、周波数帯域分割された各周波数成分を量子化する際に、人間の聴覚特性を考慮した周波数分割幅を用いる符号化方法が知られている。すなわち、臨界帯域(クリティカルバンド)と呼ばれる、帯域幅が高域程広くなるような帯域幅が広く用いられている。このような臨界帯域を用いてオーディオ信号を複数バンド(例えば25バンド)の帯域に分割することがある。このような帯域分割方法によれば、各帯域毎のデータを符号化する際に、各帯域毎に所定のビット配分、或いは各帯域毎に適応的なビット配分による符号化が行われる。例えば、MDCT処理によって生成されるMDCT係数データを上述したようなビット配分によって符号化する場合には、各ブロック毎に対応して生成される各帯域毎のMDCT係数データに対して適応的なビット数が配分され、そのようなビット数配分の下で符号化が行われる。
【0007】
このようなビット配分方法およびそれを実現する装置についての公知文献として、例えば以下のようなものが挙げられる。まず、例えばIEEE Transactions of Accoustics,Speech,and Signal Processing,vol.ASSP-25,No.4,August(1977)には、各帯域毎の信号の大きさに基づいてビット配分を行う方法が記載されている。また、例えばICASSP 1980 Thecritical band coder--digital encoding of the perceptual requirements of the auditory system M.A. Kransner MIT には、聴覚マスキングを利用することによって各帯域毎に必要な信号対雑音比を得て固定的なビット配分を行う方法が記載されている。
【0008】
また、各帯域毎の符号化に際しては、各帯域毎に正規化を行って量子化を行うことにより、より効率的な符号化を実現するいわゆるブロックフローティング処理が行われている。例えば、MDCT処理によって生成されるMDCT係数データを符号化する際には、各帯域毎に上述のMDCT係数の絶対値の最大値等に対応した正規化を行った上で量子化を行うことにより、より効率的な符号化が行われる。正規化処理は例えば以下のように行われる。すなわち、予め番号付けされた複数種類の値を用意し、それら複数種類の値の内で各ブロックについての正規化に係るものを所定の演算処理によって決定し、決定した値に付されている番号を正規化情報として使用する。複数種類の値に対応する番号付けは、例えば、番号の1の増減に、オーディオレベルの2dBの増減が対応する等の一定の関係の下で行われる。
【0009】
上述したような方法で生成される高能率符号化データは、次のようにして復号化される。まず、各帯域毎のビット配分情報、正規化情報等を参照して、符号化データに基づいてMDCT係数データを生成する処理がなされる。このMDCT係数データに基づいていわゆる逆直交変換(IMDCT)が行われることにより、時間領域のデータが生成される。高能率符号化の過程で帯域分割用フィルタによる帯域分割が行なわれていた場合は、帯域合成フィルタを用いて時間領域のデータを合成する処理がさらになされる。
【0010】
上述した符号化に用いられている直交変換のMDCT処理、並びに復号化に用いられている、逆直交変換のIMDCT処理では、処理を行うフレーム間の不連続性を防止するために、いわゆるオーバーラップ処理が利用されている。ある楽曲を符号化し、また、復号化する時には、当該楽曲の始点および終点については、このオーバーラップおよび変換サイズを考慮した適合処理が行われる。
【0011】
上述した方法での高能率符号化は、基本的には楽曲単位で行われるが、大量の楽曲を高能率符号化処理するような場合、各楽曲の処理の終了毎に、ユーザが次の楽曲の処理の開始を促すのは非効率的であるため、通常、あらかじめ所望の楽曲を選択して、自動的に選択された楽曲が高能率符号化されるような処理が行われる。より具体的には、電子音楽配信の配信用サーバでは、ハードディスクに大量のPCMファイルを格納し、コンピュータソフトウェア処理によって高速に高能率符号化の処理がなされる。
【0012】
配信用サーバのように、大量の楽曲を自動的に高能率符号化処理する場合、楽曲単位で高能率符号化が行われるので、各楽曲に対して、始点および終点における、直交変換におけるオーバーラップおよび変換サイズを考慮した適合処理を行うことになる。楽曲によっては、他の楽曲との相関関係がある場合、例えば当該楽曲の始点が他の楽曲の終点との連続性を保つような場合がある。具体例としては、ライブ版、リミックス、ダンス系等の音楽では、楽曲同士が無音期間を介することなくつながっていることがある。このような場合でも、上述したような始点および終点における適合処理を楽曲毎に独立して行うと、高能率符号化処理後のデータは、楽曲間の連続性を失ってしまう問題がある。復号化においても同様の問題が発生する。楽曲間に連続性があるものを処理する場合には、始点および終点における適合処理を行わずに、楽曲間データを連続的に処理することが望ましい。
【0013】
【発明が解決しようとする課題】
ところで、上述したような連続的な符号化を行うか否かの判断は、基本的には、実際に処理を行いたい各楽曲の先頭部分と最終部分について試聴確認することによって行われることになる。しかしながら、大量の楽曲を処理しなければならないような場合には、それらの全ての楽曲についての試聴確認を行う必要が生じ、多大な時間を費やすこととなる。また、長時間の確認作業に伴い、判断能力が低下し、判断の正確性が低下する可能性もある。
【0014】
したがって、この発明の目的は、処理を行うべく選択された楽曲の、先頭部分と最終部分のデータを自動的に分析し、符号化または復号化に伴う連続性を考慮するか否かの判断を、容易、且つ正確に行い、作業効率を向上させることができる符号化装置および符号化方法を提供することにある。
【0015】
【課題を解決するための手段】
請求項1の発明は、複数のディジタルオーディオファイルに対して所定長毎にブロック化を施し、ブロック処理されたディジタルオーディオファイルに対して圧縮処理を施す符号化装置であって、
複数のディジタルオーディオファイルの中から圧縮処理を施す2以上のディジタルオーディオファイルを、圧縮処理を施す順序で選択する第1の選択手段と、
第1の選択手段にて選択された2以上のディジタルオーディオファイルのうち、圧縮処理を施す順序で隣接するディジタルオーディオファイルの前方に位置するディジタルオーディオファイルの終端部近傍のブロックと、第1の選択手段にて選択された隣接するディジタルオーディオファイルの後方に位置するディジタルオーディオファイルの始端部近傍のブロックと、隣接する2つのディジタルオーディオファイルに跨がっているブロックとに基づいて符号化処理を施す第1の符号化手段と、
第1の選択手段にて選択された2以上のディジタルオーディオファイルのうち、圧縮処理を施す順序で隣接するディジタルオーディオファイルの前方に位置するディジタルオーディオファイルの終端部近傍のブロックまたは隣接するディジタルオーディオファイルの後方に位置するディジタルオーディオファイルの始端部近傍のブロックと、隣接する2つのディジタルオーディオファイルに跨がっているブロックとに基づいて符号化処理を施す第2の符号化手段と、
第1の選択手段にて選択された2以上のディジタルオーディオファイルの始点、終点のデータを分析する分析手段と、
分析手段の分析結果を参照して、第1の符号化手段における符号化処理と第2の符号化手段における符号化処理との一方を選択する第2の選択手段とを備える符号化装置である。
【0017】
請求項5の発明は、複数のディジタルオーディオファイルに対して所定長毎にブロック化を施し、ブロック処理されたディジタルオーディオファイルに対して圧縮処理を施す符号化方法であって、
複数のディジタルオーディオファイルの中から圧縮処理を施す2以上のディジタルオーディオファイルを、圧縮処理を施す順序で選択する第1の選択ステップと、
第1の選択ステップにて選択された2以上のディジタルオーディオファイルのうち、圧縮処理を施す順序で隣接するディジタルオーディオファイルの前方に位置するディジタルオーディオファイルの終端部近傍のブロックと、第1の選択ステップにて選択された隣接するディジタルオーディオファイルの後方に位置するディジタルオーディオファイルの始端部近傍のブロックと、隣接する2つのディジタルオーディオファイルに跨がっているブロックとに基づいて符号化処理を施す第1の符号化ステップと、
第1の選択ステップにて選択された2以上のディジタルオーディオファイルのうち、圧縮処理を施す順序で隣接するディジタルオーディオファイルの前方に位置するディジタルオーディオファイルの終端部近傍のブロックまたは隣接するディジタルオーディオファイルの後方に位置するディジタルオーディオファイルの始端部近傍のブロックと、隣接する2つのディジタルオーディオファイルに跨がっているブロックとに基づいて符号化処理を施す第2の符号化ステップと、
第1の選択ステップにて選択された2以上のディジタルオーディオファイルの始点、終点のデータを分析する分析ステップと、
分析ステップの分析結果を参照して、第1の符号化ステップにおける符号化処理と第2の符号化ステップにおける符号化処理との一方を選択する第2の選択ステップとを備える符号化方法である。
【0020】
以上のような発明によれば、処理対象の複数ファイルの始点、終点のデータを分析することによって、複数ファイルの連続性に関する分析を行うことができる。分析結果を参照して、試聴を行うファイルを限定することが可能となる。それによって、処理の効率を向上できる。
【0021】
【発明の実施の形態】
この発明の一実施形態について、以下、図面を参照して説明する。一実施形態では、オーディオPCM信号等の入力ディジタル信号を、帯域分割符号化(SBC)、適応変換符号化(ATC)および適応ビット割当の技術を用いて高能率符号化する。この高能率符号化技術について、図1を参照して説明する。
【0022】
図1に示す高能率符号化装置では、入力ディジタル信号を複数の周波数帯域に分割すると共に、各周波数帯域毎に直交変換を行って、得られた周波数軸のスペクトルデータを、低域では、後述する人間の視覚特性を考慮したいわゆる臨界帯域幅(クリティカルバンド)毎に、中高域では、ブロックフローティング効率を考慮して臨界帯域幅を細分化した帯域毎に、適応的にビット割当して符号化している。通常このブロックが量子化雑音発生ブロックとなる。さらに、一実施形態においては、直交変換の前に入力信号に応じて適応的にブロックサイズ(ブロック長)を変化させている。
【0023】
例えばサンプリング周波数が44.1kHzの場合、入力端子100を介して0〜22kHzのオーディオPCM信号がQMFフィルタ等の帯域分割フィルタ101に供給される。帯域分割フィルタ101は、供給される信号を0〜11kHz帯域と11kHz〜22kHz帯域とに分割する。11〜22kHz帯域の信号はMDCT(Modified Discrete Cosine Transform)回路103およびブロック決定回路109、110、111に供給される。
【0024】
また、0kHz〜11kHz帯域の信号は帯域分割フィルタ102に供給される。帯域分割フィルタ102は、供給される信号を5. 5kHz〜11kHz帯域と0〜5. 5kHz帯域とに分割する。5.5〜11kHz帯域の信号はMDCT回路104およびブロック決定回路109、110、111に供給される。また、0〜5. 5kHz帯域の信号は、MDCT回路105およびブロック決定回路109、110、111に供給される。帯域分割フィルタ101、102は、例えばQMFフィルタ等を用いて構成することができる。ブロック決定回路109は、供給される信号に基づいてブロックサイズを決定し、決定したブロックサイズを示す情報をMDCT回路103および出力端子113に供給する。
【0025】
ブロック決定回路110は、供給される信号に基づいてブロックサイズを決定し、決定したブロックサイズを示す情報をMDCT回路104および出力端子115に供給する。ブロック決定回路111は、供給される信号に基づいてブロックサイズを決定し、決定したブロックサイズを示す情報をMDCT回路105お。よび出力端子117に供給する。ブロックサイズブロック決定回路110、111、112は、供給される信号の時間特性、周波数分布に応じて適応的にブロックサイズ(ブロック長)を設定する。
【0026】
MDCT回路103、104、105は、供給される信号に基づいてMDCT処理を行い、MDCT係数データまたは周波数軸上のスペクトルデータを生成する。MDCT回路103が生成する高域のMDCT係数データまたは周波数軸上のスペクトルデータは、ブロックフローティングの有効性を考慮して臨界帯域幅を細分化する処理を施された後に適応ビット割当符号化回路106およびビット割当算出回路118に供給される。MDCT回路104が生成する中域のMDCT係数データまたは周波数軸上のスペクトルデータは、ブロックフローティングの有効性を考慮して臨界帯域幅を細分化する処理を施された後に適応ビット割当符号化回路107およびビット割当算出回路118に供給される。
【0027】
MDCT回路105が生成する低域のMDCT係数データまたは周波数軸上のスペクトルデータは、臨界帯域(クリティカルバンド)毎にまとめる処理を施された後に適応ビット割当符号化回路108およびビット割当算出回路118に供給される。ここで、臨界帯域とは、人間の聴覚特性を考慮して分割された周波数帯域であり、ある純音の周波数近傍の同じ強さの狭帯域バンドノイズによって当該純音がマスクされる時に、当該狭帯域バンドノイズの帯域のことである。臨界帯域は、高域ほど帯域幅が広くなるという性質がある。0〜22kHzの全周波数帯域は、例えば25のクリティカルバンドに分割されている。
【0028】
ビット割当算出回路118は、供給されるMDCT係数データまたは周波数軸上のスペクトルデータ、およびブロックサイズ情報に基づいて、後述するようなマスキング効果等を考慮して上述の臨界帯域およびブロックフローティングを考慮した各分割帯域毎のマスキング量、エネルギーおよび或いはピーク値等を計算し、計算結果に基づいて各帯域毎にブロックフロ−ティングの状態を示すスケ−ルファクタ、および割当てビット数を計算する。計算された割当てビット数は、適応ビット割当符号化回路106、107、108に供給される。以下の説明において、ビット割当の単位とされる各分割帯域を単位ブロックと表記する。
【0029】
適応ビット割当符号化回路106は、ブロック決定回路109から供給されるブロックサイズ情報、ビット割当算出回路118から供給される割当ビット数および正規化情報としてのスケールファクタ情報に応じて、MDCT回路103から供給されるスペクトルデータまたはMDCT係数データを再量子化(正規化して量子化)する処理を行う。かかる処理の結果として、高能率符号化データが生成される。この高能率符号化は演算器120に供給される。適応ビット割当符号化回路107は、ブロック決定回路110から供給されるブロックサイズ情報、ビット割当算出回路118から供給される割当ビット数およびスケールファクタ情報に応じて、MDCT回路104から供給されるスペクトルデータまたはMDCT係数データを再量子化する処理を行う。かかる処理の結果として、高能率符号化データが生成される。この高能率符号化データが演算器121に供給される。
【0030】
適応ビット割当符号化回路108は、ブロック決定回路110から供給されるブロックサイズ情報、ビット割り当て算出回路118から供給される割当ビット数およびスケールファクタ情報に応じて、MDCT回路105から供給されるスペクトルデータまたはMDCT係数データを再量子化する。かかる処理の結果として、高能率符号化データが生成される。この高能率符号化データは演算器122に供給される。正規化情報変更回路119、および演算器120、121、122については後述する。
【0031】
図2に、MDCT回路103,104,105に供給される、各帯域毎のデータの例を示す。ブロック決定回路109,110,111の動作により、帯域分割フィルタ101、102から出力される計3個のデータについて、各帯域毎について独立に直交変換ブロックサイズを設定することができると共に、信号の時間特性、周波数分布等により時間分解能を切り換えることが可能とされている。すなわち、信号が時間的に準定常的である場合には、図2Aに示すような、直交変換ブロックサイズを例えば11.6msと大きくするLong Modeが用いられる。
【0032】
一方、信号が非定常的である場合には、直交変換ブロックサイズをLongMode時に比べて2分割または4分割とするモードが用いられる。より具体的には、全てを4分割して例えば2.9msとするShort Mode(図2B参照)、或いは、一部を2分割して例えば5.8msとし、他の一部を4分割して例えば2.9msとするMiddleMode−a(図2C参照)または、Middle Mode−b(図2D参照)が用いられる。このように時間分解能を様々に設定することにより、実際の複雑な入力信号に適応できるようになされる。
【0033】
回路規模等に係る制約が小さい場合には、直交変換ブロックサイズの分割をさらに複雑なものとすることにより、実際の入力信号をより適切に処理できることは明白である。上述したようなブロックサイズは、ブロック決定回路109,110,111によって決定され、決定されたブロックサイズの情報はMDCT回路103,104,105およびビット割り当て算出回路118に供給されると共に、出力端子113、115、117を介して出力される。
【0034】
次に、図3を参照して、ビット割当て算出回路118について詳細に説明する。入力端子301を介して、MDCT回路103、104、105からの周波数軸上のスペクトルデータまたはMDCT係数、およびブロック決定回路109、110、111からのブロックサイズ情報がエネルギー算出回路302に供給される。エネルギー算出回路302は、例えば当該単位ブロック内での各振幅値の総和を計算する等の方法で単位ブロック毎のエネルギーを計算する。なお、エネルギー算出回路302の代わりに振幅値のピーク値、平均値等を計算する構成を設け、振幅値のピーク値、平均値等の計算値に基づいてビット割当て処理を行うようしても良い。
【0035】
エネルギー算出回路302の出力の一例を図4に示す。図4では、各バンド毎の総和値のスペクトルSBを、先端に丸を付した縦方向の線分によって示す。ここで、横軸が周波数、縦軸が信号強度をそれぞれ示す。なお、図示が煩雑となるのを避けるため、図4では、単位ブロックによる分割数を12ブロック(B1〜B12)とし、B12のスペクトルのみに符号「SB」を付した。
【0036】
また、エネルギー算出回路302は、単位ブロックのブロックフローティングの状態を示す正規化情報であるスケールファクタ値を決定する処理を行う。具体的には、例えばあらかじめスケールファクタ値の候補として幾つかの正の値を用意し、それらの内、単位ブロック内のスペクトルデータ又はMDCT係数の絶対値の最大値以上の値をとるものの中で最小のものを当該単位ブロックのスケールファクタ値として採用する。スケールファクタ値の候補は、実際の値と対応した形で、例えば数ビットを用いて番号付けを行ない、その番号を図示しないROM(Read Only Memory) 等に記憶させておけば良い。この際に、スケールファクタ値の候補は、番号順に例えば2dBの間隔での値を持つように規定しておく。ある単位ブロックについて採用されたスケールファクタ値に付される番号がサブ情報として用いられ、当該単位ブロックについてのスケールファクタ情報とされる。
【0037】
エネルギー算出回路302の出力、すなわち、スペクトルSBの各値は、畳込みフイルタ回路303に送られる。畳込みフイルタ回路303は、例えば、入力データを順次遅延させる複数の遅延素子と、これら遅延素子からの出力にフイルタ係数(重み付け関数)を乗算する複数の乗算器と、各乗算器出力の総和をとる総和加算器とから構成することができる。畳込みフイルタ回路303は、スペクトルSBのマスキングにおける影響を考慮するための、スペクトルSBに所定の重み付け関数を掛けて加算するような畳込み(コンボリユーション)処理を施す。この畳込み処理により、図4中で点線で示す部分の総和が計算される。
【0038】
図3に戻り、畳込みフイルタ回路303の出力は演算器304に供給される。演算器304には、さらに、許容関数(マスキングレベルを表現する関数)が(n−ai)関数発生回路305から供給される。演算器304は、許容関数に従って、畳込みフイルタ回路303によって畳み込まれた領域における、許容可能なノイズレベルに対応するレベルαを計算する。ここで、許容可能なノイズレベル(許容ノイズレベル)に対応するレベルαとは、後述するように、逆コンボリユーション処理を行うことによって、クリテイカルバンドの各バンド毎の許容ノイズレベルとなるようなレベルである。レベルαの算出値は、許容関数を増減させることによって制御される。
【0039】
すなわち、許容ノイズレベルに対応するレベルαは、クリテイカルバンドのバンドの低域から順に与えられる番号をiとすると、次の式(1)で求めることができる。
【0040】
α=S−(n−ai) (1)
【0041】
式(1)において、n,aは定数でa>0、Sは畳込み処理されたスペクトルの強度であり、式(1)中(n−ai)が許容関数となる。一例としてn=38,a=1とすることができる。
【0042】
演算器304によって計算されるレベルαが割算器306に伝送される。割算器306は、レベルαを逆コンボリユーションする処理を行い、その結果としてレベルαからマスキングスペクトルを生成する。このマスキングスペクトルが許容ノイズスペクトルとなる。なお、逆コンボリユーション処理を行う場合、一般的には複雑な演算が行われる必要があるが、この発明の一実施形態では、簡略化した割算器306を用いて逆コンボリユーションを行っている。マスキングスペクトルは、合成回路307に供給される。合成回路307には、さらに、後述するような最小可聴カーブRCを示すデータが最小可聴カーブ発生回路312から供給される。
【0043】
合成回路307は、割算器306の出力であるマスキングスペクトルと最小可聴カーブRCのデータとを合成することにより、マスキングスペクトルを生成する。生成されるマスキングスペクトルが減算器308に供給される。減算器308には、さらに、エネルギー検出回路302の出力、すなわち帯域毎のスペクトルSBが遅延回路309によってタイミングを調整された上で供給される。減算器308は、マスキングスペクトルとスペクトルSBとに基づく減算処理を行う。
【0044】
かかる処理の結果として、ブロック毎のスペクトルSBの、マスキングスペクトルのレベル以下の部分がマスキングされる。図5に、マスキングの一例を示す。スペクトルSBにおける、マスキングスペクトルのレベル(MSと表記する)以下の部分がマスキングされていることがわかる。なお、図示が煩雑となるのを避けるため、図5中ではB12においてのみ、スペクトルに符号「SB」を付すと共にマスキングスペクトルのレベルに符号「MS」を付した。
【0045】
雑音絶対レベルが最小可聴カーブRC以下ならばその雑音は人間には聞こえないことになる。最小可聴カーブは、コーデイングが同じであっても例えば再生時の再生ボリユームの違いによって異なる。但し、実際のデジタルシステムでは、例えば16ビットダイナミックレンジへの音楽データの入り方にはさほど違いがないので、例えば4kHz付近の最も耳に聞こえやすい周波数帯域の量子化雑音が聞こえないとすれば、他の周波数帯域ではこの最小可聴カーブのレベル以下の量子化雑音は聞こえないと考えられる。
【0046】
従って、例えばシステムの持つワードレングスの4kHz付近の雑音が聞こえないような使い方をする場合、最小可聴カーブRCとマスキングスペクトルMSとを合成することによって許容ノイズレベルを得るようにすれば、この場合の許容ノイズレベルは図6中の斜線で示す部分となる。なお、ここでは、最小可聴カーブの4kHzのレベルを例えば20ビット相当の最低レベルに合わせている。図6では、各ブロック内の水平方向の実線としてSB、各ブロック内の水平方向の点線としてMSをそれぞれ示した。但し、図示が煩雑となるのを避けるため、図6ではB12のスペクトルのみについて符号「SB」、「MS」を付した。また、図6では、信号スペクトルSSを一点鎖線で示した。
【0047】
図3に戻り、減算器308の出力は許容雑音補正回路310に供給される。許容雑音補正回路310は、例えば等ラウドネスカーブのデータ等に基づいて、減算器308の出力における許容雑音レベルを補正する。すなわち、許容雑音補正回路310は、上述したマスキング、聴覚特性等の様々なパラメータに基いて、各単位ブロックに対する割当ビットを算出する。許容雑音補正回路310の出力は、出力端子311を介して、ビット割当算出回路118の最終的な出力データとして出力される。ここで、等ラウドネスカーブとは、人間の聴覚特性に関する特性曲線であり、例えば1kHzの純音と同じ大きさに聞こえる各周波数での音の音圧を求めて曲線で結んだもので、ラウドネスの等感度曲線とも呼ばれる。
【0048】
また、この等ラウドネスカーブは、図6に示した最小可聴カーブRCと同じ曲線を描く。この等ラウドネスカーブにおいては、例えば4kHz付近では1kHzのところより音圧が8〜10dB下がっても1kHzと同じ大きさに聞こえ、逆に、50Hz付近では1kHzでの音圧よりも約15dB高くないと同じ大きさに聞こえない。このため、最小可聴カーブRCのレベルを越える雑音(許容ノイズレベル)が等ラウドネスカーブに沿った周波数特性を持つようにすれば、その雑音が人間に聞こえないようにすることができる。
【0049】
等ラウドネスカーブを考慮して許容ノイズレベルを補正することは、人間の聴覚特性に適合していることがわかる。以上のように、ビット割当算出回路118では、メイン情報としての直交変換出力スペクトルをサブ情報によって処理したデータと、サブ情報としてのブロックフローティングの状態を示すスケールファクタおよび語調を示すワードレンクスが得られる。これらの情報に基づいて、図1中の適応ビット符号化回路106、107、108が再量子化を行って、符号化フォーマットに従う高能率符号化データを生成する。
【0050】
図1に戻り、正規化情報変更回路119について説明する。上述したように、エネルギー算出回路302によって決定されるスケールファクタ情報を操作することにより、例えば2dB毎のレベル調整を行うことができる。正規化情報変更回路119は、スケールファクタ情報の変更に係る値を生成し、生成した値をそれぞれ、演算器120、121、122に供給する。演算器120は、121、122は、それぞれ、適応ビット割当符号化回路106、107、108から供給される符号化データ中のスケールファクタ情報に、正規化情報変更回路119から供給される値を加算する。但し、正規化情報変更回路119から出力される値が負の場合は、演算器120、121、122は減算器として作用するものとする。この際の加算結果については、フォーマットで定められたスケールファクタの数値の範囲内に収まるような制限を行う。
【0051】
なお、スケールファクタ情報に加算すべき値として、正規化情報変更回路119が全単位ブロックに対して同一の値を出力する場合にはレベル調整処理が行われるが、正規化情報変更回路119が単位ブロック毎に異なる値を出力するようにすれば、例えばフィルタ処理等を実現できる。フィルタ処理等を行う場合には、正規化情報変更回路119は、スケールファクタ情報に加算すべき値と、その値が加算されるべきスケールファクタ情報をに係る単位ブロックの番号との組を出力する。以上のような正規化情報調整処理は、後述する復号化の場合に実現することも可能である。
【0052】
次に、高能率符号化データの符号化フォーマットについて、図7を参照して説明する。左側に示した数値0,1,2,‥‥,211はバイト数を表しており、この一例では212バイトを1フレームの単位としている。先頭の0バイト目の位置には、図1中のブロック決定回路109、110、111において決定された、各帯域のブロックサイズ情報を記録する。次の1バイト目の位置には、記録する単位ブロックの個数の情報を記録する。例えば高域側になる程、ビット割当算出回路118によってビット割当が0とされて記録が不必要となる場合が多いため、このような状況に対応するように単位ブロックの個数を設定することにより、聴感上の影響が大きい中低域に多くのビットを配分するようになされている。それと共に、かかる1バイト目の位置にはビット割当情報の2重書きを行なっている単位ブロックの個数、及びスケールファクタ情報の2重書きを行なっている単位ブロックの個数が記録される。
【0053】
2重書きとは、エラー訂正用に、あるバイト位置に記録されたデータと同一のデータを他の場所に記録する方法である。2重書きされるデータの量を多くする程、エラーに対する強度が向上するが、2重書きされるデータの量を少なくする程、スペクトラムデータに使用できるデータ容量が多くなる。この符号化フォーマットの一例では、ビット割当情報、スケールファクタ情報のそれぞれについて独立に2重書きを行なう単位ブロックの個数を設定することにより、エラーに対する強度と、スペクトラムデータを記録するために使用されるビット数とを適切なものとするようにしている。なお、それぞれの情報について、規定されたビット内でのコードと単位ブロックとの個数の対応は、あらかじめフォーマットとして定めている。
【0054】
1バイト目の位置の8ビットにおける記録内容の一例を図8に示す。ここでは、最初の3ビットを実際に記録される単位ブロックの個数の情報とし、後続の2ビットをビット割当情報の2重書きを行なっている単位ブロックの個数の情報とし、最後の3ビットをスケールファクタ情報の2重書きを行なっている単位ブロックの個数の情報とする。
【0055】
図8において、2バイト目からの位置には、単位ブロックのビット割当情報が記録される。ビット割当情報の記録のために、単位ブロック1個当たり例えば4ビットが使用される。これにより、0番目の単位ブロックから順番に記録される単位ブロックの個数分のビット割当情報が記録されることになる。ビット割当情報のデータの後に、各単位ブロックのスケールファクタ情報が記録される。スケールファクタ情報の記録のために、単位ブロック1個当たり例えば6ビットが使用される。これにより、0番目の単位ブロックから順番に記録される単位ブロックの個数分のスケールファクタ情報が記録される。
【0056】
スケールファクタ情報の後に、単位ブロック内のスペクトラムデータが記録される。スペクトラムデータは、0番目の単位ブロックより順番に、実際に記録させる単位ブロックの個数分記録される。各単位ブロック毎に何本のスペクトラムデータが存在するかは、あらかじめフォーマットで定められているので、上述したビット割当情報によりデータの対応をとることが可能となる。なお、ビット割当が0の単位ブロックについては記録を行なわない。
【0057】
このスペクトラム情報の後に、上述したスケールファクタ情報の2重書き、およびビット割当情報の2重書きを行なう。この2重書きの記録方法は、個数の対応を図8に示した2重書きの情報に対応させるだけで、その他の点については上述のスケールファクタ情報、およびビット割当情報の記録と同様である。最後のバイトすなわち211バイト目、およびその1バイト前の位置すなわち210バイト目には、それぞれ、0バイト目と1バイト目の情報が2重書きされる。これら2バイト分の2重書きはフォーマットとして定められており、スケールファクタ情報の2重書きやビット割当情報の2重書きのように、2重書き記録量の可変の設定はできない。
【0058】
次に、高能率符号化データを復号化する復号化処理について説明する。復号化処理系の構成の一例を図9に示す。高能率符号化データは、入力端子707を介して演算器710に供給される。また、符号化処理において使用されたブロックサイズ情報、すなわち図1中の出力端子113、115、117の出力信号と等価のデータが入力端子708に供給される。また、正規化情報変更回路709は、各単位ブロックのスケールファクタ情報に加算または減算すべき値を生成する。
【0059】
演算器710は、さらに、正規化情報変更回路709から数値データを供給される。演算器710は、供給される高能率符号化データ中のスケールファクタ情報に対して、正規化情報変更回路709から供給される数値データを加算する。但し、正規化情報変更回路709から供給される数値データが負の数の場合は、演算器710は減算器として作用するものとする。演算器710の出力は、適応ビット割当復号化回路706、および出力端子711に供給される。
【0060】
適応ビット割当復号化回路706は、適応ビット割当情報を参照してビット割当てを解除する処理を、高域、中域、低域の各帯域について行う。高域、中域、低域のそれぞれに対する適応ビット割当て復号化回路706の出力は、逆直交変換回路703、704、705に供給される。逆直交変換回路703、704、705は、供給されるデータを逆直交変換処理する。これにより、周波数軸上の信号が時間軸上の信号に変換される。逆直交変換回路703、704、705の出力である、部分帯域の時間軸上信号は、帯域合成フィルタ701、702によって合成され、全帯域信号に復号化される。帯域合成フィルタ701、702としては、例えばIQMF(Inverse Quadrature Mirror filter)等を使用することができる。
【0061】
演算器710による加算または減算によってスケールファクタ情報を操作することにより、再生データについて例えば2dB毎のレベル調整を行うことができる。例えば、正規化情報変更回路709から全て同じ数値を出力し、その数値を全単位ブロックのスケールファクタ情報に一律に加算または減算する処理により、全単位ブロックに対して2dBを単位とするレベル調整を行うことが可能とされる。
【0062】
また、例えば、正規化情報変更回路709から単位ブロック毎に独立な数値を出力し、それらの数値を各単位ブロックのスケールファクタ情報に加算または減算する処理によって単位ブロック毎のレベル調整を行うことができ、その結果としてフィルタ機能を実現することができる。より具体的には、正規化情報変更回路709が単位ブロックの番号と、当該単位ブロックのスケールファクタ情報に加算または減算すべき値との組を出力させる等の方法で、単位ブロックと当該単位ブロックのスケールファクタ情報に加算または減算すべき値とが対応付けられるようにする。なお、演算器710による加算または減算の結果として生成されるスケールファクタ情報は、対応するスケールファクタ値が高能率符号化データのフォーマットで定められた範囲に収まるように制限される。
【0063】
演算器710によって単位ブロックのレベル調整が行われたスケールファクタ値については、適応ビット割当復号化回路706の復号化の行程に使用されることにより、復号化信号のレベル調整を行うのみに利用することが可能であると共に、例えば符号化情報が記録された記録媒体よりスケールファクタ値を読み込み、調整が行われたスケールファクタ値を出力端子711に出力させ、記録媒体に記録されたスケールファクタ値を調整された値に変更することも可能である。記録媒体の情報の変更については、必要に応じて行えるものとする。これによって、非常に簡単なシステムで、記録媒体のレベル情報を変更することが可能となる。
【0064】
上述の説明では、符号化回路、復号化回路の双方においてスケールファクタ情報の変更処理を行うものとした。これに対して、復号化回路のみにおいてスケールファクタ情報の変更処理を行うようにした場合にも、変更処理の結果として、レベル調整、フィルタ処理等の機能を充分に得ることができる。
【0065】
次に、上述した高能率符号化における処理を行う時間単位について説明する。図1における入力端子100には、オーディオのPCMサンプルが供給されるが、入力後に行われるMDCT回路103,104,105によるMDCT処理においては、いわゆる直交変換処理を行うためのサンプル数が規定され、それが一つの単位となり、繰り返し処理がなされる。
【0066】
ここでは、入力端子100から入力された1024サンプルのPCMサンプルが512本のMDCT係数、またはスペクトラムデータとして、MDCT回路103,104,105より出力される。具体的には、入力端子100から入力された1024個のPCMサンプルが帯域分割フィルタ101によって、512個の高域サンプルと512個の低域サンプルと256個の中域サンプルとなる。その後に、帯域分割フィルタ102からの256個の低域サンプルは、MDCT回路105によって、128個の低域スペクトラムデータとなり、帯域分割フィルタ102からの256個の中域サンプルは、MDCT回路104によって、128個の中域スペクトラムデータとなり、帯域分割フィルタ101からの512個の高域サンプルは、MDCT回路103によって、256個の高域スペクトラムデータとなる。このように、合計512個のスペクトラムデータが1024個のPCMサンプルから作成される。この1024個のPCMサンプルが上述した高能率符号化の1回の処理を行う時間単位となり、図7に示した212バイトの高能率符号化データ、すなわち、1フレームとなる。
【0067】
上述したように、1フレームは、例えば1024個のPCMサンプルからなるが、図1中のMDCT回路103,104,105によるMDCT処理においては、通常、順次処理されていく各フレームにおいてオーバーラップ部分が生じる。PCMサンプルとフレームの関係を図10を用いて説明する。図10に示すように、例えば、n番目からn+1023番目までの1024個のPCMサンプルがN番目のフレームで処理される場合に、N+1番目のフレームでは、n+512番目からn+1535番目までの1024個のPCMサンプルが処理され、N+2番目のフレームでは、n+1024番目からn+2047番目までの1024個のPCMサンプルが処理される。このように、一つのフレームは、隣接するサウンドフレームと、512個のPCMサンプルのオーバーラップを持つ形となる。つまり、このような形で処理を行うと、高能率符号化情報の1フレームは、1024個のPCMサンプルを処理したものであるが、隣接フレームとのオーバーラップを考慮すると、512個のPCMサンプル相当ということになる。
【0068】
図10は、PCMサンプルの途中でのフレームとの対応を示しているが、PCMサンプルの始点については、例えば始点より以前の段階に512個の0データのPCMサンプルを想定して、これらの512個の0データのPCMサンプルを、最初のフレーム以前の仮想的なフレームとオーバーラップして処理するものとする。また、最後のフレームでは、サンプル列終了時点以後に512個の0データのPCMサンプルを想定して、それら512個の0データのPCMサンプルを、最後のフレーム以後の仮想的なフレームとオーバーラップして処理するものとする。
【0069】
次に、上述した符号化または復号化方法について、いわゆるパソコン上のソフトウエアとして処理する方法について説明する。パソコン上での処理としては、主にハードディスク上のPCMのデータファイルを高能率符号化することにより、ハードディスク上に高能率符号化データファイルを作成する、またはハードディスク上の高能率符号化データファイルを復号化処理することによりハードディスク上にPCMのデータファイルを作成することが考えられる。この時、通常一つの楽曲が一つのファイルに対応される。
【0070】
具体例として、いわゆるパソコンにおける、GUI(Graphical User Interface)を利用したソフトウエアでの画面表示、操作方法、処理行程等について、図11を用いて説明する。図11は、符号化および復号化のソフトウエアのパソコン上での画面表示の一例を示すものである。このソフトウエアは、まずPCMデータと高能率符号化データのためのディレクトリを選択する。801は、PCMデータファイルのディレクトリパスの表示部であり、現在この例ではCドライブのPCMDATAという名のディレクトリが選択されていることが示されている。803は、表示部801にて示されたディレクトリ内のファイル構成を表示すると共に、ディレクトリ移動、ドライブ移動、ファイル選択等を行える表示操作部である。この例では、現在の表示部801で示されたディレクトリの下には更にtmpという名称のディレクトリが存在していることが分かる。
【0071】
また、「・・」の表示は、一つ上の階層のディレクトリを示しているものとする。また、tmp以下6つのファイルはPCMデータファイルを示している。また、その下の[−c−][−d−]は、移動可能なドライブを示している。表示されているものが、ディレクトリか、ドライブか、PCMデータかの判断は、表示されている文字列や、文字列の横に付加されている、いわゆるアイコンにより、判断することが可能である。
【0072】
ディレクトリとドライブの表示部は、その文字列位置にマウスポインタを対応させ、ダブルクリックすることで、現行ディレクトリ位置を、ダブルクリックした場所に移動させることが可能である。この例では、例えばtmpの場所でダブルクリックを行うと、表示部801の表示は、C:¥PCMDATA¥tmpとなり、表示操作部803では、tmpの下のファイルの状態、および移動可能ドライブが示されるようになる。このように、ドライブ名やディレクトリ名をダブルクリックを繰り返すことにより、PCMデータファイル用の所望のディレクトリ位置に移動することができる。
【0073】
802は、高能率符号化データ用のディレクトリ位置を表示する表示部であり、図示の例では、CドライブのENCODEDATAという名のディレクトリが選択されていることが示されている。804は、表示部802にて示されたディレクトリ内のファイル構成を表示すると共に、ディレクトリ移動、ドライブ移動、ファイル選択等を行える表示操作部である。この例では、表示部802で示された現在のディレクトリの下には、ファイル、ディレクトリが共に存在していないことが示されている。表示操作部804における操作、および表示部802との対応については、表示操作部803、表示部801におけるものと同様であり、表示操作部804にて高能率符号化データ用のディレクトリを選択することができる。
【0074】
805は、高能率符号化を実行するボタンであり、ここをクリックすることで、表示操作部803にて選択されたPCMデータファイルが順に高能率符号化され、表示部802で示されたディレクトリの下に高能率符号化ファイルが作成される。この実際の処理の流れについて図12を用いて説明する。
【0075】
図12Aに示す状態では、図11における表示操作部803にて、data2.pcm、dataA.pcm、dataB.pcmの3つのPCMファイルが選択され、反転表示されている。ここで図11におけるボタン805をクリックすることにより、これらの3つのファイルがそれぞれ順に高能率符号化される。通常の高能率符号化処理の場合、処理を行うファイルの順序は特に問題とならない。
【0076】
図12Bに示す状態では、高能率符号化処理実行中の表示画面を示すものであり、符号化処理行程の進行状況が、棒グラフのような形で認識できるようになっている。ここでは図示していないが、ボタンの形で処理を途中で中止するような手段を設けても良い。図12Cは、選択された全てのファイルの高能率符号化処理が終了した状態を示すものである。図11における操作表示部804には、処理により作成された3つの高能率符号化データファイル、data2enc.dat、dataAenc.dat、dataBenc.datが表示されている。処理後の、高能率符号化データファイルのファイル名については任意性があるが、ここでは処理を行うPCMファイル名の、いわゆる拡張子部分となる.pcmを取り除いた部分の名称にenc.datが自動的に付加されたファイル名を採用するようにしている。
【0077】
次にボタン807について説明する。このボタン807は、複数のファイルの高能率符号化処理を、データ列として連続に扱うようにするものである。図12Bを参照して説明したように、ファイルを連続して処理する場合、一づつのファイルについて、図1による行程と、図10で示したデータ関係による処理を行うこととなる。このため、処理を行う全てのファイルについて、上述したように、始点での512個の0データのPCMサンプルの想定、および終点についての0データのPCMサンプルの想定を考慮した処理を行うこととなる。通常、楽曲がファイル毎に独立している場合はこの方法で問題とならないが、楽曲としては別であるがPCMデータとして連続となっているような場合、高能率符号化処理を行うことで、連続性が失われてしまうこととなる。
【0078】
この例を、先に示した図12におけるdataA.pcm、dataB.pcmが連続したPCMデータである場合を想定し、図13A、図13B、および図13Cを用いて説明する。図13Aでは、分割点を境にして、dataA.pcmの終点のPCMデータとdataB.pcmの始点のPCMデータが連続しているものである様子を示している。
【0079】
また、先に図10等を用いて説明した高能率符号化処理を行うフレーム割りの最終部分については、図13AにおけるNとN+1のような状態となったものとする。この時、dataA.pcmの最終部の処理を示したものが図13Bである。すなわち、N+1番目のフレームが最終フレームとなるが、図13Aにおける分割点以降のデータについては別ファイルのデータであるので、分割点以降のデータを使用せず端数分となった部分については0データを詰め込んで処理を行う。
【0080】
これに対して、dataB.pcmの始点のデータについては、図13Cに示した形の処理を行う。すなわち、図13Aにおける分割点以前のデータについては別ファイルのデータであるので、分割点以前のデータを使用せず、先頭フレームの1024個のPCMデータは、512個のゼロデータと512個のdataB.pcmの始点のデータから構成される。
【0081】
この時、図13Bで示したdataA.pcmを処理するフレーム割りと、図13Cで示したdataB.pcmを処理するフレーム割りが異なったものとなる。また、それぞれが端数分としてゼロデータを挿入しているため、連続性も失われた状態となっている。すなわち、dataA.pcmとdataB.pcmを連続再生した場合は、連続した音となるが、dataAenc.datとdataBenc.datを復号化して連続再生した場合は、音切れのような形となってしまう。
【0082】
これに対して、図11におけるボタン807をクリックして、データ列を連続した形で処理する場合の例を図14A、図14Bおよび図14Cを用いて説明する。図14Aに示すように、ファイルの分割点、およびdataA.pcmの処理フレーム割り等は、図13Aと同様の状態となっている。図14Bは、dataA.pcmの最終フレームの様子を示すものであるが、図13Bとは異なり、分割点より外側のデータに0データを埋めるのではなく、dataB.pcmのデータを採用している。
【0083】
また、図14Cは、dataB.pcmの先頭のフレーム割りを示しているが、図13Cのように、ファイルの始点にフレームをあわせて0データを埋めるのではなく、dataA.pcmのフレーム割りと連続性を保つようなフレーム割り処理として、dataB.pcmの始点より外側のデータについては、dataA.pcmのデータを採用するようにしている。つまり図14Aでのフレーム割りで考えた場合の、N+2というのがdataB.pcmの先頭フレームということになる。このように処理することにより、高能率符号化処理データにおいても、二つのファイル間で連続性が保たれることとなり、dataAenc.datとdataBenc.datを復号化して連続再生した場合の音切れが起こらないこととなる。
【0084】
上述した図13A、図13B、図13Cに示したように、符号化処理を行う場合の処理を図15のフローチャートに示し、図14A、図14B、図14Cに示したように、符号化処理を行う場合の処理を図16のフローチャートに示す。
【0085】
図15の最初のステップS1では、1024ポイント分の読み込みバッファを用意する。次に、処理の対象のファイルの番号iを0に設定する(ステップS2)。ステップS3では、処理すべきi番目のファイルがあるかどうかが決定される。ファイルがなければ、処理は、終了する(ステップS4)。
【0086】
i番目のファイルがある場合に、ステップS5において、読み込みバッファの前半512ポイント分データとしてゼロデータを詰める処理を行う。次に、i番目の読み込みファイル(PCMファイル)をオープンし(ステップS6)、そして、i番目の書き込みファイル(符号化ファイル)をオープンする(ステップS7)。読み込んだ符号化からバッファの後半512ポイントにデータを読み込む(ステップS8)。
【0087】
ステップS9では、読み込みデータ量が取得され、読み込み位置が更新される。ステップS10では、読み込みデータ量が512ポイントに満たないかどうかが決定される。読み込みデータ量が512ポイントに満たない場合には、ステップS11において、読み込みバッファの512ポイントと、読み込みデータ量の差分量のデータとしてゼロデータが詰められる。
【0088】
ステップS10で読み込みデータ量が512ポイントある場合、またはステップS11(ゼロデータの詰め込み)に続いて、ステップS12において、1フレーム分の符号化処理がなされる。ステップS13では、符号化データを書き込みファイルに書き込む。
【0089】
ステップS10の決定の結果が肯定の場合(読み込みデータ量が512ポイントに満たない場合)では、ステップS14で、i番目の読み込みファイルをクローズし、ステップS15でi番目の書き込みファイルをクローズし、ステップS16でiのインクリメント処理がなされる。そして、処理がステップS3(i番目のファイルの有無の決定)に戻る。
【0090】
ステップS10の決定の結果が否定の場合(読み込みデータ量が512ポイントある場合)では、ステップS13に続いてステップS17の処理がなされる。ステップS17では、読み込みバッファの後半512ポイント分のデータをその前半512ポイントにシフトする。そして、処理がステップS9(読み込みデータ量の取得、および読み込み位置の更新)に戻る。
【0091】
このようにして、図13に示すように、楽曲がファイル毎に独立している場合に適用される処理がなされる。また、楽曲としては別であるが、PCMデータとして連続となっているような場合に適用される処理(図14)を図16のフローチャートを参照して説明する。
【0092】
最初のステップS21で、1024ポイント分の読み込みバッファが用意される。ステップS22では、iが0に初期化される。ステップS23では、最初のファイル(i==0)であるか否かが決定される。最初のファイルの場合には、ステップS24において、読み込みバッファの前半512ポイント分のデータとしてゼロデータが詰められる。そして、i番目の読み込み(PCM)ファイルをオープンし(ステップS25)、i番目の書き込み(符号化)ファイルをオープンする(ステップS26)。ステップS27では、読み込みファイルからバッファの後半の512ポイントにデータを読み込む。
【0093】
ステップS28では、読み込みデータ量が取得され、読み込み位置が更新される。ステップS29では、読み込みデータ量が512ポイントに満たないかどうかが決定される。読み込みデータ量が512ポイントに満たない場合には、ステップS30において、処理すべきi+1番目のファイルがあるかどうかが決定される。
【0094】
ステップS30において、処理すべきi+1番目のファイルがないと決定されると、ステップS31では、読み込みバッファの512ポイントと、読み込みデータ量の差分量のデータとしてゼロデータが詰められる。
【0095】
ステップS30において、処理すべきi+1番目のファイルがあると決定されると、ステップS32において、i+1番目の読み込みファイルのオープンがなされる。そして、ステップS33では、読み込みバッファの512ポイントと、読み込みデータ量の差分量のデータがi+1番目のファイルから読み込まれ、読み込み位置が更新される。
【0096】
ステップS29で読み込みデータ量が512ポイントある場合、ステップS31(ゼロデータの詰め込み)、またはステップS33(i+1番目のファイルからのデータの読み込みと、読み込み位置の更新)に続いて、ステップS34において、1フレーム分の符号化処理がなされる。ステップS35では、符号化データを書き込みファイルに書き込む。
【0097】
ステップS29の決定の結果が否定の場合(読み込みデータ量が512ポイントある場合)では、ステップS35に続いてステップS36の処理がなされる。ステップS36では、読み込みバッファの後半512ポイント分のデータをその前半512ポイントにシフトする。そして、処理がステップS27(読み込みファイルからバッファの後半512ポイントにデータを読み込む)に戻る。
【0098】
ステップS29の決定の結果が肯定の場合(読み込みデータ量が512ポイントに満たない場合)では、ステップS37で、i番目の読み込みファイルをクローズし、ステップS38でi番目の書き込みファイルをクローズする。そして、ステップS30の決定の結果が否定(すなわち、i+1番目のファイルがない)場合に、処理が終了する(ステップS40)。一方、ステップS30の決定の結果が肯定(すなわち、i+1番目のファイルがある)場合に、ステップS39でiのインクリメント処理がなされ、ステップS36の処理がなされる。そして、処理がステップS23(最初のファイルか否かの決定)に戻る。
【0099】
次に図11におけるボタン809について説明する。ボタン809は、ファイルのデータを解析し、上述した連続性を考慮した符号化処理を行うべきか否かの判断を行うためのものである。連続性の考慮については、通常、考慮するべきか否かの判断は、実際に楽曲ファイルの最終部、先頭部を試聴して判断されている。しかしながら、大量の楽曲ファイルが存在する場合、その全てについて試聴を行うことは、時間を浪費し、効率的ではない。
【0100】
一般的にある楽曲ファイルがその一つのファイルで完結して、他のファイルとの連続性が無いような場合、ファイルの先頭部付近、あるいは最終部付近のデータが無音となり、ゼロかゼロに近い値となる傾向にある。一方、他のファイルとの連続性があるようなファイルの場合、ファイルの先頭部付近、あるいは最終部付近のデータはゼロ以外で、ある程度の大きさ、すなわちある程度の音量レベルとなっている可能性が高い。ボタン809が押されると、この特徴に基づいて、符号化のために選択されたPCMファイルの先頭部付近、あるいは最終部付近のデータの値を読み込み、それを分析することで該ファイルが他のファイルとの連続性を持つ可能性が高いか否かの判断がなされる。
【0101】
分析の方法としては様々なものが考えられるが、最も単純な方法としては例えば、ファイルの先頭データと最終データを1ポイントづつ読み込み、それがゼロであるか否かの判断を行う。若し、先頭データがゼロ以外の値であれば、そのファイルは、他のファイルの最終部と連続性がある可能性があるものとする。若し、最終データがゼロ以外の値であれば、そのファイルは他のファイルの先頭部と連続性がある可能性があるものとする。これらの連続性がある可能性がある旨を使用者に警告するようにする。使用者は、警告に従い、該ファイルを試聴することで、連続性を確認することで、確実な判断を行うことができる。
【0102】
また、例えば最終データがゼロ以外の値となるようなファイルが符号化処理の対象として選択されていた場合に、上述した警告を行わずに、符号化処理の際に、該ファイルの次に符号化処理されるように選択されたファイルと自動的に連続処理を行うようにしても良い。同様に、例えば先頭データがゼロ以外の値となるようなファイルが符号化処理の対象として選択されている場合に、上述した警告を行わずに、符号化処理の際に、該ファイルの前に符号化処理されるように選択されたファイルと自動的に連続処理を行うようにしても良い。
【0103】
上述の説明では、先頭データと最終データを1ポイントづつで、しきい値をゼロとした場合の例について説明した。しかしながら、実際には音として聞こえなくても、アナログ的なノイズや、ディザ等の影響で、他のファイルと連続性が無いのにも関わらず、先頭データまたは最終データがある程度の大きさの値をもったデータとなっている場合も少なくない。
【0104】
この問題に対処するために、使用者が自由にしきい値の設定等を行えるようにする。また、しきい値の設定は、レベルだけでなく、読み込みポイント数等でも行えるものとする。例えば、先頭データと最終データを1ポイントづつではなく10ポイントづつとし、その10ポイントの値の総和、平均値等をしきい値として用いる方法が可能である。あるいは、ファイルの最終値と他のファイルの先頭値との差分量を検索する方法等も可能である。このように、様々なしきい値設定を可能とすることで、より適切な判断が可能となる。
【0105】
上述したボタン809がクリックされた場合の処理例の行程と、画面表示について図17および図18を参照して説明する。まず、ボタン809をクリックすると、ステップS51において検索条件の設定を行う。これはしきい値の設定を行うものである。例えば図18Aに示すような設定画面を通じて、先頭データと最終データについて読み込むデータのポイント数と、レベルを入力すると共に、しきい値の算出方法を入力するようにする。図18Aの例では、先頭データ、最終データ共に、10ポイントの平均値が5を上回るかどうかで判断する設定となっている。なお、算出方法については、平均値以外に総和、最大値等が選択可能とされている。
【0106】
次に、ステップS52において、符号化処理選択ファイルを順に処理していくための変数の初期化が行われる。ここではこの変数をiとして、ゼロを設定している。ステップS53では、符号化処理選択ファイル数と、変数iを比較することで、検索すべきファイルがあるか否かが決定される。ステップS53で、処理選択ファイル数を変数iが上回れば処理が終了となる(ステップS54)。
【0107】
ステップS53において処理すべきファイルがあると決定されると、ステップS55では、該ファイルを読み込むためのオープン処理を行う。この後、ステップS56で、先頭部データを読み込む。ここで読み込むデータ数は、ステップS51で設定したポイント数となる。ステップS57では、ステップS51で設定した、しきい値の条件と読み込んだデータが比較される。
【0108】
ステップS57で、読み込んだデータがしきい値を上回るようであれば、ステップS58の警告処理を行う。この警告処理では、例えば、図18Bに示すような警告メッセージを表示する。表示中のOKのボタンを使用者がクリックしてから次のステップに進む。ステップS59、S60、S61は、それぞれ最終部データについて、先頭データにおけるステップS56、S57、S58に対応した処理を行うものである。同様に、図18Cの警告メッセージの表示は、図18Bの先頭データに関する警告表示と対応するものである。
【0109】
ステップS60またはS61までの処理を終えた後、ステップS62において、i番目のファイルをクローズ処理する。そして、ステップS63において、変数iのインクリメント処理を行い、ステップS53に戻る。この後に、警告のあったファイルについてのみ試聴を行うことで、使用者は符号化処理において連続性を考慮すべきか否かを容易に判断することが可能となる。また、ここでは符号化処理の前に、PCMファイルについて検索する例を述べたが、復号化の際にも同様に、符号化ファイルの正規化情報や、量子化状態などについてしきい値を持たせることで、同様の処理を行うことが可能である。
【0110】
次に、検索結果をうけて、実際の符号化処理を行う。図11中のボタン807によって、図13に示した形で処理を行うか、図14に示した形で処理を行うかが選択される。なお、連続させるファイルの数が二つ以上の場合も同様である。連続処理させるファイルの選択については、図17で示した方法で割り出される。
【0111】
図19は、連続させるファイルを実際に設定する方法の一例を示す。図19は、図11にてボタン807をクリックした場合に現れる操作表示画面であり、操作表示画面上で連続処理させるファイルが選択される。901で示す表示部には、連続処理を行うファイルを表示している。ここではdata2.pcmと、data3.pcmを連続処理する例が示されている。表示部901には、直接ファイル名を入力することが可能であるが、ボタン905を使って、いわゆるファイル構造をグラフィカルに検索し、ファイルを選択することも可能である。このとき、ファイルを選択した順序が、連続処理に反映されることとなるが、表示部901内で順序を変更することも可能である。
【0112】
また、902を使用することで、複数のファイルの連続処理に対応することも可能である。表示部903は、表示部901と同様に、その他の組みで連続処理をさせるファイルについて設定するものである。この例ではdataA.pcm、dataB.pcm、dataC.pcmを連続処理させる設定が示されている。ここではdata2.pcmと、data3.pcmの連続処理を一組目、dataA.pcm、dataB.pcm、dataC.pcmを二組目としているが、とくにこの組の数値については、直接処理結果には関わらない。904については、一組目の902に相当するものである。また、ここでは二組を表示しているが、906を使用することで、このような組を、更に設定することも可能である。最後にOKボタン907をクリックすることで設定が完了する。
【0113】
再び図11について説明する。806は、表示操作部804にて選択された高能率符号化データファイルを復号化する時に押されるボタンである。その処理方法、表示内容の対応等については、高能率符号化時のボタン805によるものと同様である。また復号化時においても、上述した高能率符号化の連続処理の場合と同様に、ボタン807を使用することで、連続復号化処理を設定することが可能である。復号化の連続処理の場合は、ある高能率符号化データファイルの最終フレームと、他の高能率符号化データファイルの先頭フレームを連続フレームとして復号化処理する形に設定を行うようにすればよい。808は、プログラムを終了させるためのボタンである。
【0114】
上述した方法で、複数ファイルの符号化、復号化の際に、各ファイル独立に処理を行うか、または、異なるファイル間にまたがった連続性を考慮した処理を行うかを選択して、所望の形で処理ファイルを作成することが可能となる。また、連続性を考慮するか否かを、容易に判断することが可能となり、適応した処理をより迅速に行うことが可能となる。
【0115】
【発明の効果】
上述したこの発明によるディジタル信号処理方法は、所望の複数ファイルの符号化処理を行う時に、異なるファイル間の始点、終点の連続性を考慮した符号化と、考慮しない符号化を選択することが可能である。また、この発明では、所望の複数ファイルの始点、終点のデータを分析し、分析結果をもとに連続性を考慮した符号化と、考慮しない符号化を選択することにより、より容易、かつ正確に、連続性を考慮した処理を行うか否かの判断ができるようになり、大幅な作業効率の向上が可能となる。
【図面の簡単な説明】
【図1】高能率符号化データの生成に係る構成の一例を示すブロック図である。
【図2】各帯域毎の直交変換ブロックサイズについて説明するための略線図である。
【図3】図1中の一部の構成について詳細に示すブロック図である。
【図4】臨界帯域、ブロックフローティング等を考慮して分割された帯域のスペクトルの一例を示す略線図である。
【図5】マスキングスペクトルの一例を示す略線図である。
【図6】最小可聴カーブ、マスキングスペクトルの合成について説明するための略線図である。
【図7】この発明の一実施形態における符号化データフォーマットの一例を示す略線図である。
【図8】図7中の1バイト目のデータの詳細を示した略線図である。
【図9】ディジタル信号復号化処理に係る構成の一例を示すブロック図である。
【図10】符号化データ内の各フレームにおけるオーバーラップについて説明するための略線図である。
【図11】パソコン上で高能率符号化処理、および復号化処理を行うシステムの操作表示画面の一具体例を示す略線図である。
【図12】図11のシステムにより複数のファイルについて高能率符号化をおこなう処理を示す略線図である。
【図13】二つのファイルの連続性を考慮せずに高能率符号化を行う場合のフレーム対応を示す略線図である。
【図14】二つのファイルの連続性を考慮して高能率符号化を行う場合のフレーム対応を示す略線図である。
【図15】二つのファイルの連続性を考慮せずに高能率符号化を行う場合の処理工程を示すフローチャートである。
【図16】二つのファイルの連続性を考慮して高能率符号化を行う場合の処理工程を示すフローチャートである。
【図17】先頭データと最終データを分析する処理工程を示すフローチャートである。
【図18】先頭データと最終データを分析する処理工程において、検索しきい値の条件の入力画面、および警告メッセージの画面を示す略線図である。
【図19】連続性を考慮した処理を行うファイルの組合せを選択するための操作表示画面の一具体例を示す略線図である。
【符号の説明】
101、102・・・帯域分割フィルタ、103、104、105・・・直交変換回路(MDCT)、109、110、111・・・ブロック決定回路、118・・・ビット割り当て算出回路、106、107、108・・・適応ビット割当符号化回路、119・・・正規化情報変更回路、120、121、122・・・加算器、302・・・帯域毎エネルギー算出器、303・・・畳込みフィルタ、304・・・加算器、305・・・関数発生器、306・・・割り算器、307・・・合成器、308・・・減算器、309・・・遅延回路、310・・・許容雑音補正器、701、702・・・帯域合成フィルタ(IQMF)、703、704、705・・・逆直交変換回路(IMDCT)、706・・・適応ビット割当復号化回路、709・・・正規化情報変更回路、710・・・加算器、803・・・PCMデータファイルに関する表示操作部、804・・・符号化データファイルに関する表示操作部、807・・・複数のファイルの高能率符号化時の処理を選択するボタン、809・・・ファイルの連続性の解析を行うためのボタン[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an encoding apparatus and encoding method relating to a digital signal such as audio data.To the lawRelated.
[0002]
[Prior art]
As a conventional technique related to high-efficiency encoding of audio signals, for example, a time-domain audio signal is blocked per unit time, and a signal on the time axis for each block is converted into a signal on the frequency axis (orthogonal transform). A transform coding method is known which is one of the blocked frequency band division schemes that divide into a plurality of frequency bands and encode each band. In addition, sub-band band coding (sub-band coding) is one of the non-blocking frequency band division methods for coding by dividing the audio signal in the time domain into a plurality of frequency bands without being blocked every unit time. A coding (SBC: Sub Band Coding) method is known.
[0003]
Furthermore, a high-efficiency encoding method that combines the above-described band division encoding and transform encoding is also known. In this method, for example, a signal for each band divided by the band division coding method is orthogonally transformed to a frequency domain signal by the transform coding method, and coding is performed for each band subjected to the orthogonal transformation.
[0004]
Here, examples of the band division filter used in the above-described band division encoding method include a filter such as a QMF (Quadrature Mirror filter). QMF is described in, for example, R.E.Crochiere Digital coding of speech in subbands Bell Syst.Tech. J. Vol.55, No.8 (1976). Also, ICASSP 83, BOSTON Polyphase Quadrature filters-A new subband coding technique Joseph H. Rothweiler describes an equal-bandwidth filter division technique and apparatus such as a polyphase quadrature filter.
[0005]
As orthogonal transform, for example, an input audio signal is blocked in a predetermined unit time (frame), and fast Fourier transform (FFT), cosine transform (DCT), modified DCT transform (MDCT), etc. are performed for each block. Thus, a method for converting the time axis to the frequency axis is known. MDCT is described in, for example, ICASSP 1987 Subband / Transform Coding Using Filter Bank Designs Based on Time Domain Aliasing Cancellation J.P.Princen A.B.Bradley Univ. Of Surrey Royal Melbourne Inst.of Tech.
[0006]
On the other hand, an encoding method using a frequency division width in consideration of human auditory characteristics when quantizing each frequency component obtained by frequency band division is known. That is, a bandwidth called a critical band (critical band) is widely used such that the bandwidth becomes wider as the frequency increases. An audio signal may be divided into a plurality of bands (for example, 25 bands) using such a critical band. According to such a band division method, when data for each band is encoded, encoding by predetermined bit allocation for each band or adaptive bit allocation for each band is performed. For example, when the MDCT coefficient data generated by the MDCT process is encoded by the bit allocation as described above, the adaptive bit is applied to the MDCT coefficient data for each band generated corresponding to each block. Numbers are allocated and encoding is performed under such bit number distributions.
[0007]
As publicly known literature regarding such a bit allocation method and an apparatus for realizing the method, for example, the following can be cited. First, for example, IEEE Transactions of Accoustics, Speech, and Signal Processing, vol.ASSP-25, No.4, August (1977) describes a method of allocating bits based on the signal magnitude for each band. ing. Also, for example, ICASSP 1980 The critical band coder--digital encoding of the perceptual requirements of the auditory system MA Kransner MIT uses auditory masking to obtain the required signal-to-noise ratio for each band and a fixed bit. The method of allocation is described.
[0008]
Also, when encoding for each band, so-called block floating processing is performed to realize more efficient encoding by performing normalization and quantization for each band. For example, when encoding MDCT coefficient data generated by MDCT processing, quantization is performed after performing normalization corresponding to the maximum value of the absolute value of the above-mentioned MDCT coefficient for each band. More efficient encoding is performed. For example, the normalization process is performed as follows. That is, a plurality of types of values numbered in advance are prepared, and among these types of values, those related to normalization for each block are determined by a predetermined calculation process, and the numbers assigned to the determined values Is used as normalization information. Numbering corresponding to a plurality of types of values is performed under a certain relationship, for example, an increase / decrease of the
[0009]
The highly efficient encoded data generated by the method as described above is decoded as follows. First, processing for generating MDCT coefficient data based on the encoded data is performed with reference to bit allocation information, normalization information, and the like for each band. Time domain data is generated by performing so-called inverse orthogonal transform (IMDCT) based on the MDCT coefficient data. If band division by the band division filter has been performed in the process of high-efficiency encoding, processing for synthesizing time domain data using a band synthesis filter is further performed.
[0010]
In the above-described orthogonal transform MDCT processing used for encoding and inverse orthogonal transform IMDCT processing used for decoding, so-called overlap is used to prevent discontinuity between frames to be processed. Processing is being used. When a certain piece of music is encoded and decoded, matching processing is performed for the start point and end point of the music in consideration of the overlap and the conversion size.
[0011]
The high-efficiency encoding by the above-described method is basically performed in units of music. However, when a large amount of music is subjected to high-efficiency encoding processing, the user is required to perform the next music every time the processing of each music is completed. Since it is inefficient to prompt the start of this process, usually, a process is performed in which a desired music is selected in advance and the automatically selected music is highly efficiently encoded. More specifically, in a distribution server for electronic music distribution, a large amount of PCM files are stored in a hard disk, and high-efficiency encoding processing is performed at high speed by computer software processing.
[0012]
When a high-efficiency encoding process is automatically performed for a large number of music pieces like a distribution server, since high-efficiency encoding is performed in units of music pieces, overlap in orthogonal transformation at the start and end points for each music piece In addition, the adaptation processing considering the conversion size is performed. Depending on the music, when there is a correlation with other music, for example, the start point of the music may maintain continuity with the end point of the other music. As a specific example, in music such as a live version, remix, and dance, there is a case where music pieces are connected without a silent period. Even in such a case, if the adaptation process at the start point and the end point as described above is performed independently for each piece of music, there is a problem that the data after the high-efficiency encoding process loses continuity between pieces of music. Similar problems occur in decoding. When processing what has continuity between music, it is desirable to process inter-music data continuously, without performing the adaptation process in a start point and an end point.
[0013]
[Problems to be solved by the invention]
By the way, the determination as to whether or not to perform the continuous encoding as described above is basically performed by checking the listening of the first and last portions of each piece of music to be actually processed. . However, when it is necessary to process a large number of music pieces, it is necessary to check the listening of all the music pieces, and a great deal of time is consumed. In addition, along with the long-time confirmation work, the judgment ability may be reduced, and the judgment accuracy may be reduced.
[0014]
Therefore, the object of the present invention is to automatically analyze the data of the first part and the last part of the music selected to be processed and determine whether to consider the continuity associated with encoding or decoding. , Encoding method and encoding method that can be performed easily and accurately and improve work efficiencyThe lawIt is to provide.
[0015]
[Means for Solving the Problems]
The invention of
Apply compression from multiple digital audio files2 or moreDigital audio filesIn order of compression processingFirst selecting means for selecting;
Selected by the first selection meansOf the two or more digital audio files, in the order of compression processingA block near the end of a digital audio file positioned in front of the adjacent digital audio file and a block near the start of a digital audio file positioned behind the adjacent digital audio file selected by the first selection means When,AdjacentFirst encoding means for performing an encoding process based on a block straddling two digital audio files;
Selected by the first selection meansOf the two or more digital audio files, in the order of compression processingBlock near the end of a digital audio file located in front of an adjacent digital audio fileOr a block near the beginning of a digital audio file located behind an adjacent digital audio fileWhen,AdjacentSecond encoding means for performing encoding processing based on blocks straddling two digital audio files;
Two or more digital audios selected by the first selection meansAn analysis means for analyzing the data at the start and end of the file;
A second selection unit that selects one of the encoding process in the first encoding unit and the encoding process in the second encoding unit with reference to the analysis result of the analysis unit;MarkEncoding device.
[0017]
Claim5The present invention is an encoding method in which a plurality of digital audio files are blocked at predetermined lengths and a compression process is performed on the block-processed digital audio file,
A first selection step of selecting two or more digital audio files to be compressed from a plurality of digital audio files in the order of the compression processing;
Of the two or more digital audio files selected in the first selection step, a block in the vicinity of the end of the digital audio file located in front of the adjacent digital audio file in the order in which compression processing is performed, and the first selection Encoding processing is performed based on the block near the beginning of the digital audio file located behind the adjacent digital audio file selected in the step and the block straddling the two adjacent digital audio files. A first encoding step;
Of the two or more digital audio files selected in the first selection step, a block near the end of the digital audio file positioned in front of the adjacent digital audio file in the order in which compression processing is performed or an adjacent digital audio file A second encoding step for performing an encoding process based on a block near the beginning of the digital audio file located behind and a block straddling two adjacent digital audio files;
An analysis step for analyzing data of start and end points of two or more digital audio files selected in the first selection step;
A second selection step for selecting one of the encoding process in the first encoding step and the encoding process in the second encoding step with reference to the analysis result of the analysis step;It is an encoding method.
[0020]
According to the invention as described above, it is possible to analyze the continuity of a plurality of files by analyzing the data of the start and end points of the plurality of files to be processed. It is possible to limit the files to be auditioned with reference to the analysis result. Thereby, the processing efficiency can be improved.
[0021]
DETAILED DESCRIPTION OF THE INVENTION
An embodiment of the present invention will be described below with reference to the drawings. In one embodiment, an input digital signal, such as an audio PCM signal, is highly efficient encoded using band division coding (SBC), adaptive transform coding (ATC), and adaptive bit allocation techniques. This high-efficiency encoding technique will be described with reference to FIG.
[0022]
In the high-efficiency encoding device shown in FIG. 1, the input digital signal is divided into a plurality of frequency bands, and orthogonal transform is performed for each frequency band. For each so-called critical bandwidth (critical band) that takes into account human visual characteristics, and in the mid-high range, bit allocation is adaptively assigned to each sub-band of the critical bandwidth considering block floating efficiency. ing. Normally, this block is a quantization noise generation block. Furthermore, in one embodiment, the block size (block length) is adaptively changed according to the input signal before the orthogonal transformation.
[0023]
For example, when the sampling frequency is 44.1 kHz, an audio PCM signal of 0 to 22 kHz is supplied to the
[0024]
A signal in the 0 kHz to 11 kHz band is supplied to the
[0025]
The
[0026]
The
[0027]
The low-frequency MDCT coefficient data generated by the
[0028]
Based on the supplied MDCT coefficient data or spectrum data on the frequency axis, and the block size information, the bit
[0029]
The adaptive bit
[0030]
The adaptive bit allocation encoding circuit 108 uses the block size information supplied from the
[0031]
FIG. 2 shows an example of data for each band supplied to the
[0032]
On the other hand, when the signal is nonstationary, a mode in which the orthogonal transform block size is divided into two or four as compared with the Long Mode is used. More specifically, Short Mode (see FIG. 2B) that divides everything into 4 parts, for example, 2.9 ms, or divides a part into 2 parts, for example, 5.8 ms, and divides the other part into 4 parts. For example, Middle Mode-a (see FIG. 2C) or Middle Mode-b (see FIG. 2D) of 2.9 ms is used. Thus, by setting various time resolutions, it is possible to adapt to actual complex input signals.
[0033]
Obviously, when the constraint on the circuit scale or the like is small, the actual input signal can be more appropriately processed by making the division of the orthogonal transform block size more complicated. The block size as described above is determined by the
[0034]
Next, the bit
[0035]
An example of the output of the
[0036]
The
[0037]
The output of the
[0038]
Returning to FIG. 3, the output of the
[0039]
That is, the level α corresponding to the allowable noise level can be obtained by the following equation (1), where i is a number given sequentially from the lowest band of the critical band.
[0040]
α = S− (n−ai) (1)
[0041]
In equation (1), n and a are constants, a> 0, S is the intensity of the spectrum subjected to convolution processing, and (n−ai) in equation (1) is an allowable function. As an example, n = 38 and a = 1 can be set.
[0042]
The level α calculated by the
[0043]
The combining
[0044]
As a result of such processing, the portion of the spectrum SB for each block below the masking spectrum level is masked. FIG. 5 shows an example of masking. It can be seen that the portion of the spectrum SB below the masking spectrum level (denoted as MS) is masked. In order to avoid complication of illustration, in FIG. 5, only “B” is given to the spectrum, and “MS” is given to the level of the masking spectrum only in B12.
[0045]
If the absolute noise level is below the minimum audible curve RC, the noise cannot be heard by humans. Even if the coding is the same, the minimum audible curve differs depending on, for example, the reproduction volume during reproduction. However, in an actual digital system, for example, there is not much difference in how music data enters the 16-bit dynamic range. For example, if quantization noise in the frequency band that is most audible near 4 kHz, for example, cannot be heard, It is considered that quantization noise below the level of the minimum audible curve cannot be heard in other frequency bands.
[0046]
Therefore, for example, when the system is used such that the noise around the 4 kHz word length of the system cannot be heard, an allowable noise level can be obtained by synthesizing the minimum audible curve RC and the masking spectrum MS. The allowable noise level is a portion indicated by hatching in FIG. Here, the level of 4 kHz of the minimum audible curve is set to the lowest level corresponding to 20 bits, for example. In FIG. 6, SB is shown as a horizontal solid line in each block, and MS is shown as a horizontal dotted line in each block. However, in order to avoid complication of illustration, in FIG. 6, only the spectrum of B12 is denoted by “SB” and “MS”. In FIG. 6, the signal spectrum SS is indicated by a one-dot chain line.
[0047]
Returning to FIG. 3, the output of the
[0048]
Further, this equal loudness curve draws the same curve as the minimum audible curve RC shown in FIG. In this equal loudness curve, for example, even if the sound pressure is 8 to 10 dB lower than 1 kHz near 4 kHz, it can be heard as large as 1 kHz. It doesn't sound the same size. Therefore, if noise exceeding the level of the minimum audible curve RC (allowable noise level) has frequency characteristics along the equal loudness curve, the noise can be prevented from being heard by humans.
[0049]
It can be seen that correcting the allowable noise level in consideration of the equal loudness curve is suitable for human auditory characteristics. As described above, the bit
[0050]
Returning to FIG. 1, the normalization information changing circuit 119 will be described. As described above, by manipulating the scale factor information determined by the
[0051]
Note that when the normalization information change circuit 119 outputs the same value for all unit blocks as a value to be added to the scale factor information, level adjustment processing is performed, but the normalization information change circuit 119 If different values are output for each block, for example, filter processing or the like can be realized. When performing filter processing or the like, the normalization information changing circuit 119 outputs a set of a value to be added to the scale factor information and a unit block number related to the scale factor information to which the value is to be added. . The normalization information adjustment process as described above can also be realized in the case of decoding described later.
[0052]
Next, the encoding format of the highly efficient encoded data will be described with reference to FIG.
[0053]
Double writing is a method of recording the same data as data recorded at a certain byte position in another location for error correction. Increasing the amount of data that is written twice increases the strength against errors, but the amount of data that can be used for spectrum data increases as the amount of data that is written twice is reduced. In an example of this encoding format, by setting the number of unit blocks for performing double writing independently for each of bit allocation information and scale factor information, it is used for recording the strength against errors and spectrum data. The number of bits is made appropriate. For each piece of information, the correspondence between the number of codes and unit blocks within the prescribed bits is determined in advance as a format.
[0054]
An example of recorded contents in 8 bits at the position of the first byte is shown in FIG. Here, the first 3 bits are used as information on the number of unit blocks to be actually recorded, the subsequent 2 bits are used as information on the number of unit blocks in which bit assignment information is written twice, and the last 3 bits are used as information. This is information on the number of unit blocks in which scale factor information is double-written.
[0055]
In FIG. 8, the bit allocation information of the unit block is recorded at the position from the second byte. For recording bit allocation information, for example, 4 bits are used per unit block. Thereby, bit allocation information corresponding to the number of unit blocks recorded in order from the 0th unit block is recorded. After the bit allocation information data, the scale factor information of each unit block is recorded. For recording scale factor information, for example, 6 bits are used per unit block. Thereby, the scale factor information for the number of unit blocks recorded in order from the 0th unit block is recorded.
[0056]
After the scale factor information, the spectrum data in the unit block is recorded. The spectrum data is recorded in order from the 0th unit block for the number of unit blocks to be actually recorded. Since how many pieces of spectrum data exist for each unit block is determined in advance by the format, it is possible to take correspondence of data by the above-described bit allocation information. Note that recording is not performed for a unit block whose bit allocation is 0.
[0057]
After the spectrum information, the above-described double writing of the scale factor information and the double writing of the bit allocation information are performed. This double-write recording method is the same as the above-described recording of scale factor information and bit allocation information except that the correspondence of the number corresponds to the double-write information shown in FIG. . In the last byte, that is, the 211th byte, and the position that is one byte before that, that is, the 210th byte, the information of the 0th byte and the 1st byte is written twice. These two-byte double writing is defined as a format, and the double writing recording amount cannot be set variable like the double writing of the scale factor information and the double writing of the bit allocation information.
[0058]
Next, a decoding process for decoding high-efficiency encoded data will be described. An example of the configuration of the decoding processing system is shown in FIG. The highly efficient encoded data is supplied to the
[0059]
The
[0060]
The adaptive bit
[0061]
By manipulating the scale factor information by addition or subtraction by the
[0062]
Further, for example, independent numerical values are output for each unit block from the normalization
[0063]
The scale factor value that has been subjected to the level adjustment of the unit block by the
[0064]
In the above description, the scale factor information changing process is performed in both the encoding circuit and the decoding circuit. On the other hand, even when the scale factor information changing process is performed only in the decoding circuit, functions such as level adjustment and filtering can be sufficiently obtained as a result of the changing process.
[0065]
Next, a time unit for performing the processing in the above-described high efficiency encoding will be described. 1 is supplied with audio PCM samples. In the MDCT processing performed by the
[0066]
Here, 1024 PCM samples input from the
[0067]
As described above, one frame is composed of, for example, 1024 PCM samples, but in the MDCT processing by the
[0068]
FIG. 10 shows the correspondence with the frame in the middle of the PCM sample. With respect to the start point of the PCM sample, for example, 512 PCM samples of 0 data are assumed at a stage before the start point. It is assumed that the PCM sample of 0 data is overlapped with the virtual frame before the first frame and processed. Also, in the last frame, 512 zero-data PCM samples are assumed after the end of the sample sequence, and these 512 zero-data PCM samples overlap the virtual frames after the last frame. Shall be processed.
[0069]
Next, a method for processing the above-described encoding or decoding method as software on a so-called personal computer will be described. As processing on a personal computer, a high-efficiency encoded data file is created on the hard disk by performing high-efficiency encoding mainly on the PCM data file on the hard disk, or a high-efficiency encoded data file on the hard disk is created. It is conceivable to create a PCM data file on the hard disk by performing decryption processing. At this time, one piece of music usually corresponds to one file.
[0070]
As a specific example, screen display, operation method, processing process, etc. in software using a GUI (Graphical User Interface) in a so-called personal computer will be described with reference to FIG. FIG. 11 shows an example of screen display on the personal computer of the encoding and decoding software. The software first selects a directory for PCM data and high efficiency encoded data.
[0071]
In addition, it is assumed that the display “..” indicates a directory one level above. Further, the six files below tmp indicate PCM data files. Also, [-c-] and [-d-] below it indicate a movable drive. Whether the displayed item is a directory, a drive, or PCM data can be determined by a displayed character string or a so-called icon added to the side of the character string.
[0072]
The display section of the directory and drive can move the current directory position to the double-clicked position by associating the mouse pointer with the character string position and double-clicking. In this example, for example, when double-clicking is performed at the location of tmp, the display on the
[0073]
[0074]
[0075]
In the state shown in FIG. 12A, the
[0076]
The state shown in FIG. 12B shows a display screen during execution of the high-efficiency encoding process, and the progress of the encoding process can be recognized in the form of a bar graph. Although not shown here, a means for canceling the process in the form of a button may be provided. FIG. 12C shows a state where the high-efficiency encoding process has been completed for all the selected files. The
[0077]
Next, the
[0078]
An example of this is shown in FIG. pcm, dataB. The case where pcm is continuous PCM data will be described with reference to FIGS. 13A, 13B, and 13C. In FIG. 13A, dataA. PCM data at the end point of pcm and dataB. It shows that the PCM data at the starting point of pcm is continuous.
[0079]
Further, it is assumed that the final part of the frame division for performing the high-efficiency encoding processing described with reference to FIG. 10 or the like is in a state such as N and N + 1 in FIG. 13A. At this time, dataA. FIG. 13B shows the processing of the final part of pcm. That is, the (N + 1) th frame is the final frame, but the data after the dividing point in FIG. 13A is data of another file, so the data after the dividing point is not used and 0 data is obtained for the fractional portion. To process.
[0080]
In contrast, dataB. For the data of the start point of pcm, the process shown in FIG. 13C is performed. That is, since the data before the division point in FIG. 13A is data of another file, the data before the division point is not used, and the 1024 PCM data of the first frame is 512 zero data and 512 dataB. . It consists of data of the starting point of pcm.
[0081]
At this time, the dataA. The frame allocation for processing pcm and the dataB. The frame allocation for processing pcm is different. In addition, since zero data is inserted as a fraction, continuity is lost. That is, dataA. pcm and dataB. When pcm is reproduced continuously, it becomes a continuous sound. data and dataBenc. When dat is decoded and continuously reproduced, the sound is cut off.
[0082]
On the other hand, an example in which the data string is processed in a continuous form by clicking the
[0083]
FIG. 14C shows dataB. Although the top frame allocation of pcm is shown, as shown in FIG. 13C, instead of filling the frame with the start point of the file and filling 0 data, dataA. As a frame division process that maintains continuity with the frame division of pcm, dataB. For data outside the starting point of pcm, dataA. The data of pcm is adopted. That is, N + 2 when considering the frame division in FIG. This is the first frame of pcm. By processing in this way, continuity is maintained between the two files even in high-efficiency encoded data, and dataAenc. data and dataBenc. When dat is decoded and continuously reproduced, no sound interruption occurs.
[0084]
As shown in FIG. 13A, FIG. 13B, and FIG. 13C described above, the processing in the case of performing the encoding processing is shown in the flowchart of FIG. 15, and the encoding processing is performed as shown in FIGS. 14A, 14B, and 14C. The process in the case of performing is shown in the flowchart of FIG.
[0085]
In the first step S1 of FIG. 15, a reading buffer for 1024 points is prepared. Next, the number i of the file to be processed is set to 0 (step S2). In step S3, it is determined whether there is an i-th file to be processed. If there is no file, the process ends (step S4).
[0086]
If the i-th file exists, in step S5, a process of filling zero data as 512 points of data in the first half of the read buffer is performed. Next, the i-th read file (PCM file) is opened (step S6), and the i-th write file (encoded file) is opened (step S7). Data is read from the read encoding into the
[0087]
In step S9, the read data amount is acquired, and the read position is updated. In step S10, it is determined whether the amount of read data is less than 512 points. If the read data amount is less than 512 points, in step S11, zero data is packed as data of the difference between the read
[0088]
When the read data amount is 512 points in step S10, or following step S11 (zero data filling), encoding processing for one frame is performed in step S12. In step S13, the encoded data is written into the write file.
[0089]
If the result of determination in step S10 is affirmative (if the read data amount is less than 512 points), the i-th read file is closed in step S14, the i-th write file is closed in step S15, and step In S16, i is incremented. Then, the process returns to step S3 (determination of presence / absence of i-th file).
[0090]
If the result of the determination in step S10 is negative (if the read data amount is 512 points), the process of step S17 is performed following step S13. In step S17, the data for the
[0091]
In this way, as shown in FIG. 13, the process applied when the music is independent for each file is performed. Further, a process (FIG. 14) applied when the PCM data is continuous although it is different from the music will be described with reference to the flowchart of FIG.
[0092]
In the first step S21, a reading buffer for 1024 points is prepared. In step S22, i is initialized to 0. In step S23, it is determined whether or not it is the first file (i == 0). In the case of the first file, in step S24, zero data is packed as data for the
[0093]
In step S28, the read data amount is acquired, and the read position is updated. In step S29, it is determined whether the amount of read data is less than 512 points. If the read data amount is less than 512 points, it is determined in step S30 whether there is an i + 1 th file to be processed.
[0094]
If it is determined in step S30 that there is no i + 1-th file to be processed, in step S31, zero data is packed as 512 points of data in the read buffer and data of the difference between the read data amounts.
[0095]
If it is determined in step S30 that there is an i + 1 th file to be processed, the i + 1 th read file is opened in step S32. In step S33, 512 points of the reading buffer and the data of the difference amount of the reading data amount are read from the i + 1th file, and the reading position is updated.
[0096]
If the read data amount is 512 points in step S29, following step S31 (zero data filling) or step S33 (reading data from the (i + 1) th file and updating the read position), in step S34, 1 Encoding processing for the frame is performed. In step S35, the encoded data is written into the write file.
[0097]
If the determination result in step S29 is negative (if the read data amount is 512 points), the process of step S36 is performed subsequent to step S35. In step S36, the data for the
[0098]
If the determination result in step S29 is affirmative (if the read data amount is less than 512 points), the i-th read file is closed in step S37, and the i-th write file is closed in step S38. Then, when the result of the determination in step S30 is negative (ie, there is no i + 1-th file), the process ends (step S40). On the other hand, if the result of the determination in step S30 is affirmative (that is, there is an i + 1-th file), i is incremented in step S39, and the process in step S36 is performed. Then, the process returns to step S23 (determination of whether or not it is the first file).
[0099]
Next, the
[0100]
In general, when a music file is completed with one file and there is no continuity with other files, the data near the beginning or the end of the file becomes silent, and it is zero or near zero. It tends to be a value. On the other hand, in the case of a file that has continuity with other files, the data near the beginning or the end of the file may be other than zero and may have a certain size, that is, a certain volume level. Is expensive. When the
[0101]
Various analysis methods are conceivable. As the simplest method, for example, the first data and the last data of a file are read one point at a time, and it is determined whether or not they are zero. If the leading data is a value other than zero, the file may have continuity with the last part of another file. If the final data is a value other than zero, the file may have continuity with the head of another file. The user is warned that there may be such continuity. The user can make a reliable judgment by checking the continuity by listening to the file according to the warning.
[0102]
Also, for example, when a file whose final data has a value other than zero is selected as the target of the encoding process, the encoding is performed after the file without performing the above-described warning. It is also possible to automatically perform continuous processing with a file selected to be processed. Similarly, for example, when a file whose leading data has a value other than zero is selected as the target of the encoding process, the above-mentioned warning is not given before the file without performing the above warning. A continuous process may be automatically performed with a file selected to be encoded.
[0103]
In the above description, an example has been described in which the head data and the last data are set one point at a time and the threshold value is set to zero. However, even if it is not actually heard as sound, the beginning data or the last data is a value of a certain size even though there is no continuity with other files due to analog noise, dithering, etc. There are many cases where the data has
[0104]
In order to cope with this problem, a user can freely set a threshold value and the like. The threshold value can be set not only by the level but also by the number of reading points. For example, it is possible to use a method in which the top data and the last data are set at 10 points instead of 1 point, and the sum, average value, etc. of the 10 points are used as threshold values. Alternatively, a method of searching for a difference amount between the final value of a file and the start value of another file is also possible. In this way, by making various threshold settings possible, more appropriate determination can be made.
[0105]
A process of an example of processing when the above-described
[0106]
Next, in step S52, initialization of variables for sequentially processing the encoding process selection file is performed. Here, this variable is set to i and zero is set. In step S53, whether or not there is a file to be searched is determined by comparing the number of encoding process selection files with the variable i. If the variable i exceeds the number of process selection files in step S53, the process ends (step S54).
[0107]
If it is determined in step S53 that there is a file to be processed, an open process for reading the file is performed in step S55. Thereafter, the head data is read in step S56. The number of data read here is the number of points set in step S51. In step S57, the threshold value set in step S51 is compared with the read data.
[0108]
If the read data exceeds the threshold value in step S57, the warning process in step S58 is performed. In this warning process, for example, a warning message as shown in FIG. 18B is displayed. After the user clicks the OK button being displayed, the process proceeds to the next step. Steps S59, S60, and S61 respectively perform processing corresponding to steps S56, S57, and S58 in the first data for the final data. Similarly, the display of the warning message in FIG. 18C corresponds to the warning display regarding the top data in FIG. 18B.
[0109]
After the processing up to step S60 or S61 is completed, the i-th file is closed in step S62. In step S63, the variable i is incremented, and the process returns to step S53. Thereafter, the user can easily determine whether or not continuity should be considered in the encoding process by auditioning only the file with the warning. In this example, the PCM file is searched before the encoding process. Similarly, the decoding file has a threshold value for the normalization information of the encoded file, the quantization state, and the like. By doing so, it is possible to perform the same processing.
[0110]
Next, the actual encoding process is performed on the basis of the search result. A
[0111]
FIG. 19 shows an example of a method for actually setting files to be continuous. FIG. 19 is an operation display screen that appears when the
[0112]
Further, by using 902, it is possible to support continuous processing of a plurality of files. Similar to the
[0113]
FIG. 11 will be described again. A
[0114]
In the method described above, when encoding or decoding multiple files, select whether to process each file independently or to perform processing considering continuity between different files, and select the desired It becomes possible to create a processing file in the form. In addition, it is possible to easily determine whether or not to consider continuity, and it is possible to perform adaptive processing more quickly.
[0115]
【The invention's effect】
In the digital signal processing method according to the present invention described above, it is possible to select encoding in consideration of the continuity of the start and end points between different files and encoding that does not take into account when encoding a plurality of desired files. It is. In addition, according to the present invention, it is easier and more accurate by analyzing the data of the start and end points of a desired plurality of files and selecting the encoding considering continuity and the encoding not considering based on the analysis result. In addition, it is possible to determine whether or not to perform processing in consideration of continuity, and the work efficiency can be greatly improved.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating an example of a configuration relating to generation of highly efficient encoded data.
FIG. 2 is a schematic diagram for explaining an orthogonal transform block size for each band;
FIG. 3 is a block diagram showing in detail a part of the configuration in FIG. 1;
FIG. 4 is a schematic diagram illustrating an example of a spectrum of a band divided in consideration of a critical band, block floating, and the like.
FIG. 5 is a schematic diagram illustrating an example of a masking spectrum.
FIG. 6 is a schematic diagram for explaining synthesis of a minimum audible curve and a masking spectrum.
FIG. 7 is a schematic diagram illustrating an example of an encoded data format according to an embodiment of the present invention.
8 is a schematic diagram showing details of data of the first byte in FIG. 7; FIG.
FIG. 9 is a block diagram illustrating an example of a configuration related to a digital signal decoding process.
FIG. 10 is a schematic diagram for explaining overlap in each frame in encoded data;
FIG. 11 is a schematic diagram illustrating a specific example of an operation display screen of a system that performs high-efficiency encoding processing and decoding processing on a personal computer.
12 is a schematic diagram showing processing for performing high-efficiency encoding on a plurality of files by the system of FIG.
FIG. 13 is a schematic diagram showing frame correspondence when performing high-efficiency encoding without considering the continuity of two files.
FIG. 14 is a schematic diagram showing frame correspondence when performing high-efficiency encoding in consideration of the continuity of two files.
FIG. 15 is a flowchart showing processing steps when high-efficiency encoding is performed without considering the continuity of two files.
FIG. 16 is a flowchart showing processing steps when high-efficiency encoding is performed in consideration of the continuity of two files.
FIG. 17 is a flowchart showing processing steps for analyzing the top data and the final data.
FIG. 18 is a schematic diagram illustrating a search threshold value input screen and a warning message screen in a processing step of analyzing the top data and the final data.
FIG. 19 is a schematic diagram illustrating a specific example of an operation display screen for selecting a combination of files to be processed in consideration of continuity.
[Explanation of symbols]
101, 102 ... Band division filter, 103, 104, 105 ... Orthogonal transform circuit (MDCT), 109, 110, 111 ... Block decision circuit, 118 ... Bit allocation calculation circuit, 106, 107, 108: adaptive bit allocation encoding circuit, 119: normalized information changing circuit, 120, 121, 122 ... adder, 302 ... energy calculator for each band, 303 ... convolution filter, 304 ... adder, 305 ... function generator, 306 ... divider, 307 ... synthesizer, 308 ... subtractor, 309 ... delay circuit, 310 ...
Claims (5)
上記複数のディジタルオーディオファイルの中から圧縮処理を施す2以上のディジタルオーディオファイルを、該圧縮処理を施す順序で選択する第1の選択手段と、
上記第1の選択手段にて選択された上記2以上のディジタルオーディオファイルのうち、上記圧縮処理を施す順序で隣接するディジタルオーディオファイルの前方に位置するディジタルオーディオファイルの終端部近傍のブロックと、上記第1の選択手段にて選択された上記隣接するディジタルオーディオファイルの後方に位置するディジタルオーディオファイルの始端部近傍のブロックと、上記隣接する2つのディジタルオーディオファイルに跨がっているブロックとに基づいて符号化処理を施す第1の符号化手段と、
上記第1の選択手段にて選択された上記2以上のディジタルオーディオファイルのうち、上記圧縮処理を施す順序で隣接するディジタルオーディオファイルの前方に位置するディジタルオーディオファイルの終端部近傍のブロックまたは上記隣接するディジタルオーディオファイルの後方に位置するディジタルオーディオファイルの始端部近傍のブロックと、上記隣接する2つのディジタルオーディオファイルに跨がっているブロックとに基づいて符号化処理を施す第2の符号化手段と、
上記第1の選択手段にて選択された上記2以上のディジタルオーディオファイルの始点、終点のデータを分析する分析手段と、
上記分析手段の分析結果を参照して、上記第1の符号化手段における符号化処理と上記第2の符号化手段における符号化処理との一方を選択する第2の選択手段とを備える符号化装置。An encoding device that blocks a plurality of digital audio files at predetermined lengths and compresses a block-processed digital audio file,
First selection means for selecting two or more digital audio files to be compressed from the plurality of digital audio files in the order of the compression processing ;
Of the two or more digital audio files selected by the first selection means, a block near the end of a digital audio file located in front of an adjacent digital audio file in the order in which the compression processing is performed ; and neighboring blocks beginning of the digital audio files to be located behind the digital audio file which has been said adjacent selected by the first selection means, based on a block that extends over to the adjacent two digital audio files First encoding means for performing encoding processing,
Of the two or more digital audio files selected by the first selection means, a block near the end of a digital audio file positioned in front of an adjacent digital audio file in the order in which the compression processing is performed, or the adjacent Second encoding means for performing encoding processing based on a block in the vicinity of the beginning of the digital audio file located behind the digital audio file to be performed and a block straddling the two adjacent digital audio files When,
Analyzing means for analyzing data of start and end points of the two or more digital audio files selected by the first selection means ;
Marks refer to the analysis result of the analyzing means, Ru and a second selecting means for selecting one of the encoding processing in the encoding process and the second encoding means in the first encoding means Encoding device.
上記選択されたディジタルオーディオファイルの上記始点のデータの音量レベルと予め設定された閾値とを比較し、Comparing the volume level of the starting data of the selected digital audio file with a preset threshold;
上記始点のデータのレベルが上記閾値より大きい場合に、他のディジタルオーディオファイルの終点部との連続性があると判断する請求項1に記載の符号化装置。The encoding apparatus according to claim 1, wherein when the data level of the start point is greater than the threshold value, it is determined that there is continuity with the end point part of another digital audio file.
上記選択されたディジタルオーディオファイルの上記終点のデータの音量レベルと予め設定された閾値とを比較し、Comparing the volume level of the end point data of the selected digital audio file with a preset threshold;
上記終点のデータのレベルが上記閾値より大きい場合に、他のディジタルオーディオファイルの先頭部との連続性があると判断する請求項1に記載の符号化装置。2. The encoding apparatus according to claim 1, wherein when the end point data level is larger than the threshold value, it is determined that there is continuity with the head portion of another digital audio file.
上記分析手段にて上記他のディジタルオーディオファイルとの連続性があると判断された場合に、上記第1の符号化手段における符号化処理を選択する請求項2または3に記載の符号化装置。The encoding apparatus according to claim 2 or 3, wherein when the analyzing means determines that there is continuity with the other digital audio file, the encoding process in the first encoding means is selected.
上記複数のディジタルオーディオファイルの中から圧縮処理を施す2以上のディジタルオーディオファイルを、該圧縮処理を施す順序で選択する第1の選択ステップと、A first selection step of selecting two or more digital audio files to be compressed from the plurality of digital audio files in the order of the compression processing;
上記第1の選択ステップにて選択された上記2以上のディジタルオーディオファイルのうち、上記圧縮処理を施す順序で隣接するディジタルオーディオファイルの前方に位置するディジタルオーディオファイルの終端部近傍のブロックと、上記第1の選択ステップにて選択された上記隣接するディジタルオーディオファイルの後方に位置するディジタルオーディオファイルの始端部近傍のブロックと、上記隣接する2つのディジタルオーディオファイルに跨がっているブロックとに基づいて符号化処理を施す第1の符号化ステップと、Of the two or more digital audio files selected in the first selection step, a block in the vicinity of the end of the digital audio file located in front of the adjacent digital audio file in the order in which the compression processing is performed; Based on a block near the beginning of the digital audio file located behind the adjacent digital audio file selected in the first selection step, and a block straddling the two adjacent digital audio files. A first encoding step for performing an encoding process;
上記第1の選択ステップにて選択された上記2以上のディジタルオーディオファイルのうち、上記圧縮処理を施す順序で隣接するディジタルオーディオファイルの前方に位置するディジタルオーディオファイルの終端部近傍のブロックまたは上記隣接するディジタルオーディオファイルの後方に位置するディジタルオーディオファイルの始端部近傍のブロックと、上記隣接する2つのディジタルオーディオファイルに跨がっているブロックとに基づいて符号化処理を施す第2の符号化ステップと、Of the two or more digital audio files selected in the first selection step, a block near the end of a digital audio file located in front of an adjacent digital audio file in the order in which the compression processing is performed, or the adjacent A second encoding step for performing an encoding process based on a block near the beginning of the digital audio file located behind the digital audio file to be performed and a block straddling the two adjacent digital audio files; When,
上記第1の選択ステップにて選択された上記2以上のディジタルオーディオファイルの始点、終点のデータを分析する分析ステップと、An analysis step for analyzing data of start and end points of the two or more digital audio files selected in the first selection step;
上記分析ステップの分析結果を参照して、上記第1の符号化ステップにおける符号化処理と上記第2の符号化ステップにおける符号化処理との一方を選択する第2の選択ステップとを備える符号化方法。Encoding comprising a second selection step of selecting one of the encoding process in the first encoding step and the encoding process in the second encoding step with reference to the analysis result of the analysis step Method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000159931A JP4441989B2 (en) | 2000-05-30 | 2000-05-30 | Encoding apparatus and encoding method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000159931A JP4441989B2 (en) | 2000-05-30 | 2000-05-30 | Encoding apparatus and encoding method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001337699A JP2001337699A (en) | 2001-12-07 |
JP4441989B2 true JP4441989B2 (en) | 2010-03-31 |
Family
ID=18664196
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000159931A Expired - Fee Related JP4441989B2 (en) | 2000-05-30 | 2000-05-30 | Encoding apparatus and encoding method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4441989B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006053485A (en) * | 2004-08-16 | 2006-02-23 | Nec Micro Systems Ltd | Voice/music data recording method, voice/music data reproducing method, voice/music data recording apparatus, and voice/music data reproducing apparatus |
JP4765460B2 (en) * | 2005-07-25 | 2011-09-07 | パナソニック株式会社 | Speech coding apparatus and speech coding method |
JP5045295B2 (en) * | 2007-07-30 | 2012-10-10 | ソニー株式会社 | Signal processing apparatus and method, and program |
-
2000
- 2000-05-30 JP JP2000159931A patent/JP4441989B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2001337699A (en) | 2001-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0702368B1 (en) | Method of recording and reproducing digital audio signal and apparatus thereof | |
JP4639441B2 (en) | Digital signal processing apparatus and processing method, and digital signal recording apparatus and recording method | |
AU648656B2 (en) | High efficiency digital data encoding and decoding apparatus | |
US5649053A (en) | Method for encoding audio signals | |
KR100209870B1 (en) | Perceptual coding of audio signals | |
KR100310214B1 (en) | Signal encoding or decoding device and recording medium | |
JPH066236A (en) | High efficiency encoding and/or decoding device | |
JP5175028B2 (en) | Digital signal encoding method and apparatus, and decoding method and apparatus | |
US5754127A (en) | Information encoding method and apparatus, and information decoding method and apparatus | |
KR100556505B1 (en) | Reproducing and recording apparatus, decoding apparatus, recording apparatus, reproducing and recording method, decoding method and recording method | |
KR100774782B1 (en) | Encoding apparatus, encoding method, decoding apparatus, decoding method, recording apparatus, recording method, reproducing apparatus, reproducing method, and record medium | |
JPH0748698B2 (en) | Audio signal coding method | |
JP4441989B2 (en) | Encoding apparatus and encoding method | |
JP4760278B2 (en) | Interpolation device, audio playback device, interpolation method, and interpolation program | |
JP4441988B2 (en) | Encoding apparatus and encoding method | |
US6038369A (en) | Signal recording method and apparatus, recording medium and signal processing method | |
JP3879249B2 (en) | Encoding method, decoding method, encoding device, decoding device, digital signal recording method, digital signal recording device, recording medium, digital signal transmission method, and digital signal transmission device | |
JP4822697B2 (en) | Digital signal encoding apparatus and digital signal recording apparatus | |
JPH11330974A (en) | Encoding method and device, decoding method and device, digital signal recording method and device, recording medium and digital transmitting method and device | |
JP2001069089A (en) | Digital signal recorder, digital signal recording method and recording medium | |
JP2000078017A (en) | Decoding method and decoding device | |
JP2002304198A (en) | Device and method for signal processing | |
JP2000003192A (en) | Decode method, decoder, method and device for recording digital signal and storage medium | |
JPH11272294A (en) | Encoding method, decoding method, encoder, decoder, digital signal recording method and device, storage medium, and digital signal transmitting method and device | |
JPH0591062A (en) | Audio signal processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090915 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090929 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091222 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100104 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130122 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |