[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2002538503A - ディジタルオーディオデータの逆方向デコーディング方法 - Google Patents

ディジタルオーディオデータの逆方向デコーディング方法

Info

Publication number
JP2002538503A
JP2002538503A JP2000601744A JP2000601744A JP2002538503A JP 2002538503 A JP2002538503 A JP 2002538503A JP 2000601744 A JP2000601744 A JP 2000601744A JP 2000601744 A JP2000601744 A JP 2000601744A JP 2002538503 A JP2002538503 A JP 2002538503A
Authority
JP
Japan
Prior art keywords
data
frame
decoding
audio data
digital audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000601744A
Other languages
English (en)
Inventor
スグン ユー
ジョンジェ パク
Original Assignee
スグン ユー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by スグン ユー filed Critical スグン ユー
Publication of JP2002538503A publication Critical patent/JP2002538503A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/00007Time or data compression or expansion
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B5/00Recording by magnetisation or demagnetisation of a record carrier; Reproducing by magnetic means; Record carriers therefor
    • G11B5/008Recording on, or reproducing or erasing from, magnetic tapes, sheets, e.g. cards, or wires
    • G11B5/00813Recording on, or reproducing or erasing from, magnetic tapes, sheets, e.g. cards, or wires magnetic tapes

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

(57)【要約】 本発明は圧縮されたデジタルオーディオデータを逆方向にデコーディングする方法に関するものであり,順方向デコーディングアルゴリズムをそのまま用いる方法と逆方向デコーディングアルゴリズムを開発して効率を高める方法があり,この時本発明の逆方向デコーディングアルゴリズムは,記録オーディオデータの最後フレームヘッダを確認する第1段階と,確認されたヘッダ情報に基づいて,そのフレームを構成する複数の単位ブロックデータ全体に対して逆量子化する第2段階と,逆量子化されたデータに対して,単位ブロック間の連続性を維持しながら各周波数帯域の時間データに復元する第3段階,及び復元された各周波数帯域の時間データを逆順で合成して時間逆順のオーディオ信号に変換出力する第4段階を含んで構成されることによって,アルゴリズムと演算量,メモリ使用量が順方向デコーディング方法とほとんど類似でありながらも逆方向デコーディングが可能で,デジタルに圧縮されたオーディオデータをテープ等のように順方向と逆方向トラックを有するアナログ媒体に録音する場合1方向の記録で2トラックをすべて録音することができるようにする非常に有用な発明である。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】
本発明はMPEGオーディオデータをアナログ信号で逆方向にデコーディング
する方法に関するものであり,特にディジタルオーディオデータをテープ等のよ
うなアナログ媒体に高速で録音時,メモリ使用量や演算量を大きく増やさなくて
も逆方向デコーディングしてアナログオーディオ信号を逆方向に記録可能にした
ディジタルオーディオの逆方向デコーディング方法に関するものである。
【0002】
【従来の技術】
一般的にオーディオデータを貯蔵する場合において,ディジタル方式で貯蔵す
る場合には記録媒体間の複製時音質の損失がないことはもちろん,ディジタル変
換時効率的な圧縮方式を利用すれば大きな音質の損失なくてもデータ量を相当に
減らすことができるためにデータの保管及び管理が容易であり,通信上にデータ
を伝送する場合に効率が優れている等アナログ方式で貯蔵する場合に比べて多様
な長所を有している。
【0003】 このような多くの長所により,オーディオデータをディジタルデータにより効
率的に変換させるための多様なエンコーディング方法が考案されたことがあり,
その中の代表的なものとしてMPEG(Moving Picture Exp
ert Group)オーディオ規格があり,MPEGオーディオとは高品質・
高能率のステレオ符号化のための国際標準化機構(ISO)/国際電気技術委員
会(IEC)の標準方式として,従来の圧縮符号化方式に比べて優れた音質を実
現できてMPEGビデオと組合されて高能率のマルチメディア情報圧縮を実現で
きることはもちろん,ディジタル音楽放送等に単独で利用することもできる。最
初MPEG1から始まり,次第に増加されているマルチメディアデータ圧縮標準
に対する新しい必要性によりMPEG2を経て,客体指向マルチメディア通信の
ためのMPEG4が発表されており,現在も続けて研究が進行中である。
【0004】 はじめに標準化されたMPEG1は動映像とオーディオをディジタル貯蔵装置
に最大1.5Mbpsで圧縮・貯蔵するためのコーディング技術としてすべて5
部分で構成されており,この中の1つであるオーディオ部分には3種のオーディ
オコーディング技法が定義されており,これを各々階層,すなわちレイヤ(La
yer)1,レイヤ2,レイヤ3と呼んで,階層−3(以下“MP3”と称する
)が最も精密なアルゴリズムを用いる反面圧縮性能が優秀で,階層−1と階層−
2を概念的に含んでいるので(すなわち,下向互換性がある),以下ではMP3
を基準にアナログオーディオデータのエンコーディング方法に対して簡略に説明
する。
【0005】 MPEGのオーディオレイヤは認識コーディングまたは知覚符号化(Perc
eptual Coding)と呼ばれる圧縮コーディング技法を用いるが,こ
れは人の聴感モデルを分析,適用した技法でありマスキング(Masking)
効果という人の耳の鈍感さを利用した一種のトリックということができる。人の
耳は普通20Hzから20kHzまでの音を聞くとができるがこれを可聴周波数
といって,各周波数範囲毎に聴覚の敏感性が変わり,特に2kHzから5kHz
までの帯域で最も敏感なことが知られている。
【0006】 例えば多くの人がピアノ演奏を聞く時,演奏家がピアノをひかない時にはピア
ノの弦から響く余音を聞くことができるがピアノ鍵盤を再びひく瞬間人々はその
音をこれ以上聞くことができなくなる。これは余音がなくなったのでなくその音
が鍵盤をひく時出る音に比べて小さいためである。すなわち大きな音(Mask
er)が存在している状態で,この音付近の一定範囲,すなわち臨界帯域(Cr
itical Band)に属する音はかなりレベルが高い純音であるのに聞こ
えないようになる。このような原理を周波数マスキング効果というが,周波数帯
域によってマスキングされる音の臨界値も変わり,耳に敏感な部分ではマスキン
グされる音の臨界値が小さくなり鈍感な部分は大きなマスキング臨界値を有する
ようになる。
【0007】 マスキング効果には前記周波数マスキングと共に時間的(Temporal)
マスキングがある。これはある大きな音を聞いた後にこれより小さい音を聞くこ
とができるまで一定な遅延時間があるということである。例えば60dBの音を
5ms間聞かせた後連続して40dBの音を聞かせる場合約5ms以後にその音
を感知することができる。このような遅延時間も周波数帯域によって異なる値を
有するようになる。
【0008】 MP3はこのような人の聴覚心理モデルを利用して,周波数帯域によって量子
化によって発生される量子化雑音をマスキング臨界値と遅延時間内で許容するよ
うにしてオーディオデータのビット率を減少させることによって音質の損失なく
圧縮することができるようにしたものである。
【0009】 このようなMP3エンコーディング方法に対して,一般的なエンコーディング
装置の一部構成を概略的に図示した図1及び図2を参照して,各段階別により詳
細に説明すると次のようである。
【0010】 (1)サブバンド符号化(Subband Coding)及びMDCT 臨界(critical)バンドなどの聴覚心理をより効率的に利用するため
にはまず信号を周波数成分に分けることが重要で,このためにまず図1のフィル
タバンク10を利用して入力されるオーディオPCMサンプルの全帯域を32個
の等間隔周波数バンドに分けた後,各々の信号を元来サンプリング周波数の1/
32にサブサンプリングして符号化する(帯域分割符号化)。
【0011】 しかし,通常のフィルタで1/32の周波数帯域を取る場合理想的なフィルタ
ではないためにサブサンプリングの時点で“エイリアシング(aliasing
)”,すなわちサンプリング周波数の1/2より高い周波数成分を除去しなくて
信号処理した時低周波信号で戻ってくる雑音が生じるようになるので,多相(P
olyphase)フィルタバンク(Filter Bank)というフィルタ
を用いたり,図1のMDCT部20及びエイリアシング減少部30を用いてMD
CT(Modified Discret Cosine Transform
:変形離散余弦変換)を遂行することによって,32バンドのエイリアシング雑
音が相互消去されてフィルタによる劣化が解消されるようにしている。
【0012】 MDCTはクリティカル(critical)にサンプリングされた値に対す
るDCTであるのでどんな量子化も行われなかったとすれば完壁に元来信号に復
旧可能である。ただし,実際には量子化が行われるので各伝送ブロック間で不連
続性が生じるようになる。
【0013】 言い換えれば,オーディオ入力は32個のフィルタバンクを通して32個の周
波数帯域に分割された後,各周波数帯域毎に隣接した周波数帯域の成分によるマ
スキング影響を計算してマスキング臨界値以上の信号に対してのみ量子化ビット
を割り当てるようになり,この時量子化による雑音が与えられた周波数帯域でマ
スキング臨界値以下になるように量子化ビットを割り当てるようになる。
【0014】 (2)スケーリング(Scaling) 前記32個のサブバンド内のサンプルデータの波形は最大振幅が1.0になる
ように正規化されて,その時の倍率がスケールファクタ(scale fact
or)として符号化される。この符号化によって大きな信号成分に対しても周波
数と時間すべて近い領域内に入るようにして量子化雑音の発生を制限できるため
に,同一な聴覚心理効果が働いてこれら雑音が感知されないようになる。
【0015】 (3)ハフマンコーディング(Huffman Coding) ハフマンコーディングとは可変長符号化またはエントロピー符号化と呼ばれる
コーディング方式であり,ディジタルデータの統計的な特性を利用してビットの
重複を無くすリダンダンシーリダクション(Redundancy Reduc
tion)方式,すなわち符号の発生確率を利用して発生確率が高い値には長さ
が短い符号を割り当てて,発生確率が低い値には長さが長い符号を割り当てるこ
とによって,全体コーディングデータの平均符号長さを減らす方式である。
【0016】 例えば,量子化処理されて入力されるデータ値が0,1,2,3,すなわち0
0,01,10,11であって,実験によって各々の映像データ発生確率が0.
6,0.2,0.1,0.1であったと仮定する場合,発生確率と関係なく符号
長さを2ビットで固定割り当てるならば平均符号長さは(符号長さ×割り当てビ
ット)/(データの数)であるので(2×0.6+2×0.2+2×0.1+2
×0.1)/4=2(ビット)になる。
【0017】 しかし,符号長さを可変させて,最も発生確率が高い0には1ビットを割り当
てて,次に発生確率が高い1には2ビットを,そして発生確率が最低の2と3に
は3ビットの符号を割り当てれば,可変長符号化処理結果による平均符号長さは
(1×0.6+2×0.2+3×0.1+3×0.1)/4=1.6(ビット)
になる。したがって,発生確率によって割り当てビットを相互相異なるように付
与する可変長符号化によって得られたデータの値(長さ)がより高圧縮処理され
る。
【0018】 この他にMP3では与えられた圧縮率では圧縮できない部分のためのビットリ
ザーババッファリング(Bit Reservoir Buffering)等
のような技法を並行して音質及び圧縮率をより向上させており,このようなすべ
ての過程を経たコーディング値をビットストリームフォーマッティングして出力
し,図3はこのように最終出力されるMP3ビットストリームの単位フレームを
データ特性別に区分表示したものである。
【0019】 前記のようなMP3エンコーディング利用時の圧縮効率に対して説明すると,
既存のディジタルオーディオ機器ではサンプル当たり16ビットに,サンプリン
グ周波数32kHz,44.1kHz,48kHzのPCM(Pulse Co
de Modulation)符号が広く用いられるが,もしも2チャネルステ
レオ,44.1kHzサンプリング及び16Bitの量子化ビット(bit)の
場合ビット率は16×44100×2=1411200(約1.4Mbps)に
なる反面,MPEGオーディオの階層(Layer)3ではこのような信号を1
28〜256kbps程度に符号化することができる。これは元来のPCM符号
の約1/12〜1/6に相当しサンプル当たり元来の16ビットが約1.5ない
し3ビットに節減される計算であり,したがってMP3ファイルでCDを製作す
る場合CD1枚にオーディオCD12枚分量を貯蔵できるようになることはもち
ろん,このように圧縮しても原音との差異をほとんど感じられないし特に200
kbps以上になればほとんど判別することができない程度である。
【0020】
【発明が解決しようとする課題】
しかし,ディジタル記録のこのような多くの長所にもかかわらず,今のところ
はディジタルデータ記録/再生装置の普及が広くならなくてむしろウォークマン
のようなアナログ記録/再生装置が市場の大部分を占めている状態であるので,
このようなディジタルデータを広く用いられているテープ等アナログ媒体に貯蔵
する必要性が高まる。
【0021】 この場合大部分のテープ媒体等では同一記録面の左・右側に順方向トラックと
逆方向トラックを備えるが,順方向トラックに対して順方向デコーディングで再
生してこれを録音した後,順方向トラックの最後から逆方向走行させながら逆方
向トラックに対して再び順方向デコーディングで再生してこれを録音するように
なれば,各々のトラックを反復走行することによって録音時間が長時間所要され
るという問題点が発生するようになる。
【0022】 また,アナログオーディオを逆方向に再生しながらエンコーディングしたデー
タを備えてからデコーディング記録する場合には別途の空間が必要であるという
問題点があることはもちろん,逆方向再生時のマスキング効果等によって原音再
生が不可能であるという問題点が発生するようになる。
【0023】 したがって,本発明は前記のような問題点を解決するために創作されたもので
ありディジタルオーディオデータをテープ等のようなアナログ媒体に高速で録音
時,メモリ使用量や演算量を大きく増やさなくても逆方向デコーディングが可能
なMPEGオーディオの逆方向デコーディング方法を提供することにその目的が
ある。
【0024】
【課題を解決するための手段】
前記のような目的を達成するための本発明によるディジタルオーディオデータ
の逆方向デコーディング方法は,ディジタルオーディオデータの逆方向デコーデ
ィング方法において,記録オーディオデータの最後フレームヘッダを確認する第
1段階と,前記確認されたヘッダ情報に基づいて,該フレームを構成する複数の
単位ブロックデータ全体に対して同時に逆量子化する第2段階と,前記逆量子化
されたデータに対して,前記単位ブロック間の連続性を維持しながら周波数帯域
別データに復元する第3段階,及び前記復元された周波数帯域別データを時間逆
順のオーディオサンプルデータに変換出力する第4段階を含んで構成されること
にその特徴がある。
【0025】 前記のような構成及び作動によってなる本発明によるディジタルオーディオデ
ータの逆方向デコーディング方法は,ディジタルに圧縮されたオーディオ信号を
テープのようなアナログ媒体に高速で貯蔵する場合において,圧縮されたディジ
タルオーディオを順方向トラックは順方向にデコーディングして信号を提供して
,反対方向のトラックは逆方向にデコーディングして信号を提供することによっ
て,同時に順方向及び反対方向のトラックすべてを録音することができて高速録
音が可能になる。
【0026】
【発明の実施の形態】
以下,本発明によるMP3オーディオ逆方向デコーディング方法の望ましい実
施例に対して詳細に説明する。
【0027】 図4は本発明を具現するためのMP3オーディオ逆方向デコーディング装置の
一実施例を概略的に図示したものであり,入力されるMP3オーディオビットス
トリームを多数の特性データに分離出力する多重分離装置(Demultipl
xer)100と,前記分離出力されるデータ中サイドインフォメーション(S
ide Information)データを読出し解析するサイドインフォメー
ションデコーダ110と,前記分離出力されるオーディオデータをハフマンデコ
ーディングするハフマンデコーダ120と,前記ハフマンデコーディングされた
データを周波数領域における実際サンプルエネルギ値に復元する逆量子化部13
0と,前記復元されたデータをMDCT以前のデータに復元するIMDCT(I
nverse MDCT)部140,及び前記復元されたデータの各サブバンド
値を合成して最終PCMサンプルとして出力する合成フィルタバンク(Synt
hesis Filterbank)150とを含んで構成されている。
【0028】 前記のように構成されたMPEGオーディオ逆方向デコーディング装置を利用
して,MPEGオーディオビットストリームを逆方向にデコーディングする方法
に対して説明すると次のようである。
【0029】 (1)フレームヘッダ(Frame Header)検索 MP3ビットストリーム(bit stream)の逆方向デコーディングの
ためにはオーディオビットストリームの一番後ろからデコーディングを実施しな
ければならないので順方向デコーディングに比べてまずデコーディングしなけれ
ばならないスタート位置を探すことが問題になるが,MPEGオーディオフォー
マットで各フレームは相互独立的であるので逆方向デコーディング過程の最初段
階はフレームヘッダを探すことである。
【0030】 フレームヘッダを探すためにはフレーム大きさに対する情報を予め知っていな
ければならないが,一般的に,圧縮されたMP3オーディオビットストリームは
フレーム単位で分けられて,各MPEGフォーマット(format)で秒当た
りフレーム数は固定されているが,これは与えられたビットレート(bit−r
ate)とサンプリング周波数で各入力フレームは固定サイズを有しており,固
定された個数の出力サンプルを生成するということを意味する。
【0031】 このようにMPEGオーディオでフレームの大きさは固定されているが,この
大きさは特定ビット率とサンプリング周波数に対する固定値に過ぎないので,実
際フレームの大きさが分かるためにはまずフレームのヘッダを探して分析しなけ
ればならない。
【0032】 問題はヘッダを如何に探すかであるが,一般的にヘッダにシンクワード(Sy
nc Word)を提供してヘッダであることを表示するが,オーディオサンプ
ルデータに前記シンクワードと同一なパターンが発生できるのでヘッダを誤って
探す場合が生じることがある。
【0033】 この問題を解決するために,前記多重分離装置100は1ストリームクリップ
内ではストリームの特性が変わらないという仮定下にストリームの最初のヘッダ
を予め分析してパッディング(padding)ビットがない場合のフレーム大
きさを得た次に,該曲に対応するビットストリームファイルの最後位置から前記
1フレーム大きさを利用して最後フレームのヘッダ位置を探す。
【0034】 ただし,各フレームの大きさはヘッダのパッディングビットによってその大き
さが1バイトほど変わることができるので,逆方向にヘッダを探す場合その探す
ヘッダが含まれているフレームの正確な大きさを知らないために,最初のヘッダ
から得たフレーム大きさほど該ファイルの最後位置から逆方向に移動した後,パ
ッディングビットを考慮して1バイトほど以前データから次のデータまでヘッダ
のスタート位置を探すようにする。
【0035】 (2)サイドインフォメーション分析 入力されるMP3オーディオビットストリームから一旦フレームヘッダを探し
た後,前記多重分離装置100は順方向デコーディング時と同様に如何にフレー
ムがエンコーディングされているかに対する情報であるサイドインフォメーショ
ン(Side Information)と,各周波数バンドの利得値をコント
ロールするスケールファクタ及びハフマンコーディングデータを順に分離して出
力し,前記サイドインフォメーションデコーダ110は分離出力される前記サイ
ドインフォメーションデータをデコーディングした後,この情報に基づいて該フ
レームに含まれているデータを如何に処理するか分かるようになる。
【0036】 一般的にMPEGオーディオレイヤ3では,前記エンコーディング過程で簡略
に説明したように,固定されたビット率においてより音質を向上させるためにビ
ットリザーバ(bit reservoir)方式を用いる。
【0037】 すなわち,エンコーディングするオーディオサンプルの特性によって,一定音
質を維持しながらもコーディングするのに多くのデータを必要とする場合もあっ
て,反対に少ないデータのみを必要とする場合もあるが,フレーム毎に必要なビ
ット数が異なるがフレーム大きさを同一にするために,少ないデータのみを必要
とする,定まった大きさのフレームの残る空間に,多くのデータを必要とするフ
レームのデータを入れなければならなく,これにより現在フレームのデータ空間
には現在フレームのデータのみならず次のフレームのデータが含まれている場合
があるようになる。ただし,MPEG標準は任意位置で始めてもデコーディング
が可能にするために511バイト距離内で以前フレームに対して存在することが
できるようにして現在フレームのデータが含まれている場合がある以前フレーム
の範囲を制限しており,また未来にくるフレームには過去フレームのデータを含
めないようにした。
【0038】 このように,現在フレームのためのデータが以前フレームにいくつ含まれてい
るかを知らせるために,図5に図示されたようにサイドインフォメーションにそ
のポインタ値が含まれており,デコーディングするデータを得るためには前記サ
イドインフォメーションを分析した後ポインタ値によって以前フレームのデータ
領域から該個数ほどデータを持ってこなければならない。
【0039】 前記内容を整理すると,現在フレームに該当するデータ,すなわち前記スケー
ルファクタとハフマンコーディングデータが含まれている場合があるフレームの
範囲は現在フレームのみに限定されるものでなくサイドインフォメーションを含
む現在フレームに511バイト距離内で先立つフレーム(正常再生時の時間的以
前フレーム)にも含まれている場合があるので,順方向デコーディング時には以
前フレームでデコーディングして残ったデータに現在フレームのデータを補充し
て用いれば良いが,逆方向デコーディングでは現在デコーディングするフレーム
に先立つ以前フレームのヘッダを探して該データ領域から必要な個数ほどさらに
オーディオデータを持ってこなければならなく,この場合前記デコーディングさ
れたサイドインフォメーションに基づいて以前フレームから持ってくるデータの
数を確認することによって,必要なほどのデータを正確に持ってくるようにする
【0040】 場合によっては以前フレームいくつにかかりこの過程を繰り返して必要なデー
タ値を持ってこなければならない場合もあるが,ヘッダを好都合に探すならばこ
の過程もやはり難しくない。
【0041】 (3)ハフマンデコーディング 前記サイドインフォメーションに基づいてデコーディングしなければならない
オーディオデータを確認するようになれば,前記ハフマンデコーダ120はエン
コーディング時総ビット量を減らすためにデータ特性によって用いられたハフマ
ンツリー(tree)及び前記サイドインフォメーションに基づいて,分離出力
されるハフマンコーディングデータ(以前フレームから得られたデータを含んだ
全体データ)に対してハフマンデコーディングを遂行する。
【0042】 この過程は順方向デコーディングと同一であり,ただし一般的に1フレームは
2個のグラニュール(granule 0,granule 1)に分けてエン
コーディングされているので,グラニュール1をデコーディングするためにはグ
ラニュール0をまずデコーディングしてこそそのデータ位置が分かるので,順方
向デコーディングではグラニュール単位でデコーディングが可能なことに反して
逆方向デコーディングでは1フレーム全体,すなわち2個のグラニュールすべて
に対して一度にデコーディングしなければならない。
【0043】 (4)逆量子化及びリ・スケーリング 前記ハフマンデコーダ120にオーディオデータをハフマンコーディング以前
のデータに復元した後,前記逆量子化部130はハフマンデコーディングされた
結果を周波数領域における実際サンプルエネルギ値に復元する作業を遂行するが
,例えばハフマンデコーディングされた値がYとすれば一旦Yの4/3乗を計算
して,このように得られた値に前記スケールファクタで得たスケール値を積して
リ・スケーリング(re−scaling)することにより,実際スペクトラム
エネルギ値に復元する。
【0044】 この過程で,もしもビットストリームがステレオ信号でエンコーディングされ
たとすれば各チャネルは相互分離されて伝送されることができるが,たびたび2
チャネル間の合計(sum)と差(difference)を伝送することによ
って2チャネル間の重複性を除去する方式を利用することもあるが,この方式を
利用してエンコーディングされたとすればステレオ復旧を実施する。
【0045】 (5)IMDCT いままで得られた信号は周波数領域(Frequency−Domain)に
あるので,実際出力サンプルを合成するためには時間領域(Time−Doma
in)へのエネルギ変換(transform)が行われなければならないが,
この変換はエンコーダで利用された時間−周波数変換(Time−to−Fre
quency Transform)の逆過程として,前記IMDCT部140
によって実際サンプルエネルギ値に復元される。
【0046】 レイヤ3では他のレイヤからよりさらに良い周波数解像度を得るためにMDC
Tを追加で用いるが,この変換はクリティカルにサンプリングされた値に対する
DCTであるのでどんな量子化も行われなかったとすれば完壁に元来信号に復旧
が可能であるが,実際にはブロック単位で量子化が行われるので各伝送ブロック
間に不連続性が生じるようになる。
【0047】 これにより,ブロック(グラニュール)単位で遂行されるIMDCTにおいて
各伝送ブロック間に不連続性が生じるようになって,このような不連続性はノイ
ズとクリック音などを作って音質に致命的な影響を及ぼすので,これを無くすた
めにIMDCT変換後の結果値に対して以前グラニュールでの値と50%オーバ
ーラップ合算(overlap−adding)して用いる。
【0048】 すなわち,IMDCTを遂行するようになればすべて36個のデータが得られ
るが,順方向デコーディングの場合図6に図示されたように現在グラニュールに
対する前半部の18個データと,以前グラニュールの後半部18個データを合算
した値を利用している。しかし,順方向デコーディングの場合には以前フレーム
の値を有しているが,逆方向デコーディングの場合には時間的に以後のフレーム
に対するデータを有しているので,オーバーラップされる順序を変えなければな
らなく,したがって現在グラニュールに対するIMDCT結果36個中後半部1
8個と以後グラニュールの前半部18個をオーバーラップ合算して用いる。ただ
し,逆方向デコーディング時に始めるフレーム,すなわち最後フレームの場合に
は,そのフレームの後半部グラニュールに対してはオーバーラップするデータが
ないのでオーバーラップする部分に0(zero)を入れたりオーバーラップ合
算をしなくてそのまま用いる。
【0049】 前記過程を数式でもう一度整理すれば次のようである。
【0050】 xi(n)を次の処理に用いる目標サンプル,yi(n)をIMDCTした結
果,添字iはグラニュール番号,Nが総フレーム数という場合,順方向デコーデ
ィングの場合には次のように処理する。 xi(n)=yi(n)+yi−1(n+18) 0≦n<18,i=1,2
,…2N
【0051】 但し,ここでy0(n+18),0≦n<18はすべて0に初期化されていな
ければならない。 xi(n)=yi(n)+yi−1(n+18) 0≦n<18,i=1,2
,…2N.
【0052】 ところで,逆方向デコーディングのためには以前フレームの情報を有していな
いために,代わりに以後フレームと50%オーバーラップして加わるように次の
ように数式を変更しなければならない。 xi(n)=yi(n+18)+yi−1(n) 0≦n<18,i=2N,
2N−1…,1
【0053】 もちろん,この場合にも初期値であるy2N+1(n+18),0≦n<18
はすべて0に初期化されていなければならない。
【0054】 前記のオーバーラップ過程は順方向の場合と比較してその順序のみ変わったの
みであるので,演算量とメモリ使用量も順方向の場合と同一である。 xi(n)=yi(n+18)+yi−1(n) 0≦n<18,i=2N,
2N−1…,1.
【0055】 (6)サブバンド合成 前記IMDCT部140によってIMDCT変換を遂行して50%オーバーラ
ップ合算処理した結果値を得た後,実際オーディオサンプルを出力する前の最後
手続きはサブバンドに分けられたサンプルを合成して元来の時間サンプル信号に
復元するサブバンド合成過程であり,これはエンコーディング時入力サンプルを
32個の周波数帯域別に分離したものを再び合成する過程(subband s
ynthesis)であり,各サブバンドのサンプルを一つの時間サンプル列に
合成する補間(interpolation)過程である。
【0056】 サブバンド合成フィルタでは以前フレームのフィルタ入力が遅延されて用いら
れるので以前フレームのフィルタ入力値を必要とするが,順方向デコーディング
とは別に逆方向デコーディング時には合成フィルタに入力されるサブバンドのデ
ータが逆順で入力されて以前値がわからないので,合成フィルタの構造をこれに
合わせて再設計しなければならない。
【0057】 合成フィルタのためのフィルタバンクはMPEG標準に定義されているのでこ
れを利用して逆方向デコーディングが可能に合成フィルタを設計しており,以下
一般的な順方向デコーディングで用いられる合成フィルタに対して説明した後,
これと対比して本発明による新しい合成フィルタに対して詳細に説明する。
【0058】 図7はMPEGオーディオ順方向デコーディング時用いられる合成フィルタの
構造を図示したものであり,前記合成フィルタの目標は各サブバンドのサンプル
を,FDM(Frequency Division Multiplexin
g)方式と類似に,該周波数帯域の信号として1つの信号を合成することである
【0059】 すなわち,TS1間隔でクリティカルにサンプリングされた32個の信号xr
(mTS1)を1つの信号に合成して,TS2=TS1/32間隔でクリティカ
ルにサンプリングされた信号であるs(nTS2)を合成することであり,これ
はエンコーディング時32個の同一な周波数帯域区間に分けた信号を再び元来の
信号に復元する過程である。
【0060】 ここでxr(mTS1)はr番目サブバンドのサンプル信号を意味し,この信
号を32倍にアップサンプリング(up−sampling)した信号がxr(
nTS2)である。この過程で(m−1)TS1とmTS1間に31個の0(z
ero)が挿入される。これによってTS1時間間隔でサンプリングされた信号
の高調波成分が挿入されて周波数の範囲は32倍に拡張される。
【0061】 言い換えれば,TS1時間間隔でサンプリングすることによって,fS1=1
/TS1周波数間隔で繰り返してあらわれる高調波が,TS2時間間隔でアップ
サンプリング(up−sampling)してfS2=1/TS2にサンプリン
グ周波数範囲が拡張されながらこの範囲内に32個のfS1高調波が含まれ,結
果的にTS2=TS1/32時間間隔でサンプリングされた信号に変更される。
【0062】 今この信号を持って各サブバンド毎に該帯域のみ残して除去する。この時用い
られるバンドパスフィルタ(band−pass filter)が即Hr(z
)である(rはサブバンド番号)。
【0063】 フィルタHr(z)は512個の次数を有し,プロトタイプローパスフィルタ
(prototype low−pass filter)を位相シフト(ph
ase−shift)して該サブバンドのバンドパスフィルタ(band−pa
ss filter)を構成する。上図7のブロックダイアグラムを数式で表現
すれば次の式のようである。
【0064】
【数1】
【0065】 ここでSt(nTS2)は合成された信号の出力サンプル,tはTS1時間間
隔でありサブバンド信号の現在入力サンプルを意味する。すなわちxr(tTS
1)のサブバンド別各入力サンプルに対する合成出力信号がSt(nTS2)に
なる。ここでr=0,1,2,,31でサブバンドインデックスであり,n=0
,1,2,,31で出力サンプルインデックスであり,32個のサブバンド毎に
各々1個ずつのサンプルが入力されて32個の合成された出力サンプルが生成す
る構造である。
【0066】 前記数式の構造はxr(kTS2)とHr(kTS2)のコンボルーション(
convolution)形態であり,フィルタリング過程であることを示す。
Hr(kTS2)は512個の次数を有し,基本形のローパスフィルタ(low
−passfilter)であるh(kTS2)とこのフィルタを位相シフト(
phase−shift)して該サブバンドのバンドパスフィルタ(band−
pass filter)を生成するためのNr(k)の積で構成されている。
【0067】 各サブバンドをアップサンプリング(up−sampling)して該帯域フ
ィルタを経た後すべてのサブバンドの信号を加えれば出力サンプルが生成する。
ここで前記(式1)をそのまま演算しようとするなら相当に多量の演算が必要で
あるので,演算量を減らすために数式を整理して再び書けば下の(数2)のよう
である。(数1)を展開して最適化する過程でcosine項の対称性とサブバ
ンド信号xr(tTS1)をアップサンプリング(up−sampling)し
てxr(kTS2)を作りながら加えられた0(zero)が考慮された。以下
の数式からは表記の便宜のためにサンプリング周期を省略しており,黙示的にサ
ンプリング周期はTS2である。
【0068】
【数2】
【0069】
【数3】
【0070】 ここでn=0,1,2…31,i=0,1,2…15,k=0,1,2…63
そしてr=0,1,2…31である。添字k,n,iは演算過程で用いられるイ
ンデックスであり,添字rはサブバンド番号を意味し,添字tはサブバンド信号
の現在サンプルが入力された時間を意味する。上の数式で記号[x]は実数xに
対してa≦xを満足する最大定数aを意味する。すなわち,実数xの小数点以下
を切り捨てて定数を作った。また,演算子%はモジュラ(modular)演算
を意味しa%bはaをbで割った余りに該当する。
【0071】 前記最適化された(数2)をアルゴリズム順序図で表現すれば図8と同じであ
り(MPEG Audio Standard Spec.参照),前記図8の
順序図を計算手続きによるブロック図で示せば図9のようである。
【0072】 各サブバンド毎に1個のサンプルが入力されてNr(k)行列値が積され,出
た結果は64個になる。この値が1024個の先入先出(FIFO)バッファに
入力され,既存に含まれていた値は64個の値ほどシフト(shift)される
。今このFIFO中に含まれている値中で使用するデータを順次的に持ってきて
ウィンドウ(window)計数を積して出た値をすべて加えればPCM出力サ
ンプルが生成する。これを(数2)と比較しながら見れば容易に分かる。
【0073】 以下では,前記で説明した順方向デコーディングに用いられる合成フィルタの
構造を参照して,本発明による逆方向デコーディング時の合成フィルタに対して
説明する。
【0074】 上の順方向合成フィルタを逆方向にデコーディングするための構造に変更する
ためには何種類かを考慮しなければならない。逆方向にデコーディングする過程
ではサブバンドのサンプルが時間的に逆順で入力されるようになる。すなわち,
1サブバンドの総サンプル数がN個であれば,順方向にデコーディングする場合
t=0,1,2…N−1の順序でサンプルが入力される反面,逆方向にデコーデ
ィングする場合にはt=N−1,N−2,N−3…1,0の順序で入力される。
【0075】 MPEGオーディオ合成フィルタは時間的に以前サンプル値を利用するが,サ
ンプルが逆順で入力されると時間的に以前サンプル値がわからないために順方向
合成フィルタをそのまま利用して逆方向合成を遂行できず,したがって逆順で入
力されるサンプルに対して逆順で合成を遂行することができるようにフィルタの
構造を変更しなければならないので,下ではこのような構造を有する合成フィル
タを提示する。
【0076】 図10は本発明による逆方向デコーディングのための合成フィルタの構造を図
示したものであり,順方向デコーディングのための合成フィルタの構造と類似で
あるが,ただし,フィルタバンクのみその伝達関数がBr(z)に代置された。
サブバンド信号のサンプルが入力される順序は逆方向デコーディングの場合xr
(mTS1),m=N−1,N−2,N−3…1,0のようである。
【0077】 入力順序を考慮して前記(数1)を変更すれば次の(数4)のようである。
【0078】
【数4】 (数4)を(数1)と比較すると,各サブバンドに対するバンドパスフィルタ
(band−pass filter)は同一であり,ただし入力サンプルが時
間の逆順で入力されるのでフィルタリングのためのコンボルーションで入力信号
の順序を逆にひっくり返してフィルタ計数と乗算したことをそのまま用いるよう
になる。すなわち,入力される順序自体が逆順であるために順方向デコーディン
グ時のサブバンド入力xr(((32t+n)−k)Ts)は逆順入力に対して
xr(((32t+n)−511+k)Ts)になる。
【0079】 (数4)をそのまま計算するためには相当に多量の演算が必要であるので,順
方向デコーディング時と同様に数式を展開して最適化すれば次の数式が得られる
【0080】
【数5】
【0081】
【数6】 但し,上の(数5)と(数6)で用いられた添字と演算子に対することは(数
2)と(数3)で適用されたことと同一である。
【0082】 上の(数5)と(数6)でj=31−nそしてm=63−kに置換すれば上の
数式は下記のようになる。
【0083】
【数7】
【0084】
【数8】
【0085】 前記(数7),(数8)を(数2),(数3)と比較すると類似であるという
ことがわかり,ただし入力されたサンプルに対するインデックスのみ異なる。前
記式をアルゴリズム順序図で表現すれば図11と同じであり,前記順序図を計算
手続きによるブロック図で構成すれば図12のようである。以上で設計した逆方
向デコーディングのための合成フィルタの構造を説明すると順方向合成フィルタ
とアルゴリズム構造が似ており,したがって演算量と具現に必要なメモリ使用量
も同一に具現できる。もしも順方向デコーディングと逆方向デコーディングを同
時に具現するならば順方向合成フィルタをそのまま適用することができ,単にF
IFOのシフティング(shifting)方向と最終サンプル合成順序(添字
j)のみ逆方向に変えれば良い。
【0086】 すなわち,合成時毎に合成される32サンプルは時間順序であるが,次に合成
される時間サンプルは時間的に以前サンプルであり,したがって,サンプルの出
力順序は一度に合成される32サンプルを逆順で出力して次に合成される32サ
ンプルを同様に逆順で出力する過程を最初のフレームまで繰り返すようになる。
本合成フィルタはMPEGオーディオレイヤ1,2,3(MPEG Audio
Layer1,2,3)すべてで使用可能である。
【0087】 一方,より高速の録音のためには順方向トラックに対して録音を遂行すると同
時に,逆方向トラックに対しても一緒に録音を遂行することが望ましく,この時
逆方向トラックに対してはテープが再生時の逆に走行するようになるので,デコ
ーディングも逆方向にデコーディングしなければならないので,逆方向デコーデ
ィングを遂行する方法には前記の実施例とは異なる多様な種類が有り得るが,ま
ず順方向アルゴリズムを利用した逆方向デコーディング方法に対して説明すると
次のようである。
【0088】 圧縮されたMPEGディジタルオーディオデータを逆方向にアナログ記録媒体
に記録するための方案として考えることができる最初の方法はデータをすべて順
方向にデコーディングしてその結果のPCMサンプルを貯蔵しておいて一番最後
PCMデータから逆にアナログ変換することである。この場合順方向アルゴリズ
ムをそのまま用いるので具現はやさしいがデコーディングされたデータ量が膨大
なので,データを貯蔵する大量の貯蔵媒体が必要であるという問題点があること
はもちろん,1データクリップの長さが相異なり,制限されていないために必要
な貯蔵媒体の最大限界を決定できないという問題点がある。
【0089】 圧縮されたMPEGディジタルオーディオデータを逆方向にアナログ記録媒体
に記録するための方案として考えることができる2番目方法は全体ストリームの
一番後フレームから一定なフレーム数に分けて順方向にデコーディングをするこ
とである。
【0090】 すなわち,総N個のフレームがあるならばM個のフレームずつ分けてN−M番
目フレームからN番目フレームまでデコーディングをして貯蔵してこれをN番目
フレームからN−M+1番目フレームまで逆順で演奏する。この時,N−M番目
フレームはデコーディング時最初のフレームであるために以前フレームと連続性
がないので正常的なデータではないので出力しない。重要なことはフレーム間の
連続性は1フレームほどであり,2フレーム以上離れたフレーム間には演算アル
ゴリズム的に影響を与えないということである。したがって,2番目フレームか
らは正常的なサンプルを得ることができて,その結果値を利用することができる
【0091】 最初のブロックフレームに対する演奏が終われば再びN−2M番目フレームか
らN−M番目フレームまでを同様に順方向にデコーディングしながら貯蔵する。
ここで注目することはN−M番目フレームは以前デコーディング過程でそのブロ
ックの最初のフレームでデコーディングをしたフレームである。しかし実際サン
プルは以前フレームの情報がなくて正常的なサンプルとしてデコーディングされ
なかったために出力しなかった。したがってここでそのフレームまでデコーディ
ングをする。この時はフレームの最後であり以前フレームの情報を有しているた
めに正常的なサンプルとしてデコーディングされる。今出力はN−M番目フレー
ムからN−2M+1番目フレームまでを逆順で実施する。この過程をすべてのフ
レームがデコーディングされる時まで実施する。
【0092】 最後にデコーディングされるブロックの最初のフレームに対しては順方向にデ
コーディングする時と同一な条件になるのでその時と同一なサンプル値が得られ
る。したがってそのまま出力サンプルとして用いることができる。
【0093】 この方法で逆方向デコーディングをする場合,すべてのフレームをデコーディ
ングして貯蔵しなくて,単にM個のフレームのみをデコーディングして貯蔵して
から逆順で出力するのでM個のフレームに対するサンプル個数ほどのみを貯蔵す
る空間のみあれば十分で,前記最初方法に比べて最終出力サンプルを貯蔵するバ
ッファの大きさが小さくなり,また貯蔵する空間の要求量に対する限界が明らか
なので設計が容易な長所もある。
【0094】 また,順方向デコーディング方式を利用して逆方向デコーディングを遂行する
場合,すなわち一番最後フレームからMフレームずつ分けて順方向にデコーディ
ングする場合にはアルゴリズムが順方向デコーディング方法と同一であるので具
現が容易であり,たとえM個のフレームをデコーディングして貯蔵するバッファ
が必要であるという短所があるがその大きさが固定されているために具現が難し
くない。
【0095】 また,逆方向デコーディングアルゴリズムを利用した逆方向デコーディング方
式の場合には,順方向デコーディングと比較して演算量は同一であるが若干の追
加メモリのみ要求され,追加されるメモリの大きさは,ハフマンデコーディング
過程で順方向デコーディング時には1フレームを2個のブロックに分けて処理す
ることができる反面逆方向デコーディング時には1フレームすべてを予めハフマ
ンデコーディングしなければならないので2倍のバッファ大きさほど必要である
。すなわち,その大きさはステレオチャネルに対して順方向デコーディング時5
76×2ワードほど必要なのに反して,逆方向デコーディング時は1152×2
ワードほどのメモリが必要である。
【0096】
【発明の効果】
前記のような構成及び作動によってなる本発明によるディジタルオーディオデ
ータの逆方向デコーディング方法は,ディジタルに圧縮されたオーディオ信号を
テープのようなアナログ媒体に高速で貯蔵する場合において,圧縮されたディジ
タルオーディオを順方向トラックは順方向にデコーディングして信号を提供して
,反対方向のトラックは逆方向にデコーディングして信号を提供することによっ
て,同時に順方向及び反対方向のトラックすべてを録音することができて高速録
音が可能になる。
【図面の簡単な説明】
【図1】 MPEGオーディオエンコーダの構成を概略的に示した説明図である。
【図2】 MPEGオーディオエンコーダの構成を概略的に示した説明図である。
【図3】 MPEGオーディオデータの単位フレームの構造を示した説明図である。
【図4】 MPEGオーディオデコーダの一般的な構成を示した説明図である。
【図5】 サイドインフォメーションによる単位フレーム対応データの位置把握関係を示
した説明図である。
【図6】 IMDCT時オーバーラップ合算する過程を示した説明図である。
【図7】 順方向デコーディングのための合成フィルタの構造を示した説明図である。
【図8】 図7の合成フィルタ具現のためのアルゴリズム順序を示した説明図である。
【図9】 図8のフローチャートのブロックダイアグラムを示す説明図である。
【図10】 本発明による逆方向デコーディングのための合成フィルタの構造を示した説明
図である。
【図11】 図10の合成フィルタ具現のためのアルゴリズム順序を示した説明図である。
【図12】 図11のフローチャートのブロックダイアグラムを示す説明図である。
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5D045 DA20 5J064 AA02 BA09 BB08 BC11 BC16 BD03 【要約の続き】 ことができるようにする非常に有用な発明である。

Claims (11)

    【特許請求の範囲】
  1. 【請求項1】 圧縮されたディジタルオーディオデータの逆方向デコーディ
    ング方法において, 前記圧縮されたオーディオデータの最後フレームヘッダを確認する(A)段階
    と, 前記確認されたヘッダ情報に基づいて,そのフレームを構成する複数の単位ブ
    ロックデータ全体に対して逆量子化する(B)段階と, 前記逆量子化されたデータに対して,前記単位ブロック間の連続性を維持しな
    がら各周波数帯域の時間データに復元する(C)段階と, 前記復元された各周波数帯域の時間データを逆順で合成して時間逆順のオーデ
    ィオ信号に変換出力する(D)段階と, を含んで構成される,ディジタルオーディオデータの逆方向デコーディング方法
  2. 【請求項2】 前記(A)段階のフレームヘッダ確認は,前記記録オーディ
    オデータの最初ヘッド情報に基づいて行われることを特徴とする,請求項1に記
    載のディジタルオーディオデータの逆方向デコーディング方法。
  3. 【請求項3】 前記(A)段階は, 前記圧縮されたオーディオデータの最初ヘッド情報からフレームの大きさを読
    み出す(A1)段階と, 前記読み出されたフレーム大きさに基づいて,フレームの仮想ヘッド位置に移
    動する(A2)段階と, 前記移動した位置で,パッディングビット有無を勘案して実際フレームヘッダ
    を確認する(A3)段階と, を含んで構成されることを特徴とする,請求項1に記載のディジタルオーディオ
    データの逆方向デコーディング方法。
  4. 【請求項4】 前記(B)段階は, 前記確認されたヘッダ情報に基づいて,サイドインフォメーションを読み出す
    (B1)段階と, 前記読み出されたサイドインフォメーションに基づいて,該単位フレームに対
    応するデータの位置を確認する(B2)段階と, 前記確認された位置に基づいて,単位フレームを構成する複数の単位ブロック
    全体に対して同時に逆量子化する(B3)段階と, を含んで構成されることを特徴とする,請求項1に記載のディジタルオーディオ
    データの逆方向デコーディング方法。
  5. 【請求項5】 前記(B3)段階は,単位フレームを構成する複数の単位ブ
    ロック全体に対してハフマンデコーディングする段階と,前記ハフマンデコーデ
    ィングされたデータに対して逆量子化及び逆スケーリングする段階とを含んで構
    成されることを特徴とする,請求項4に記載のディジタルオーディオデータの逆
    方向デコーディング方法。
  6. 【請求項6】 前記(C)段階は,現在逆変形離散余弦変換(MDCT)さ
    れた後半部の単位ブロックデータと,直後入力されて逆変形離散余弦変換された
    前半部の単位ブロックデータを重畳合算することによって単位ブロック間の連続
    性を維持することを特徴とする,請求項1に記載のディジタルオーディオデータ
    の逆方向デコーディング方法。
  7. 【請求項7】 逆方向入力される最初フレームの後半部単位ブロックに対し
    ては重畳するデータを0に設定することを特徴とする,請求項6に記載のディジ
    タルオーディオデータの逆方向デコーディング方法。
  8. 【請求項8】 圧縮記録されたディジタルオーディオデータの逆方向デコー
    ディング方法において, 前記圧縮記録されたオーディオデータの先頭フレームヘッダを探して読み出す
    (A)段階と, 前記読み出されたヘッダに含まれたフレームの大きさに対する情報を求める(
    B)段階と, 前記求められた大きさ情報に基づいて,直前デコーディングされたフレームに
    先立ったフレームを探索する(C)段階と, 前記探索によって見つけられたフレームを逆方向にデコーディングして時間的
    に逆転されたオーディオ信号で出力する(D)段階と, を含んで構成される,ディジタルオーディオデータの逆方向デコーディング方法
  9. 【請求項9】 前記(D)段階は, 前記見つけられたフレームを構成する複数の単位ブロックデータ全体に対して
    逆量子化する(D1)段階と, 前記逆量子化されたデータに対して,前記単位ブロック間の連続性を維持しな
    がら各周波数帯域別時間データに復元する(D2)段階と, 前記復元された各周波数帯域別時間データを逆順で合成して時間逆転されたオ
    ーディオデータに変換出力する(D3)段階と, を含んで構成される,請求項8に記載のディジタルオーディオデータの逆方向デ
    コーディング方法。
  10. 【請求項10】 圧縮記録されたディジタルオーディオデータの逆方向デコ
    ーディング方法において, 予め確認されたフレームの大きさ情報に基づいて,直前デコーディングされた
    フレームに先立ったフレームを探索する(A)段階と, 前記探索によって見つけられたフレームを逆方向にデコーディングして時間的
    に逆転されたオーディオ信号で出力する(B)段階と, 前記(B)段階でデコーディングされたフレームが,前記圧縮記録されたディ
    ジタルオーディオデータのスタートフレームでない間前記(A)段階と(B)段
    階とを繰り返す(C)段階と, を含んで構成される,ディジタルオーディオデータの逆方向デコーディング方法
  11. 【請求項11】 圧縮記録されたディジタルオーディオデータの逆方向デコ
    ーディング方法において, 圧縮されたディジタルオーディオデータフレームの全体から一部分を最後部分
    から順に抽出する(A)段階と, 抽出されたフレームを順方向にデコーディングする(B)段階と, 前記デコーディングされたデータをデコーディングの順序の逆方向に出力する
    (C)段階と, を含んで構成される,ディジタルオーディオデータの逆方向デコーディング方法
JP2000601744A 1999-02-24 1999-12-11 ディジタルオーディオデータの逆方向デコーディング方法 Pending JP2002538503A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1019990006157A KR100300887B1 (ko) 1999-02-24 1999-02-24 디지털 오디오 데이터의 역방향 디코딩 방법
KR1999/6157 1999-02-24
PCT/KR1999/000764 WO2000051243A1 (en) 1999-02-24 1999-12-11 A backward decoding method of digital audio data

Publications (1)

Publication Number Publication Date
JP2002538503A true JP2002538503A (ja) 2002-11-12

Family

ID=19574975

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000601744A Pending JP2002538503A (ja) 1999-02-24 1999-12-11 ディジタルオーディオデータの逆方向デコーディング方法

Country Status (4)

Country Link
JP (1) JP2002538503A (ja)
KR (1) KR100300887B1 (ja)
AU (1) AU1693400A (ja)
WO (1) WO2000051243A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005531014A (ja) * 2002-06-27 2005-10-13 サムスン エレクトロニクス カンパニー リミテッド ハーモニック成分を利用したオーディオコーディング方法及び装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8692695B2 (en) 2000-10-03 2014-04-08 Realtime Data, Llc Methods for encoding and decoding data
US7386046B2 (en) 2001-02-13 2008-06-10 Realtime Data Llc Bandwidth sensitive data compression and decompression
WO2002086896A1 (en) * 2001-04-20 2002-10-31 Koninklijke Philips Electronics N.V. Method and apparatus for editing data streams
EP1308931A1 (de) * 2001-10-23 2003-05-07 Deutsche Thomson-Brandt Gmbh Decodierung eines codierten digitalen Audio-Signals welches in Header enthaltende Rahmen angeordnet ist
US7610195B2 (en) 2006-06-01 2009-10-27 Nokia Corporation Decoding of predictively coded data using buffer adaptation
KR101390551B1 (ko) * 2012-09-24 2014-04-30 충북대학교 산학협력단 저 지연 변형된 이산 코사인 변환 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08293157A (ja) * 1995-04-21 1996-11-05 Matsushita Electric Ind Co Ltd 可変フレーム長高能率符号化データの記録再生方法
JPH09307508A (ja) * 1996-05-14 1997-11-28 Hitachi Ltd 音声再生装置
JPH10112135A (ja) * 1996-10-08 1998-04-28 Suzuki Motor Corp ディスク再生装置
JPH10222476A (ja) * 1996-10-15 1998-08-21 Samsung Electron Co Ltd Mpegオーディオデコーディング装置およびそのデコーディング方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07334937A (ja) * 1994-04-09 1995-12-22 Victor Co Of Japan Ltd データ記録方法及びディスク媒体
JP3190204B2 (ja) * 1994-04-12 2001-07-23 ユナイテッド・モジュール・コーポレーション Mpeg規格の音声信号デコーダ
ATE246864T1 (de) * 1994-06-06 2003-08-15 Sci Worx Gmbh Verfahren zur codierung/decodierung eines datenstroms
JPH09147496A (ja) * 1995-11-24 1997-06-06 Nippon Steel Corp オーディオ復号装置
US5835375A (en) * 1996-01-02 1998-11-10 Ati Technologies Inc. Integrated MPEG audio decoder and signal processor
JPH10178349A (ja) * 1996-12-19 1998-06-30 Matsushita Electric Ind Co Ltd オーディオ信号の符号化方法および復号方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08293157A (ja) * 1995-04-21 1996-11-05 Matsushita Electric Ind Co Ltd 可変フレーム長高能率符号化データの記録再生方法
JPH09307508A (ja) * 1996-05-14 1997-11-28 Hitachi Ltd 音声再生装置
JPH10112135A (ja) * 1996-10-08 1998-04-28 Suzuki Motor Corp ディスク再生装置
JPH10222476A (ja) * 1996-10-15 1998-08-21 Samsung Electron Co Ltd Mpegオーディオデコーディング装置およびそのデコーディング方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005531014A (ja) * 2002-06-27 2005-10-13 サムスン エレクトロニクス カンパニー リミテッド ハーモニック成分を利用したオーディオコーディング方法及び装置

Also Published As

Publication number Publication date
AU1693400A (en) 2000-09-14
KR100300887B1 (ko) 2001-09-26
WO2000051243A1 (en) 2000-08-31
KR20000056661A (ko) 2000-09-15

Similar Documents

Publication Publication Date Title
KR100634506B1 (ko) 저비트율 부호화/복호화 방법 및 장치
TWI463790B (zh) 用於信號分析與合成之適應性混成變換技術(一)
US7143047B2 (en) Time-scale modification of data-compressed audio information
KR100310216B1 (ko) 다중채널오디오신호를위한코딩장치또는방법
JPH08190764A (ja) ディジタル信号処理方法、ディジタル信号処理装置及び記録媒体
JP2976860B2 (ja) 再生装置
KR20110046498A (ko) 2차원 변환에 의한 오디오 스케일 팩터의 압축
JP2005157390A (ja) 付加情報の挿入されたmpeg−4bsacオーディオビットストリームの符号化方法および復号化方法ならびに符号化装置および復号化装置
US7792681B2 (en) Time-scale modification of data-compressed audio information
KR20100089772A (ko) 오디오 신호의 부호화 및 복호화 방법 및 그 장치
KR100750115B1 (ko) 오디오 신호 부호화 및 복호화 방법 및 그 장치
KR100601748B1 (ko) 디지털 음성 데이터의 부호화 방법 및 복호화 방법
KR100300887B1 (ko) 디지털 오디오 데이터의 역방향 디코딩 방법
US6038369A (en) Signal recording method and apparatus, recording medium and signal processing method
US6463405B1 (en) Audiophile encoding of digital audio data using 2-bit polarity/magnitude indicator and 8-bit scale factor for each subband
JP4470304B2 (ja) 圧縮データ記録装置、記録方法、圧縮データ記録再生装置、記録再生方法および記録媒体
JPH0863901A (ja) 信号記録方法及び装置、信号再生装置、並びに記録媒体
JP3304717B2 (ja) ディジタル信号圧縮方法及び装置
JP3175456B2 (ja) ディジタル信号処理装置
JP2001306097A (ja) 音声符号化方式及び装置、音声復号化方式及び装置、並びに記録媒体
KR100247348B1 (ko) 엠펙 오디오 디코더에서 메모리 사이즈를 최소화하기 위한 회로 및 방법
KR0130875B1 (ko) 펄스 코드 변조(pcm) 파형 오디오 및 엠팩(mpeg) 오디오 신호 재생장치
JP4591610B2 (ja) 音声符号化方法、音声復号方法及び音声信号伝送方法
JP4591611B2 (ja) 音声符号化方法、音声復号方法及び音声信号伝送方法
JP4552210B2 (ja) 音声符号化方法及び音声復号方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100406