JP6654236B2 - オーディオ変換コーディングにおけるオーバーラップ率の信号適応スイッチングのための符号化器、復号器および方法 - Google Patents
オーディオ変換コーディングにおけるオーバーラップ率の信号適応スイッチングのための符号化器、復号器および方法 Download PDFInfo
- Publication number
- JP6654236B2 JP6654236B2 JP2018515442A JP2018515442A JP6654236B2 JP 6654236 B2 JP6654236 B2 JP 6654236B2 JP 2018515442 A JP2018515442 A JP 2018515442A JP 2018515442 A JP2018515442 A JP 2018515442A JP 6654236 B2 JP6654236 B2 JP 6654236B2
- Authority
- JP
- Japan
- Prior art keywords
- group
- audio samples
- time
- domain
- domain audio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 50
- 230000003044 adaptive effect Effects 0.000 title description 11
- 230000003595 spectral effect Effects 0.000 claims description 229
- 230000005236 sound signal Effects 0.000 claims description 54
- 230000004044 response Effects 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 15
- 230000009467 reduction Effects 0.000 claims description 14
- 238000001228 spectrum Methods 0.000 claims description 7
- 230000001256 tonic effect Effects 0.000 claims description 4
- 241000257465 Echinoidea Species 0.000 claims 1
- 239000003292 glue Substances 0.000 claims 1
- 230000006870 function Effects 0.000 description 71
- 230000007704 transition Effects 0.000 description 52
- 238000007792 addition Methods 0.000 description 37
- 238000004458 analytical method Methods 0.000 description 25
- 238000006243 chemical reaction Methods 0.000 description 21
- 230000009466 transformation Effects 0.000 description 17
- 230000015572 biosynthetic process Effects 0.000 description 16
- 238000003786 synthesis reaction Methods 0.000 description 16
- 238000013461 design Methods 0.000 description 14
- 230000002123 temporal effect Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 13
- 238000012360 testing method Methods 0.000 description 10
- 238000013459 approach Methods 0.000 description 9
- 230000008901 benefit Effects 0.000 description 7
- 238000000844 transformation Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 239000002131 composite material Substances 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000013139 quantization Methods 0.000 description 5
- 230000001052 transient effect Effects 0.000 description 5
- 230000000295 complement effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 238000007906 compression Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000009432 framing Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 230000001627 detrimental effect Effects 0.000 description 2
- 238000009472 formulation Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 241000605059 Bacteroidetes Species 0.000 description 1
- 101150095974 MELT gene Proteins 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000000155 melt Substances 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/11—Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/14—Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
- G06F17/147—Discrete orthonormal transforms, e.g. discrete cosine transform, discrete sine transform, and variations therefrom, e.g. modified discrete cosine transform, integer transforms approximating the discrete cosine transform
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0212—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/022—Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/032—Quantisation or dequantisation of spectral components
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/24—Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/22—Mode decision, i.e. based on audio signal content versus external parameters
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Spectroscopy & Molecular Physics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Computational Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Discrete Mathematics (AREA)
- Quality & Reliability (AREA)
- Operations Research (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Description
式中、0≦n≦Nであり、Nは窓の長さである。M=N/2であるため、オーバーラップ率は50%である。MPEG−2アドバンストオーディオコーディング(AAC)仕様([4]、[5]参照)に基づく最近の規格では、この概念はまた、MDCT領域のノイズ充填などのパラメトリックツールも可能になるように拡張されている。例えば、MPEG−H3Dオーディオフレームワーク(例えば[6]、[7]参照)は、例えば、セミパラメトリック変換領域コーディングのために、ある周波数より上のゼロ化スペクトル線のノイズ充填、セミパラメトリックジョイントステレオコーディングのためのステレオ充填([8]、[9]参照)、および、帯域幅拡張のためのインテリジェントギャップフィリング(IGF)([10]を参照)の機能を提供する。
− スペクトル領域オーディオサンプルの第1のグループのスペクトル領域オーディオサンプルから時間領域中間オーディオサンプルの第1のグループを生成することによって、スペクトル領域オーディオサンプルの第1のグループを復号し、スペクトル領域オーディオサンプルの第2のグループのスペクトル領域オーディオサンプルから時間領域中間オーディオサンプルの第2のグループを生成することによって、スペクトル領域オーディオサンプルの第2のグループを復号するステップ。
− 時間領域中間オーディオサンプルの正確に2つのグループをオーバーラップ加算するステップ。上記正確に2つのグループは時間領域中間オーディオサンプルの第1のグループおよび第2のグループであり、上記正確に2つのグループは、5%を超え最大50%のオーバーラップを伴ってオーバーラップ加算され、上記正確に2つのグループの上記オーバーラップ加算の結果として、オーディオ信号の第1の複数の時間領域オーディオ出力サンプルが生成される。
− スペクトル領域オーディオサンプルの第3のグループのスペクトル領域オーディオサンプルから時間領域中間オーディオサンプルの第3のグループを生成することによって、スペクトル領域オーディオサンプルの第3のグループを復号し、スペクトル領域オーディオサンプルの第4のグループのスペクトル領域オーディオサンプルから時間領域中間オーディオサンプルの第4のグループを生成することによって、スペクトル領域オーディオサンプルの第4のグループを復号するステップ。
− オーディオ信号の第1の複数の時間領域オーディオ出力サンプル、オーディオ信号の第2の複数の時間領域オーディオ出力サンプル、およびオーディオ信号の第3の複数の時間領域オーディオ出力サンプルを出力するステップ。
− 少なくとも時間領域中間オーディオサンプルの第3のグループの、時間領域中間オーディオサンプルの第4のグループとの、60%を超え100%未満のオーバーラップを伴ったオーバーラップ加算を使用して、第2の複数の時間領域オーディオ出力サンプルを得るステップ。および:
− 少なくとも時間領域中間オーディオサンプルの第2のグループの、時間領域中間オーディオサンプルの第3のグループとのオーバーラップ加算を用いて第3の複数の時間領域オーディオ出力サンプルを得、または、少なくとも時間領域中間オーディオサンプルの第4のグループの、時間領域中間オーディオサンプルの第1のグループとのオーバーラップ加算を用いて第3の複数の時間領域オーディオ出力サンプルを得るステップ。
− 時間領域オーディオサンプルのグループのうちの第1のグループからスペクトル領域オーディオサンプルのグループのうちの第1のグループを生成し、時間領域オーディオサンプルのグループのうちの第2のグループからスペクトル領域オーディオサンプルのグループのうちの第2のグループを生成するステップ。時間領域オーディオサンプルの第1のグループおよび時間領域オーディオサンプルの第2のグループは、時間領域オーディオサンプルのグループ内で時間的に隣接しており、時間領域オーディオサンプルの第1のグループは、時間領域オーディオサンプルの第2のグループの5%を超え最大50%のオーディオサンプルを含み、時間領域オーディオサンプルの第2のグループは、時間領域オーディオサンプルの第1のグループの5%を超え最大50%のオーディオサンプルを含む。
− 時間領域オーディオサンプルのグループのうちの第3のグループからスペクトル領域オーディオサンプルのグループのうちの第3のグループを生成し、時間領域オーディオサンプルのグループのうちの第4のグループからスペクトル領域オーディオサンプルのグループのうちの第4のグループを生成するステップ。時間領域オーディオサンプルの第3のグループは、時間領域オーディオサンプルの第4のグループの60%を超え100%未満のオーディオサンプルを含み、時間領域オーディオサンプルの第4のグループは、時間領域オーディオサンプルの第3のグループの60%を超え100%未満のオーディオサンプルを含む。
− スペクトル領域オーディオサンプルの第1のグループ、スペクトル領域オーディオサンプルの第2のグループ、スペクトル領域オーディオサンプルの第3のグループおよびスペクトル領域オーディオサンプルの第4のグループを出力するステップ。
順方向(分析)一般化重複変換定義:
逆(合成)一般化重複変換定義:
50%のオーバーラップ率を有する重複変換は、例えば、式(2c)〜(2j)のように定式化することができる。
MDCT−IVと呼ばれる順方向(分析)MDCT、タイプ4、N=L/2:
IMDCT−IVと呼ばれる逆(合成)MDCT、タイプ4、n<L/2:
MDCT−IIと呼ばれる順方向(分析)MDCT、タイプ2、N=L/2:
IMDCT−IIと呼ばれる逆(合成)MDCT、タイプ2、n<L/2:
MDST−IVと呼ばれる順方向(分析)MDST、タイプ4、N=L/2:
IMDST−IVと呼ばれる逆(合成)MDST、タイプ4、n<L/2:
MDST−IIと呼ばれる順方向(分析)MDST、タイプ2、N=L/2:
IMDST−IIと呼ばれる逆(合成)MDST、タイプ2、n<L/2:
および合成出力
が重み付けされる。
は、重複変換のクリティカルサンプリング特性に起因する時間領域エイリアシング(TDA)を示しているため、w(n)は特定の設計制約を満たさなければならない([1]、[2]、[12]参照)。L/Mが偶数であるELTについて、分析および合成についてw(n)が等しく、対称であると仮定すると、これらは、以下によって与えられる。
の
の第1の時間的半部と第2の半部とを組み合わせることによって相殺される。結果として得られる変換間オーバーラップ率は(2−1)/2=50%である。L=4MであるELTの場合、OLAステップは、
の第1の四半部と、
の第2の四半部、
の第3の四半部、および
の第4の四半部を組み合わせなければならず、そのため、率は(4−1)/4=75%まで増大する。
オーバーラップ加算は、当業者には周知である。時間領域オーディオサンプルの2つのグループのオーバーラップ加算は特に、当業者には周知である。
cs(a(n+b)(k+c))
ここで、cs()はcos()またはsin()であり、
nは、時間領域オーディオサンプルの第3のグループまたは第4のグループの時間領域オーディオサンプルのうちの1つの時間インデックスを示し、
kは、スペクトル領域オーディオサンプルの第1のグループもしくは第2のグループまたは第3のグループもしくは第4のグループのスペクトル領域オーディオサンプルのうちの1つのスペクトルインデックスを示し、−0.1≦c≦0.1または0.4≦c≦0.6または0.9≦c≦1.1であり、
a=q/Mであり、
0.9・π≦q≦1.1・πである。
b=(s・M+1)/2であり、
1.5≦s≦4.5である。
cs1(a(n1+b1)(k+c1))
ここで、cs1()はcos()またはsin()であり、
n1は、時間領域オーディオサンプルの第1のグループまたは第2のグループの時間領域オーディオサンプルのうちの1つの時間インデックスを示し、−0.1≦c1≦0.1または0.4≦c1≦0.6または0.9≦c1≦1.1であり、
b1=(M+1)/2である。
表1:
ss.MLT -> tr.MLT -> tr.MELT -> ss.MELT -> ...
_______________________________________________
MDCT-IV MDCT-IV MECT-IV MECT-IV OK
MDCT-IV MDCT-IV MEST-II MECT-II OK
MDCT-IV MDST-II MEST-IV MEST-IV OK
MDCT-IV MDST-II MECT-II MEST-II OK
MDCT-II MDCT-IV MECT-IV MECT-IV OK
MDCT-II MDCT-IV MEST-II MECT-II OK
MDCT-II MDST-II MEST-IV MEST-IV OK
MDCT-II MDST-II MECT-II MEST-II OK
MDST-IV MDST-IV MEST-IV MEST-IV OK
MDST-IV MDST-IV MECT-II MEST-II OK
MDST-IV MDCT-II MECT-IV MECT-IV OK
MDST-IV MDCT-II MEST-II MECT-II OK
ss.MELT -> tr.MELT -> tr.MLT -> ss.MLT -> ...
__________________________________________________
MECT-IV MECT-IV MDCT-IV MDCT-IV
MECT-IV MECT-IV MDCT-IV MDST-II
MECT-IV MECT-IV MDST-II MDST-IV
MECT-IV MECT-IV MDST-II MDCT-II
MECT-II MEST-II MDST-IV MDST-IV
MECT-II MEST-II MDST-IV MDCT-II
MECT-II MEST-II MDCT-II MDCT-IV
MECT-II MEST-II MDCT-II MDST-II
MEST-IV MEST-IV MDST-IV MDST-IV
MEST-IV MEST-IV MDST-IV MDCT-II
MEST-IV MEST-IV MDCT-II MDCT-IV
MEST-IV MEST-IV MDCT-II MDST-II
、または
、または
、または
ここで、
は、スペクトル領域オーディオサンプルの第3のグループまたは第4のグループのスペクトル領域オーディオサンプルの1つを示し、
は時間領域値を示す。
にしたがって、時間領域オーディオサンプルの第3のグループまたは第4のグループの時間領域オーディオサンプルsi(n)に、重みw(n)を適用して、時間領域値
を生成するように構成されている。
cs(a(n+b)(k+c))
ここで、cs()はcos()またはsin()であり、
nは、時間領域オーディオサンプルの第3のグループまたは第4のグループの時間領域オーディオサンプルのうちの1つの時間インデックスを示し、
kは、スペクトル領域オーディオサンプルの第3のグループまたは第4のグループのスペクトル領域オーディオサンプルのうちの1つのスペクトルインデックスを示し、
−0.1≦c≦0.1または0.4≦c≦0.6または0.9≦c≦1.1であり、
a=q/Mであり、
0.9・π≦q≦1.1・πであり、
Mはスペクトル領域オーディオサンプルの第3のグループまたは第4のグループのスペクトル領域オーディオサンプルの数を示し、
b=(s・M+1)/2であり、
1.5≦s≦4.5である。
cs1(a(n1+b1)(k1+c1))
ここで、cs()はcos()またはsin()であり、
nは、時間領域オーディオサンプルの第3のグループまたは第4のグループの時間領域オーディオサンプルの時間領域中間オーディオサンプルのうちの1つの時間インデックスを示し、
kは、スペクトル領域オーディオサンプルの第1のグループもしくは第2のグループまたは第3のグループもしくは第4のグループのスペクトル領域オーディオサンプルのうちの1つのスペクトルインデックスを示し、
−0.1≦c≦0.1または0.4≦c≦0.6または0.9≦c≦1.1であり、
a=q/Mであり、
0.9・π≦q≦1.1・πであり、
Mはスペクトル領域オーディオサンプルの第1のグループもしくは第2のグループまたは第3のグループもしくは第4のグループのスペクトル領域オーディオサンプルの数を示し、
b=(s・M+1)/2であり、
1.5≦s≦4.5である。
cs1(a(n1+b1)(k+c1))
ここで、cs1()はcos()またはsin()であり、
n1は、時間領域中間オーディオサンプルの第1のグループまたは第2のグループの時間領域中間オーディオサンプルのうちの1つの時間インデックスを示し、−0.1≦c1≦0.1または0.4≦c1≦0.6または0.9≦c1≦1.1であり、
b1=(M+1)/2である。
、または
、または
、または
ここで、
は、スペクトル領域オーディオサンプルの第3のグループまたは第4のグループのスペクトル領域オーディオサンプルの1つを示し、
は時間領域値を示す。
にしたがって、時間領域値
に、重みw(n)を適用して、時間領域中間オーディオサンプルの第3のグループまたは第4のグループの時間領域中間オーディオサンプル
を生成するように構成されている。
Mは、スペクトル領域オーディオサンプルの第1のグループもしくは第2のグループまたは第3のグループもしくは第4のグループのスペクトル領域オーディオサンプルの数を示し、
kは0≦k<Mの数であり、
dは実数であり、
t=(L/2)+kまたはt=(L/2)−1−kである。
ここで、t1=(N/2)+kまたはt1=(N/2)−1−kであり、
Nは、時間領域オーディオサンプルの第1のグループまたは第2のグループの時間領域オーディオサンプルの数を示す。
0.3≦b0≦0.4、−0.6≦b1≦−0.4、0.01≦b2≦0.2であり、
0.001≦c1≦0.03であり、0.000001≦c2≦0.0005であり、0.000001≦c3≦0.00002である。
Mは、スペクトル領域オーディオサンプルの第1のグループもしくは第2のグループまたは第3のグループもしくは第4のグループのスペクトル領域オーディオサンプルの数を示し、
kは0≦k<Mの数であり、
dは実数であり、
t=(L/2)+kまたはt=(L/2)−1−kである。
ここで、
ここで、t1=(N/2)+kまたはt1=(N/2)−1−kであり、
Nは、時間領域中間オーディオサンプルの第1のグループまたは第2のグループの時間領域中間オーディオサンプルの数を示す。
0.3≦b0≦0.4、−0.6≦b1≦−0.4、0.01≦b2≦0.2であり、
0.001≦c1≦0.03であり、0.000001≦c2≦0.0005であり、0.000001≦c3≦0.00002である。
((4061/4097)≦d≦(4061/4095))を使用し、システムの符号化器310は、遷移窓関数
((4095/4061)≦d≦(4097/4061))を使用する。
k、csは、
を使用して式(2)および逆ELT(1)のように定義され、それに応じて適応される。(上記のようにcs()はcos()またはsin()であってもよい)。
図5のような切り替えについてt=(L/2)+kであり、または、逆ELT−MLT変換についてはt=(L/2)−1−kである。ELTおよびMLT遷移重み付けの両方について、式(5)を使用して重要な四半部511,512,521,522(図5に示す)および重要な四半部631,632(図6に示す)を取得することによって、定常状態関数の選択のみを残して、一時的な窓の定義が完了する。
0≦tLLは、窓の時間的サンプルを示し、
は、完全再構成制約を強制するように選択されている([11]、[12]、[13]、[14]参照)。直感的に、Blackmanの窓([24]参照)を導出するために使用することができる以下のようなより多くのサイドローブ減衰を有する関数が、同様に適用可能と思われる。
ここで、b2>0、残念なことに、b0の値にかかわらず、このような窓クラスで完全な再構成を達成することはできないことが示され得る。
bkは上記の通りであり、b2≦3/8の任意の選択についての得られる形状は、完全な再構成が任意に接近するように修正することができる。特に、阻止帯域レベルを低くすること、および、完全再構成条件に加えて、アイソトーン左半部窓傾斜、および、したがってアンチトーン右半部窓傾斜の制限を目標とすると、K=3、b2=0.176758、ならびに、これらの値に依存するb0=0.3303および、
c1=0.023663、c2=0.0004243、c3=0.00001526 (9)
を使用することによって、4・10−6を下回る誤差で完全な再構成を近似することができる。
k=0,1、...、M−1であり、tは、KとLの両方を使用して以前に定義した通りである。これにより、率切り替え遷移窓処理に関して、いわゆる双直交手法が可能となり、異なる重要な窓四半部が、分析および合成変換のために使用され得る。より具体的には、TDACを達成し、したがって完全な再構成を達成するために、wtr(t)は分析(符号化器)側でd=d’を使用し、合成(復号器)側では、wtr(t)は、逆、すなわち、d=1/d’を適用することができる。特定の定常状態ELT窓welt、好ましくは本明細書の式(8)および(9)によって導出される窓を所与として、d’は以下の2つの考慮事項の両方に基づいて決定されることが好ましい。
d’=4096/4061→1/d’=4061/4096によって近似することができる。
KBD=カイザー−ベッセル導出
以下では、実施されたコーデック統合の評価について説明する。切り替え率提案のブラインド主観評価は、信号適応設計の利点を確認した。図8および図9が参照される。
窓の長さN=2Mであり、0≦k<Mである。同様に、順方向MDSTは、余弦項の代わりに正弦を使用して定義される。
実施形態では、時間的長さおよび位相オフセットを変更することによって、これはMELTをもたらす。
これは、増大した窓長さL=4Mおよびコサイン変調を伴う。当然ながら、サイン変調された対応物も指定することができる。
逆(合成)MELT変種は、例えば、式(11c)を適用するコサインバンクについては以下のとおりであり、
サインバンクについては以下のとおりである。
ここで、’はスペクトル処理を表し、0≦n<Lである。
クロネッカーデルタδ(0)=1である、タイプIIコサイン変調MELTバージョンと、タイプIIサインベースMELTであって、
ナイキスト係数のスケーリングのためのk’=M−1−kである、タイプIIサインベースMELTとの交互使用を介した偶数積み重ねシステムを考案することである。
オーバーラップを50%に縮小するときの最初のMDCT/MDST窓(同じフレームについての図15(b)内の太線形状)について、以下のように定義することができる。
w’eltおよびw’mltの補完、すなわち、50%オーバーラップに切り替えるときの最後のMELT窓、および75%オーバーラップに戻って切り替わる(図15のフレームi−2)間の最後のMDCT/MDST窓はそれぞれ、式(12)および(13)の時間的逆転である。重要な窓部分(図14も参照)で使用されるkは、上記のように指定され、一方で、weltおよびwmltはそれぞれ、定常状態MELTおよびMDCT/MDSTの基礎となる窓関数を示す。ELTにも適用可能である([12]参照)前者について、ブロッキングアーチファクトを防止する改善された設計が上記で提供されている。
ここで、Mは、スペクトル領域オーディオサンプルの第1のグループまたは第2のグループまたは第3のグループまたは第4のグループのスペクトル領域オーディオサンプルの数を示し、kは0≦k<Mである数であり、dは実数であり、nは整数であり、オーバーラップ加算器130は、第3の窓関数w’mltに応じて、時間領域中間オーディオサンプルの第1のグループおよび第2のグループおよび第3のグループおよび第4のグループのうちの少なくとも1つを生成するように構成される。
ここで、Mは、スペクトル領域オーディオサンプルの第1のグループまたは第2のグループまたは第3のグループまたは第4のグループのスペクトル領域オーディオサンプルの数を示し、kは0≦k<Mである数であり、dは実数であり、nは整数であり、第1の符号化モジュール210および第2の符号化モジュール220のうちの少なくとも1つは、時間領域オーディオサンプルの第1のグループおよび第2のグループおよび第3のグループおよび第4のグループのうちの少なくとも1つに、第3の窓関数w’mltを適用するように構成される。
ここで、Mは、スペクトル領域オーディオサンプルの第1のグループまたは第2のグループまたは第3のグループまたは第4のグループのスペクトル領域オーディオサンプルの数を示し、kは0≦k<Mである数であり、dは実数であり、nは整数であり、オーバーラップ加算器130は、第2の窓関数wssに応じて、時間領域中間オーディオサンプルの第1のグループおよび第2のグループおよび第3のグループおよび第4のグループのうちの少なくとも1つを生成するように構成される。
ここで、Mは、スペクトル領域オーディオサンプルの第1のグループまたは第2のグループまたは第3のグループまたは第4のグループのスペクトル領域オーディオサンプルの数を示し、kは0≦k<Mである数であり、dは実数であり、nは整数であり、第1の符号化モジュール210および第2の符号化モジュール220のうちの少なくとも1つは、時間領域オーディオサンプルの第1のグループおよび第2のグループおよび第3のグループおよび第4のグループのうちの少なくとも1つに、第2の窓関数wssを適用するように構成される。
Claims (57)
- 複数のスペクトル領域オーディオサンプルを復号するための復号器であって、
前記スペクトル領域オーディオサンプルの第1のグループの前記スペクトル領域オーディオサンプルから時間領域中間オーディオサンプルの第1のグループを生成することによって、前記スペクトル領域オーディオサンプルの前記第1のグループを復号し、前記スペクトル領域オーディオサンプルの第2のグループの前記スペクトル領域オーディオサンプルから時間領域中間オーディオサンプルの第2のグループを生成することによって、前記スペクトル領域オーディオサンプルの前記第2のグループを復号するための第1の復号モジュール(110)と、
オーバーラップ加算器(130)であって、前記オーバーラップ加算器(130)は、時間領域中間オーディオサンプルの正確に2つのグループのオーバーラップ加算を行うように構成されており、前記正確に2つのグループは、時間領域中間オーディオサンプルの前記第1のグループおよび前記第2のグループであり、前記オーバーラップ加算器(130)は、前記正確に2つのグループを、5%を超え最大50%のオーバーラップを伴ってオーバーラップ加算するように構成されており、前記正確に2つのグループの前記オーバーラップ加算の結果として、オーディオ信号の第1の複数の時間領域オーディオ出力サンプルがもたらされる、オーバーラップ加算器(130)と、
前記スペクトル領域オーディオサンプルの第3のグループの前記スペクトル領域オーディオサンプルから時間領域中間オーディオサンプルの第3のグループを生成することによって、前記スペクトル領域オーディオサンプルの前記第3のグループを復号し、前記スペクトル領域オーディオサンプルの第4のグループの前記スペクトル領域オーディオサンプルから時間領域中間オーディオサンプルの第4のグループを生成することによって、前記スペクトル領域オーディオサンプルの前記第4のグループを復号するための第2の復号モジュール(120)と、
前記オーディオ信号の前記第1の複数の時間領域オーディオ出力サンプル、前記オーディオ信号の第2の複数の時間領域オーディオ出力サンプル、および、前記オーディオ信号の第3の複数の時間領域オーディオ出力サンプルを出力するための出力インターフェース(140)と
を備え、
前記オーバーラップ加算器(130)は、少なくとも前記時間領域中間オーディオサンプルの第3のグループと、前記時間領域中間オーディオサンプルの第4のグループとの、60%を超え100%未満のオーバーラップを伴ったオーバーラップ加算を使用して、前記第2の複数の時間領域オーディオ出力サンプルを得るように構成されており、
前記オーバーラップ加算器(130)は、少なくとも前記時間領域中間オーディオサンプルの第2のグループと、前記時間領域中間オーディオサンプルの第3のグループとのオーバーラップ加算を使用して前記第3の複数の時間領域オーディオ出力サンプルを得るように構成されており、または、前記オーバーラップ加算器(130)は、少なくとも前記時間領域中間オーディオサンプルの第4のグループと、前記時間領域中間オーディオサンプルの第1のグループとのオーバーラップ加算を使用して前記第3の複数の時間領域オーディオ出力サンプルを得るように構成されている、復号器。 - 前記オーディオ信号の前記第1の複数の時間領域オーディオ出力サンプルは、時間的に前記オーディオ信号の前記第3の複数の時間領域オーディオ出力サンプルに先行し、前記オーディオ信号の前記第3の複数の時間領域オーディオ出力サンプルは、時間的に前記オーディオ信号の前記第2の複数の時間領域オーディオ出力サンプルに先行し、前記オーバーラップ加算器(130)は、少なくとも前記時間領域中間オーディオサンプルの第2のグループと、前記時間領域中間オーディオサンプルの第3のグループとのオーバーラップ加算を使用して前記第3の複数の時間領域オーディオ出力サンプルを取得するように構成されており、または
前記オーディオ信号の前記第2の複数の時間領域オーディオ出力サンプルは、時間的に前記オーディオ信号の前記第3の複数の時間領域オーディオ出力サンプルに先行し、前記オーディオ信号の前記第3の複数の時間領域オーディオ出力サンプルは、時間的に前記オーディオ信号の前記第1の複数の時間領域オーディオ出力サンプルに先行し、前記オーバーラップ加算器(130)は、少なくとも前記時間領域中間オーディオサンプルの第2のグループと、前記時間領域中間オーディオサンプルの第3のグループとのオーバーラップ加算を使用して前記第3の複数の時間領域オーディオ出力サンプルを取得するように構成されている、請求項1に記載の復号器。 - 前記オーバーラップ加算器(130)は、前記時間領域中間オーディオサンプルの第1のグループを、前記時間領域中間オーディオサンプルの第2のグループと、正確に50%のオーバーラップを伴ってオーバーラップ加算するように構成されており、前記オーバーラップ加算器(130)は、少なくとも前記時間領域中間オーディオサンプルの第3のグループを、前記時間領域中間オーディオサンプルの第4のグループと、少なくとも75%で100%未満のオーバーラップを伴ってオーバーラップ加算するように構成されている、請求項1または2に記載の復号器。
- 前記第1の復号モジュール(110)は、逆修正離散コサイン変換または逆修正離散サイン変換を実行するように構成されており、
前記第2の復号モジュール(120)は、逆拡張重複変換または逆修正拡張重複変換を実行するように構成されている、請求項3に記載の復号器。 - 前記オーバーラップ加算器(130)は、少なくとも前記時間領域中間オーディオサンプルの第3のグループを、前記時間領域中間オーディオサンプルの第4のグループと、正確に75%のオーバーラップを伴ってオーバーラップ加算するように構成されている、請求項3または4に記載の復号器。
- 前記時間領域中間オーディオサンプルの第1のグループの時間領域中間オーディオサンプルの第1の数が、前記時間領域中間オーディオサンプルの第2のグループの時間領域中間オーディオサンプルの第2の数と等しく、
前記時間領域中間オーディオサンプルの第3のグループの時間領域中間オーディオサンプルの第3の数が、前記時間領域中間オーディオサンプルの第4のグループの時間領域中間オーディオサンプルの第4の数と等しく、
前記第2の数は、前記第3の数を2で除算した数に等しく、前記第1の数は、前記第4の数を2で除算した数に等しい、請求項1〜5のいずれか一項に記載の復号器。 - 前記第2の復号モジュール(120)は、さらに、前記スペクトル領域オーディオサンプルの第5のグループの前記スペクトル領域オーディオサンプルから時間領域中間オーディオサンプルの第5のグループを生成することによって、前記スペクトル領域オーディオサンプルの第5のグループを復号し、前記スペクトル領域オーディオサンプルの第6のグループの前記スペクトル領域オーディオサンプルから時間領域中間オーディオサンプルの第6のグループを生成することによって、前記スペクトル領域オーディオサンプルの第6のグループを復号するように構成されており、
前記オーバーラップ加算器(130)は、前記第2の複数の時間領域オーディオ出力サンプルを取得するために、前記時間領域中間オーディオサンプルの前記第3のグループまたは前記第4のグループが、前記時間領域中間オーディオサンプルの第5グループの少なくとも75%かつ100%未満とオーバーラップし、前記時間領域中間オーディオサンプルの第5のグループが、前記時間領域中間オーディオサンプルの第6グループの少なくとも75%かつ100%未満とオーバーラップするように、前記時間領域中間オーディオサンプルの第3のグループおよび前記時間領域中間オーディオサンプルの第4のグループおよび前記時間領域中間オーディオサンプルの第5のグループおよび前記時間領域中間オーディオサンプルの第6のグループをオーバーラップ加算するように構成されている、請求項1〜6のいずれか一項に記載の復号器。 - 前記第2の復号モジュール(120)は、以下に応じて、前記時間領域中間オーディオサンプルの第3のグループおよび前記時間領域中間オーディオサンプルの第4のグループのうちの少なくとも1つを生成するように構成されており、
cs(a(n+b)(k+c))
ここで、cs()はcos()またはsin()であり、
nは、前記時間領域中間オーディオサンプルの前記第3のグループまたは前記第4のグループに属する前記時間領域中間オーディオサンプルのうちの1つの時間インデックスを示し、
kは、前記スペクトル領域オーディオサンプルの前記第1のグループ、前記第2のグループ、前記第3のグループまたは前記第4のグループに属する前記スペクトル領域オーディオサンプルのうちの1つのスペクトルインデックスを示し、
−0.1≦c≦0.1または0.4≦c≦0.6または0.9≦c≦1.1であり、
a=q/Mであり、
0.9・π≦q≦1.1・πであり、
Mは前記スペクトル領域オーディオサンプルの前記第1のグループ、前記第2のグループ、前記第3のグループまたは前記第4のグループに属するスペクトル領域オーディオサンプルの数を示し、
b=(s・M+1)/2であり、
1.5≦s≦4.5であり、cは第1のエイリアシング低減係数、qは第2のエイリアシング低減係数、sは第3のエイリアシング低減係数である、請求項1〜7のいずれか一項に記載の復号器。 - 前記第1の復号モジュール(110)は、以下に応じて、前記時間領域中間オーディオサンプルの第1のグループおよび前記時間領域中間オーディオサンプルの第2のグループのうちの少なくとも1つを生成するように構成されており、
cs1(a(n1+b1)(k+c1))
ここで、cs1()はcos()またはsin()であり、
kは、前記スペクトル領域オーディオサンプルの前記第1のグループまたは前記第2のグループに属する前記スペクトル領域オーディオサンプルのうちの1つのスペクトルインデックスを示し、
n1は、前記時間領域中間オーディオサンプルの前記第1のグループまたは前記第2のグループに属する前記時間領域中間オーディオサンプルのうちの1つの時間インデックスを示し、−0.1≦c1≦0.1または0.4≦c1≦0.6または0.9≦c1≦1.1であり、
b1=(M+1)/2であり、
Mは前記スペクトル領域オーディオサンプルの前記第1のグループまたは前記第2のグループに属するスペクトル領域オーディオサンプルの数を示す、請求項8に記載の復号器。 - c=0、またはc=0.5、またはc=1であり、
q=πであり、
s=3である、請求項8または9に記載の復号器。 - q=πであり、s=3であり、cs()はcos()であり、cs1()はcos()であり、c=0.5であり、c1=0.5であり、または
q=πであり、s=3であり、cs()はsin()であり、cs1()はcos()であり、c=1であり、c1=0であり、または
q=πであり、s=3であり、cs()はsin()であり、cs1()はsin()であり、c=0.5であり、c1=1であり、または
q=πであり、s=3であり、cs()はcos()であり、cs1()はsin()であり、c=0であり、c1=1であり、または
q=πであり、s=3であり、cs()はsin()であり、cs1()はsin()であり、c=0.5であり、c1=0.5であり、または
q=πであり、s=3であり、cs()はcos()であり、cs1()はsin()であり、c=0であり、c1=0.5であり、または
q=πであり、s=3であり、cs()はcos()であり、cs1()はcos()であり、c=0.5であり、c1=0であり、または
q=πであり、s=3であり、cs()はsin()であり、cs1()はcos()であり、c=1であり、c1=0である、請求項9に記載の復号器。 - 前記第2の復号モジュール120は、以下に応じて、前記時間領域中間オーディオサンプルの第3のグループおよび前記時間領域中間オーディオサンプルの第4のグループのうちの少なくとも1つを生成するように構成されており、
、または
、または
、または
ここで、
は、前記スペクトル領域オーディオサンプルの前記第3のグループまたは前記第4のグループに属する前記スペクトル領域オーディオサンプルの1つを示し、
は時間領域値を示し、
Mは前記スペクトル領域オーディオサンプルの前記第1のグループ、前記第2のグループ、前記第3のグループまたは前記第4のグループに属するスペクトル領域オーディオサンプルの数を示す、請求項10に記載の復号器。 - 前記オーバーラップ加算器(130)は、前記時間領域中間オーディオサンプルの第2のグループのすべての時間領域中間オーディオサンプルが、前記時間領域中間オーディオサンプルの第3のグループの時間領域中間オーディオサンプルとオーバーラップするように、少なくとも前記時間領域中間オーディオサンプルの第2のグループを、前記時間領域中間オーディオサンプルの第3のグループとオーバーラップ加算するように構成されており、または、
前記オーバーラップ加算器(130)は、前記時間領域中間オーディオサンプルの第1のグループのすべての時間領域中間オーディオサンプルが、前記時間領域中間オーディオサンプルの第4のグループの時間領域中間オーディオサンプルとオーバーラップするように、少なくとも前記時間領域中間オーディオサンプルの第4のグループを、前記時間領域中間オーディオサンプルの第1のグループとオーバーラップ加算するように構成されている、請求項1〜13のいずれか一項に記載の復号器。 - weltは第1の窓関数であり、
wtrは第2の窓関数であり、
前記第2の窓関数の一部は以下に従って定義され、
Mは、前記スペクトル領域オーディオサンプルの前記第1のグループ、前記第2のグループ、前記第3のグループまたは前記第4のグループに属するスペクトル領域オーディオサンプルの数を示し、
kは0≦k<Mの数であり、
dは実数であり、
t=(L/2)+kまたはt=(L/2)−1−kであり、
Lは、前記時間領域中間オーディオサンプルの前記第3のグループまたは前記第4のグループに属する時間領域中間オーディオサンプルの数を示し、
前記オーバーラップ加算器(130)は、少なくとも前記時間領域中間オーディオサンプルの第2のグループを前記時間領域中間オーディオサンプルの第3のグループとオーバーラップ加算するように構成され、前記第2の復号モジュール(120)は、前記第1の窓関数weltに応じて前記時間領域中間オーディオサンプルの第4のグループを生成するように構成されており、前記第2の復号モジュール(120)は、前記第2の窓関数wtrに応じて前記時間領域中間オーディオサンプルの第3のグループを生成するように構成されており、または
前記オーバーラップ加算器(130)は、少なくとも前記時間領域中間オーディオサンプルの第4のグループを前記時間領域中間オーディオサンプルの第1のグループとオーバーラップ加算するように構成され、前記第2の復号モジュール(120)は、前記第1の窓関数weltに応じて前記時間領域中間オーディオサンプルの第3のグループを生成するように構成されており、前記第2の復号モジュール(120)は、前記第2の窓関数wtrに応じて前記時間領域中間オーディオサンプルの第4のグループを生成するように構成されている、請求項1〜14のいずれか一項に記載の復号器。 - wtr1は第3の窓関数であり、前記第3の窓関数の一部は以下に従って定義され、
ここで、t1=(N/2)+kまたはt1=(N/2)−1−kであり、
Nは、前記時間領域中間オーディオサンプルの前記第1のグループまたは前記第2のグループの時間領域中間オーディオサンプルの数を示し、
前記オーバーラップ加算器(130)は、少なくとも前記時間領域中間オーディオサンプルの第2のグループを前記時間領域中間オーディオサンプルの第3のグループとオーバーラップ加算するように構成され、前記第1の復号モジュール(110)は、前記第3の窓関数wtr1に応じて前記時間領域中間オーディオサンプルの第2のグループを生成するように構成されており、または
前記オーバーラップ加算器(130)は、少なくとも前記時間領域中間オーディオサンプルの第4のグループを前記時間領域中間オーディオサンプルの第1のグループとオーバーラップ加算するように構成され、前記第1の復号モジュール(110)は、前記第3の窓関数wtr1に応じて前記時間領域中間オーディオサンプルの第1のグループを生成するように構成されている、請求項15に記載の復号器。 - K=3であり、
0.3≦b0≦0.4であり、
−0.6≦b1≦−0.4であり、
0.01≦b2≦0.2であり、
0.001≦c1≦0.03であり、
0.000001≦c2≦0.0005であり、
0.000001≦c3≦0.00002である、請求項17に記載の復号器。 - weltは第1の窓関数であり、
wmltは第2の窓関数であり、
w’mltは第3の窓関数であり、前記第3の窓関数は以下に従って定義され、
ここで、Mは、前記スペクトル領域オーディオサンプルの前記第1のグループまたは前記第2のグループまたは前記第3のグループまたは前記第4のグループのスペクトル領域オーディオサンプルの数を示し、
kは0≦k<Mである数であり、
dは実数であり、
nは整数であり、
前記オーバーラップ加算器(130)は、前記第3の窓関数w’mltに応じて、前記時間領域中間オーディオサンプルの前記第1のグループおよび前記第2のグループおよび前記第3のグループおよび前記第4のグループのうちの少なくとも1つを生成するように構成されている、請求項1〜14のいずれか一項に記載の復号器。 - weltは第1の窓関数であり、
wssは第2の窓関数であり、
前記第2の窓関数は以下に従って定義され、
ここで、Mは、前記スペクトル領域オーディオサンプルの前記第1のグループまたは前記第2のグループまたは前記第3のグループまたは前記第4のグループのスペクトル領域オーディオサンプルの数を示し、
kは0≦k<Mである数であり、
dは実数であり、
nは整数であり、
前記オーバーラップ加算器(130)は、前記第2の窓関数wssに応じて、前記時間領域中間オーディオサンプルの前記第1のグループおよび前記第2のグループおよび前記第3のグループおよび前記第4のグループのうちの少なくとも1つを生成するように構成されている、請求項1〜14のいずれか一項に記載の復号器。 - 0.8≦d≦1.25
である、請求項15〜20のいずれか一項に記載の復号器。 - d=4061/4096
である、請求項21に記載の復号器。 - d=1である、請求項15〜20のいずれか一項に記載の復号器。
- 前記復号器は、前記複数のスペクトル領域オーディオサンプルの一部分が前記第1の復号モジュール(110)によって復号されるべきかまたは前記第2の復号モジュール(120)によって復号されるべきかを示す復号情報を受信するように構成され、
前記復号器は、前記復号情報に応じて前記第1の復号モジュール(110)または前記第2の復号モジュール(120)のいずれかを利用して前記時間領域中間オーディオサンプルの前記第1のグループまたは前記第2のグループまたは前記第3のグループまたは前記第4のグループを得ることによって、前記複数のスペクトル領域オーディオサンプルの前記一部分を復号するように構成されている、請求項1〜23のいずれか一項に記載の復号器。 - 前記復号器は、第1のビットおよび第2のビットを受信するように構成されており、前記第1のビットおよび前記第2のビットはともに、第1のビット値組み合わせ、または、前記第1のビット値組み合わせとは異なる第2のビット値組み合わせ、または、前記第1のビット値組み合わせおよび前記第2のビット値組み合わせとは異なる第3のビット値組み合わせ、または前記第1のビット値組み合わせおよび前記第2のビット値組み合わせおよび前記第3のビット値組み合わせとは異なる第4のビット値組み合わせを有し、
前記復号器は、前記第1のビットおよび前記第2のビットがともに前記第1のビット値組み合わせを有する場合に、前記時間領域中間オーディオサンプルのうちの前記第1のグループまたは前記第2のグループを得るために、前記第1の復号モジュール(110)を利用することによって、カイザー−ベッセル関数に応じて前記複数のスペクトル領域オーディオサンプルの一部を復号するように構成されており、
前記復号器は、前記第1のビットおよび前記第2のビットがともに前記第2のビット値組み合わせを有する場合に、前記時間領域中間オーディオサンプルのうちの前記第1のグループまたは前記第2のグループを得るために、前記第1の復号モジュール(110)を利用することによって、サイン関数またはコサイン関数に応じて前記複数のスペクトル領域オーディオサンプルの一部を復号するように構成されており、
前記復号器は、前記第1のビットおよび前記第2のビットがともに前記第3のビット値組み合わせを有する場合に、前記時間領域中間オーディオサンプルの前記第1のグループまたは前記第2のグループを得るために、前記第1の復号モジュール(110)を利用することによって、前記複数のスペクトル領域オーディオサンプルの一部を復号するように構成されており、
前記復号器は、前記第1のビットおよび前記第2のビットがともに第4のビット値組み合わせを有する場合に、前記時間領域中間オーディオサンプルのうちの前記第3のグループまたは前記第4のグループを得るために、前記第2の復号モジュール(120)を利用することによって、前記複数のスペクトル領域オーディオサンプルの前記一部を復号するように構成されている、請求項1〜23のいずれか一項に記載の復号器。 - 時間領域オーディオサンプルの複数のグループからスペクトル領域オーディオサンプルの複数のグループを生成することによって、オーディオ信号の複数の時間領域オーディオサンプルを符号化するための符号化器であって、
前記時間領域オーディオサンプルのグループのうちの第1のグループから前記スペクトル領域オーディオサンプルのグループのうちの第1のグループを生成し、前記時間領域オーディオサンプルのグループのうちの第2のグループから前記スペクトル領域オーディオサンプルのグループのうちの第2のグループを生成するための第1の符号化モジュール(210)であり、前記時間領域オーディオサンプルの第1のグループおよび前記時間領域オーディオサンプルの第2のグループは、前記時間領域オーディオサンプルのグループ内で時間的に隣接しており、前記時間領域オーディオサンプルの前記第1のグループは、前記時間領域オーディオサンプルの前記第2のグループの前記オーディオサンプルの5%を超え50%以下を含み、前記時間領域オーディオサンプルの前記第2のグループは、前記時間領域オーディオサンプルの前記第1のグループのオーディオサンプルの5%を超え50%以下を含む、第1の符号化モジュール(210)と、
前記時間領域オーディオサンプルの前記グループのうちの第3のグループから前記スペクトル領域オーディオサンプルの前記グループのうちの第3のグループを生成し、前記時間領域オーディオサンプルの前記グループのうちの第4のグループから前記スペクトル領域オーディオサンプルの前記グループのうちの第4のグループを生成するための第2の符号化モジュール(220)であり、前記時間領域オーディオサンプルの前記第3のグループは、前記時間領域オーディオサンプルの前記第4のグループの前記オーディオサンプルの60%を超え100%未満を含み、前記時間領域オーディオサンプルの前記第4のグループは、前記時間領域オーディオサンプルの前記第3のグループの前記オーディオサンプルの60%を超え100%未満を含む、第2の符号化モジュール(220)と、
前記スペクトル領域オーディオサンプルの第1のグループ、前記スペクトル領域オーディオサンプルの第2のグループ、前記スペクトル領域オーディオサンプルの第3のグループおよび前記スペクトル領域オーディオサンプルの第4のグループを出力するための出力モジュール(230)と
を備え、
前記時間領域オーディオサンプルの前記第3のグループは、前記時間領域オーディオサンプルの前記第2のグループのオーディオサンプルを含み、または、前記時間領域オーディオサンプルの前記第4のグループは、前記時間領域オーディオサンプルの前記第1のグループのオーディオサンプルを含む、符号化器。 - 前記時間領域オーディオサンプルの前記第1のグループは、時間的に前記時間領域オーディオサンプルの前記第2のグループに先行し、前記時間領域オーディオサンプルの前記第2のグループは、時間的に前記時間領域オーディオサンプルの前記第3のグループに先行し、前記時間領域オーディオサンプルの前記第3のグループは、時間的に前記時間領域オーディオサンプルの前記第4のグループに先行し、前記時間領域オーディオサンプルの前記第3のグループは、前記時間領域オーディオサンプルの前記第2のグループのオーディオサンプルを含み、または
前記時間領域オーディオサンプルの前記第3のグループは、時間的に前記時間領域オーディオサンプルの前記第4のグループに先行し、前記時間領域オーディオサンプルの前記第4のグループは、時間的に前記時間領域オーディオサンプルの前記第1のグループに先行し、前記時間領域オーディオサンプルの前記第1のグループは、時間的に前記時間領域オーディオサンプルの前記第2のグループに先行し、前記時間領域オーディオサンプルの前記第4のグループは、前記時間領域オーディオサンプルの前記第1のグループのオーディオサンプルを含む、請求項26に記載の符号化器。 - 前記時間領域オーディオサンプルの前記第1のグループは、前記時間領域オーディオサンプルの第2のグループの正確に50%の前記オーディオサンプルを含み、前記時間領域オーディオサンプルの第2のグループは、前記時間領域オーディオサンプルの第1のグループの正確に50%の前記オーディオサンプルを含み、
前記時間領域オーディオサンプルの前記第3のグループは、前記時間領域オーディオサンプルの前記第4のグループの少なくとも75%で100%未満の前記オーディオサンプルを含み、前記時間領域オーディオサンプルの前記第4のグループは、前記時間領域オーディオサンプルの前記第3のグループの少なくとも75%で100%未満の前記オーディオサンプルを含む、請求項26または27に記載の符号化器。 - 前記第1の符号化モジュール(210)は、修正離散コサイン変換または修正離散サイン変換を実行するように構成されており、
前記第2の符号化モジュール(220)は、拡張重複変換または修正拡張重複変換を実行するように構成されている、請求項28に記載の符号化器。 - 前記時間領域オーディオサンプルの前記第3のグループは、前記時間領域オーディオサンプルの前記第4のグループの正確に75%の前記オーディオサンプルを含み、前記時間領域オーディオサンプルの前記第4のグループは、前記時間領域オーディオサンプルの前記第3のグループの正確に75%の前記オーディオサンプルを含む、請求項28または29に記載の符号化器。
- 前記時間領域オーディオサンプルの前記第1のグループの時間領域オーディオサンプルの第1の数が、前記時間領域オーディオサンプルの前記第2のグループの時間領域オーディオサンプルの第2の数と等しく、
前記時間領域オーディオサンプルの前記第3のグループの時間領域オーディオサンプルの第3の数が、前記時間領域オーディオサンプルの前記第4のグループの時間領域オーディオサンプルの第4の数と等しく、
前記第2の数は、前記第3の数を2で除算した数に等しく、前記第1の数は、前記第4の数を2で除算した数に等しい、請求項26〜30のいずれか一項に記載の符号化器。 - 前記第2の符号化モジュール(220)は、前記時間領域オーディオサンプルの前記グループのうちの第5のグループから前記スペクトル領域オーディオサンプルのグループのうちの第5のグループを生成するように構成されており、前記第2の符号化モジュール(220)は、前記時間領域オーディオサンプルの前記グループのうちの第6のグループから前記スペクトル領域オーディオサンプルのグループのうちの第6のグループを生成するように構成されており、
前記時間領域オーディオサンプルの前記第3のグループまたは前記第4のグループは、前記時間領域オーディオサンプルの前記第5のグループの少なくとも75%かつ100%未満の前記オーディオサンプルを含み、前記時間領域オーディオサンプルの前記第5のグループは、前記時間領域オーディオサンプルの前記第3のグループまたは前記第4のグループの少なくとも75%かつ100%未満の前記オーディオサンプルを含み、前記時間領域オーディオサンプルの前記第5のグループは、前記時間領域オーディオサンプルの前記第6のグループの少なくとも75%かつ100%未満の前記オーディオサンプルを含み、前記時間領域オーディオサンプルの前記第6のグループは、前記時間領域オーディオサンプルの前記第5のグループの少なくとも75%かつ100%未満の前記オーディオサンプルを含み、
前記出力モジュール(230)は、前記スペクトル領域オーディオサンプルの第5のグループ、および、前記スペクトル領域オーディオサンプルの第6のグループをさらに出力するように構成されている、請求項26〜31のいずれか一項に記載の符号化器。 - 前記符号化器は、前記時間領域オーディオ信号の一部の信号特性に応じて、スペクトル領域オーディオサンプルの現在のグループを生成するために、前記第1の符号化モジュール(210)または前記第2の符号化モジュール(220)のいずれかを利用するように構成されている、請求項26〜32のいずれか一項に記載の符号化器。
- 前記符号化器は、前記複数の時間領域オーディオサンプルからなる現在のグループが非定常領域および非調性領域の少なくとも1つを含むか、または前記少なくとも1つを含まないかを信号特性として決定するように構成されており、前記符号化器は、前記複数の時間領域オーディオサンプルからなる前記現在のグループが前記非定常領域および前記非調性領域の前記少なくとも1つを含む場合、前記複数の時間領域オーディオサンプルからなる前記現在のグループに応じて、前記第1の符号化モジュール(210)を利用して、前記スペクトル領域オーディオサンプルの現在のグループを生成するように構成されており、
前記符号化器は、前記複数の時間領域オーディオサンプルからなる前記現在のグループが前記非定常領域および前記非調性領域の前記少なくとも1つを含まない場合、前記複数の時間領域オーディオサンプルからなる前記現在のグループに応じて、前記第2の符号化モジュール(220)を利用して、前記スペクトル領域オーディオサンプルの現在のグループを生成するように構成されている、請求項33に記載の符号化器。 - 前記出力モジュール(230)は、前記信号特性に応じて第1のビット値または第2のビット値のいずれかを有するビットを出力するように構成されている、請求項33または34に記載の符号化器。
- 前記第2の符号化モジュール(220)は、以下に応じて前記スペクトル領域オーディオサンプルの前記第3のグループおよび前記第4のグループのうちの少なくとも1つを生成するように構成されており、
cs(a(n+b)(k+c))
ここで、cs()はcos()またはsin()であり、
nは、前記時間領域オーディオサンプルの前記第3のグループまたは前記第4のグループに属する時間領域オーディオサンプルのうちの1つの時間インデックスを示し、
kは、前記スペクトル領域オーディオサンプルの前記第1のグループ、前記第2のグループ、前記第3のグループまたは前記第4のグループに属するスペクトル領域オーディオサンプルのうちの1つのスペクトルインデックスを示し、
−0.1≦c≦0.1または0.4≦c≦0.6または0.9≦c≦1.1であり、
a=q/Mであり、
0.9・π≦q≦1.1・πであり、
Mは前記スペクトル領域オーディオサンプルの前記第1のグループもしくは前記第2のグループまたは前記第3のグループもしくは前記第4のグループのスペクトル領域オーディオサンプルの数を示し、
b=(s・M+1)/2であり、
1.5≦s≦4.5であり、cは第1のエイリアシング低減係数、qは第2のエイリアシング低減係数、sは第3のエイリアシング低減係数である、請求項26〜35のいずれか一項に記載の符号化器。 - 前記第1の符号化モジュール(210)は、以下に応じて、前記スペクトル領域オーディオサンプルの前記第1のグループおよび前記第2のグループのうちの少なくとも1つを生成するように構成されており、
cs1(a(n1+b1)(k+c1))
ここで、cs1()はcos()またはsin()であり、
n1は、前記時間領域オーディオサンプルの前記第1のグループまたは前記第2のグループの前記時間領域オーディオサンプルのうちの1つの時間インデックスを示し、−0.1≦c1≦0.1または0.4≦c1≦0.6または0.9≦c1≦1.1であり、
b1=(M+1)/2であり、
kは、前記スペクトル領域オーディオサンプルの前記第1のグループまたは前記第2のグループに属するスペクトル領域オーディオサンプルのうちの1つのスペクトルインデックスを示し、
Mは前記スペクトル領域オーディオサンプルの前記第1のグループまたは前記第2のグループに属するスペクトル領域オーディオサンプルの数を示し、
a=q/Mであり、
0.9・π≦q≦1.1・πであり、qは実数であり、
aは第4のエイリアシング低減係数、n 1 は第5のエイリアシング低減係数、b 1 は第6のエイリアシング低減係数、c 1 は第7のエイリアシング低減係数である、請求項36に記載の符号化器。 - c=0、またはc=0.5、またはc=1であり、
q=πであり、
s=3である、請求項36または37に記載の符号化器。 - q=πであり、s=3であり、cs()はcos()であり、cs1()はcos()であり、c=0.5であり、c1=0.5であり、または
q=πであり、s=3であり、cs()はsin()であり、cs1()はcos()であり、c=1であり、c1=0であり、または
q=πであり、s=3であり、cs()はsin()であり、cs1()はsin()であり、c=0.5であり、c1=1であり、または
q=πであり、s=3であり、cs()はcos()であり、cs1()はsin()であり、c=0であり、c1=1であり、または
q=πであり、s=3であり、cs()はsin()であり、cs1()はsin()であり、c=0.5であり、c1=0.5であり、または
q=πであり、s=3であり、cs()はcos()であり、cs1()はsin()であり、c=0であり、c1=0.5であり、または
q=πであり、s=3であり、cs()はcos()であり、cs1()はcos()であり、c=0.5であり、c1=0であり、または
q=πであり、s=3であり、cs()はsin()であり、cs1()はcos()であり、c=1であり、c1=0である、請求項37に記載の符号化器。 - 前記時間領域オーディオサンプルの前記第2のグループのすべての時間領域オーディオサンプルが、前記時間領域オーディオサンプルの前記第3のグループの時間領域オーディオサンプルと重複するか、または
前記時間領域オーディオサンプルの前記第1のグループのすべての時間領域オーディオサンプルが、前記時間領域オーディオサンプルの前記第4のグループと重複する、請求項26〜41のいずれか一項に記載の符号化器。 - weltは第1の窓関数であり、
wtrは第2の窓関数であり、
前記第2の窓関数の一部は以下に従って定義され、
Mは、前記スペクトル領域オーディオサンプルの前記第1のグループもしくは前記第2のグループまたは前記第3のグループもしくは前記第4のグループのスペクトル領域オーディオサンプルの数を示し、
kは0≦k<Mの数であり、
dは実数であり、
t=(L/2)+kまたはt=(L/2)−1−kであり、
Lは、前記時間領域オーディオサンプルの前記第3のグループまたは前記第4のグループの時間領域オーディオサンプルの数を示し、
前記時間領域オーディオサンプルの前記第3のグループは、前記前記時間領域オーディオサンプルの前記第2のグループのオーディオサンプルを含み、前記第2の符号化モジュール(220)は、前記時間領域オーディオサンプルの前記第4のグループに前記第1の窓関数weltを適用するように構成されており、前記第2の符号化モジュール(220)は、前記時間領域オーディオサンプルの前記第3のグループに前記第2の窓関数wtrを適用するように構成されており、または
前記時間領域オーディオサンプルの前記第4のグループは、前記前記時間領域オーディオサンプルの前記第1のグループのオーディオサンプルを含み、前記第2の符号化モジュール(220)は、前記時間領域オーディオサンプルの第3のグループに前記第1の窓関数weltを適用するように構成されており、前記第2の符号化モジュール(220)は、前記時間領域オーディオサンプルの第4のグループに前記第2の窓関数wtrを適用するように構成されている、請求項26〜42のいずれか一項に記載の符号化器。 - wtr1は第3の窓関数であり、
前記第3の窓関数の一部は以下に従って定義され、
ここで、t1=(N/2)+kまたはt1=(N/2)−1−kであり、
Nは、前記時間領域オーディオサンプルの前記第1のグループまたは前記第2のグループの時間領域オーディオサンプルの数を示し、
前記時間領域オーディオサンプルの前記第3のグループは、前記前記時間領域オーディオサンプルの前記第2のグループのオーディオサンプルを含み、前記第2の符号化モジュール(220)は、前記時間領域オーディオサンプルの第2のグループに前記第3の窓関数wtr1を適用するように構成されており、または
前記時間領域オーディオサンプルの前記第4のグループは、前記前記時間領域オーディオサンプルの前記第1のグループのオーディオサンプルを含み、前記第2の符号化モジュール(220)は、前記時間領域オーディオサンプルの第1のグループに前記第3の窓関数wtr1を適用するように構成されている、請求項43に記載の符号化器。 - K=3であり、
0.3≦b0≦0.4であり、
−0.6≦b1≦−0.4であり、
0.01≦b2≦0.2であり、
0.001≦c1≦0.03であり、
0.000001≦c2≦0.0005であり、
0.000001≦c3≦0.00002である、請求項45に記載の符号化器。 - weltは第1の窓関数であり、
wmltは第2の窓関数であり、
w’mltは第3の窓関数であり、前記第3の窓関数は以下に従って定義され、
ここで、Mは、前記スペクトル領域オーディオサンプルの前記第1のグループまたは前記第2のグループまたは前記第3のグループまたは前記第4のグループのスペクトル領域オーディオサンプルの数を示し、
kは0≦k<Mである数であり、
dは実数であり、
nは整数であり、
前記第1の符号化モジュール(210)および前記第2の符号化モジュール(220)のうちの少なくとも1つは、前記時間領域オーディオサンプルの前記第1のグループおよび前記第2のグループおよび前記第3のグループおよび前記第4のグループのうちの少なくとも1つに、前記第3の窓関数w’mltを適用するように構成されている、請求項26〜42のいずれか一項に記載の符号化器。 - weltは第1の窓関数であり、
wssは第2の窓関数であり、
前記第2の窓関数は以下に従って定義され、
ここで、Mは、前記スペクトル領域オーディオサンプルの前記第1のグループまたは前記第2のグループまたは前記第3のグループまたは前記第4のグループのスペクトル領域オーディオサンプルの数を示し、
kは0≦k<Mである数であり、
dは実数であり、
nは整数であり、
前記第1の符号化モジュール(210)および前記第2の符号化モジュール(220)のうちの少なくとも1つは、前記時間領域オーディオサンプルの前記第1のグループおよび前記第2のグループおよび前記第3のグループおよび前記第4のグループのうちの少なくとも1つに、前記第2の窓関数wssを適用するように構成されている、請求項26〜42のいずれか一項に記載の符号化器。 - 0.8≦d≦1.25である、請求項43〜48のいずれか一項に記載の符号化器。
- d=4096/4061である、請求項49に記載の符号化器。
- d=1である、請求項43〜48のいずれか一項に記載の符号化器。
- システムであって、
請求項26〜51のいずれか一項に記載の符号化器(310)と、
請求項1〜25のいずれか一項に記載の復号器(320)と
を備え、
前記請求項26〜51のいずれか一項に記載の符号化器(310)は、複数のスペクトル領域オーディオサンプルを生成することによってオーディオ信号の複数の時間領域オーディオサンプルを符号化するように構成されており、
前記請求項1〜25のいずれか一項に記載の復号器(320)は、前記符号化器から複数のスペクトル領域オーディオサンプルを受信するように構成されており、
前記請求項1〜25のいずれか一項に記載の復号器(320)は、前記複数のスペクトル領域オーディオサンプルを復号するように構成されている、システム。 - 前記符号化器(310)が、請求項49に記載の符号化器であり、
前記復号器(320)が、請求項21に記載の復号器である、請求項52に記載のシステム。 - 前記符号化器(310)が、請求項50に記載の符号化器であり、
前記復号器(320)が、請求項22に記載の復号器である、請求項53に記載のシステム。 - 複数のスペクトル領域オーディオサンプルを復号するための方法であって、
前記スペクトル領域オーディオサンプルの第1のグループの前記スペクトル領域オーディオサンプルから時間領域中間オーディオサンプルの第1のグループを生成することによって、前記スペクトル領域オーディオサンプルの前記第1のグループを復号し、前記スペクトル領域オーディオサンプルの第2のグループの前記スペクトル領域オーディオサンプルから時間領域中間オーディオサンプルの第2のグループを生成することによって、前記スペクトル領域オーディオサンプルの前記第2のグループを復号することと、
時間領域中間オーディオサンプルの正確に2つのグループをオーバーラップ加算することであり、前記正確に2つのグループは、時間領域中間オーディオサンプルの前記第1のグループおよび前記第2のグループであり、前記正確に2つのグループは、5%を超え最大50%のオーバーラップを伴ってオーバーラップ加算され、前記正確に2つのグループの前記オーバーラップ加算の結果として、オーディオ信号の第1の複数の時間領域オーディオ出力サンプルがもたらされる、オーバーラップ加算することと、
前記スペクトル領域オーディオサンプルの第3のグループの前記スペクトル領域オーディオサンプルから時間領域中間オーディオサンプルの第3のグループを生成することによって、前記スペクトル領域オーディオサンプルの前記第3のグループを復号し、前記スペクトル領域オーディオサンプルの第4のグループの前記スペクトル領域オーディオサンプルから時間領域中間オーディオサンプルの第4のグループを生成することによって、前記スペクトル領域オーディオサンプルの前記第4のグループを復号することと、
前記オーディオ信号の前記第1の複数の時間領域オーディオ出力サンプル、前記オーディオ信号の第2の複数の時間領域オーディオ出力サンプル、および、前記オーディオ信号の第3の複数の時間領域オーディオ出力サンプルを出力することと、
少なくとも前記時間領域中間オーディオサンプルの第3のグループと、前記時間領域中間オーディオサンプルの第4のグループとの、60%を超え100%未満のオーバーラップを伴ったオーバーラップ加算を使用して、前記第2の複数の時間領域オーディオ出力サンプルを得ることと、
少なくとも前記時間領域中間オーディオサンプルの第2のグループと、前記時間領域中間オーディオサンプルの第3のグループとのオーバーラップ加算を使用して前記第3の複数の時間領域オーディオ出力サンプルを得ること、または、少なくとも前記時間領域中間オーディオサンプルの第4のグループと、前記時間領域中間オーディオサンプルの第1のグループとのオーバーラップ加算を使用して前記第3の複数の時間領域オーディオ出力サンプルを得ること
を含む、方法。 - 時間領域オーディオサンプルの複数のグループからスペクトル領域オーディオサンプルの複数のグループを生成することによって、オーディオ信号の複数の時間領域オーディオサンプルを符号化するための方法であって、前記方法は、
前記時間領域オーディオサンプルのグループのうちの第1のグループから前記スペクトル領域オーディオサンプルのグループのうちの第1のグループを生成し、前記時間領域オーディオサンプルのグループのうちの第2のグループから前記スペクトル領域オーディオサンプルのグループのうちの第2のグループを生成することであり、前記時間領域オーディオサンプルの第1のグループおよび前記時間領域オーディオサンプルの第2のグループは、前記時間領域オーディオサンプルのグループ内で時間的に隣接しており、前記時間領域オーディオサンプルの前記第1のグループは、前記時間領域オーディオサンプルの前記第2のグループの前記オーディオサンプルの5%を超え50%以下を含み、前記時間領域オーディオサンプルの前記第2のグループは、前記時間領域オーディオサンプルの前記第1のグループのオーディオサンプルの5%を超え50%以下を含む、生成することと、
前記時間領域オーディオサンプルの前記グループのうちの第3のグループから前記スペクトル領域オーディオサンプルの前記グループのうちの第3のグループを生成し、前記時間領域オーディオサンプルの前記グループのうちの第4のグループから前記スペクトル領域オーディオサンプルの前記グループのうちの第4のグループを生成することであり、前記時間領域オーディオサンプルの前記第3のグループは、前記時間領域オーディオサンプルの前記第4のグループの前記オーディオサンプルの60%を超え100%未満を含み、前記時間領域オーディオサンプルの前記第4のグループは、前記時間領域オーディオサンプルの前記第3のグループの前記オーディオサンプルの60%を超え100%未満を含む、生成することと、
前記スペクトル領域オーディオサンプルの第1のグループ、前記スペクトル領域オーディオサンプルの第2のグループ、前記スペクトル領域オーディオサンプルの第3のグループおよび前記スペクトル領域オーディオサンプルの第4のグループを出力することと
を含み、
前記時間領域オーディオサンプルの前記第3のグループは、前記時間領域オーディオサンプルの前記第2のグループのオーディオサンプルを含み、または、前記時間領域オーディオサンプルの前記第4のグループは、前記時間領域オーディオサンプルの前記第1のグループのオーディオサンプルを含む、方法。 - コンピュータまたは信号プロセッサ上で実行されるとき、請求項55または56に記載の方法を実施するためのコンピュータプログラム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EPPCT/EP2015/072186 | 2015-09-25 | ||
EPPCT/EP2015/072186 | 2015-09-25 | ||
EPPCT/EP2015/080334 | 2015-12-17 | ||
PCT/EP2015/080334 WO2017050398A1 (en) | 2015-09-25 | 2015-12-17 | Encoder, decoder and methods for signal-adaptive switching of the overlap ratio in audio transform coding |
PCT/EP2016/072739 WO2017050993A1 (en) | 2015-09-25 | 2016-09-23 | Encoder, decoder and methods for signal-adaptive switching of the overlap ratio in audio transform coding |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018532153A JP2018532153A (ja) | 2018-11-01 |
JP6654236B2 true JP6654236B2 (ja) | 2020-02-26 |
Family
ID=54850315
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018515442A Active JP6654236B2 (ja) | 2015-09-25 | 2016-09-23 | オーディオ変換コーディングにおけるオーバーラップ率の信号適応スイッチングのための符号化器、復号器および方法 |
Country Status (10)
Country | Link |
---|---|
US (1) | US10770084B2 (ja) |
EP (1) | EP3353782B1 (ja) |
JP (1) | JP6654236B2 (ja) |
KR (1) | KR102205824B1 (ja) |
CN (1) | CN108463850B (ja) |
BR (1) | BR112018005901B1 (ja) |
CA (1) | CA2998776C (ja) |
ES (1) | ES2922975T3 (ja) |
RU (1) | RU2710929C2 (ja) |
WO (2) | WO2017050398A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI681384B (zh) * | 2018-08-01 | 2020-01-01 | 瑞昱半導體股份有限公司 | 音訊處理方法與音訊等化器 |
TWI718625B (zh) * | 2019-08-16 | 2021-02-11 | 瑞昱半導體股份有限公司 | 應用於離散及逆離散正弦餘弦變換的運算電路 |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6226608B1 (en) * | 1999-01-28 | 2001-05-01 | Dolby Laboratories Licensing Corporation | Data framing for adaptive-block-length coding system |
US7136418B2 (en) * | 2001-05-03 | 2006-11-14 | University Of Washington | Scalable and perceptually ranked signal coding and decoding |
US7876966B2 (en) * | 2003-03-11 | 2011-01-25 | Spyder Navigations L.L.C. | Switching between coding schemes |
US7177804B2 (en) * | 2005-05-31 | 2007-02-13 | Microsoft Corporation | Sub-band voice codec with multi-stage codebooks and redundant coding |
EP1989706B1 (fr) | 2006-02-14 | 2011-10-26 | France Telecom | Dispositif de ponderation perceptuelle en codage/decodage audio |
DE102006049154B4 (de) * | 2006-10-18 | 2009-07-09 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Kodierung eines Informationssignals |
US8036903B2 (en) * | 2006-10-18 | 2011-10-11 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Analysis filterbank, synthesis filterbank, encoder, de-coder, mixer and conferencing system |
AU2007308416B2 (en) | 2006-10-25 | 2010-07-08 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Apparatus and method for generating audio subband values and apparatus and method for generating time-domain audio samples |
MY148913A (en) * | 2006-12-12 | 2013-06-14 | Fraunhofer Ges Forschung | Encoder, decoder and methods for encoding and decoding data segments representing a time-domain data stream |
FR2911228A1 (fr) | 2007-01-05 | 2008-07-11 | France Telecom | Codage par transformee, utilisant des fenetres de ponderation et a faible retard. |
EP2144230A1 (en) * | 2008-07-11 | 2010-01-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Low bitrate audio encoding/decoding scheme having cascaded switches |
JP5369180B2 (ja) * | 2008-07-11 | 2013-12-18 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | サンプリングされたオーディオ信号のフレームを符号化するためのオーディオエンコーダおよびデコーダ |
PT2146344T (pt) * | 2008-07-17 | 2016-10-13 | Fraunhofer Ges Forschung | Esquema de codificação/descodificação de áudio com uma derivação comutável |
KR101315617B1 (ko) * | 2008-11-26 | 2013-10-08 | 광운대학교 산학협력단 | 모드 스위칭에 기초하여 윈도우 시퀀스를 처리하는 통합 음성/오디오 부/복호화기 |
US8457975B2 (en) * | 2009-01-28 | 2013-06-04 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Audio decoder, audio encoder, methods for decoding and encoding an audio signal and computer program |
WO2011034376A2 (en) * | 2009-09-17 | 2011-03-24 | Lg Electronics Inc. | A method and an apparatus for processing an audio signal |
MX2012004116A (es) * | 2009-10-08 | 2012-05-22 | Fraunhofer Ges Forschung | Decodificador multimodo para señal de audio, codificador multimodo para señal de audio, metodo y programa de computacion que usan un modelado de ruido en base a linealidad-prediccion-codi ficacion. |
US20110087494A1 (en) * | 2009-10-09 | 2011-04-14 | Samsung Electronics Co., Ltd. | Apparatus and method of encoding audio signal by switching frequency domain transformation scheme and time domain transformation scheme |
MY160807A (en) * | 2009-10-20 | 2017-03-31 | Fraunhofer-Gesellschaft Zur Förderung Der Angewandten | Audio encoder,audio decoder,method for encoding an audio information,method for decoding an audio information and computer program using a detection of a group of previously-decoded spectral values |
AU2010309838B2 (en) * | 2009-10-20 | 2014-05-08 | Dolby International Ab | Audio signal encoder, audio signal decoder, method for encoding or decoding an audio signal using an aliasing-cancellation |
KR101790373B1 (ko) | 2010-06-14 | 2017-10-25 | 파나소닉 주식회사 | 오디오 하이브리드 부호화 장치 및 오디오 하이브리드 복호 장치 |
WO2013061584A1 (ja) | 2011-10-28 | 2013-05-02 | パナソニック株式会社 | 音信号ハイブリッドデコーダ、音信号ハイブリッドエンコーダ、音信号復号方法、及び音信号符号化方法 |
CN103366751B (zh) * | 2012-03-28 | 2015-10-14 | 北京天籁传音数字技术有限公司 | 一种声音编解码装置及其方法 |
EP2682941A1 (de) * | 2012-07-02 | 2014-01-08 | Technische Universität Ilmenau | Vorrichtung, Verfahren und Computerprogramm für frei wählbare Frequenzverschiebungen in der Subband-Domäne |
US9305559B2 (en) * | 2012-10-15 | 2016-04-05 | Digimarc Corporation | Audio watermark encoding with reversing polarity and pairwise embedding |
RU2618848C2 (ru) * | 2013-01-29 | 2017-05-12 | Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. | Устройство и способ для выбора одного из первого алгоритма кодирования аудио и второго алгоритма кодирования аудио |
WO2014128194A1 (en) * | 2013-02-20 | 2014-08-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for generating an encoded signal or for decoding an encoded audio signal using a multi overlap portion |
GB2515089A (en) * | 2013-06-14 | 2014-12-17 | Nokia Corp | Audio Processing |
US10395663B2 (en) * | 2014-02-17 | 2019-08-27 | Samsung Electronics Co., Ltd. | Signal encoding method and apparatus, and signal decoding method and apparatus |
MX371223B (es) * | 2016-02-17 | 2020-01-09 | Fraunhofer Ges Forschung | Post-procesador, pre-procesador, codificador de audio, decodificador de audio y metodos relacionados para mejorar el procesamiento de transitorios. |
-
2015
- 2015-12-17 WO PCT/EP2015/080334 patent/WO2017050398A1/en active Application Filing
-
2016
- 2016-09-23 JP JP2018515442A patent/JP6654236B2/ja active Active
- 2016-09-23 BR BR112018005901-3A patent/BR112018005901B1/pt active IP Right Grant
- 2016-09-23 CA CA2998776A patent/CA2998776C/en active Active
- 2016-09-23 CN CN201680067262.7A patent/CN108463850B/zh active Active
- 2016-09-23 EP EP16777607.9A patent/EP3353782B1/en active Active
- 2016-09-23 RU RU2018115190A patent/RU2710929C2/ru active
- 2016-09-23 WO PCT/EP2016/072739 patent/WO2017050993A1/en active Application Filing
- 2016-09-23 ES ES16777607T patent/ES2922975T3/es active Active
- 2016-09-23 KR KR1020187011220A patent/KR102205824B1/ko active IP Right Grant
-
2018
- 2018-03-22 US US15/933,149 patent/US10770084B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20190103120A1 (en) | 2019-04-04 |
JP2018532153A (ja) | 2018-11-01 |
WO2017050398A1 (en) | 2017-03-30 |
RU2018115190A3 (ja) | 2019-10-25 |
CA2998776C (en) | 2021-07-20 |
BR112018005901B1 (pt) | 2023-10-03 |
RU2018115190A (ru) | 2019-10-25 |
WO2017050993A1 (en) | 2017-03-30 |
CN108463850A (zh) | 2018-08-28 |
KR102205824B1 (ko) | 2021-01-21 |
RU2710929C2 (ru) | 2020-01-14 |
KR20180067552A (ko) | 2018-06-20 |
EP3353782B1 (en) | 2022-05-11 |
CA2998776A1 (en) | 2017-03-30 |
ES2922975T3 (es) | 2022-09-22 |
BR112018005901A2 (pt) | 2018-10-16 |
EP3353782A1 (en) | 2018-08-01 |
US10770084B2 (en) | 2020-09-08 |
CN108463850B (zh) | 2023-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11854559B2 (en) | Decoder for decoding an encoded audio signal and encoder for encoding an audio signal | |
RU2693648C2 (ru) | Устройство и способ для кодирования или декодирования многоканального сигнала с использованием повторной дискретизации спектральной области | |
TWI541797B (zh) | 使用時間雜訊修補成形以編碼及解碼已被編碼音訊的裝置及方法 | |
RU2625444C2 (ru) | Система обработки аудио | |
JP6126006B2 (ja) | 音信号ハイブリッドエンコーダ、音信号ハイブリッドデコーダ、音信号符号化方法、及び音信号復号方法 | |
US20110087494A1 (en) | Apparatus and method of encoding audio signal by switching frequency domain transformation scheme and time domain transformation scheme | |
JP6654236B2 (ja) | オーディオ変換コーディングにおけるオーバーラップ率の信号適応スイッチングのための符号化器、復号器および方法 | |
BR112021007516A2 (pt) | codificador de áudio, processador de áudio e método para processar um sinal de áudio |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180517 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190122 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190417 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190722 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200129 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6654236 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |