JP7140817B2 - ステレオ音声信号をプライマリチャンネルおよびセカンダリチャンネルに時間領域ダウンミックスするために左チャンネルと右チャンネルとの間の長期相関差を使用する方法およびシステム - Google Patents
ステレオ音声信号をプライマリチャンネルおよびセカンダリチャンネルに時間領域ダウンミックスするために左チャンネルと右チャンネルとの間の長期相関差を使用する方法およびシステム Download PDFInfo
- Publication number
- JP7140817B2 JP7140817B2 JP2020199441A JP2020199441A JP7140817B2 JP 7140817 B2 JP7140817 B2 JP 7140817B2 JP 2020199441 A JP2020199441 A JP 2020199441A JP 2020199441 A JP2020199441 A JP 2020199441A JP 7140817 B2 JP7140817 B2 JP 7140817B2
- Authority
- JP
- Japan
- Prior art keywords
- channel
- long
- stereo audio
- encoding
- term
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000007774 longterm Effects 0.000 title claims description 109
- 238000000034 method Methods 0.000 title claims description 98
- 230000005236 sound signal Effects 0.000 title claims description 46
- 230000006978 adaptation Effects 0.000 claims description 20
- 238000012937 correction Methods 0.000 claims description 15
- 230000006870 function Effects 0.000 claims description 12
- 230000000694 effects Effects 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims 4
- 230000003247 decreasing effect Effects 0.000 claims 3
- 238000009499 grossing Methods 0.000 claims 3
- 108091006146 Channels Proteins 0.000 description 502
- 239000011295 pitch Substances 0.000 description 85
- 238000004458 analytical method Methods 0.000 description 34
- 238000010586 diagram Methods 0.000 description 29
- 238000004364 calculation method Methods 0.000 description 18
- 238000004891 communication Methods 0.000 description 17
- 230000000875 corresponding effect Effects 0.000 description 15
- 238000010606 normalization Methods 0.000 description 13
- 238000001514 detection method Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 12
- 238000013139 quantization Methods 0.000 description 12
- 230000003595 spectral effect Effects 0.000 description 10
- 238000001228 spectrum Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 7
- 238000001914 filtration Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 230000003044 adaptive effect Effects 0.000 description 5
- 230000002596 correlated effect Effects 0.000 description 5
- 238000010219 correlation analysis Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 5
- 230000010363 phase shift Effects 0.000 description 5
- 238000005070 sampling Methods 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 5
- 238000007781 pre-processing Methods 0.000 description 4
- 206010019133 Hangover Diseases 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 230000009977 dual effect Effects 0.000 description 3
- 238000004091 panning Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 230000005284 excitation Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000011524 similarity measure Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000000872 buffer Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000000796 flavoring agent Substances 0.000 description 1
- 235000019634 flavors Nutrition 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/002—Dynamic bit allocation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/032—Quantisation or dequantisation of spectral components
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/06—Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/09—Long term prediction, i.e. removing periodical redundancies, e.g. by using adaptive codebook or pitch predictor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/12—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/24—Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/26—Pre-filtering or post-filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/06—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/21—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S1/00—Two-channel systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S1/00—Two-channel systems
- H04S1/007—Two-channel systems in which the audio signals are in digital form
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/01—Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/03—Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Quality & Reliability (AREA)
- Stereophonic System (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Stereo-Broadcasting Methods (AREA)
- Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
Description
上述の説明において示されたように、低ビットレートで動作する知られているステレオモデルは、モノラルモデルに近くないスピーチをコーディングするのに困難を抱えている。これまでの手法は、すべての内容が参照により本明細書に組み込まれる参考文献[4]および[5]に記載されているように、2つのベクトルを得るために、たとえば、カルフネン-ロエヴェ変換(klt)を使用する主成分分析(pca)に関連する周波数帯域毎の相関をたとえば使用して周波数帯域毎に周波数領域においてダウンミックスを実行する。これら2つのベクトルのうちの一方が、すべての非常に相関がある内容を組み込む一方、他方のベクトルは、あまり相関がないすべての内容を定義する。低ビットレートでスピーチを符号化するための最もよく知られている方法は、知られている周波数領域の解決策が直接適用され得ない、CELP(Code-Excited Linear Prediction:符号励振線形予測)などの時間領域のコーデックを使用する。そうした理由で、周波数帯域毎のpca/kltの背後にある考え方は興味深いが、内容がスピーチであるとき、プライマリチャンネルYは、時間領域に変換して戻される必要があり、そのような変換の後、その内容は、特にCELPなどのスピーチに固有のモデルを使用する上述の構成の場合、もはやこれまでのスピーチのように見えない。これは、スピーチのコーデックの性能を落とす影響がある。さらに、低ビットレートにおいては、スピーチのコーデックの入力は、コーデックの内部モデルの予測に可能な限り近いべきである。
Y(i) = R(i)・(1 - β(t)) + L(i)・β(t) (9)
X(i) = L(i)・(1 - β(t)) - R(i)・β(t) (10)
ppc = |p1 - p0| + |p2 - p1|およびpsc = |p1 - p0| + |p2 - p1| (12d)
図8は、スピーチまたはオーディオなどのステレオ音声信号のプライマリYチャンネルとセカンダリXチャンネルとの両方の符号化の最適化の可能な実装によるステレオ音声符号化方法およびシステムを同時に示すブロック図である。
ビットレートの消費の重要な部分は、LPフィルタ係数(LPC)の量子化にある。低ビットレートにおいて、LPフィルタ係数の完全な量子化は、ビットバジェットうち最大でほぼ25%を占める可能性がある。セカンダリチャンネルXが周波数の内容においてプライマリチャンネルYと近いことが多いが、ただしエネルギーレベルが最も低いことを考慮すると、プライマリチャンネルYのLPフィルタ係数を再利用することが可能かどうかは、検証する価値がある。そのようにするために、図8に示されるように、プライマリチャンネルYのLPフィルタ係数(LPC)807を再利用するか否かの可能性を確認するためにわずかなパラメータが計算され、比較される、LPフィルタコヒーレンスアナライザ856によって実施されるLPフィルタコヒーレンス分析動作806が開発された。
プライマリYチャンネルおよびセカンダリXチャンネルが右R入力チャンネルと左L入力チャンネルとの両方のミックスである可能性があるので、これは、たとえセカンダリチャンネルXのエネルギーの内容がプライマリチャンネルYのエネルギーの内容と比べて低いとしても、チャンネルのアップミックスが実行されると、コーディングアーティファクトが知覚される可能性があることを示唆する。そのような起こり得るアーティファクトを制限するために、セカンダリチャンネルXのコーディングシグネチャ(coding signature)は、すべての意図されていないエネルギーの変動を制限するために可能な限り一定に保たれる。図7に示されるように、セカンダリチャンネルXの内容は、プライマリチャンネルYの内容と同様の特徴を有し、そのために、非常に低いビットレートのスピーチに似たコーディングモデルが、作られた。
Gbd(i) = Gbd(16 - i - 1), for i = 8,…,15 (18)
fd(k) = fd(k - Pb), for k = 128,…,255 (19)
セカンダリチャンネルXの符号化は、最良の可能な品質を実現し、一定のシグネチャを保ちながら最小限の数のビットを使用するという同じ目的を持って異なるようにして実現され得る。セカンダリチャンネルXの符号化は、LPフィルタ係数およびピッチ情報の潜在的な再利用とは独立して、利用可能なビットバジェットによって部分的に駆動される可能性がある。また、2サブフレームモデル符号化(動作805)は、ハーフバンドであるかまたはフルバンド(full band)であるかのどちらかである可能性がある。セカンダリチャンネルの低ビットレートの符号化のこの代替的な実装においては、プライマリチャンネルのLPフィルタ係数および/またはピッチ情報が、再利用される可能性があり、2サブフレームモデル符号化が、セカンダリチャンネルXを符号化するために利用可能なビットバジェットに基づいて選択される可能性がある。さらに、下に提示される2サブフレームモデル符号化は、その入力/出力パラメータをダウンサンプリング/アップサンプリングする代わりにサブフレーム長を倍にすることによって生成された。
Bx = BM + (0.25・ε- 0.125)・(Bt - 2・BM) (21a)
のように上述のエネルギー正規化(再スケーリング)因子εに関連する量だけ増やされ、ここで、Bxは、セカンダリチャンネルXに割り当てられるビットレートを表し、Btは、利用可能な総ステレオビットレートを表し、BMは、セカンダリチャンネルに割り当てられる最小ビットレートを表し、通常、総ステレオビットレートの約20%である。最後に、εは、上述のエネルギー正規化因子を表す。したがって、プライマリチャンネルに割り当てられるビットレートは、総ステレオビットレートとセカンダリチャンネルのステレオビットレートとの間の差に対応する。代替的な実装において、セカンダリチャンネルのビットレートの割り当ては、以下のように記述され得る。
上述の説明において説明されたように、時間領域ダウンミックスは、モノラルと相性が良く、つまり、プライマリチャンネルYがレガシーのコーデックによって符号化され(上述の説明において述べられたように、任意の好適な種類のエンコーダがプライマリチャンネルのエンコーダ252/352として使用され得ることに留意されたい)、ステレオのビットがプライマリチャンネルビットストリームに付加される組み込み型の構造の場合、ステレオのビットが引き剥がされる可能性があり、レガシーのデコーダが仮説的なモノラル合成に主観的に近い合成を生み出す可能性がある。そのようにするためには、プライマリチャンネルYを符号化する前に、エンコーダ側で単純なエネルギーの正規化が必要とされる。プライマリチャンネルYのエネルギーを音声のモノラル信号バージョンのエネルギーに十分に近い値に再スケーリングすることによって、レガシーのデコーダによるプライマリチャンネルYの復号は、音声のモノラル信号バージョンのレガシーのデコーダによる復号と同様になり得る。エネルギーの正規化の関数は、関係(7)を使用して計算された線形化された長期相関差
図10は、ステレオ音声復号方法およびステレオ音声復号システムを同時に示すブロック図である。図11は、図10のステレオ音声復号方法およびステレオ音声復号システムのさらなる特徴を示すブロック図である。
周波数領域のコーディングモードが使用される現在の技術の応用のために、いくらか複雑性を取り除くかまたはデータフローを簡素化するために周波数領域において時間のダウンミックスを実行することも考えられる。そのような場合、時間領域ダウンミックスの利点を保つために、すべてのスペクトル係数に同じミックス因子(mixing factor)が適用される。これは、周波数領域ダウンミックスの応用のほとんどの場合と同様に周波数帯域毎にスペクトル係数を適用することからの逸脱であることが、観察され得る。ダウンミキサ456は、関係(25.1)および(25.2)を計算するように適合され得る。
FY(k) = FR(k)・(1 - β(t)) + FL(k)・β(t) (25.1)
FX(k) = FL(k)・(1 - β(t)) - FR(k)・β(t) (25.2)
図12は、上述のステレオ音声符号化システムおよびステレオ音声復号システムの各々を形成するハードウェア構成要素の例示的な構成の簡略化されたブロック図である。
以下の参考文献は、本明細書において参照され、それらの参考文献のすべての内容は、参照により本明細書に組み込まれる。
[1] 3GPP TS 26.445, v.12.0.0,「Codec for Enhanced Voice Services (EVS); Detailed Algorithmic Description」,2014年9月
[2] M. Neuendorf, M. Multrus, N. Rettelbach, G. Fuchs, J. Robillard, J. Lecompte, S. Wilde, S. Bayer, S. Disch, C. Helmrich, R. Lefevbre, P. Gournayら,「The ISO/MPEG Unified Speech and Audio Coding Standard - Consistent High Quality for All Content Types and at All Bit Rates」,J. Audio Eng. Soc.,第61巻,第12号,956~977頁,2013年12月
[3] B. Bessette, R. Salami, R. Lefebvre, M. Jelinek, J. Rotola-Pukkila, J. Vainio, H. Mikkola, およびK. Jarvinen,「The Adaptive Multi-Rate Wideband Speech Codec (AMR-WB)」,Special Issue of IEEE Trans. Speech and Audio Proc.,第10巻,620~636頁,2002年11月
[4] R.G. van der WaalおよびR.N.J. Veldhuis,「Subband coding of stereophonic digital audio signals」,Proc. IEEE ICASSP,第5巻,3601~3604頁,1991年4月
[5] Dai Yang, Hongmei Ai, Chris Kyriakakis, およびC.-C. Jay Kuo,「High-Fidelity Multichannel Audio Coding With Karhunen-Loeve Transform」,IEEE Trans. Speech and Audio Proc.,第11巻,第4号,365~379頁,2003年7月
[6] J. Breebaart, S. van de Par, A. Kohlrausch, およびE. Schuijers,「Parametric Coding of Stereo Audio」,EURASIP Journal on Applied Signal Processing,第9号,1305~1322頁,2005年
[7] 3GPP TS 26.290 V9.0.0,「Extended Adaptive Multi-Rate - Wideband (AMR-WB+) codec; Transcoding functions (Release 9)」,2009年9月
[8] Jonathan A. Gibbs,「Apparatus and method for encoding a multi-channel audio signal」,米国特許第8577045(B2)号
101 通信リンク
102 マイクロフォン
103 左
104 アナログ-デジタル(A/D)コンバータ
105 左
106 ステレオ音声エンコーダ
107 ビットストリーム
108 誤り訂正エンコーダ
109 エラー訂正デコーダ
110 ステレオ音声デコーダ
111 ビットストリーム
112 ビットストリーム
113 左
114 左
115 デジタル-アナログ(D/A)コンバータ
116 ラウドスピーカユニット
122 マイクロフォン
123 右
125 右
133 右
134 右
136 ラウドスピーカユニット
201 時間領域ダウンミックス動作
202 プライマリチャンネル符号化動作
203 セカンダリチャンネル符号化動作
204 多重化動作
205 ビットストリーム
206 ビットストリーム
207 多重化されたビットストリーム
208 ビット
251 チャンネルミキサ
252 プライマリチャンネルのエンコーダ
253 セカンダリチャンネルのエンコーダ
254 マルチプレクサ
301 時間領域ダウンミックス動作
302 プライマリチャンネル符号化動作
303 セカンダリチャンネル符号化動作
304 多重化動作
305 ビットストリーム
306 ビットストリーム
307 多重化されたビットストリーム
351 チャンネルミキサ
352 プライマリチャンネルのエンコーダ
353 セカンダリチャンネルのエンコーダ
354 マルチプレクサ
401 エネルギー分析下位動作
402 エネルギー動向分析下位動作
403 LおよびRチャンネル正規化相関分析下位動作
404 長期(LT)相関差計算下位動作
405 長期相関差-因子β変換および量子化下位動作
406 時間領域ダウンミックス下位動作
451 エネルギーアナライザ
452 エネルギー動向アナライザ
453 LおよびR正規化相関アナライザ
454 計算器
455 コンバータおよび量子化器
456 時間領域ダウンミキサ
801 低複雑性前処理動作
802 信号分類動作
803 判断動作
804 4サブフレームモデルの一般のみの符号化動作
805 2サブフレームモデル符号化動作
806 LPフィルタコヒーレンス分析動作
807 LPフィルタ係数(LPC)および/またはピッチのラグ
851 低複雑性プリプロセッサ
852 信号分類器
853 判断モジュール
854 4サブフレームモデルの一般のみの符号化モジュール
855 2サブフレームモデル符号化モジュール
856 LPフィルタコヒーレンスアナライザ
901 重み付け下位動作
902 ユークリッド距離分析下位動作
903 プライマリチャンネルLPフィルタ分析下位動作
904 重み付け下位動作
906 セカンダリチャンネル残差フィルタリング動作
907 残差エネルギー計算下位動作
908 減算下位動作
910 音声エネルギー計算下位動作
911 利得比計算下位動作
912 セカンダリチャンネルLPフィルタ分析下位動作
913 残差フィルタリング下位動作
914 残差エネルギー計算下位動作
915 減算下位動作
916 比較下位動作
917 比較下位動作
918 セカンダリチャンネルLPフィルタ使用判断下位動作
919 プライマリチャンネルLPフィルタ再利用判断下位動作
951 重み付けフィルタ
952 ユークリッド距離アナライザ
953 LPフィルタアナライザ
954 重み付けフィルタ
956 セカンダリチャンネル残差フィルタ
957 残差のエネルギーの計算器
958 減算器
960 エネルギーの計算器
962 LPフィルタアナライザ
963 残差フィルタ
964 残差のエネルギーの計算器
965 減算器
966 比較器
967 比較器
968 判断モジュール
969 判断モジュール
1001 ビットストリーム
1002 ビットストリーム
1003 ビットストリーム
1004 プライマリチャンネル復号動作
1005 セカンダリチャンネル復号動作
1006 時間領域アップミックス動作
1007 多重分離動作
1054 プライマリチャンネルのデコーダ
1055 セカンダリチャンネルのデコーダ
1056 時間領域チャンネルアップミキサ
1057 デマルチプレクサ
1101 判断動作
1102 4サブフレーム一般復号動作
1103 2サブフレーム一般/無声/非アクティブ復号動作
1151 判断モジュール
1152 4サブフレーム一般デコーダ
1153 2サブフレーム一般/無声/非アクティブデコーダ
1200 ステレオ音声符号化システムおよびステレオ音声復号システム
1202 入力
1204 出力
1206 プロセッサ
1208 メモリ
1301 エネルギー分析下位動作
1302 エネルギー動向分析下位動作
1303 LおよびRチャンネル正規化相関分析下位動作
1304 事前適応因子計算下位動作
1305 正規化された相関に事前適応因子を適用する動作
1306 長期(LT)相関差計算下位動作
1307 利得-因子β変換および量子化下位動作
1308 時間領域ダウンミックス下位動作
1351 エネルギーアナライザ
1352 エネルギー動向アナライザ
1353 LおよびR正規化相関アナライザ
1354 事前適応因子計算器
1355 計算器
1356 長期(LT)相関差の計算器
1357 コンバータおよび量子化器
1358 時間領域ダウンミキサ
1401 位相ずれ信号検出動作
1402 切り替わり位置検出動作
1403 チャンネルミキサ選択動作
1404 位相ずれに特有の時間領域ダウンミックス動作
1450 位相ずれ信号検出器
1451 位相ずれ信号検出器
1452 切り替わり位置検出器
1453 チャンネルミキサセレクタ
1454 位相ずれに特有の時間領域ダウンチャンネルミキサ
1501 前処理動作
1502 ピッチコヒーレンス分析動作
1504 無声/非アクティブ判断動作
1505 無声/非アクティブコーディング判断動作
1506 2/4サブフレームモデル判断動作
1551 プリプロセッサ
Claims (32)
- 左チャンネルおよび右チャンネルを含む入力ステレオ音声信号に応じてステレオ音声を符号化するためのステレオ音声符号化方法であって、
前記左チャンネルの正規化された相関および前記右チャンネルの正規化された相関を前記ステレオ音声のモノラル信号バージョンに関連して決定するステップと、
前記左チャンネルの前記正規化された相関および前記右チャンネルの前記正規化された相関に基づいて長期相関差を決定するステップと、
前記長期相関差を因子βに変換するステップであって、0≦β≦1である、ステップと、
前記入力ステレオ音声信号の前記左チャンネルおよび前記右チャンネルからプライマリチャンネルおよびセカンダリチャンネルを生成するステップと、
符号化されたプライマリチャンネルビットストリームを生成するために前記プライマリチャンネルを符号化し、符号化されたセカンダリチャンネルビットストリームを生成するために前記セカンダリチャンネルを符号化するステップであって、前記プライマリチャンネルを符号化することおよび前記セカンダリチャンネルを符号化することは、前記因子βを使用して前記プライマリチャンネルの符号化と前記セカンダリチャンネルの符号化とにビットバジェットを割り当てることを含む、ステップと
を含み、
前記符号化されたプライマリチャンネルビットストリームおよび前記符号化されたセカンダリチャンネルビットストリームが前記ステレオ音声の符号化バージョンを形成する、ステレオ音声符号化方法。 - 前記左チャンネルおよび前記右チャンネルの各々のエネルギーを決定するステップと、
前記左チャンネルの前記エネルギーを使用して前記左チャンネルの長期エネルギー値を決定し、前記右チャンネルの前記エネルギーを使用して前記右チャンネルの長期エネルギー値を決定するステップと、
前記左チャンネルの前記長期エネルギー値を使用して前記左チャンネルにおける前記エネルギーの増大または減少する動向を決定し、前記右チャンネルの前記長期エネルギー値を使用して前記右チャンネルにおける前記エネルギーの増大または減少する動向を決定するステップと
を含む、請求項1に記載のステレオ音声符号化方法。 - 長期相関差を決定する前記ステップが、
前記左チャンネルおよび前記右チャンネルにおける前記エネルギーの前記動向を使用して決定された前記長期相関差の収束の速度を使用して前記左チャンネルおよび前記右チャンネルの前記正規化された相関を平滑化するステップと、
平滑化された前記正規化された相関を使用して前記長期相関差を決定するステップと
を含む、請求項2に記載のステレオ音声符号化方法。 - 前記長期相関差を因子βに変換する前記ステップが、
前記長期相関差を線形化するステップと、
線形化された前記長期相関差を所与の関数にマッピングして、前記因子βを生成するステップと
を含む、請求項1に記載のステレオ音声符号化方法。 - 前記プライマリチャンネルが前記右チャンネルによって形成され、前記セカンダリチャンネルが前記左チャンネルによって形成される、請求項1に記載のステレオ音声符号化方法。
- 前記プライマリチャンネルが前記左チャンネルによって形成され、前記セカンダリチャンネルが前記右チャンネルによって形成される、請求項1に記載のステレオ音声符号化方法。
- 時間領域補正(TDC)が使用されないとき、前記因子βが0.5に近いときに前記セカンダリチャンネルを符号化するためのビットレートを大きくし、前記因子βが1.0または0.0に近いときに前記セカンダリチャンネルを符号化するためのビットレートを小さくするステップ
を含む、請求項1に記載のステレオ音声符号化方法。 - 時間領域補正(TDC)が使用されるとき、前記因子βが0.5に近いときに前記セカンダリチャンネルを符号化するためのビットレートを小さくし、前記因子βが1.0または0.0に近いときに前記セカンダリチャンネルを符号化するためのビットレートを大きくするステップ
を含む、請求項1に記載のステレオ音声符号化方法。 - 長期相関差を決定する前記ステップの前に、前記左チャンネルおよび前記右チャンネルの前記正規化された相関に事前適応因子を直接適用するステップ
を含む、請求項1に記載のステレオ音声符号化方法。 - (a)長期左チャンネルエネルギー値および長期右チャンネルエネルギー値、(b)前のフレームのフレーム分類、ならびに(c)前記前のフレームからの音声活動情報に応じて、前記事前適応因子を計算するステップ
を含む、請求項9に記載のステレオ音声符号化方法。 - 実行されるときにプロセッサに請求項1から10のいずれか一項に記載の方法の動作を実施させる非一時的命令を含むプロセッサ可読メモリ。
- 左チャンネルおよび右チャンネルを含む入力ステレオ音声信号に応じてステレオ音声を符号化するためのステレオ音声符号化システムであって、
少なくとも1つのプロセッサと、
前記プロセッサに接続された、非一時的命令を含むメモリと
を含み、前記命令は、実行されるときに前記プロセッサに、
前記左チャンネルの正規化された相関および前記右チャンネルの正規化された相関を前記ステレオ音声のモノラル信号バージョンに関連して決定するための正規化相関アナライザと、
前記左チャンネルの前記正規化された相関および前記右チャンネルの前記正規化された相関に基づく長期相関差の計算器と、
因子βへの前記長期相関差のコンバータであって、0≦β≦1である、コンバータと、
前記入力ステレオ音声信号の前記左チャンネルおよび前記右チャンネルからのプライマリチャンネルおよびセカンダリチャンネルの生成器と、
符号化されたプライマリチャンネルビットストリームを生成するための前記プライマリチャンネルのプライマリチャンネルエンコーダ、および符号化されたセカンダリチャンネルビットストリームを生成するための前記セカンダリチャンネルのセカンダリチャンネルエンコーダであって、前記プライマリチャンネルエンコーダおよび前記セカンダリチャンネルエンコーダは、前記因子βを使用する、前記プライマリチャンネルの符号化と前記セカンダリチャンネルの符号化とへのビットバジェットの割り当て器を含む、プライマリチャンネルエンコーダおよびセカンダリチャンネルエンコーダと
を実施させ、
前記符号化されたプライマリチャンネルビットストリームおよび前記符号化されたセカンダリチャンネルビットストリームが前記ステレオ音声の符号化バージョンを形成する、ステレオ音声符号化システム。 - 前記命令は、実行されるときに前記プロセッサに、
(a)前記左チャンネルおよび前記右チャンネルの各々のエネルギーを決定し、(b)前記左チャンネルの前記エネルギーを使用して前記左チャンネルの長期エネルギー値を決定し、前記右チャンネルの前記エネルギーを使用して前記右チャンネルの長期エネルギー値を決定するためのエネルギーアナライザと、
前記左チャンネルの前記長期エネルギー値を使用して前記左チャンネルにおける前記エネルギーの増大または減少する動向を決定し、前記右チャンネルの前記長期エネルギー値を使用して前記右チャンネルにおける前記エネルギーの増大または減少する動向を決定するためのエネルギー動向アナライザと
を実施させる、請求項12に記載のステレオ音声符号化システム。 - 前記長期相関差の前記計算器が、
前記左チャンネルおよび前記右チャンネルにおける前記エネルギーの前記動向を使用して決定された前記長期相関差の収束の速度を使用して前記左チャンネルおよび前記右チャンネルの前記正規化された相関を平滑化し、
平滑化された正規化された相関を使用して前記長期相関差を決定する、請求項13に記載のステレオ音声符号化システム。 - 因子βへの前記長期相関差の前記コンバータが、
前記長期相関差を線形化し、
線形化された前記長期相関差を所与の関数にマッピングして、前記因子βを生成する、請求項12に記載のステレオ音声符号化システム。 - 前記プライマリチャンネルが前記右チャンネルによって形成され、前記セカンダリチャンネルが前記左チャンネルによって形成される、請求項12に記載のステレオ音声符号化システム。
- 前記プライマリチャンネルが前記左チャンネルによって形成され、前記セカンダリチャンネルが前記右チャンネルによって形成される、請求項12に記載のステレオ音声符号化システム。
- 前記命令は、実行されるときに前記プロセッサに、
時間領域補正(TDC)が使用されないとき、前記因子βが0.5に近いときに前記セカンダリチャンネルを符号化するためのビットレートを大きくし、前記因子βが1.0または0.0に近いときに前記セカンダリチャンネルを符号化するためのビットレートを小さくするための手段
を実施させる、請求項12に記載のステレオ音声符号化システム。 - 前記命令は、実行されるときに前記プロセッサに、
時間領域補正(TDC)が使用されるとき、前記因子βが0.5に近いときに前記セカンダリチャンネルを符号化するためのビットレートを小さくし、前記因子βが1.0または0.0に近いときに前記セカンダリチャンネルを符号化するためのビットレートを大きくするための手段
を実施させる、請求項12に記載のステレオ音声符号化システム。 - 前記命令は、実行されるときに前記プロセッサに、
前記長期相関差を決定する前に、前記左チャンネルおよび前記右チャンネルの前記正規化された相関に事前適応因子を直接適用するための事前適応因子計算器
を実施させる、請求項12に記載のステレオ音声符号化システム。 - 前記事前適応因子計算器が、(a)長期左チャンネルエネルギー値および長期右チャンネルエネルギー値、(b)前のフレームのフレーム分類、ならびに(c)前記前のフレームからの音声活動情報に応じて、前記事前適応因子を計算する、請求項20に記載のステレオ音声符号化システム。
- 左チャンネルおよび右チャンネルを含む入力ステレオ音声信号に応じてステレオ音声を符号化するためのステレオ音声符号化システムであって、
前記左チャンネルの正規化された相関および前記右チャンネルの正規化された相関を前記ステレオ音声のモノラル信号バージョンに関連して決定するための正規化相関アナライザと、
前記左チャンネルの前記正規化された相関および前記右チャンネルの前記正規化された相関に基づく長期相関差の計算器と、
因子βへの前記長期相関差のコンバータであって、0≦β≦1である、コンバータと、
前記入力ステレオ音声信号の前記左チャンネルおよび前記右チャンネルからのプライマリチャンネルおよびセカンダリチャンネルの生成器と、
符号化されたプライマリチャンネルビットストリームを生成するための前記プライマリチャンネルのプライマリチャンネルエンコーダ、および符号化されたセカンダリチャンネルビットストリームを生成するための前記セカンダリチャンネルのセカンダリチャンネルエンコーダであって、前記プライマリチャンネルエンコーダおよび前記セカンダリチャンネルエンコーダは、前記因子βを使用する、前記プライマリチャンネルの符号化と前記セカンダリチャンネルの符号化とへのビットバジェットの割り当て器を含む、プライマリチャンネルエンコーダおよびセカンダリチャンネルエンコーダと
を含み、
前記符号化されたプライマリチャンネルビットストリームおよび前記符号化されたセカンダリチャンネルビットストリームが前記ステレオ音声の符号化バージョンを形成する、ステレオ音声符号化システム。 - 左チャンネルおよび右チャンネルを含む入力ステレオ音声信号に応じてステレオ音声を符号化するためのステレオ音声符号化システムであって、
少なくとも1つのプロセッサと、
前記プロセッサに接続された、非一時的命令を含むメモリと
を含み、前記命令は、実行されるときに前記プロセッサに、
前記左チャンネルの正規化された相関および前記右チャンネルの正規化された相関を前記ステレオ音声のモノラル信号バージョンに関連して決定することと、
前記左チャンネルの前記正規化された相関および前記右チャンネルの前記正規化された相関に基づく長期相関差を計算することと、
前記長期相関差を因子βに変換することであって、0≦β≦1である、ことと、
前記入力ステレオ音声信号の前記左チャンネルおよび前記右チャンネルからプライマリチャンネルおよびセカンダリチャンネルを生成することと、
符号化されたプライマリチャンネルビットストリームを生成するために、プライマリチャンネルエンコーダを使用して前記プライマリチャンネルを符号化し、符号化されたセカンダリチャンネルビットストリームを生成するために、セカンダリチャンネルエンコーダを使用して前記セカンダリチャンネルを符号化することであって、前記プライマリチャンネルエンコーダおよび前記セカンダリチャンネルエンコーダは、前記因子βを使用して前記プライマリチャンネルの符号化と前記セカンダリチャンネルの符号化とにビットバジェットを割り当てる、ことと
を行わせ、
前記符号化されたプライマリチャンネルビットストリームおよび前記符号化されたセカンダリチャンネルビットストリームが前記ステレオ音声の符号化バージョンを形成する、ステレオ音声符号化システム。 - 前記プロセッサは、
(a)前記左チャンネルおよび前記右チャンネルの各々のエネルギーを決定し、(b)前記左チャンネルの前記エネルギーを使用して前記左チャンネルの長期エネルギー値を決定し、前記右チャンネルの前記エネルギーを使用して前記右チャンネルの長期エネルギー値を決定し、
前記左チャンネルの前記長期エネルギー値を使用して前記左チャンネルにおける前記エネルギーの増大または減少する動向を決定し、前記右チャンネルの前記長期エネルギー値を使用して前記右チャンネルにおける前記エネルギーの増大または減少する動向を決定する、請求項23に記載のステレオ音声符号化システム。 - 前記長期相関差を決定するために、前記プロセッサは、
前記左チャンネルおよび前記右チャンネルにおける前記エネルギーの前記動向を使用して決定された前記長期相関差の収束の速度を使用して前記左チャンネルおよび前記右チャンネルの前記正規化された相関を平滑化し、
平滑化された前記正規化された相関を使用して前記長期相関差を決定する、請求項24に記載のステレオ音声符号化システム。 - 前記長期相関差を前記因子βに変換するために、前記プロセッサは、
前記長期相関差を線形化し、
線形化された前記長期相関差を所与の関数にマッピングして、前記因子βを生成する、請求項23に記載のステレオ音声符号化システム。 - 前記プライマリチャンネルが前記右チャンネルによって形成され、前記セカンダリチャンネルが前記左チャンネルによって形成される、請求項23に記載のステレオ音声符号化システム。
- 前記プライマリチャンネルが前記左チャンネルによって形成され、前記セカンダリチャンネルが前記右チャンネルによって形成される、請求項23に記載のステレオ音声符号化システム。
- 時間領域補正(TDC)が使用されないとき、前記プロセッサは、前記因子βが0.5に近いときに前記セカンダリチャンネルを符号化するためのビットレートを大きくし、前記因子βが1.0または0.0に近いときに前記セカンダリチャンネルを符号化するためのビットレートを小さくする、請求項23に記載のステレオ音声符号化システム。
- 時間領域補正(TDC)が使用されるとき、前記プロセッサは、前記因子βが0.5に近いときに前記セカンダリチャンネルを符号化するためのビットレートを小さくし、前記因子βが1.0または0.0に近いときに前記セカンダリチャンネルを符号化するためのビットレートを大きくする、請求項23に記載のステレオ音声符号化システム。
- 前記プロセッサは、前記長期相関差を決定する前に、前記左チャンネルおよび前記右チャンネルの前記正規化された相関に事前適応因子を直接適用する、請求項23に記載のステレオ音声符号化システム。
- 前記プロセッサは、(a)長期左チャンネルエネルギー値および長期右チャンネルエネルギー値、(b)前のフレームのフレーム分類、ならびに(c)前記前のフレームからの音声活動情報に応じて、前記事前適応因子を計算する、請求項31に記載のステレオ音声符号化システム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562232589P | 2015-09-25 | 2015-09-25 | |
US62/232,589 | 2015-09-25 | ||
US201662362360P | 2016-07-14 | 2016-07-14 | |
US62/362,360 | 2016-07-14 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018515504A Division JP6804528B2 (ja) | 2015-09-25 | 2016-09-22 | ステレオ音声信号をプライマリチャンネルおよびセカンダリチャンネルに時間領域ダウンミックスするために左チャンネルと右チャンネルとの間の長期相関差を使用する方法およびシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021047431A JP2021047431A (ja) | 2021-03-25 |
JP7140817B2 true JP7140817B2 (ja) | 2022-09-21 |
Family
ID=58385516
Family Applications (6)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018515518A Active JP6976934B2 (ja) | 2015-09-25 | 2016-09-22 | ビットバジェットに応じて2サブフレームモデルと4サブフレームモデルとの間で選択を行うステレオ音声信号の左チャンネルおよび右チャンネルを符号化するための方法およびシステム |
JP2018515517A Active JP6887995B2 (ja) | 2015-09-25 | 2016-09-22 | セカンダリチャンネルを符号化するためにプライマリチャンネルのコーディングパラメータを使用するステレオ音声信号を符号化するための方法およびシステム |
JP2018515504A Active JP6804528B2 (ja) | 2015-09-25 | 2016-09-22 | ステレオ音声信号をプライマリチャンネルおよびセカンダリチャンネルに時間領域ダウンミックスするために左チャンネルと右チャンネルとの間の長期相関差を使用する方法およびシステム |
JP2020199441A Active JP7140817B2 (ja) | 2015-09-25 | 2020-12-01 | ステレオ音声信号をプライマリチャンネルおよびセカンダリチャンネルに時間領域ダウンミックスするために左チャンネルと右チャンネルとの間の長期相関差を使用する方法およびシステム |
JP2021084635A Active JP7124170B2 (ja) | 2015-09-25 | 2021-05-19 | セカンダリチャンネルを符号化するためにプライマリチャンネルのコーディングパラメータを使用するステレオ音声信号を符号化するための方法およびシステム |
JP2021182560A Active JP7244609B2 (ja) | 2015-09-25 | 2021-11-09 | ビットバジェットに応じて2サブフレームモデルと4サブフレームモデルとの間で選択を行うステレオ音声信号の左チャンネルおよび右チャンネルを符号化するための方法およびシステム |
Family Applications Before (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018515518A Active JP6976934B2 (ja) | 2015-09-25 | 2016-09-22 | ビットバジェットに応じて2サブフレームモデルと4サブフレームモデルとの間で選択を行うステレオ音声信号の左チャンネルおよび右チャンネルを符号化するための方法およびシステム |
JP2018515517A Active JP6887995B2 (ja) | 2015-09-25 | 2016-09-22 | セカンダリチャンネルを符号化するためにプライマリチャンネルのコーディングパラメータを使用するステレオ音声信号を符号化するための方法およびシステム |
JP2018515504A Active JP6804528B2 (ja) | 2015-09-25 | 2016-09-22 | ステレオ音声信号をプライマリチャンネルおよびセカンダリチャンネルに時間領域ダウンミックスするために左チャンネルと右チャンネルとの間の長期相関差を使用する方法およびシステム |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021084635A Active JP7124170B2 (ja) | 2015-09-25 | 2021-05-19 | セカンダリチャンネルを符号化するためにプライマリチャンネルのコーディングパラメータを使用するステレオ音声信号を符号化するための方法およびシステム |
JP2021182560A Active JP7244609B2 (ja) | 2015-09-25 | 2021-11-09 | ビットバジェットに応じて2サブフレームモデルと4サブフレームモデルとの間で選択を行うステレオ音声信号の左チャンネルおよび右チャンネルを符号化するための方法およびシステム |
Country Status (17)
Country | Link |
---|---|
US (8) | US10339940B2 (ja) |
EP (8) | EP4235659A3 (ja) |
JP (6) | JP6976934B2 (ja) |
KR (3) | KR102677745B1 (ja) |
CN (4) | CN108352163B (ja) |
AU (1) | AU2016325879B2 (ja) |
CA (5) | CA2997334A1 (ja) |
DK (1) | DK3353779T3 (ja) |
ES (4) | ES2955962T3 (ja) |
HK (4) | HK1253570A1 (ja) |
MX (4) | MX2021005090A (ja) |
MY (2) | MY188370A (ja) |
PL (1) | PL3353779T3 (ja) |
PT (1) | PT3353779T (ja) |
RU (6) | RU2730548C2 (ja) |
WO (5) | WO2017049398A1 (ja) |
ZA (2) | ZA201801675B (ja) |
Families Citing this family (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
MX2021005090A (es) | 2015-09-25 | 2023-01-04 | Voiceage Corp | Método y sistema para codificar una señal de sonido estéreo utilizando los parámetros de codificación de un canal primario para codificar un canal secundario. |
US12125492B2 (en) | 2015-09-25 | 2024-10-22 | Voiceage Coproration | Method and system for decoding left and right channels of a stereo sound signal |
CN107742521B (zh) * | 2016-08-10 | 2021-08-13 | 华为技术有限公司 | 多声道信号的编码方法和编码器 |
MX2019003417A (es) * | 2016-09-28 | 2019-10-07 | Huawei Tech Co Ltd | Metodo, aparato y sistema de procesamiento de señales de audio de multicanal. |
CA3045847C (en) | 2016-11-08 | 2021-06-15 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Downmixer and method for downmixing at least two channels and multichannel encoder and multichannel decoder |
CN108269577B (zh) * | 2016-12-30 | 2019-10-22 | 华为技术有限公司 | 立体声编码方法及立体声编码器 |
CN110709925B (zh) * | 2017-04-10 | 2023-09-29 | 诺基亚技术有限公司 | 用于音频编码或解码的方法及装置 |
EP3396670B1 (en) * | 2017-04-28 | 2020-11-25 | Nxp B.V. | Speech signal processing |
US10224045B2 (en) * | 2017-05-11 | 2019-03-05 | Qualcomm Incorporated | Stereo parameters for stereo decoding |
CN109300480B (zh) | 2017-07-25 | 2020-10-16 | 华为技术有限公司 | 立体声信号的编解码方法和编解码装置 |
CN114898761A (zh) * | 2017-08-10 | 2022-08-12 | 华为技术有限公司 | 立体声信号编解码方法及装置 |
CN109389985B (zh) * | 2017-08-10 | 2021-09-14 | 华为技术有限公司 | 时域立体声编解码方法和相关产品 |
CN109389984B (zh) | 2017-08-10 | 2021-09-14 | 华为技术有限公司 | 时域立体声编解码方法和相关产品 |
CN117037814A (zh) * | 2017-08-10 | 2023-11-10 | 华为技术有限公司 | 时域立体声参数的编码方法和相关产品 |
CN109427337B (zh) | 2017-08-23 | 2021-03-30 | 华为技术有限公司 | 立体声信号编码时重建信号的方法和装置 |
CN109427338B (zh) | 2017-08-23 | 2021-03-30 | 华为技术有限公司 | 立体声信号的编码方法和编码装置 |
US10891960B2 (en) * | 2017-09-11 | 2021-01-12 | Qualcomm Incorproated | Temporal offset estimation |
CN111149160B (zh) * | 2017-09-20 | 2023-10-13 | 沃伊斯亚吉公司 | 在celp编解码器中在子帧之间分派比特预算的方法和设备 |
CN109859766B (zh) * | 2017-11-30 | 2021-08-20 | 华为技术有限公司 | 音频编解码方法和相关产品 |
CN110556117B (zh) * | 2018-05-31 | 2022-04-22 | 华为技术有限公司 | 立体声信号的编码方法和装置 |
CN110556119B (zh) * | 2018-05-31 | 2022-02-18 | 华为技术有限公司 | 一种下混信号的计算方法及装置 |
CN110556118B (zh) | 2018-05-31 | 2022-05-10 | 华为技术有限公司 | 立体声信号的编码方法和装置 |
CN110660400B (zh) * | 2018-06-29 | 2022-07-12 | 华为技术有限公司 | 立体声信号的编码、解码方法、编码装置和解码装置 |
CN115831130A (zh) * | 2018-06-29 | 2023-03-21 | 华为技术有限公司 | 立体声信号的编码方法、解码方法、编码装置和解码装置 |
CN113841197B (zh) * | 2019-03-14 | 2022-12-27 | 博姆云360公司 | 具有优先级的空间感知多频带压缩系统 |
EP3719799A1 (en) * | 2019-04-04 | 2020-10-07 | FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. | A multi-channel audio encoder, decoder, methods and computer program for switching between a parametric multi-channel operation and an individual channel operation |
CN111988726A (zh) * | 2019-05-06 | 2020-11-24 | 深圳市三诺数字科技有限公司 | 一种立体声合成单声道的方法和系统 |
CN112233682B (zh) * | 2019-06-29 | 2024-07-16 | 华为技术有限公司 | 一种立体声编码方法、立体声解码方法和装置 |
CN112151045B (zh) * | 2019-06-29 | 2024-06-04 | 华为技术有限公司 | 一种立体声编码方法、立体声解码方法和装置 |
EP4008000A1 (en) * | 2019-08-01 | 2022-06-08 | Dolby Laboratories Licensing Corporation | Encoding and decoding ivas bitstreams |
CN110534120B (zh) * | 2019-08-31 | 2021-10-01 | 深圳市友恺通信技术有限公司 | 一种移动网络环境下的环绕声误码修复方法 |
CN110809225B (zh) * | 2019-09-30 | 2021-11-23 | 歌尔股份有限公司 | 一种应用于立体声系统的自动校准喇叭的方法 |
US10856082B1 (en) * | 2019-10-09 | 2020-12-01 | Echowell Electronic Co., Ltd. | Audio system with sound-field-type nature sound effect |
JP7396459B2 (ja) * | 2020-03-09 | 2023-12-12 | 日本電信電話株式会社 | 音信号ダウンミックス方法、音信号符号化方法、音信号ダウンミックス装置、音信号符号化装置、プログラム及び記録媒体 |
WO2021181746A1 (ja) * | 2020-03-09 | 2021-09-16 | 日本電信電話株式会社 | 音信号ダウンミックス方法、音信号符号化方法、音信号ダウンミックス装置、音信号符号化装置、プログラム及び記録媒体 |
CN115244619A (zh) * | 2020-03-09 | 2022-10-25 | 日本电信电话株式会社 | 声音信号编码方法、声音信号解码方法、声音信号编码装置、声音信号解码装置、程序以及记录介质 |
CN115244618A (zh) * | 2020-03-09 | 2022-10-25 | 日本电信电话株式会社 | 声音信号编码方法、声音信号解码方法、声音信号编码装置、声音信号解码装置、程序以及记录介质 |
WO2021207825A1 (en) | 2020-04-16 | 2021-10-21 | Voiceage Corporation | Method and device for speech/music classification and core encoder selection in a sound codec |
CN113571073A (zh) | 2020-04-28 | 2021-10-29 | 华为技术有限公司 | 一种线性预测编码参数的编码方法和编码装置 |
CN111599381A (zh) * | 2020-05-29 | 2020-08-28 | 广州繁星互娱信息科技有限公司 | 音频数据处理方法、装置、设备及计算机存储介质 |
EP4243015A4 (en) | 2021-01-27 | 2024-04-17 | Samsung Electronics Co., Ltd. | AUDIO PROCESSING APPARATUS AND METHOD |
WO2024142357A1 (ja) * | 2022-12-28 | 2024-07-04 | 日本電信電話株式会社 | 音信号処理装置、音信号処理方法、プログラム |
WO2024142358A1 (ja) * | 2022-12-28 | 2024-07-04 | 日本電信電話株式会社 | 音信号処理装置、音信号処理方法、プログラム |
WO2024142360A1 (ja) * | 2022-12-28 | 2024-07-04 | 日本電信電話株式会社 | 音信号処理装置、音信号処理方法、プログラム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005202248A (ja) | 2004-01-16 | 2005-07-28 | Fujitsu Ltd | オーディオ符号化装置およびオーディオ符号化装置のフレーム領域割り当て回路 |
JP2007183528A (ja) | 2005-12-06 | 2007-07-19 | Fujitsu Ltd | 符号化装置、符号化方法、および符号化プログラム |
Family Cites Families (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01231523A (ja) * | 1988-03-11 | 1989-09-14 | Fujitsu Ltd | ステレオ信号符号化装置 |
JPH02124597A (ja) * | 1988-11-02 | 1990-05-11 | Yamaha Corp | 複数チャンネルの信号圧縮方法 |
US6330533B2 (en) * | 1998-08-24 | 2001-12-11 | Conexant Systems, Inc. | Speech encoder adaptively applying pitch preprocessing with warping of target signal |
SE519552C2 (sv) * | 1998-09-30 | 2003-03-11 | Ericsson Telefon Ab L M | Flerkanalig signalkodning och -avkodning |
EP1054575A3 (en) | 1999-05-17 | 2002-09-18 | Bose Corporation | Directional decoding |
US6397175B1 (en) * | 1999-07-19 | 2002-05-28 | Qualcomm Incorporated | Method and apparatus for subsampling phase spectrum information |
SE519976C2 (sv) * | 2000-09-15 | 2003-05-06 | Ericsson Telefon Ab L M | Kodning och avkodning av signaler från flera kanaler |
SE519981C2 (sv) * | 2000-09-15 | 2003-05-06 | Ericsson Telefon Ab L M | Kodning och avkodning av signaler från flera kanaler |
RU2316154C2 (ru) * | 2002-04-10 | 2008-01-27 | Конинклейке Филипс Электроникс Н.В. | Кодирование стереофонических сигналов |
JP2004325633A (ja) * | 2003-04-23 | 2004-11-18 | Matsushita Electric Ind Co Ltd | 信号符号化方法、信号符号化プログラム及びその記録媒体 |
SE527670C2 (sv) * | 2003-12-19 | 2006-05-09 | Ericsson Telefon Ab L M | Naturtrogenhetsoptimerad kodning med variabel ramlängd |
DE102004009954B4 (de) * | 2004-03-01 | 2005-12-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Verarbeiten eines Multikanalsignals |
US7668712B2 (en) * | 2004-03-31 | 2010-02-23 | Microsoft Corporation | Audio encoding and decoding with intra frames and adaptive forward error correction |
SE0400998D0 (sv) | 2004-04-16 | 2004-04-16 | Cooding Technologies Sweden Ab | Method for representing multi-channel audio signals |
US7283634B2 (en) * | 2004-08-31 | 2007-10-16 | Dts, Inc. | Method of mixing audio channels using correlated outputs |
US7630902B2 (en) * | 2004-09-17 | 2009-12-08 | Digital Rise Technology Co., Ltd. | Apparatus and methods for digital audio coding using codebook application ranges |
US20080255832A1 (en) * | 2004-09-28 | 2008-10-16 | Matsushita Electric Industrial Co., Ltd. | Scalable Encoding Apparatus and Scalable Encoding Method |
WO2006059567A1 (ja) * | 2004-11-30 | 2006-06-08 | Matsushita Electric Industrial Co., Ltd. | ステレオ符号化装置、ステレオ復号装置、およびこれらの方法 |
EP1691348A1 (en) * | 2005-02-14 | 2006-08-16 | Ecole Polytechnique Federale De Lausanne | Parametric joint-coding of audio sources |
US7573912B2 (en) * | 2005-02-22 | 2009-08-11 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschunng E.V. | Near-transparent or transparent multi-channel encoder/decoder scheme |
ATE521143T1 (de) * | 2005-02-23 | 2011-09-15 | Ericsson Telefon Ab L M | Adaptive bitzuweisung für die mehrkanal- audiokodierung |
US9626973B2 (en) | 2005-02-23 | 2017-04-18 | Telefonaktiebolaget L M Ericsson (Publ) | Adaptive bit allocation for multi-channel audio encoding |
US7751572B2 (en) * | 2005-04-15 | 2010-07-06 | Dolby International Ab | Adaptive residual audio coding |
US8227369B2 (en) | 2005-05-25 | 2012-07-24 | Celanese International Corp. | Layered composition and processes for preparing and using the composition |
BRPI0609897A2 (pt) * | 2005-05-25 | 2011-10-11 | Koninkl Philips Electronics Nv | codificador, decodificador, método para codificação de um sinal de multicanal, sinal de multicanal codificado, produto programa de computador, transmissor, receptor, sistema de transmissão, métodos de transmissão e de recebimento de um sinal de multicanal, dispositivos de registro e de reprodução de áudio, e, meio de armazenamento |
EP1920437A4 (en) | 2005-07-29 | 2010-01-06 | Lg Electronics Inc | METHOD FOR SIGNALING CUTTING INFORMATION |
EP1912206B1 (en) * | 2005-08-31 | 2013-01-09 | Panasonic Corporation | Stereo encoding device, stereo decoding device, and stereo encoding method |
US7974713B2 (en) * | 2005-10-12 | 2011-07-05 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Temporal and spatial shaping of multi-channel audio signals |
US20080262853A1 (en) | 2005-10-20 | 2008-10-23 | Lg Electronics, Inc. | Method for Encoding and Decoding Multi-Channel Audio Signal and Apparatus Thereof |
KR100888474B1 (ko) | 2005-11-21 | 2009-03-12 | 삼성전자주식회사 | 멀티채널 오디오 신호의 부호화/복호화 장치 및 방법 |
EP1989920B1 (en) * | 2006-02-21 | 2010-01-20 | Koninklijke Philips Electronics N.V. | Audio encoding and decoding |
JP4875142B2 (ja) | 2006-03-28 | 2012-02-15 | テレフオンアクチーボラゲット エル エム エリクソン(パブル) | マルチチャネル・サラウンドサウンドのためのデコーダのための方法及び装置 |
CA2874451C (en) | 2006-10-16 | 2016-09-06 | Dolby International Ab | Enhanced coding and parameter representation of multichannel downmixed object coding |
WO2008132826A1 (ja) * | 2007-04-20 | 2008-11-06 | Panasonic Corporation | ステレオ音声符号化装置およびステレオ音声符号化方法 |
US8046214B2 (en) * | 2007-06-22 | 2011-10-25 | Microsoft Corporation | Low complexity decoder for complex transform coding of multi-channel sound |
GB2453117B (en) | 2007-09-25 | 2012-05-23 | Motorola Mobility Inc | Apparatus and method for encoding a multi channel audio signal |
RU2452043C2 (ru) * | 2007-10-17 | 2012-05-27 | Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Форшунг Е.Ф. | Аудиокодирование с использованием понижающего микширования |
KR101505831B1 (ko) | 2007-10-30 | 2015-03-26 | 삼성전자주식회사 | 멀티 채널 신호의 부호화/복호화 방법 및 장치 |
US8103005B2 (en) | 2008-02-04 | 2012-01-24 | Creative Technology Ltd | Primary-ambient decomposition of stereo audio signals using a complex similarity index |
US20110019829A1 (en) | 2008-04-04 | 2011-01-27 | Panasonic Corporation | Stereo signal converter, stereo signal reverse converter, and methods for both |
KR20130133917A (ko) * | 2008-10-08 | 2013-12-09 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 다중 분해능 스위치드 오디오 부호화/복호화 방법 |
CN102292767B (zh) * | 2009-01-22 | 2013-05-08 | 松下电器产业株式会社 | 立体声音响信号编码装置、立体声音响信号解码装置及它们的编解码方法 |
WO2010091555A1 (zh) * | 2009-02-13 | 2010-08-19 | 华为技术有限公司 | 一种立体声编码方法和装置 |
WO2010097748A1 (en) | 2009-02-27 | 2010-09-02 | Koninklijke Philips Electronics N.V. | Parametric stereo encoding and decoding |
CN101826326B (zh) * | 2009-03-04 | 2012-04-04 | 华为技术有限公司 | 一种立体声编码方法、装置和编码器 |
CA2949616C (en) * | 2009-03-17 | 2019-11-26 | Dolby International Ab | Advanced stereo coding based on a combination of adaptively selectable left/right or mid/side stereo coding and of parametric stereo coding |
US8666752B2 (en) | 2009-03-18 | 2014-03-04 | Samsung Electronics Co., Ltd. | Apparatus and method for encoding and decoding multi-channel signal |
PL2491556T3 (pl) * | 2009-10-20 | 2024-08-26 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Dekoder sygnału audio, odpowiadający mu sposób oraz program komputerowy |
KR101710113B1 (ko) * | 2009-10-23 | 2017-02-27 | 삼성전자주식회사 | 위상 정보와 잔여 신호를 이용한 부호화/복호화 장치 및 방법 |
EP2323130A1 (en) * | 2009-11-12 | 2011-05-18 | Koninklijke Philips Electronics N.V. | Parametric encoding and decoding |
JP5813094B2 (ja) * | 2010-04-09 | 2015-11-17 | ドルビー・インターナショナル・アーベー | Mdctベース複素予測ステレオ符号化 |
US8463414B2 (en) * | 2010-08-09 | 2013-06-11 | Motorola Mobility Llc | Method and apparatus for estimating a parameter for low bit rate stereo transmission |
FR2966634A1 (fr) * | 2010-10-22 | 2012-04-27 | France Telecom | Codage/decodage parametrique stereo ameliore pour les canaux en opposition de phase |
HRP20240863T1 (hr) * | 2010-10-25 | 2024-10-11 | Voiceage Evs Llc | Kodiranje generičkih audio signala pri niskim bitskim brzinama i malim kašnjenjem |
CN102844808B (zh) * | 2010-11-03 | 2016-01-13 | 华为技术有限公司 | 用于编码多通道音频信号的参数编码器 |
ES2571742T3 (es) * | 2012-04-05 | 2016-05-26 | Huawei Tech Co Ltd | Método de determinación de un parámetro de codificación para una señal de audio multicanal y un codificador de audio multicanal |
CN103493127B (zh) | 2012-04-05 | 2015-03-11 | 华为技术有限公司 | 用于参数空间音频编码和解码的方法、参数空间音频编码器和参数空间音频解码器 |
US9479886B2 (en) * | 2012-07-20 | 2016-10-25 | Qualcomm Incorporated | Scalable downmix design with feedback for object-based surround codec |
US9754596B2 (en) * | 2013-02-14 | 2017-09-05 | Dolby Laboratories Licensing Corporation | Methods for controlling the inter-channel coherence of upmixed audio signals |
TWI713018B (zh) * | 2013-09-12 | 2020-12-11 | 瑞典商杜比國際公司 | 多聲道音訊系統中之解碼方法、解碼裝置、包含用於執行解碼方法的指令之非暫態電腦可讀取的媒體之電腦程式產品、包含解碼裝置的音訊系統 |
TWI557724B (zh) * | 2013-09-27 | 2016-11-11 | 杜比實驗室特許公司 | 用於將 n 聲道音頻節目編碼之方法、用於恢復 n 聲道音頻節目的 m 個聲道之方法、被配置成將 n 聲道音頻節目編碼之音頻編碼器及被配置成執行 n 聲道音頻節目的恢復之解碼器 |
CN106416302B (zh) * | 2013-12-23 | 2018-07-24 | 韦勒斯标准与技术协会公司 | 生成用于音频信号的滤波器的方法及其参数化装置 |
CN106463125B (zh) * | 2014-04-25 | 2020-09-15 | 杜比实验室特许公司 | 基于空间元数据的音频分割 |
MX2021005090A (es) | 2015-09-25 | 2023-01-04 | Voiceage Corp | Método y sistema para codificar una señal de sonido estéreo utilizando los parámetros de codificación de un canal primario para codificar un canal secundario. |
-
2016
- 2016-09-22 MX MX2021005090A patent/MX2021005090A/es unknown
- 2016-09-22 MY MYPI2018700870A patent/MY188370A/en unknown
- 2016-09-22 MX MX2021006677A patent/MX2021006677A/es unknown
- 2016-09-22 US US15/761,900 patent/US10339940B2/en active Active
- 2016-09-22 US US15/761,895 patent/US10522157B2/en active Active
- 2016-09-22 MY MYPI2018700869A patent/MY186661A/en unknown
- 2016-09-22 EP EP23172915.3A patent/EP4235659A3/en active Pending
- 2016-09-22 JP JP2018515518A patent/JP6976934B2/ja active Active
- 2016-09-22 EP EP21201478.1A patent/EP3961623A1/en active Pending
- 2016-09-22 RU RU2018114901A patent/RU2730548C2/ru active
- 2016-09-22 RU RU2018114899A patent/RU2729603C2/ru active
- 2016-09-22 ES ES16847684T patent/ES2955962T3/es active Active
- 2016-09-22 CN CN201680062619.2A patent/CN108352163B/zh active Active
- 2016-09-22 EP EP20170546.4A patent/EP3699909A1/en active Pending
- 2016-09-22 RU RU2018114898A patent/RU2728535C2/ru active
- 2016-09-22 ES ES16847685T patent/ES2809677T3/es active Active
- 2016-09-22 WO PCT/CA2016/051107 patent/WO2017049398A1/en active Application Filing
- 2016-09-22 PT PT168476851T patent/PT3353779T/pt unknown
- 2016-09-22 CA CA2997334A patent/CA2997334A1/en active Pending
- 2016-09-22 CN CN201680062546.7A patent/CN108352162B/zh active Active
- 2016-09-22 EP EP16847685.1A patent/EP3353779B1/en active Active
- 2016-09-22 WO PCT/CA2016/051105 patent/WO2017049396A1/en active Application Filing
- 2016-09-22 JP JP2018515517A patent/JP6887995B2/ja active Active
- 2016-09-22 MX MX2018003703A patent/MX2018003703A/es unknown
- 2016-09-22 CA CA2997331A patent/CA2997331C/en active Active
- 2016-09-22 JP JP2018515504A patent/JP6804528B2/ja active Active
- 2016-09-22 PL PL16847685T patent/PL3353779T3/pl unknown
- 2016-09-22 US US15/761,868 patent/US10325606B2/en active Active
- 2016-09-22 KR KR1020187008428A patent/KR102677745B1/ko active IP Right Grant
- 2016-09-22 US US15/761,858 patent/US10319385B2/en active Active
- 2016-09-22 CA CA2997513A patent/CA2997513A1/en active Pending
- 2016-09-22 CN CN202310177584.9A patent/CN116343802A/zh active Pending
- 2016-09-22 DK DK16847685.1T patent/DK3353779T3/da active
- 2016-09-22 CA CA2997332A patent/CA2997332A1/en active Pending
- 2016-09-22 WO PCT/CA2016/051108 patent/WO2017049399A1/en active Application Filing
- 2016-09-22 CN CN201680062618.8A patent/CN108352164B/zh active Active
- 2016-09-22 RU RU2020126655A patent/RU2764287C1/ru active
- 2016-09-22 EP EP16847684.4A patent/EP3353778B1/en active Active
- 2016-09-22 RU RU2020124137A patent/RU2763374C2/ru active
- 2016-09-22 EP EP16847686.9A patent/EP3353780B1/en active Active
- 2016-09-22 ES ES16847686T patent/ES2904275T3/es active Active
- 2016-09-22 AU AU2016325879A patent/AU2016325879B2/en not_active Expired - Fee Related
- 2016-09-22 RU RU2020125468A patent/RU2765565C2/ru active
- 2016-09-22 EP EP16847687.7A patent/EP3353784A4/en active Pending
- 2016-09-22 CA CA2997296A patent/CA2997296C/en active Active
- 2016-09-22 KR KR1020187008427A patent/KR102636396B1/ko active IP Right Grant
- 2016-09-22 US US15/761,883 patent/US10839813B2/en active Active
- 2016-09-22 WO PCT/CA2016/051106 patent/WO2017049397A1/en active Application Filing
- 2016-09-22 MX MX2018003242A patent/MX2018003242A/es unknown
- 2016-09-22 WO PCT/CA2016/051109 patent/WO2017049400A1/en active Application Filing
- 2016-09-22 KR KR1020187008429A patent/KR102636424B1/ko active IP Right Grant
- 2016-09-22 EP EP16847683.6A patent/EP3353777B8/en active Active
- 2016-09-22 ES ES16847683T patent/ES2949991T3/es active Active
-
2018
- 2018-03-12 ZA ZA2018/01675A patent/ZA201801675B/en unknown
- 2018-10-08 HK HK18112775.6A patent/HK1253570A1/zh unknown
- 2018-10-08 HK HK18112774.7A patent/HK1253569A1/zh unknown
-
2019
- 2019-01-03 HK HK19100048.1A patent/HK1257684A1/zh unknown
- 2019-02-01 HK HK19101883.7A patent/HK1259477A1/zh unknown
- 2019-03-29 US US16/369,156 patent/US10573327B2/en active Active
- 2019-03-29 US US16/369,086 patent/US11056121B2/en active Active
- 2019-04-11 US US16/381,706 patent/US10984806B2/en active Active
-
2020
- 2020-06-11 ZA ZA2020/03500A patent/ZA202003500B/en unknown
- 2020-12-01 JP JP2020199441A patent/JP7140817B2/ja active Active
-
2021
- 2021-05-19 JP JP2021084635A patent/JP7124170B2/ja active Active
- 2021-11-09 JP JP2021182560A patent/JP7244609B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005202248A (ja) | 2004-01-16 | 2005-07-28 | Fujitsu Ltd | オーディオ符号化装置およびオーディオ符号化装置のフレーム領域割り当て回路 |
JP2007183528A (ja) | 2005-12-06 | 2007-07-19 | Fujitsu Ltd | 符号化装置、符号化方法、および符号化プログラム |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7244609B2 (ja) | ビットバジェットに応じて2サブフレームモデルと4サブフレームモデルとの間で選択を行うステレオ音声信号の左チャンネルおよび右チャンネルを符号化するための方法およびシステム | |
US20210027794A1 (en) | Method and system for decoding left and right channels of a stereo sound signal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220502 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220815 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220908 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7140817 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |