JP2010505328A - オブジェクトベースオーディオ信号をエンコーディング及びデコーディングする方法及び装置 - Google Patents
オブジェクトベースオーディオ信号をエンコーディング及びデコーディングする方法及び装置 Download PDFInfo
- Publication number
- JP2010505328A JP2010505328A JP2009530280A JP2009530280A JP2010505328A JP 2010505328 A JP2010505328 A JP 2010505328A JP 2009530280 A JP2009530280 A JP 2009530280A JP 2009530280 A JP2009530280 A JP 2009530280A JP 2010505328 A JP2010505328 A JP 2010505328A
- Authority
- JP
- Japan
- Prior art keywords
- information
- signal
- channel
- audio
- rendering
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 91
- 230000005236 sound signal Effects 0.000 title claims abstract description 39
- 238000009877 rendering Methods 0.000 claims abstract description 71
- 238000012545 processing Methods 0.000 claims description 40
- 238000004590 computer program Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 28
- 238000012546 transfer Methods 0.000 description 16
- 230000004807 localization Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 8
- 238000004091 panning Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 238000005034 decoration Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000012805 post-processing Methods 0.000 description 4
- 230000003313 weakening effect Effects 0.000 description 4
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000005192 partition Methods 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000005728 strengthening Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 208000023514 Barrett esophagus Diseases 0.000 description 1
- 241000405217 Viola <butterfly> Species 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 210000003454 tympanic membrane Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/087—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters using mixed excitation models, e.g. MELP, MBE, split band LPC or HVXC
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/20—Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M7/00—Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
- H03M7/30—Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/04—Time compression or expansion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/03—Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Theoretical Computer Science (AREA)
- Stereophonic System (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
【解決手段】入力オーディオ信号からオブジェクトベース付加情報及びダウンミックス信号を抽出する段階と、入力制御データに基づいてレンダリング情報を生成する段階と、オブジェクトベース付加情報及びレンダリング情報に基づいて空間情報を生成する段階と、を含むオーディオデコーディング方法とした。
【選択図】図3
Description
オーディオ信号デコーディング方法は、オーディオ信号からオブジェクトベース付加情報及びダウンミックス信号を抽出する段階と、前記オブジェクトベース付加情報から抽出された前記ダウンミックス信号及び抽出された情報に基づいて修正されたダウンミックス信号を生成する段階と、前記ダウンミックス信号をレンダリングするための制御データ及び前記オブジェクトベース付加情報に基づいてチャネルベース付加情報を生成する段階と、前記修正されたダウンミックス信号及び前記チャネルベース付加情報に基づいてマルチチャネルオーディオ信号を生成する段階と、を含む。
一般に、マルチチャネルオーディオエンコーディング(multi−channel audio encoding)及びデコーディング(decoding)技術において、マルチチャネル信号の多チャネル信号は、より少ない数のチャネル信号にダウンミックス(downmix)され、元のチャネル信号(original channel signal)に関する付加情報(side information)が転送され、元のマルチチャネル信号と同じ程度の多チャネルを持つマルチチャネル信号に復元される。
オブジェクトベースオーディオエンコーディング及びデコーディング技術は、数個の音源(sound source)をより少ない数の音源信号にダウンミックスし、元の音源に関する付加情報を転送する点で、マルチチャネルオーディオエンコーディング及びデコーディング技術と基本的に同様である。しかし、オブジェクトベースオーディオエンコーディング及びデコーディング技術において、チャネル信号の基本的な成分(例えば、楽器または人の声)であるオブジェクト信号は、マルチチャネルオーディオエンコーディング及びデコーディング技術のチャネル信号と同一に取り扱われてコーディングされることができる。
すなわち、オブジェクトベースオーディオエンコーディング及びデコーディング技術では、各オブジェクト信号はコーディングされる個体と見なされる。これと関連して、マルチチャネルオーディオコーディング動作が、コーディングされるチャネル信号の成分の数によらずチャネル間情報(inter−channel information)に基づいて簡単に実行されるという点で、オブジェクトベースオーディオエンコーディング及びデコーディング技術はマルチチャネルオーディオエンコーディング及びデコーディング技術と異なる。
本発明の目的は、各オブジェクトオーディオ信号に対して所定の位置に音像が位置することができるようにオーディオ信号がエンコーディングされたりデコーディングされるオーディオエンコーディング方法及び装置並びにオーディオデコーディング方法及び装置を提供することにある。
本発明の一態様によれば、入力オーディオ信号からオブジェクトベース付加情報及びダウンミックス信号を抽出する段階と、入力制御データに基づいてレンダリング情報を生成する段階と、前記オブジェクトベース付加情報及び前記レンダリング情報に基づいて空間情報を生成する段階と、を含むオーディオデコーディング方法が提供される。
本発明の他の態様によれば、入力オーディオ信号からオブジェクトベース付加情報及びダウンミックス信号を抽出するデマルチプレクサ(demultiplexer)と、入力制御データに基づいてレンダリング情報を生成するレンダリング部(renderer)と、前記オブジェクトベース付加情報及び前記レンダリング情報に基づいて空間情報を生成するトランスコーディング部(transcoder)と、を含むオーディオデコーディング装置が提供される。
本発明の一態様によれば、入力オーディオ信号からオブジェクトベース付加情報及びダウンミックス信号を抽出する段階と、入力制御データに基づいてレンダリング情報を生成する段階と、前記オブジェクトベース付加情報及び前記レンダリング情報に基づいて空間情報を生成する段階と、を含むオーディオデコーディング方法を実行するためのコンピュータプログラムを記録した、コンピュータ読取り可能記録媒体が提供される。
各オブジェクトオーディオ信号に対して所定の位置に音像が位置できるようにオーディオ信号がエンコーディングされたりデコーディングされることができるオーディオエンコーディング方法及び装置並びにオーディオデコーディング方法及び装置を提供することが可能になる。
以下、添付の図面を参照しつつ本発明の例示的な実施例を用いて本発明を詳細に開示する。
本発明によるオーディオエンコーディング方法及び装置並びにオーディオデコーディング方法及び装置は、オブジェクトベースオーディオ処理動作に適用することができるが、本発明がこれに限定されるわけではない。言い換えると、本発明によるオーディオエンコーディング方法及び装置及びオーディオデコーディング方法及び装置は、オブジェクトベースオーディオ処理動作の他、数多くの信号処理動作に適用することもできる。
図1は、一般のオブジェクトベースオーディオエンコーディング/デコーディングシステムを示すブロック図である。一般に、オブジェクトベースオーディオエンコーディング装置に入力されたオーディオ信号は、マルチチャネル信号のチャネルと一致しないが、独立したオブジェクト信号である。この点で、オブジェクトベースオーディオエンコーディング装置は、マルチチャネル信号のチャネル信号が入力されるマルチチャネルオーディオエンコーディング装置と区別される。
例えば、5.1チャネル信号のフロントレフト(front left)チャネル信号及びフロントライト(front right)チャネル信号のようなチャネル信号はマルチチャネルオーディオ信号に入力されることができるのに対し、チャネル信号よりも小さい個体(entity)である人の声または楽器の音(バイオリンまたはピアノの音)のようなオブジェクトオーディオ信号は、オブジェクトベースオーディオエンコーディング装置に入力されることができる。
図1を参照すると、オブジェクトベースオーディオエンコーディング/デコーディングシステムは、オブジェクトベースオーディオエンコーディング装置及びオブジェクトベースオーディオデコーディング装置を含む。オブジェクトベースオーディオエンコーディング装置は、オブジェクトエンコーディング部100を含み、オブジェクトベースオーディオデコーディング装置は、オブジェクトデコーディング部111及びレンダリング部(renderer)113を含む。
オブジェクトエンコーディング部100は、N個のオブジェクトオーディオ信号を受信し、エネルギー差、位相差及び相関値(correlation value)のようなN個のオブジェクトオーディオ信号から抽出された多数の情報を含む付加情報及び一つ以上のチャネルを持つオブジェクトベースダウンミックス信号を生成する。付加情報及びオブジェクトベースダウンミックス信号は一つのビットストリームに統合され、このビットストリームはオブジェクトベースデコーディング装置に転送される。
付加情報は、チャネルベースオーディオコーディングを実行するか或いはオブジェクトベースオーディオコーディングを実行するかを表すフラッグを含むことができ、この付加情報のフラッグに基づいてオブジェクトベースオーディオコーディングを実行するかチャネルベースオーディオコーディングを実行するかが決定されることができる。この付加情報は、オブジェクト信号に関するエンベロープ情報(envelope information)、グルーピング情報(grouping information)、無音期間情報(silent period information)及び遅延情報(delay information)も含むことができる。付加情報は、オブジェクトレベル差情報(object level differences information)、オブジェクト間相互相関情報(inter−object cross correlation information)、ダウンミックス利得情報、ダウンミックスチャネルレベル差情報及び絶対的オブジェクトエネルギー情報を含むことができる。
オブジェクトデコーディング部111は、オブジェクトベースオーディオエンコーディング装置から付加情報及びオブジェクトベースダウンミックス信号を受信し、オブジェクトベースダウンミックス信号及び付加情報に基づいてN個のオブジェクトオーディオ信号の特性と同一の特性を持つオブジェクト信号を復元する。オブジェクトデコーディング部111により生成されたオブジェクト信号は、マルチチャネル空間内の所定の位置にまだ割り当てられていない。したがって、レンダリング部113は、オブジェクトデコーディング部111により生成されたオブジェクト信号のそれぞれを、マルチチャネル空間内のあらかじめ定められた位置に割り当て、オブジェクト信号のレベルを決定し、これにより、レンダリング部113により指定されたそれぞれの対応する位置からオブジェクト信号がレンダリング部113により決定されたそれぞれの対応するレベルで再生されるようにする。オブジェクトデコーディング部111により生成されたオブジェクト信号のそれぞれに関する制御情報は、オーバータイム(over time)を変えることができるので、オブジェクトデコーディング部111により生成されたオブジェクト信号のレベル及び空間位置は制御情報によって変わることができる。
図2は、本発明の第1実施例によるオーディオデコーディング装置120を示すブロック図である。図2を参照すると、オーディオデコーディング装置120は、オブジェクトデコーディング部121、レンダリング部123及びパラメータコンバーティング部125を含む。オーディオデコーディング装置120は、入力されたビットストリームからの付加情報及びダウンミックス信号を抽出するデマルチプレクサ(demultiplexer)(図示せず)を含んでも良く、これは、本発明の他の実施例によるオーディオデコーディング装置のいずれにも適用されることができる。
オブジェクトデコーディング部121は、パラメータコンバーティング部125により提供された修正された(modified)付加情報及びダウンミックス信号に基づいて多くのオブジェクト信号を生成する。レンダリング部123は、マルチチャネル空間内のあらかじめ定められた位置に、オブジェクトデコーディング部121により生成されたオブジェクト信号のそれぞれを割り当て、制御情報によってオブジェクトデコーディング部121により生成されたオブジェクト信号のレベルを決定する。パラメータコンバーティング部125は、付加情報と制御情報とを結合させることによって修正された付加情報を生成する。続いて、パラメータコンバーティング部125は、修正された付加情報をオブジェクトデコーディング部121に転送する。
オブジェクトデコーディング部121は、修正された付加情報中の制御情報を分析することによって適切なデコーディングを実行することができる。
例えば、第1オブジェクト信号及び第2オブジェクト信号がマルチチャネル空間内の同一位置に割り当てられ且つ同一レベルを持つということを制御情報が示すと、一般のオーディオデコーディング装置は、第1及び第2オブジェクト信号を個別にデコーディングでき、続いてミキシング/レンダリング動作を通じてマルチチャネル空間内にそれらを配置することができる。
これに対し、オーディオデコーディング装置120のオブジェクトデコーディング部121は、修正された付加情報中の制御情報から、第1及び第2オブジェクト信号がマルチチャネル空間内の同一位置に割り当てられ、これらが一つの音源のように同一レベルを持つということがわかる。したがって、オブジェクトデコーディング部121は、第1及び第2オブジェクト信号を個別にデコーディングせずに、一つの音源として取扱ってデコーディングする。その結果、デコーディングの複雑度は減少する。しかも、処理されるべき音源数の減少によって、ミキシング/レンダリングの複雑度も減少する。
複数のオブジェクト信号が同一空間位置に割り当てられることは殆どないので、オーディオデコーディング装置120は、オブジェクト信号の数が出力チャネルの数よりも多い状況で有効に用いられることができる。
また、オーディオデコーディング装置120は、第1オブジェクト信号及び第2オブジェクト信号がマルチチャネル空間内の同一位置に割り当てられるが、異なるレベルを持つ状況で用いられることができる。この場合、オーディオデコーディング装置120は、第1及び第2オブジェクト信号を個別にデコーディングし、デコーディングされた第1及び第2オブジェクト信号をレンダリング部123に転送する代わりに、第1及び第2オブジェクト信号を一つとして取扱って第1及び第2オブジェクト信号をデコーディングする。より詳細には、オブジェクトデコーディング部121は、修正された付加情報中の制御情報から第1及び第2オブジェクト信号のレベル間の差に関する情報を獲得でき、獲得された情報に基づいて第1及び第2オブジェクト信号をデコーディングすることができる。その結果、第1及び第2オブジェクト信号が異なるレベルを持つ場合であっても、第1及び第2オブジェクト信号は一つの音源のようにデコーディングされることができる。
また、オブジェクトデコーディング部121は、制御情報によってオブジェクトデコーディング部121により生成されたオブジェクト信号のレベルを調節できる。続いて、オブジェクトデコーディング部121は、レベルの調節されたオブジェクト信号をデコーディングすることができる。したがって、レンダリング部123は、オブジェクトデコーディング部121から供給されたデコーディングされたオブジェクト信号のレベルを調節する必要はなく、単に、オブジェクトデコーディング部121から供給されたデコーディングされたオブジェクト信号をマルチチャネル空間内に配置する。要するに、オブジェクトデコーディング部121が制御情報によってオブジェクトデコーディング部121で生成されたオブジェクト信号のレベルを調節するので、オブジェクトデコーディング部121により生成されたオブジェクト信号のレベルをさらに調節する必要無しに、レンダリング部123は、オブジェクトデコーディング部121により生成されたオブジェクト信号をマルチチャネル空間内に容易に配置することができる。したがって、ミキシング/レンダリングの複雑度を減少させることが可能になる。
図2の実施例によれば、オーディオデコーディング装置120のオブジェクトデコーディング部は、制御情報の分析を通じてデコーディング動作を適切に実行することによって、デコーディングの複雑度及びミキシング/レンダリングの複雑度を減少させることができる。オーディオデコーディング装置120により実行された上記の方法の組合せが用いられることができる。
図3は、本発明の第2実施例によるオーディオデコーディング装置130を示すブロック図である。図3を参照すると、オーディオデコーディング装置130は、オブジェクトデコーディング部131及びレンダリング部133を含む。オーディオデコーディング装置130は、付加情報をオブジェクトデコーディング部131だけでなくレンダリング部133にも供給するという特徴を有する。
オーディオデコーディング装置130は、無音期間に相応するオブジェクト信号がある場合にもデコーディング動作を效果的に実行することができる。例えば、第2から第4オブジェクト信号は、楽器が演奏される間の音楽演奏期間に対応することができ、第1オブジェクト信号は伴奏が演奏される間の無音期間に対応することができる。この場合、複数のオブジェクト信号のいずれかが無音期間に対応するかを表す情報が付加情報に含まれることができ、この付加情報は、オブジェクトデコーディング部131だけでなくレンダリング部133にも供給されることができる。
オブジェクトデコーディング部131は、無音期間に対応するオブジェクト信号をデコーディングしないことによってデコーディングの複雑度を最小化することができる。オブジェクトデコーディング部131は、0値に対応するオブジェクト信号を設定し、このオブジェクト信号のレベルをレンダリング部133に転送する。通常、0値を持つオブジェクト信号は0でない値を持つオブジェクト信号と同一に取り扱われてミキシング/レンダリング動作が行なわれることがある。
これに対し、オーディオデコーディング装置130は、複数のオブジェクト信号のいずれかが無音期間に相応するかを表す情報を含む付加情報をレンダリング部133に転送するから、無音期間に対応するオブジェクト信号がレンダリング部133でミキシング/レンダリングされるのを防ぐことができる。したがって、オーディオデコーディング装置130は、ミキシング/レンダリングの余分な複雑度の増加を防止することができる。
レンダリング部133は、ステレオ場面(stereo scene)に各オブジェクト信号の音像を位置させる目的で、制御情報中に含まれたミキシングパラメータ情報を用いることができる。ミキシングパラメータ情報は、振幅情報のみを含んだり、振幅情報と時間情報を両方とも含むことができる。ミキシングパラメータ情報は、ステレオ音像の定位の他に、利用者による空間音質の心理音響認知にも影響を及ぼすことができる。
例えば、時間パンニング方法(time panning method)及び振幅パンニング方法(amplitude panning method)のそれぞれを用いて生成され、2−チャネルステレオスピーカーを用いて同一位置に再生された二つの音像を比較すると、振幅パンニング方法が音像の正確な定位に寄与し、時間パンニング方法が空間の深い感じを持つ自然的な音を提供することが見分けられる。したがって、マルチチャネル空間にオブジェクト信号を配置する上でレンダリング部133が振幅パンニング方法のみを利用するとすれば、レンダリング部133は、各音像を正確に配置することはできるが、時間パンニング方法を利用する場合のように音の奥深い感じを提供することはできない。利用者は、音源の種類によって音像の正確な定位よりも音の奥深い感じを好む場合もあり、その反対の場合もある。
図4(a)及び図4(b)では、2−チャネルステレオスピーカーで信号の再生を実行する際に、音像の定位上の時間差及び強度(振幅差)の影響を説明する。図4(a)及び図4(b)を参照すると、音像は互いに独立した振幅差及び時間差によってあらかじめ定められた角度に位置することができる。例えば、約8dBの振幅差、または約8dBの振幅差と等価である約0.5msの時間差は、20゜の角度に音像を位置させるために用いられることができる。したがって、振幅差のみがミキシングパラメータ情報として提供される場合であっても、音像の定位の間に、振幅差を該振幅差と等価である時間差に変換することによって、異なる特性を持つ様々な音を得ることが可能である。
図5は、10゜、20゜及び30゜の角度に音像を位置させるのに必要な振幅差と時間差間の対応に関する関数を示す。図5に示す関数は、図4(a)及び図4(b)に基づいて得られることができる。図5を参照すると、様々な振幅差−時間差の組合せが、あらかじめ定められた位置に音像を位置させるために提供されることができる。例えば、20゜の角度に音像を位置させるために8dBの振幅差がミキシングパラメータ情報として提供されると仮定する。図5に示す関数によって、また3dBの振幅差と0.3msの時間差の組合せを用いて音像は20゜の角度に位置することができる。この場合、振幅差情報だけでなく時間差情報がミキシングパラメータ情報として提供されることができ、これによって空間の感じ(feeling of space)を向上させることができる。
したがって、ミキシング/レンダリング動作の間に利用者の所望する特性を持つ音を生成すべく、ミキシングパラメータ情報は、振幅パンニングと時間パンニングのうち、利用者に適しているいずれかが実行されうるように適切に変換されることができる。すなわち、ミキシングパラメータ情報が振幅差情報のみを含み、利用者が空間の奥深い感じを持つ音を希望する場合では、振幅差情報は心理音響的データを参照して振幅差情報と等価である時間差情報に変換されることができる。また、利用者が空間の奥深い感じを持つ音及び音像の正確な定位を希望する場合では、振幅差情報を、元来の振幅情報と等価である時間差情報と振幅差情報の組合せに変換することができる。
また、ミキシングパラメータ情報が時間差情報のみを含み、利用者が音像の正確な定位を好む場合では、時間差情報を、時間差情報と等価である振幅差情報に変換したり、音像定位の正確性及び空間の感じを両方とも向上させることによって利用者の好みを満足させることのできる振幅差情報と時間差情報との組合せに変換することができる。
また、ミキシングパラメータ情報が振幅差情報及び時間差情報を含み、利用者が音像の正確な定位を好む場合では、振幅差情報と時間差情報との組合せを、元来の振幅差情報と時間差情報との組合せと等価である振幅差情報に変換することができる。一方、ミキシングパラメータ情報が振幅差情報及び時間差情報を含み、利用者が空間感の向上を好む場合では、振幅差情報と時間差情報との組合せを、振幅差情報と元来の時間差情報との組合せと等価である時間差情報に変換することができる。
図6において、制御情報は、一つ以上のオブジェクト信号に関する調和情報及びミキシング/レンダリング情報を含むことができる。調和情報は、ピッチ(pitch)情報、基本周波数情報、一つ以上のオブジェクト信号に関する優勢周波数バンド情報、及びオブジェクト信号のそれぞれの各サブバンドのエネルギー及びスペクトラムの説明のうち少なくとも一つを含むことができる。
サブバンド部でのレンダリング動作を実行するレンダリング部の解像度が充分でないから、調和情報をレンダリング動作中にオブジェクト信号を処理するのに用いることができる。
調和情報が一つ以上のオブジェクト信号に関するピッチ情報を含む場合では、オブジェクト信号のそれぞれの利得は、コムフィルター(comb filter)または逆コムフィルター(inverse comb filter)を用いてあらかじめ定められた周波数ドメインを弱化させたり強化させたりすることによって調節されることができる。例えば、複数のオブジェクト信号の一つが音声信号(vocal signal)であれば、オブジェクト信号を、音声信号のみを弱化させることによってカラオケとして用いられることができる。また、調和情報が一つ以上のオブジェクト信号に関する優勢周波数ドメイン情報を含む場合では、優勢周波数ドメインを弱化させたり強化させる処理を実行することができる。また、調和情報が一つ以上のオブジェクト信号に関するスペクトラム情報を含む場合では、オブジェクト信号のそれぞれの利得をサブバンド境界によって制限されずに弱化または強化を実行することによって制御することができる。
図7は、本発明の第3実施例によるオーディオデコーディング装置140を示すブロック図である。図7を参照すると、オーディオデコーディング装置140は、オブジェクトデコーディング部及びレンダリング部の代わりに、マルチチャネルデコーディング部141を採用し、オブジェクト信号がマルチチャネル空間内に適当に配置された後に複数のオブジェクト信号をデコーディングする。
より詳細には、オーディオデコーディング装置140は、マルチチャネルデコーディング部141及びパラメータコンバーティング部145を含む。マルチチャネルデコーディング部141は、パラメータコンバーティング部145より提供されたチャネルベース付加情報である空間パラメータ情報及びダウンミックス信号に基づいて、マルチチャネル空間内にそのオブジェクト信号が既に配置されたマルチチャネル信号を生成する。パラメータコンバーティング部145は、オーディオエンコーディング装置(図示せず)より転送された制御情報及び付加情報を分析し、分析結果に基づく空間パラメータ情報を生成する。より詳細には、パラメータコンバーティング部145は、プレイバック構成情報(playback setup information)及びミキシング情報を含む制御情報と付加情報とを結合させることによって空間パラメータ情報を生成する。すなわち、パラメータコンバーティング部145は、付加情報と制御情報との組合せをOTT(One−To−Two box)またはTTT(Two−To−Three box)に対応する空間データへの変換を実行する。
オーディオデコーディング装置140は、オブジェクトベースデコーディング動作及びミキシング/レンダリング動作が統合されるようにマルチチャネルデコーディングを実行でき、各オブジェクト信号のデコーディングをスキップ(skip)することができる。したがって、デコーディング及び/またはミキシング/レンダリングの複雑度を減少させることが可能になる。
例えば、10個のオブジェクト信号が存在し、10個のオブジェクト信号に基づいて獲得されたマルチチャネル信号が5.1チャネルスピーカー再生システムにより再生される場合、一般のオブジェクトベースオーディオデコーディング装置は、ダウンミックス信号及び付加情報に基づく10個のオブジェクト信号に対応してデコーディングされた信号を個別に生成し、続いて、それらオブジェクト信号が5.1チャネルスピーカー環境に適合するようにマルチチャネル空間内に10個のオブジェクト信号を適切に配置することによって5.1チャネル信号を生成する。しかし、5.1チャネル信号の生成の際に10個のオブジェクト信号を生成するということは非効率的であり、この問題は、生成されたマルチチャネル信号のチャネル数とオブジェクト信号数との差が増加するほどより深刻化する。
これに対し、図7の実施例によれば、オーディオデコーディング装置140は、付加情報及び制御情報に基づいて5.1チャネル信号に適合した空間パラメータ情報を生成し、空間パラメータ情報及びダウンミックス信号をマルチチャネルデコーディング部141に供給する。続いて、マルチチャネルデコーディング部141は、空間パラメータ情報及びダウンミックス信号に基づいて5.1チャネル信号を生成する。言い換えると、出力されるチャネルの数が5.1チャネルである場合、オーディオデコーディング装置140は、10個のオブジェクト信号を生成せずに、ダウンミックス信号に基づいて5.1チャネル信号を迅速に生成でき、よって、複雑度において一般のオーディオデコーディング装置に比べてより効果的となる。
オーディオエンコーディング装置より転送された制御情報及び付加情報の分析を通じて、OTT box及びTTT boxそれぞれに対応する空間パラメータ情報を計算するのに必要な計算量が、各オブジェクト信号のデコーディング後にミキシング/レンダリング動作を実行するのに必要な計算量よりも少ない場合に、オーディオデコーディング装置140は効率的なものと見なされる。
オーディオデコーディング装置140は、付加情報及び制御情報の分析を通じて空間パラメータ情報を生成するためのモジュールを、一般のマルチチャネルオーディオデコーディング装置に加えることによって簡単に得られることができ、したがって、一般のマルチチャネルオーディオデコーディング装置と互換性を維持することができる。また、エンベロープシェイパ(envelope shaper)、サブバンド時間処理(STP;sub−band temporal processing)ツール及びデコリレータ(decorrelator)のような一般のマルチチャネルオーディオデコーディング装置の現存するツールを用いて、オーディオデコーディング装置140は音質を向上させることができる。与えられたこれら全てから、一般のマルチチャネルオーディオデコーディング方法の全て利点は、オブジェクトオーディオデコーディング方法に容易に適用されることができるという結論に導かれる。
パラメータコンバーティング部145よりマルチチャネルデコーディング部141に転送された空間パラメータ情報は、転送されるのに適合するように圧縮されることができる。また、空間パラメータ情報は、一般のマルチチャネルエンコーディング装置より転送されたデータのフォーマットと同一のフォーマットを持つことができる。すなわち、空間パラメータ情報は、ハフマンデコーディング動作(Huffman decoding operation)またはパイロットデコーディング動作(pilot decoding operation)が行なわれることができ、よって、圧縮されていない空間キューデータ(cue data)として各モジュールに転送されることができる。ハフマンデコーディング動作は、空間パラメータ情報を遠隔位置のマルチチャネルオーディオデコーディング装置に転送するのに適合し、パイロットデコーディング動作は、マルチチャネルオーディオデコーディング装置が、圧縮された空間キューデータを、デコーディング動作に容易に用いられうる圧縮されていない空間キューデータに変換する必要がないという点で便利である。
付加情報及び制御情報の分析に基づく空間パラメータ情報の構成は、ダウンミックス信号と空間パラメータ情報間の遅延を引き起こすことができる。これをアドレスするために、ダウンミックス信号及び空間パラメータ情報が互いに同期化するように追加的なバッファーがダウンミックス信号または空間パラメータ情報のために提供されることができる。しかし、これらの方法は、追加的なバッファーの提供が要求されるという点で不便である。また、付加情報は、ダウンミックス信号と空間パラメータ情報間の遅延発生の可能性を考慮し、ダウンミックス信号に先立って転送されることができる。この場合に、付加情報と制御情報を結合することによって得られた空間パラメータ情報は調節されることなく容易に用いられることができる。
ダウンミックス信号の複数のオブジェクト信号が、異なるレベルを持つ場合、ダウンミックス信号を直接補償できるADGモジュールが、オブジェクト信号の相対的なレベルを決定することができ、よって、オブジェクト信号のそれぞれは、チャネルレベル差情報、チャネル間相関(ICC;inter−channel correlation)情報及びチャネル予測係数(CPC;channel predicion coefficient)のような空間キューデータを用いてマルチチャネル空間内のあらかじめ定められた位置に割り当てられることができる。
例えば、あらかじめ定められたオブジェクト信号がマルチチャネル空間内のあらかじめ定められた位置に割り当てられ、他のオブジェクト信号よりも高いレベルを持つということを制御情報が示す場合では、一般のマルチチャネルデコーディング部はダウンミックス信号のチャネルエネルギー間の差を計算し、このダウンミックス信号を計算の結果に基づいて多くの出力チャネルに分割することができる。しかし、一般のマルチチャネルデコーディング部は、ダウンミックス信号中の特定の音のボリュームを上げたり下げたりすることはできない。言い換えると、一般のマルチチャネルデコーディング部は、ダウンミックス信号を多くの出力チャネルに簡単に分配し、よって、ダウンミックス信号中の音のボリュームを上げたり下げたりすることができない。
オブジェクトエンコーディング部により生成されたダウンミックス信号の複数のオブジェクト信号のそれぞれを制御情報によってマルチチャネル空間内のあらかじめ定められた位置に割り当てることは比較的易しい。しかし、あらかじめ定められたオブジェクト信号の振幅を増やしたり減らしたりするには特別な技術が要求される。言い換えると、オブジェクトエンコーディング部により生成されたダウンミックス信号をそのまま利用するとしたらダウンミックス信号のそれぞれのオブジェクト信号の振幅は減らし難い。
したがって、本発明の実施例によって、オブジェクト信号の相対的な振幅が、図8に示すADGモジュールを用いて制御情報によって変わることができる。より詳細には、オブジェクトエンコーディング部より転送されたダウンミックス信号の複数のオブジェクト信号のいずれか一つの振幅を、ADGモジュール147によって増加させたり減少させたりすることができる。ADGモジュール147により実行された補償によって得られたダウンミックス信号はマルチチャネルデコーディングされることができる。
ダウンミックス信号のオブジェクト信号の相対的な振幅が、ADGモジュール147を用いて適切に調節される場合では、一般のマルチチャネルデコーディング部を用いてオブジェクトデコーディングを実行することができる。オブジェクトエンコーディング部により生成されたダウンミックス信号がモノまたはステレオ信号または3以上のチャネルを持つマルチチャネル信号であると、ダウンミックス信号は、ADGモジュール147により処理されることができる。オブジェクトエンコーディング部により生成されたダウンミックス信号が2以上のチャネルを有し、ADGモジュール147により調節されるべきあらかじめ定められたオブジェクト信号がダウンミックス信号の一つのチャネルでのみ存在する場合では、ADGモジュール147は、ダウンミックス信号の全てのチャネルに適用される代わりに、あらかじめ定められたオブジェクト信号を含むチャネルにのみ適用されることができる。上記の方法でADGモジュール147により処理されたダウンミックス信号を、マルチチャネルデコーディング部の構造を修正することなく一般のマルチチャネルデコーディング部を用いて容易に処理することができる。
最終出力信号が、マルチチャネルスピーカーにより再生されうるマルチチャネル信号ではなくバイノーラル(binaural)信号である場合でっても、ADGモジュール147は、最終出力信号のオブジェクト信号の相対的な振幅を調節するのに用いられることができる。
ADGモジュール147を用いる代わりに、複数のオブジェクト信号の生成の間に各オブジェクト信号に適用される利得値を特定する利得情報が制御情報中に含まれることができる。このため、一般のマルチチャネルデコーディング部の構造は修正されることができる。存在するマルチチャネルデコーディング部の構造の修正を必要とするとはいえ、この方法は、ADGを計算して各オブジェクト信号を補償することなく、デコーディング動作の間に各オブジェクト信号に利得値を適用するから、デコーディングの複雑度を低減する上で便利である。
図9は、本発明の第4実施例によるオーディオデコーディング装置150を示すブロック図である。図9を参照すると、オーディオデコーディング装置150は、バイノーラル信号を生成することに特徴がある。
より詳細には、オーディオデコーディング装置150は、マルチチャネルバイノーラルデコーディング部151、第1パラメータコンバーティング部157及び第2パラメータコンバーティング部159を含む。
第2パラメータコンバーティング部159は、オーディオエンコーディング装置より供給された制御情報及び付加情報を分析し、分析の結果に基づいて空間パラメータ情報を構成する。第1パラメータコンバーティング部157は、頭部伝達関数(HRTF;head−related transfer function)パラメータのような3次元(3D)情報を空間パラメータ情報に追加することによって、マルチチャネルバイノーラルデコーディング部151で使用できるようなバイノーラルパラメータ情報を構成する。マルチチャネルバイノーラルデコーディング部151は、仮想3Dパラメータ情報をダウンミックス信号に適用することによって仮想3D信号を生成する。
第1パラメータコンバーティング部157及び第2パラメータコンバーティング部159は、付加情報、制御情報及びHRTFパラメータを受信し、これら付加情報、制御情報及びHRTFパラメータに基づいてバイノーラルパラメータ情報を構成する単一モジュール、すなわち、パラメータ変換モジュール155に取って代わっても良い。
一般に、ヘッドホンで10個のオブジェクト信号を含むダウンミックス信号の再生のためのバイノーラル信号を生成するために、オブジェクト信号は、ダウンミックス信号及び付加情報に基づく10個のオブジェクト信号に対応するそれぞれの10個のデコーディングされた信号を生成しなければならない。その後、レンダリング部は、5−チャネルスピーカー環境に適合するように制御情報を参照してマルチチャネル空間内のあらかじめ定められた位置に10個のオブジェクト信号のそれぞれを割り当てる。その後に、レンダリング部は、5−チャネルスピーカを用いて再生できる5−チャネル信号を生成する。その後、レンダリング部は、HRTFパラメータを5−チャネル信号に適用して2−チャネル信号を生成する。要するに、上記の一般的なオーディオデコーディング方法は、10個のオブジェクト信号を再生する段階、10個のオブジェクト信号を5−チャネル信号に変換する段階、及び5−チャネル信号に基づく2−チャネル信号を生成する段階を含み、効果的でない。
これに対し、オーディオデコーディング装置150は、オブジェクトオーディオ信号に基づいてヘッドホンを用いて再生できるバイノーラル信号を容易に生成できる。しかも、オーディオデコーディング装置150は、付加情報及び制御情報の分析を通じて空間パラメータ情報を構成し、よって、一般的なマルチチャネルバイノーラルデコーディング部を用いてバイノーラル信号を生成できる。さらに、付加情報、制御情報及びHRTFパラメータを受信する統合されたパラメータコンバーティング部が組み込まれる場合においても、オーディオデコーディング装置150は一般的なマルチチャネルバイノーラルデコーディング部を依然として利用でき、付加情報、制御情報及びHRTFパラメータに基づくバイノーラルパラメータ情報を構成できる。
図10は、本発明の第5実施例によるオーディオデコーディング装置160を示すブロック図である。図10を参照すると、オーディオデコーディング装置160は、ダウンミックスプロセシング部161、マルチチャネルデコーディング部163及びパラメータコンバーティング部165を含む。ダウンミックスプロセシング部161及びパラメータコンバーティング部163は、単一モジュール167としても良い。
パラメータコンバーティング部165は、マルチチャネルデコーディング部163で用いられうるような空間パラメータ情報及びダウンミックスプロセシング部161で用いられうるようなパラメータ情報を生成する。ダウンミックスプロセシング部161は、ダウンミックス信号に前処理動作を実行し、前処理動作により生成されたダウンミックス信号をマルチチャネルデコーディング部163に転送する。マルチチャネルデコーディング部163は、ダウンミックスプロセシング部161より転送されたダウンミックス信号にデコーディング動作を実行し、ステレオ信号、バイノーラルステレオ信号またはマルチチャネル信号を出力する。ダウンミックスプロセシング部161により実行された前処理動作の例には、フィルタリングを用いた時間ドメインまたは周波数ドメインへのダウンミックス信号の変換または修正が含まれる。
オーディオデコーディング装置160に入力されたダウンミックス信号がステレオ信号であれば、マルチチャネルデコーディング部163は、複数のチャネルの一つであるレフトチャネルに対応するダウンミックス信号の成分を複数のチャネルの他の一つであるライトチャネルにマッピングできないから、ダウンミックス信号は、マルチチャネルデコーディング部163に入力される前にダウンミックスプロセシング部161で実行されたダウンミックス前処理されることができる。したがって、レフトチャネルに分類されたオブジェクト信号の位置をライトチャネルの方向に移動させるために、オーディオデコーディング装置160に入力されたダウンミックス信号は、ダウンミックスプロセシング部161により前処理されることができ、前処理されたダウンミックス信号は、マルチチャネルデコーディング部163に入力されることができる。
ステレオダウンミックス信号の前処理は、付加情報から及び制御情報から獲得された前処理した情報に基づいて実行されることができる。
図11は、本発明の第6実施例によるオーディオデコーディング装置170のブロック図である。図11を参照すると、オーディオデコーディング装置170は、マルチチャネルデコーディング部171、チャネルプロセシング部173及びパラメータコンバーティング部175を含む。
パラメータコンバーティング部175は、マルチチャネルデコーディング部173で用いられうるような空間パラメータ情報及びチャネルプロセシング部173で用いられうるようなパラメータ情報を生成する。チャネルプロセシング部173は、マルチチャネルデコーディング部173より出力された信号に後処理動作を実行する。マルチチャネルデコーディング部173より出力された信号の例には、ステレオ信号、バイノーラルステレオ信号及びマルチチャネル信号を含む。
ポストプロセシング部173により実行された後処理(post−processing)動作には、出力信号の各チャネルまたは全てのチャネルの修正及び変換が含まれる。例えば、付加情報があらかじめ定められたオブジェクト信号に関する基本周波数情報を含む場合では、チャネルプロセシング部173は、基本周波数情報を参照してあらかじめ定められたオブジェクト信号から調和成分を除去することができる。マルチチャネルオーディオデコーディング方法は、カラオケシステムに用いられるには充分に効果的でない場合もあり得る。しかし、音声オブジェクト信号に関する基本周波数情報が付加情報内に含まれ、音声オブジェクト信号の調和成分が後処理動作中に除去される場合では、図11の実施例を用いる高性能カラオケシステムを実現することができる。図11の実施例は、音声オブジェクト信号を除くオブジェクト信号に適用されることができる。例えば、図11の実施例を用いてあらかじめ定められた楽器の音を除去することが可能である。また、図11の実施例を用いてオブジェクト信号に関する基本周波数情報によってあらかじめ定められた調和成分を増幅することができる。
チャネルプロセシング部173は、ダウンミックス信号に追加的な効果処理(effect processing)を実行することができる。また、チャネルプロセシング部173は、追加的な効果処理によって得た信号を、マルチチャネルデコーディング部171より出力された信号に付加することができる。チャネルプロセシング部173は、必要時にオブジェクトのスペクトラムを変化させたりダウンミックス信号を修正したりすることができる。ダウンミックス信号への反射のような効果処理動作を直接実行し、エフェクト処理動作によって得られた信号をマルチチャネルデコーディング部171に転送することが適切でない場合では、ダウンミックスプロセシング部173は、ダウンミックス信号へのエフェクトプロセシングを実行する代わりに、エフェクトプロセシング動作によって得た信号をマルチチャネルデコーディング部171の出力に付加することができる。
オーディオデコーディング装置170は、チャネルプロセシング部173の他、ダウンミックスプロセシング部を含むように製作されることができる。この場合に、ダウンミックスプロセシング部は、マルチチャネルデコーディング部173の前に配置されることができ、チャネルプロセシング部173はマルチチャネルデコーディング部173の後に配置されることができる。
図12は、本発明による第7実施例によるオーディオデコーディング装置210を示すブロック図である。図12を参照すると、オーディオデコーディング装置210は、オブジェクトデコーディング部の代わりに、マルチチャネルデコーディング部213を用いる。
レンダリング部217は、制御情報に含まれたインデックスデータに対応する3D情報に基づいて複数のオブジェクト信号の3D位置を決定する。トランスコーディング部215は、レンダリング部217により適用された3D情報に複数のオブジェクトオーディオ信号に関する位置情報を合成することによってチャネルベース付加情報を生成する。マルチチャネルデコーディング部213は、チャネルベース付加情報をダウンミックス信号に適用することによって3D信号を出力する。
HRTFは3D情報として用いられることができる。HRTFは、任意位置における音源と鼓膜との間の音波の転送を説明し、音源の高度及び方向によって変わる値を返す伝達関数である。方向性を持たない信号がHRTFを用いてフィルタリングされると、信号は、特定の方向から再生されるかのように聞こえることができる。
入力ビットストリームを受信する場合、オーディオデコーディング装置210は、デマルチプレクサ(図示せず)を用いて入力ビットストリームからオブジェクトベースパラメータ情報及びオブジェクトベースダウンミックス信号を抽出する。その後、レンダリング部217は、複数のオブジェクトオーディオ信号の位置を決定するのに用いられる制御情報からインデックスデータを抽出し、3D情報データベース219から抽出されたインデックスデータに対応する3D情報を回収する。
より詳細には、オーディオデコーディング装置210で用いられる制御情報に含まれたミキシングパラメータ情報は、3D情報を検索するのに必要なレベル情報だけでなく、インデックスデータも含むことができる。このミキシングパラメータ情報は、レベル情報及び時間情報を適切に結合することによって得られた一つ以上のパラメータ、位置情報及びチャネル間の時間差に関する時間情報を含むことができる。
オブジェクトオーディオ信号の位置は、デフォルト(default)ミキシングパラメータ情報によって初期に決定されることができ、利用者が希望する位置に対応する3D情報をオブジェクトオーディオ信号に適用することによって後ほど変更されることができる。また、利用者が3D効果をいくつかのオブジェクトオーディオ信号に適用することを希望する場合では、利用者が3D効果を適用することを希望しない他のオブジェクトオーディオ信号に関する時間情報及びレベル情報は、ミキシングパラメータ情報として用いられることができる。
レンダリング部217によってHRTFのような3D情報が適用される複数のオブジェクト信号の位置情報とオーディオエンコーディング装置より転送されたN個のオブジェクト信号に関するオブジェクトベースパラメータ情報とを合成することによって、トランスコーディング部215はM個のチャネルに関するチャネルベース付加情報を生成する。
マルチチャネルデコーディング部213は、トランスコーディング部215より供給されたチャネルベース付加情報及びダウンミックス信号に基づくオーディオ信号を生成し、チャネルベース付加情報に含まれた3D情報を用いて3Dレンダリング動作を実行することによって3Dマルチチャネル信号を生成する。
図13は、本発明の第8実施例によるオーディオデコーディング装置220を示すブロック図である。図13を参照すると、オーディオデコーディング装置220は、トランスコーディング部225がチャネルベース付加情報と3D情報を個別にマルチチャネルデコーディング部223に転送するという点で、図12に示すオーディオデコーディング装置210と異なる。言い換えると、オーディオデコーディング装置210のトランスコーディング部215は、3D情報を含むチャネルベース付加情報をマルチチャネルデコーディング部213に転送する一方、オーディオデコーディング装置220のトランスコーディング部225はN個のオブジェクト信号に関するオブジェクトベースパラメータ情報からM個のチャネルに関するチャネルベース付加情報を得、N個のオブジェクト信号のそれぞれに適用された3D情報をマルチチャネルデコーディング部223に転送する。
図14を参照すると、チャネルベース付加情報及び3D情報は、複数のフレームインデックスなどを含むことができる。したがって、マルチチャネルデコーディング部223は、3D情報及びチャネルベース付加情報のそれぞれのフレームインデックスを参照した3D情報及びチャネルベース付加情報を同期化することができ、よって、3D情報を、D情報に対応するビットストリームのフレームに適用することができる。例えば、インデックス2を持つ3D情報を、インデックス2を持つフレーム2の始部に適用することができる。
チャネルベース付加情報及び3D情報はいずれもフレームインデックスを含むので、3D情報が時間を超過して更新されても、3D情報の適用されるチャネルベース付加情報の時間的位置を效果的に決定することができる。言い換えると、トランスコーディング部225は、チャネルベース付加情報中に複数のフレームインデックス及び3D情報を含み、よって、マルチチャネルデコーディング部223はチャネルベース付加情報と3D情報を容易に同期化することができる。
ダウンミックスプロセシング部231、トランスコーディング部235、レンダリング部237及び3D情報データベースは、単一モジュール239にしても良い。
図15は、本発明の第9実施例によるオーディオデコーディング装置230を示すブロック図である。図15を参照すると、オーディオデコーディング装置230は、ダウンミックスプロセシング部231をさらに含むという点で、図14に示すオーディオデコーディング装置220と区別される。
より詳細には、オーディオデコーディング装置230は、トランスコーディング部235、レンダリング部237、3D情報データベース239、マルチチャネルデコーディング部233及びダウンミックスプロセシング部231を含む。トランスコーディング部235、レンダリング部237、3D情報データベース239及びマルチチャネルデコーディング部233は、図14におけるそれらとそれぞれ同一である。ダウンミックスプロセシング部231は、位置調節のためにステレオダウンミックス信号に前処理動作を実行する。3D情報データベース239はレンダリング部237と統合されることができる。あらかじめ定められた効果をダウンミックス信号に適用するためのモジュールもこのオーディオデコーディング装置230内に組み込まれることができる。
図16は、本発明の第10実施例によるオーディオデコーディング装置240を示すブロック図である。図16を参照すると、オーディオデコーディング装置240は、多点制御部コンバイナ241を含むという点で、図15に示すオーディオデコーディング装置230と区別される。
すなわち、オーディオデコーディング装置230と同様に、オーディオデコーディング装置240は、ダウンミックスプロセシング部243、マルチチャネルデコーディング部244、トランスコーディング部245、レンダリング部247及び3D情報データベース249を含む。多点制御部コンバイナ241は、オブジェクトベースエンコーディングによって得た複数のビットストリームを結合して単一のビットストリームを得る。例えば、第1オーディオ信号のための第1ビットストリームと第2オーディオ信号のための第2ビットストリームが入力される場合、多点制御部コンバイナ241は、第1ビットストリームから第1ダウンミックス信号を抽出し、第2ビットストリームから第2ダウンミックス信号を抽出した後、第1及び第2ダウンミックス信号を結合させることによって第3ダウンミックス信号を生成する。なお、多点制御部コンバイナ241は、第1ビットストリームから第1オブジェクトベース付加情報を抽出し、第2ビットストリームから第2オブジェクトベース付加情報を抽出した後、第1オブジェクトベース付加情報と第2オブジェクトベース付加情報とを結合させることによって第3オブジェクトベース付加情報を生成する。その後、多点制御部コンバイナ241は、第3ダウンミックス信号と第3オブジェクトベース付加情報とを結合させることによってビットストリームを生成し、生成されたビットストリームを出力する。
したがって、各オブジェクト信号をエンコーディングまたはデコーディングする場合に比べて、本発明の第10実施例によると、2以上の通信相手より転送された信号まで效果的に処理することが可能になる。
多点制御部コンバイナ241が、複数のビットストリームから個別に抽出され、他の圧縮コーデックで結合された複数のダウンミックス信号を単一のダウンミックス信号内に統合するようにするために、これらのダウンミックス信号は、ダウンミックス信号の圧縮コーデックの種類によってあらかじめ定められた周波数ドメインの信号またはパルスコード変調(PCM;pulse code modulation)信号に変換される必要があり、この変換によって得た信号またはPCM信号は共に結合される必要があり、この結合によって得られた信号は、あらかじめ定められた圧縮コーデックを用いて変換される必要があり得る。この場合に、ダウンミックス信号があらかじめ定められた周波数ドメインの信号またはPCM信号に統合されるかによって遅延が発生することができる。しかし、遅延はデコーディング部によって正確に推定されることができない。したがって、遅延はビットストリームに含まれ、ビットストリームと共に転送される必要があり得る。遅延は、PCM信号内の遅延サンプルの数またはあらかじめ定められた周波数ドメイン内の遅延サンプルの数を表すことができる。
一般的なマルチチャネルコーディング動作(例えば、5.1チャネルまたは7.1チャネルコーディング動作)中に一般的に処理された入力信号の数に比べてオブジェクトベースオーディオコーディング動作中に多くの入力信号が時々処理されるべき場合があり得る。したがって、オブジェクトベースオーディオコーディング方法は、一般的なチャネルベースマルチチャネルオーディオコーディング方法に比べてより高いビットレートを必要とする。しかし、オブジェクトベースオーディオコーディング方法は、チャネル信号よりも少ない数のオブジェクト信号の処理を含むから、オブジェクトベースオーディオコーディング方法を用いて動的な出力信号を生成することが可能である。
以下、本発明の一実施例によるオーディオエンコーディング方法を、図17〜図20を参照して詳細に説明する。
オブジェクトベースオーディオエンコーディング方法において、オブジェクト信号は、人の声または楽器の音のような個別の音を表すように定義されることができる。また、弦楽器(例えば、バイオリン、ヴィオラ及びチェロ)の音のような類似な特性を持つ音、同一周波数バンドを持つ音またはこれら音源の方向及び角によって同一カテゴリーに分類される音は一緒にグルーピングすることができ、同一オブジェクト信号によって定義されることができる。また、オブジェクト信号は上記の方法の組合せを用いて定義されることができる。
複数のオブジェクト信号は、ダウンミックス信号及び付加情報として転送されることができる。転送される情報が生成される間に、ダウンミックス信号またはダウンミックス信号の複数のオブジェクト信号のそれぞれのエネルギーまたはパワーは、ダウンミックス信号のエンベロープを検出する目的で最初から計算される。この計算の結果は、オブジェクト信号またはダウンミックス信号を転送するのに用いられたり、オブジェクト信号のレベルの比を計算するのに用いられることができる。
線形予測コーディング(LPC;linear predictive coding)アルゴリズムが、ビットレートをより下げるのに用いられることができる。より詳細には、信号のエンベロープを表す多くのLPC係数は信号の分析を通じて生成され、信号に関するエンベロープ情報を転送する代わりにLPC係数が転送される。この方法は、ビットレートにおいて効果的である。しかし、これらLPC係数は信号の実際エンベロープから非常にずれやすいため、この方法は誤り訂正(error correction)のような追加プロセスを必要とする。要するに、信号のエンベロープ情報を転送することを含む方法は、高音質を保障することはできるが、転送されるべき情報量が相当増加してしまう。一方、LPC係数の利用を含む方法は、転送されるへぎ情報量を低減することはできるが、誤り訂正のような追加的なプロセスが必要とされ、音質低下を招く。
本発明の一実施例によって、これらの方法の組合せが用いられることができる。言い換えると、信号のエンベロープは、信号のパワーまたはエネルギーまたはインデックス値または信号のパワーまたはエネルギーに対応するLPC係数のような他の値で表現されることができる。
信号に関するエンベロープ情報は、時間セクションまたは周波数セクションのユニットで得ることができる。より詳細には、図17を参照すると、信号に関するエンベロープ情報は、フレームユニットで得ることができる。また、信号がQMF(quadrature mirror filter)バンクのようなフィルタバンクを用いて周波数バンド構造で表現されるとしたら、信号に関するエンベロープ情報は、周波数サブバンド、周波数サブバンドよりも小さい個体である周波数サブバンドパーティション、周波数サブバンドのグループまたは周波数サブバンドパーティションのグループのユニットで得ることができる。また、フレームベースの方法、周波数サブバンドベースの方法及び周波数サブバンドパーティションベースの方法の組合せが本発明の範囲内で用いられることができる。
また、信号の低周波成分が信号の高周波成分よりも一般的により多くの情報を持つとすれば、信号の低周波成分と関連したエンベロープ情報はそれ自体のまま転送されることができるが、信号の高周波成分に関するエンベロープ情報はLPC係数または他の値で表現されることができ、信号の高周波成分に関するエンベロープ情報の代わりにLPC係数または他の値が転送されることができる。しかし、信号の低周波成分が必ずしも信号の高周波成分よりも多い情報を持つというわけにはいかない。したがって、上記の方法は、環境によって柔軟に適用すれば良い。
本発明の実施例によって、時間/周波数軸上にドミナントとして現れる信号の一部(以下、主要部という。)対応するインデックスデータまたはエンベロープ情報は転送されることができ、信号のドミナントでない部分に対応するインデックスデータ及びエンベロープ情報はいずれも転送されなくても良い。また、信号のドミナント部分のエネルギー及びパワーを表す値(例えば、LPC係数)が転送されることができ、信号のドミナントでない部分に対応するかかる値は転送されなくても良い。また、信号のドミナント部分に対応するインデックスデータまたはエンベロープ情報は転送されることができ、信号のドミナントでない部分のエネルギーまたはパワーを表す値も転送されても良い。また、信号のドミナントでない部分が信号のドミナント部分に関する情報に基づいて推定されるように、信号のドミナント部分にのみ関連した情報が転送されても良い。また、上記の方法の組合せが用いられても良い。
例えば、図18を参照すると、信号がドミナント期間とドミナントでない期間とに分けられるとしたら、信号に関する情報は図18(a)〜(d)で表わされた通り、4つの異なる方法で転送されることができる。
ダウンミックス信号及び付加情報の組合せとして複数のオブジェクト信号を転送するために、デコーディング動作の一部として、例えば、オブジェクト信号のレベルの比を考慮し、ダウンミックス信号は複数の成分に分けられるように要求される。ダウンミックス信号の成分間の独立性を保障するために、デコリリーション動作がさらに実行される必要がある。
オブジェクトベースコーディング方法においてコーディングユニットであるオブジェクト信号は、マルチチャネルコーディング方法においてコーディングユニットであるチャネル信号よりも大きい独立性を持つ。言い換えると、チャネル信号は、オブジェクト信号を含むから、デコリレートされる必要がある。これに対し、オブジェクト信号は互いに独立しており、よって、チャネル分離が、デコリリーション動作を要求することなく、単純にオブジェクト信号の特性を用いて容易に実行されることができる。
より詳細には、図19を参照すると、オブジェクト信号A、B及びCは、周波数軸上にドミナントとして順に現れる。この場合に、オブジェクト信号A、B及びCのレベルの比によってダウンミックス信号を多くの信号に分け、デコリリーションを行う必要がない。その代わりに、オブジェクト信号A、B及びCのドミナント期間に関する情報が転送されたり、利得値がオブジェクト信号A、B及びCのそれぞれの各周波数成分に適用され、デコリリーションをスキップすることができる。これにより、計算量の低減が可能となり、さもなければデコリリーションに必要な付加情報によって要求されるかもしれない量だけのビットレートを減らすことが可能となる。
要するに、ダウンミックス信号のオブジェクト信号の比の比率によってダウンミックス信号を分けて得られた複数の信号間の独立性を保障すべく実行されるデコリリーションをスキップする目的で、各オブジェクト信号を含む周波数ドメインに関する情報を付加情報として転送することができる。また、相異なる利得値が、各オブジェクト信号がドミナントとして現れる期間であるドミナント期間、及び各オブジェクト信号がより少なくドミナントとして現れる期間であるドミナントでない期間に適用されることができ、したがって、ドミナント期間に関する情報は付加情報として主に提供されることができる。また、このドミナント期間に関する情報を、付加情報として転送することができ、ドミナントでない期間に関する情報は転送しなくても良い。なお、デコリリーション方法の代案として上述された方法の組合せが用いられても良い。
デコリリーション方法の代案である上記の方法は、全てのオブジェクト信号または容易に区別可能なドミナント期間を持つ一部のオブジェクト信号にのみ適用されることができる。また、デコリリーション方法の代案である上記の方法は、フレームのユニットに可変的に適用されることができる。
以下、残余信号を用いたオブジェクトオーディオ信号のエンコーディングが詳細に説明される。
一般に、オブジェクトベースオーディオコーディング方法において、複数のオブジェクト信号がエンコーディングされ、これらエンコーディングの結果がダウンミックス信号と付加情報との組合せとして転送される。続いて、複数のオブジェクト信号が付加情報によってデコーディングを通じてダウンミックス信号から復元され、これら復元されたオブジェクト信号が、例えば、制御情報によって利用者の要請に応じて適切に混合され、最終チャネル信号が生成される。オブジェクトベースオーディオコーディング方法は、ミキサ(mixer)を用いて制御情報によって出力チャネル信号を自由に変えるのを一般的な目標としている。しかし、オブジェクトベースオーディオコーディング方法は、制御情報によらず、あらかじめ定義された方法でチャネル出力を生成するのに用いられても良い。
このため、付加情報は、ダウンミックス信号から複数のオブジェクト信号を得るのに必要な情報だけでなく、チャネル信号を生成するのに必要なミキシングパラメータ情報を含むことができる。したがって、ミキサを用いずにも最終チャネル出力信号を生成することが可能である。この場合、残余コーディングのようなアルゴリズムが音質を向上させるために用いられることができる。
一般的な残余コーディング方法は、信号をコーディングし、コーディングされた信号と元の信号間の誤り、すなわち残余信号をコーディングすることを含む。デコーディング動作の間に、コーディングされた信号は、このコーディングされた信号と元の信号との間の誤りを補償すると同時にデコーディングされ、これにより、可能な限り元の信号と類似な信号を復元する。コーディングされた信号と元の信号との間の誤りは通常少ないので、残余コーディングを実行するのに追加的に必要な情報の量を減らすことが可能である。
デコーディング部の最終チャネル出力が固定される場合では、最終チャネル信号を生成するのに必要なミキシングパラメータ情報だけでなく残余コーディング情報が付加情報として提供されることができる。この場合、音質を向上させることが可能である。
図20は、本発明の一実施例によるオーディオエンコーディング装置310を示すブロック図である。図20を参照すると、オーディオエンコーディング装置310は、残余信号を用いることに特徴がある。
より詳細には、オーディオエンコーディング装置310は、エンコーディング部311、デコーディング部313、第1ミキサ315、第2ミキサ319、加算器317及びビットストリーム生成器321を含む。
第1ミキサ315は、元の信号にミキシング動作を実行し、第2ミキサ319は、エンコーディング動作を実行することによって得られた信号にミキシング動作を実行し、続いて元の信号にデコーディング動作を実行する。加算器317は、第1ミキサ315より出力された信号と第2ミキサ319より出力された信号との間の残余信号を計算する。ビットストリーム生成器321は、付加情報に残余信号を加え、その結果を転送する。この方法で、音質を向上させることができる。
残余信号の計算は、信号の全ての部分にまたは信号の低周波数部分にのみ適用されることができる。また、残余信号の計算は、フレーム対フレームに基づくドミナント信号を含む周波数ドメインにのみ可変的に適用されても良い。また、上記の方法の組合せが用いられても良い。
残余信号情報を含む付加情報の量が、残余信号情報を含まない付加情報の量よりも多いため、残余信号の計算は、音質に直接影響を与える信号の一部分にのみ適用されることができ、これにより、ビットレートの過度な増加を抑止することができる。
本発明は、コンピュータが読取りできる記録媒体上に書き込まれた、コンピュータが読取りできるコードとして実現されることができる。コンピュータが読取りできる記録媒体は、コンピュータが読取りできる方法でデータが記憶される記録装置の一つでありうる。コンピュータが読取りできる記録媒体の例には、ROM、RAM、CD−ROM、磁気テープ、フロッピーディスク(登録商標)、光学データ記憶装置及びキャリアウェーブ(carrier wave)(例えば、インターネットを通じたデータ転送)が含まれる。コンピュータが読取りできる記録媒体は、コンピュータが読取りできるコードがそこに書き込まれ、分散された方法でそこから実行されるように、ネットワークに連結された複数のコンピュータシステムで分配されることができる。本発明を実現するのに必要な機能的プログラム、コード、コード断片は、この分野における通常の知識を持つ者によって容易に解析されることができる。
本発明によると、オブジェクトベースオーディオエンコーディング及びデコーディング方法の利点からの利得によって、音像が各オブジェクトオーディオ信号に対して定位する。その結果、オブジェクトオーディオ信号の再生を通じてより実際的な音を提供することが可能になる。なお、本発明は双方向ゲームに適用されることができ、利用者にとってはより現実的な仮想現実経験が可能になる。
以上では好適な実施例に挙げて本発明を説明してきたが、説明及び形態における様々な変化が、添付の請求項によって定義された本発明の範囲及び思想を逸脱しない限度内でできるということは、当該分野における通常の知識を持つ者にとっては自明である。
Claims (20)
- 入力オーディオ信号からオブジェクトベース付加情報及びダウンミックス信号を抽出する段階と、
入力制御情報に基づいてレンダリング情報を生成する段階と、
前記オブジェクトベース付加情報及び前記レンダリング情報に基づいてチャネルベース付加情報を生成する段階と、
を含むことを特徴とする、オーディオデコーディング方法。 - 前記チャネルベース付加情報及び前記ダウンミックス信号に基づいてマルチチャネルオーディオ信号を生成する段階をさらに含むことを特徴とする、請求項1に記載のオーディオデコーディング方法。
- 前記制御情報が、あらかじめ定められたオブジェクト信号を処理するための3次元(3D)情報、ミキシング情報及び調和情報のうち少なくとも一つを含むことを特徴とする、請求項1に記載のオーディオデコーディング方法。
- 前記レンダリング情報を生成する段階が、前記ミキシング情報内に含まれた時間情報を利用者命令に応じて等価の振幅情報に変換する段階を含むことを特徴とする、請求項1に記載のオーディオデコーディング方法。
- 前記レンダリング情報を生成する段階が、前記ミキシング情報内に含まれた振幅情報を利用者命令に応じて等価の時間情報に変換する段階をさらに含むことを特徴とする、請求項3に記載のオーディオデコーディング方法。
- 前記調和情報が、前記あらかじめ定められたオブジェクト信号のピッチ情報(pitch information)、基本周波数情報及びドミナント周波数情報のうち少なくとも一つを含むことを特徴とする、請求項3に記載のオーディオデコーディング方法。
- 前記調和情報に基づいて前記あらかじめ定められたオブジェクト信号の利得を調節する段階をさらに含むことを特徴とする、請求項6に記載のオーディオデコーディング方法。
- 前記調和情報に基づいてあらかじめ定められた周波数バンド内のオブジェクト信号を補償する段階をさらに含むことを特徴とする、請求項6に記載のオーディオデコーディング方法。
- 前記空間情報と前記ダウンミックス信号間の遅延を補償する段階をさらに含むことを特徴とする、請求項1に記載のオーディオデコーディング方法。
- 入力オーディオ信号からオブジェクトベース付加情報及びダウンミックス信号を抽出するデマルチプレクサと、
入力制御情報に基づいてレンダリング情報を生成するレンダリング部と、
前記オブジェクトベース付加情報及び前記レンダリング情報に基づいてチャネルベース付加情報を生成するトランスコーディング部と、
を含むことを特徴とする、オーディオデコーディング装置。 - 前記チャネルベース付加情報及び前記ダウンミックス信号に基づいてマルチチャネルオーディオ信号を生成するマルチチャネルデコーディング部をさらに含むことを特徴とする、請求項10に記載のオーディオデコーディング装置。
- 前記制御データが、あらかじめ定められたオブジェクト信号を処理するための3D情報、ミキシング情報及び調和情報のうち少なくとも一つを含むことを特徴とする、請求項10に記載のオーディオデコーディング装置。
- 前記レンダリング情報の生成の間に利用者命令に応じて、前記レンダリング部が、前記ミキシング情報中に含まれた時間情報を等価の振幅情報に変換することを特徴とする、請求項12に記載のオーディオデコーディング装置。
- 前記レンダリング情報の生成の間に利用者命令に応じて、前記レンダリング部が、前記ミキシング情報中に含まれた振幅情報を等価の時間情報に変換することを特徴とする、請求項12に記載のオーディオデコーディング装置。
- 前記調和情報が、前記あらかじめ定められたオブジェクト信号のピッチ情報、基本周波数情報及びドミナント周波数情報のうち少なくとも一つを含むことを特徴とする、請求項12に記載のオーディオデコーディング装置。
- 前記レンダリング部が、前記調和情報に基づいて前記あらかじめ定められたオブジェクト信号の利得を調節することを特徴とする、請求項15に記載のオーディオデコーディング装置。
- 前記レンダリング部が、前記調和情報に基づいてあらかじめ定められた周波数バンド内のオブジェクト信号を補償することを特徴とする、請求項15に記載のオーディオデコーディング装置。
- 前記ダウンミックス信号と前記空間情報間の遅延を補償するバッファーをさらに含むことを特徴とする、請求項10に記載のオーディオデコーディング装置。
- 入力オーディオ信号からオブジェクトベース付加情報及びダウンミックス信号を抽出する段階と、
入力制御データに基づいてレンダリング情報を生成する段階と、
前記オブジェクトベース付加情報及び前記レンダリング情報に基づいてチャネルベース付加情報を生成する段階と、を含むオーディオデコーディング方法を実行するためのコンピュータプログラムを記録した、コンピュータが読取りできる記録媒体。 - 前記オーディオデコーディング方法が、前記チャネルベース付加情報及び前記ダウンミックス信号を用いてマルチチャネルオーディオ信号を生成する段階をさらに含むことを特徴とする、請求項19に記載のコンピュータ読取り可能記録媒体。
Applications Claiming Priority (15)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US84829306P | 2006-09-29 | 2006-09-29 | |
US60/848,293 | 2006-09-29 | ||
US82980006P | 2006-10-17 | 2006-10-17 | |
US60/829,800 | 2006-10-17 | ||
US86330306P | 2006-10-27 | 2006-10-27 | |
US60/863,303 | 2006-10-27 | ||
US86082306P | 2006-11-24 | 2006-11-24 | |
US60/860,823 | 2006-11-24 | ||
US88071407P | 2007-01-17 | 2007-01-17 | |
US60/880,714 | 2007-01-17 | ||
US88094207P | 2007-01-18 | 2007-01-18 | |
US60/880,942 | 2007-01-18 | ||
US94837307P | 2007-07-06 | 2007-07-06 | |
US60/948,373 | 2007-07-06 | ||
PCT/KR2007/004801 WO2008039042A1 (en) | 2006-09-29 | 2007-10-01 | Methods and apparatuses for encoding and decoding object-based audio signals |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010505328A true JP2010505328A (ja) | 2010-02-18 |
JP4787362B2 JP4787362B2 (ja) | 2011-10-05 |
Family
ID=39230400
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009530280A Expired - Fee Related JP4787362B2 (ja) | 2006-09-29 | 2007-10-01 | オブジェクトベースオーディオ信号をエンコーディング及びデコーディングする方法及び装置 |
JP2009530281A Active JP5238707B2 (ja) | 2006-09-29 | 2007-10-01 | オブジェクトベースオーディオ信号のエンコーディング/デコーディング方法及びその装置 |
JP2009530278A Active JP5232789B2 (ja) | 2006-09-29 | 2007-10-01 | オブジェクトベースオーディオ信号をエンコーディング及びデコーディングする方法並びにその装置 |
JP2009530279A Active JP5238706B2 (ja) | 2006-09-29 | 2007-10-01 | オブジェクトベースオーディオ信号のエンコーディング/デコーディング方法及びその装置 |
Family Applications After (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009530281A Active JP5238707B2 (ja) | 2006-09-29 | 2007-10-01 | オブジェクトベースオーディオ信号のエンコーディング/デコーディング方法及びその装置 |
JP2009530278A Active JP5232789B2 (ja) | 2006-09-29 | 2007-10-01 | オブジェクトベースオーディオ信号をエンコーディング及びデコーディングする方法並びにその装置 |
JP2009530279A Active JP5238706B2 (ja) | 2006-09-29 | 2007-10-01 | オブジェクトベースオーディオ信号のエンコーディング/デコーディング方法及びその装置 |
Country Status (10)
Country | Link |
---|---|
US (7) | US8504376B2 (ja) |
EP (4) | EP2071564A4 (ja) |
JP (4) | JP4787362B2 (ja) |
KR (4) | KR100987457B1 (ja) |
AU (4) | AU2007300813B2 (ja) |
BR (4) | BRPI0711104A2 (ja) |
CA (4) | CA2645910C (ja) |
MX (4) | MX2008012251A (ja) |
RU (1) | RU2551797C2 (ja) |
WO (4) | WO2008039041A1 (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010507114A (ja) * | 2006-10-16 | 2010-03-04 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | マルチチャネル・パラメータ変換のための装置および方法 |
JP2011519223A (ja) * | 2008-04-24 | 2011-06-30 | エルジー エレクトロニクス インコーポレイティド | オーディオ信号の処理方法及び装置 |
JP2012526296A (ja) * | 2009-05-08 | 2012-10-25 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | 音声フォーマット・トランスコーダ |
US8370164B2 (en) | 2006-12-27 | 2013-02-05 | Electronics And Telecommunications Research Institute | Apparatus and method for coding and decoding multi-object audio signal with various channel including information bitstream conversion |
JP2016019041A (ja) * | 2014-07-04 | 2016-02-01 | 日本放送協会 | 音響信号変換装置、音響信号変換方法、音響信号変換プログラム |
US9565509B2 (en) | 2006-10-16 | 2017-02-07 | Dolby International Ab | Enhanced coding and parameter representation of multichannel downmixed object coding |
JP2018088713A (ja) * | 2011-07-01 | 2018-06-07 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 向上した3dオーディオ作成および表現のためのシステムおよびツール |
KR102058619B1 (ko) * | 2013-04-27 | 2019-12-23 | 인텔렉추얼디스커버리 주식회사 | 예외 채널 신호의 렌더링 방법 |
JP2021131562A (ja) * | 2011-07-01 | 2021-09-09 | ドルビー ラボラトリーズ ライセンシング コーポレイション | オーディオ信号処理システム及び方法 |
Families Citing this family (102)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4988717B2 (ja) | 2005-05-26 | 2012-08-01 | エルジー エレクトロニクス インコーポレイティド | オーディオ信号のデコーディング方法及び装置 |
EP1905002B1 (en) * | 2005-05-26 | 2013-05-22 | LG Electronics Inc. | Method and apparatus for decoding audio signal |
US20090028344A1 (en) * | 2006-01-19 | 2009-01-29 | Lg Electronics Inc. | Method and Apparatus for Processing a Media Signal |
TWI331322B (en) * | 2006-02-07 | 2010-10-01 | Lg Electronics Inc | Apparatus and method for encoding / decoding signal |
WO2008039041A1 (en) | 2006-09-29 | 2008-04-03 | Lg Electronics Inc. | Methods and apparatuses for encoding and decoding object-based audio signals |
JP5023662B2 (ja) * | 2006-11-06 | 2012-09-12 | ソニー株式会社 | 信号処理システム、信号送信装置、信号受信装置およびプログラム |
US20080269929A1 (en) * | 2006-11-15 | 2008-10-30 | Lg Electronics Inc. | Method and an Apparatus for Decoding an Audio Signal |
KR20090028723A (ko) * | 2006-11-24 | 2009-03-19 | 엘지전자 주식회사 | 오브젝트 기반 오디오 신호의 부호화 및 복호화 방법과 그 장치 |
KR101062353B1 (ko) * | 2006-12-07 | 2011-09-05 | 엘지전자 주식회사 | 오디오 신호의 디코딩 방법 및 그 장치 |
CN101568958B (zh) | 2006-12-07 | 2012-07-18 | Lg电子株式会社 | 用于处理音频信号的方法和装置 |
US8200351B2 (en) * | 2007-01-05 | 2012-06-12 | STMicroelectronics Asia PTE., Ltd. | Low power downmix energy equalization in parametric stereo encoders |
KR101443568B1 (ko) | 2007-01-10 | 2014-09-23 | 코닌클리케 필립스 엔.브이. | 오디오 디코더 |
EP3712888B1 (en) * | 2007-03-30 | 2024-05-08 | Electronics and Telecommunications Research Institute | Apparatus and method for coding and decoding multi object audio signal with multi channel |
KR100942142B1 (ko) * | 2007-10-11 | 2010-02-16 | 한국전자통신연구원 | 객체기반 오디오 콘텐츠 송수신 방법 및 그 장치 |
RU2452043C2 (ru) * | 2007-10-17 | 2012-05-27 | Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Форшунг Е.Ф. | Аудиокодирование с использованием понижающего микширования |
US8219409B2 (en) * | 2008-03-31 | 2012-07-10 | Ecole Polytechnique Federale De Lausanne | Audio wave field encoding |
WO2009128663A2 (en) | 2008-04-16 | 2009-10-22 | Lg Electronics Inc. | A method and an apparatus for processing an audio signal |
EP2111062B1 (en) | 2008-04-16 | 2014-11-12 | LG Electronics Inc. | A method and an apparatus for processing an audio signal |
KR101062351B1 (ko) | 2008-04-16 | 2011-09-05 | 엘지전자 주식회사 | 오디오 신호 처리 방법 및 이의 장치 |
JP5174527B2 (ja) * | 2008-05-14 | 2013-04-03 | 日本放送協会 | 音像定位音響メタ情報を付加した音響信号多重伝送システム、制作装置及び再生装置 |
US8639368B2 (en) * | 2008-07-15 | 2014-01-28 | Lg Electronics Inc. | Method and an apparatus for processing an audio signal |
EP2146341B1 (en) * | 2008-07-15 | 2013-09-11 | LG Electronics Inc. | A method and an apparatus for processing an audio signal |
KR101614160B1 (ko) | 2008-07-16 | 2016-04-20 | 한국전자통신연구원 | 포스트 다운믹스 신호를 지원하는 다객체 오디오 부호화 장치 및 복호화 장치 |
RU2495503C2 (ru) * | 2008-07-29 | 2013-10-10 | Панасоник Корпорэйшн | Устройство кодирования звука, устройство декодирования звука, устройство кодирования и декодирования звука и система проведения телеконференций |
US8233629B2 (en) * | 2008-09-04 | 2012-07-31 | Dts, Inc. | Interaural time delay restoration system and method |
WO2010042024A1 (en) * | 2008-10-10 | 2010-04-15 | Telefonaktiebolaget Lm Ericsson (Publ) | Energy conservative multi-channel audio coding |
MX2011011399A (es) * | 2008-10-17 | 2012-06-27 | Univ Friedrich Alexander Er | Aparato para suministrar uno o más parámetros ajustados para un suministro de una representación de señal de mezcla ascendente sobre la base de una representación de señal de mezcla descendete, decodificador de señal de audio, transcodificador de señal de audio, codificador de señal de audio, flujo de bits de audio, método y programa de computación que utiliza información paramétrica relacionada con el objeto. |
GB2466672B (en) * | 2009-01-06 | 2013-03-13 | Skype | Speech coding |
GB2466670B (en) * | 2009-01-06 | 2012-11-14 | Skype | Speech encoding |
GB2466671B (en) * | 2009-01-06 | 2013-03-27 | Skype | Speech encoding |
GB2466674B (en) | 2009-01-06 | 2013-11-13 | Skype | Speech coding |
GB2466673B (en) | 2009-01-06 | 2012-11-07 | Skype | Quantization |
GB2466675B (en) * | 2009-01-06 | 2013-03-06 | Skype | Speech coding |
GB2466669B (en) * | 2009-01-06 | 2013-03-06 | Skype | Speech coding |
US20100191534A1 (en) * | 2009-01-23 | 2010-07-29 | Qualcomm Incorporated | Method and apparatus for compression or decompression of digital signals |
WO2010087627A2 (en) * | 2009-01-28 | 2010-08-05 | Lg Electronics Inc. | A method and an apparatus for decoding an audio signal |
KR101137360B1 (ko) * | 2009-01-28 | 2012-04-19 | 엘지전자 주식회사 | 오디오 신호 처리 방법 및 장치 |
US8255821B2 (en) * | 2009-01-28 | 2012-08-28 | Lg Electronics Inc. | Method and an apparatus for decoding an audio signal |
US8504184B2 (en) * | 2009-02-04 | 2013-08-06 | Panasonic Corporation | Combination device, telecommunication system, and combining method |
WO2010091555A1 (zh) * | 2009-02-13 | 2010-08-19 | 华为技术有限公司 | 一种立体声编码方法和装置 |
US8666752B2 (en) * | 2009-03-18 | 2014-03-04 | Samsung Electronics Co., Ltd. | Apparatus and method for encoding and decoding multi-channel signal |
KR101387808B1 (ko) * | 2009-04-15 | 2014-04-21 | 한국전자통신연구원 | 가변 비트율을 갖는 잔차 신호 부호화를 이용한 고품질 다객체 오디오 부호화 및 복호화 장치 |
US20100324915A1 (en) * | 2009-06-23 | 2010-12-23 | Electronic And Telecommunications Research Institute | Encoding and decoding apparatuses for high quality multi-channel audio codec |
KR101123698B1 (ko) | 2009-07-30 | 2012-03-15 | 삼성전자주식회사 | 프로세스 카트리지 및 이를 구비한 화상형성장치 |
JP5635097B2 (ja) * | 2009-08-14 | 2014-12-03 | ディーティーエス・エルエルシーDts Llc | オーディオオブジェクトを適応的にストリーミングするためのシステム |
KR101599884B1 (ko) * | 2009-08-18 | 2016-03-04 | 삼성전자주식회사 | 멀티 채널 오디오 디코딩 방법 및 장치 |
MY165328A (en) | 2009-09-29 | 2018-03-21 | Fraunhofer Ges Forschung | Audio signal decoder, audio signal encoder, method for providing an upmix signal representation, method for providing a downmix signal representation, computer program and bitstream using a common inter-object-correlation parameter value |
US8452606B2 (en) * | 2009-09-29 | 2013-05-28 | Skype | Speech encoding using multiple bit rates |
KR101710113B1 (ko) * | 2009-10-23 | 2017-02-27 | 삼성전자주식회사 | 위상 정보와 잔여 신호를 이용한 부호화/복호화 장치 및 방법 |
WO2011071928A2 (en) * | 2009-12-07 | 2011-06-16 | Pixel Instruments Corporation | Dialogue detector and correction |
WO2011083981A2 (en) * | 2010-01-06 | 2011-07-14 | Lg Electronics Inc. | An apparatus for processing an audio signal and method thereof |
US9591374B2 (en) | 2010-06-30 | 2017-03-07 | Warner Bros. Entertainment Inc. | Method and apparatus for generating encoded content using dynamically optimized conversion for 3D movies |
US10326978B2 (en) | 2010-06-30 | 2019-06-18 | Warner Bros. Entertainment Inc. | Method and apparatus for generating virtual or augmented reality presentations with 3D audio positioning |
KR101697550B1 (ko) * | 2010-09-16 | 2017-02-02 | 삼성전자주식회사 | 멀티채널 오디오 대역폭 확장 장치 및 방법 |
JP5603499B2 (ja) * | 2010-09-22 | 2014-10-08 | ドルビー ラボラトリーズ ライセンシング コーポレイション | デジタルレベル正規化を備えるオーディオストリームミキシング |
WO2012040897A1 (en) * | 2010-09-28 | 2012-04-05 | Huawei Technologies Co., Ltd. | Device and method for postprocessing decoded multi-channel audio signal or decoded stereo signal |
GB2485979A (en) * | 2010-11-26 | 2012-06-06 | Univ Surrey | Spatial audio coding |
KR20120071072A (ko) * | 2010-12-22 | 2012-07-02 | 한국전자통신연구원 | 객체 기반 오디오를 제공하는 방송 송신 장치 및 방법, 그리고 방송 재생 장치 및 방법 |
WO2012122397A1 (en) | 2011-03-09 | 2012-09-13 | Srs Labs, Inc. | System for dynamically creating and rendering audio objects |
KR20120132342A (ko) * | 2011-05-25 | 2012-12-05 | 삼성전자주식회사 | 보컬 신호 제거 장치 및 방법 |
KR101783962B1 (ko) * | 2011-06-09 | 2017-10-10 | 삼성전자주식회사 | 3차원 오디오 신호를 부호화 및 복호화하는 방법 및 장치 |
US9754595B2 (en) | 2011-06-09 | 2017-09-05 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding and decoding 3-dimensional audio signal |
RU2564681C2 (ru) * | 2011-07-01 | 2015-10-10 | Долби Лабораторис Лайсэнзин Корпорейшн | Способы и системы синхронизации и переключения для системы адаптивного звука |
EP2862370B1 (en) | 2012-06-19 | 2017-08-30 | Dolby Laboratories Licensing Corporation | Rendering and playback of spatial audio using channel-based audio systems |
RU2649944C2 (ru) | 2012-07-02 | 2018-04-05 | Сони Корпорейшн | Устройство декодирования, способ декодирования, устройство кодирования, способ кодирования и программа |
AU2013284705B2 (en) | 2012-07-02 | 2018-11-29 | Sony Corporation | Decoding device and method, encoding device and method, and program |
US9761229B2 (en) | 2012-07-20 | 2017-09-12 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for audio object clustering |
US9479886B2 (en) * | 2012-07-20 | 2016-10-25 | Qualcomm Incorporated | Scalable downmix design with feedback for object-based surround codec |
EP2863657B1 (en) * | 2012-07-31 | 2019-09-18 | Intellectual Discovery Co., Ltd. | Method and device for processing audio signal |
MX351687B (es) * | 2012-08-03 | 2017-10-25 | Fraunhofer Ges Forschung | Método y descodificador para codificación de objeto de audio especial de multi-instancias que emplea un concepto paramétrico para casos de mezcla descendente/mezcla ascendente de multicanal. |
KR101837686B1 (ko) | 2012-08-10 | 2018-03-12 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 공간적 오디오 객체 코딩에 오디오 정보를 적응시키기 위한 장치 및 방법 |
US20140114456A1 (en) * | 2012-10-22 | 2014-04-24 | Arbitron Inc. | Methods and Systems for Clock Correction and/or Synchronization for Audio Media Measurement Systems |
EP2757559A1 (en) * | 2013-01-22 | 2014-07-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for spatial audio object coding employing hidden objects for signal mixture manipulation |
EP2959479B1 (en) | 2013-02-21 | 2019-07-03 | Dolby International AB | Methods for parametric multi-channel encoding |
TWI530941B (zh) * | 2013-04-03 | 2016-04-21 | 杜比實驗室特許公司 | 用於基於物件音頻之互動成像的方法與系統 |
WO2014165806A1 (en) | 2013-04-05 | 2014-10-09 | Dts Llc | Layered audio coding and transmission |
US9679571B2 (en) | 2013-04-10 | 2017-06-13 | Electronics And Telecommunications Research Institute | Encoder and encoding method for multi-channel signal, and decoder and decoding method for multi-channel signal |
EP3312835B1 (en) | 2013-05-24 | 2020-05-13 | Dolby International AB | Efficient coding of audio scenes comprising audio objects |
JP6248186B2 (ja) | 2013-05-24 | 2017-12-13 | ドルビー・インターナショナル・アーベー | オーディオ・エンコードおよびデコード方法、対応するコンピュータ可読媒体ならびに対応するオーディオ・エンコーダおよびデコーダ |
ES2640815T3 (es) | 2013-05-24 | 2017-11-06 | Dolby International Ab | Codificación eficiente de escenas de audio que comprenden objetos de audio |
EP2830049A1 (en) | 2013-07-22 | 2015-01-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for efficient object metadata coding |
EP2830045A1 (en) | 2013-07-22 | 2015-01-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Concept for audio encoding and decoding for audio channels and audio objects |
EP2830050A1 (en) | 2013-07-22 | 2015-01-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for enhanced spatial audio object coding |
WO2015012594A1 (ko) * | 2013-07-23 | 2015-01-29 | 한국전자통신연구원 | 잔향 신호를 이용한 다채널 오디오 신호의 디코딩 방법 및 디코더 |
US10178398B2 (en) | 2013-10-11 | 2019-01-08 | Telefonaktiebolaget Lm Ericsson (Publ) | Method and arrangement for video transcoding using mode or motion or in-loop filter information |
JP6299202B2 (ja) * | 2013-12-16 | 2018-03-28 | 富士通株式会社 | オーディオ符号化装置、オーディオ符号化方法、オーディオ符号化プログラム及びオーディオ復号装置 |
WO2015150384A1 (en) | 2014-04-01 | 2015-10-08 | Dolby International Ab | Efficient coding of audio scenes comprising audio objects |
US10373711B2 (en) | 2014-06-04 | 2019-08-06 | Nuance Communications, Inc. | Medical coding system with CDI clarification request notification |
US10754925B2 (en) | 2014-06-04 | 2020-08-25 | Nuance Communications, Inc. | NLU training with user corrections to engine annotations |
KR101641645B1 (ko) * | 2014-06-11 | 2016-07-22 | 전자부품연구원 | 오디오 소스 분리 방법 및 이를 적용한 오디오 시스템 |
US10341799B2 (en) * | 2014-10-30 | 2019-07-02 | Dolby Laboratories Licensing Corporation | Impedance matching filters and equalization for headphone surround rendering |
WO2016126816A2 (en) | 2015-02-03 | 2016-08-11 | Dolby Laboratories Licensing Corporation | Post-conference playback system having higher perceived quality than originally heard in the conference |
WO2016126819A1 (en) | 2015-02-03 | 2016-08-11 | Dolby Laboratories Licensing Corporation | Optimized virtual scene layout for spatial meeting playback |
US12125492B2 (en) * | 2015-09-25 | 2024-10-22 | Voiceage Coproration | Method and system for decoding left and right channels of a stereo sound signal |
US10366687B2 (en) * | 2015-12-10 | 2019-07-30 | Nuance Communications, Inc. | System and methods for adapting neural network acoustic models |
US10325610B2 (en) | 2016-03-30 | 2019-06-18 | Microsoft Technology Licensing, Llc | Adaptive audio rendering |
EP3465678B1 (en) | 2016-06-01 | 2020-04-01 | Dolby International AB | A method converting multichannel audio content into object-based audio content and a method for processing audio content having a spatial position |
US10949602B2 (en) | 2016-09-20 | 2021-03-16 | Nuance Communications, Inc. | Sequencing medical codes methods and apparatus |
US11133091B2 (en) | 2017-07-21 | 2021-09-28 | Nuance Communications, Inc. | Automated analysis system and method |
US11024424B2 (en) | 2017-10-27 | 2021-06-01 | Nuance Communications, Inc. | Computer assisted coding systems and methods |
CN112823534B (zh) * | 2018-10-16 | 2023-04-07 | 索尼公司 | 信号处理设备和方法以及程序 |
JP7326824B2 (ja) * | 2019-04-05 | 2023-08-16 | ヤマハ株式会社 | 信号処理装置、及び信号処理方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006060279A1 (en) * | 2004-11-30 | 2006-06-08 | Agere Systems Inc. | Parametric coding of spatial audio with object-based side information |
JP2006517356A (ja) * | 2002-12-02 | 2006-07-20 | トムソン ライセンシング | オーディオ信号の構成を記述する方法 |
WO2006089685A1 (de) * | 2005-02-23 | 2006-08-31 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und verfahren zum speichern von audiodateien |
Family Cites Families (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3882280A (en) * | 1973-12-19 | 1975-05-06 | Magnavox Co | Method and apparatus for combining digitized information |
US5109417A (en) * | 1989-01-27 | 1992-04-28 | Dolby Laboratories Licensing Corporation | Low bit rate transform coder, decoder, and encoder/decoder for high-quality audio |
ATE138238T1 (de) | 1991-01-08 | 1996-06-15 | Dolby Lab Licensing Corp | Kodierer/dekodierer für mehrdimensionale schallfelder |
US6505160B1 (en) * | 1995-07-27 | 2003-01-07 | Digimarc Corporation | Connected audio and other media objects |
IT1281001B1 (it) | 1995-10-27 | 1998-02-11 | Cselt Centro Studi Lab Telecom | Procedimento e apparecchiatura per codificare, manipolare e decodificare segnali audio. |
RU2121718C1 (ru) | 1998-02-19 | 1998-11-10 | Яков Шоел-Берович Ровнер | Портативная музыкальная система для караоке и картридж для нее |
US20050120870A1 (en) * | 1998-05-15 | 2005-06-09 | Ludwig Lester F. | Envelope-controlled dynamic layering of audio signal processing and synthesis for music applications |
JP3173482B2 (ja) | 1998-11-16 | 2001-06-04 | 日本ビクター株式会社 | 記録媒体、及びそれに記録された音声データの音声復号化装置 |
KR100416757B1 (ko) | 1999-06-10 | 2004-01-31 | 삼성전자주식회사 | 위치 조절이 가능한 가상 음상을 이용한 스피커 재생용 다채널오디오 재생 장치 및 방법 |
US7020618B1 (en) * | 1999-10-25 | 2006-03-28 | Ward Richard E | Method and system for customer service process management |
US6845163B1 (en) * | 1999-12-21 | 2005-01-18 | At&T Corp | Microphone array for preserving soundfield perceptual cues |
US6351733B1 (en) | 2000-03-02 | 2002-02-26 | Hearing Enhancement Company, Llc | Method and apparatus for accommodating primary content audio and secondary content remaining audio capability in the digital audio production process |
US7583805B2 (en) * | 2004-02-12 | 2009-09-01 | Agere Systems Inc. | Late reverberation-based synthesis of auditory scenes |
US7116787B2 (en) | 2001-05-04 | 2006-10-03 | Agere Systems Inc. | Perceptual synthesis of auditory scenes |
US7292901B2 (en) | 2002-06-24 | 2007-11-06 | Agere Systems Inc. | Hybrid multi-channel/cue coding/decoding of audio signals |
US7006636B2 (en) | 2002-05-24 | 2006-02-28 | Agere Systems Inc. | Coherence-based audio coding and synthesis |
US6849794B1 (en) | 2001-05-14 | 2005-02-01 | Ronnie C. Lau | Multiple channel system |
US6658383B2 (en) | 2001-06-26 | 2003-12-02 | Microsoft Corporation | Method for coding speech and music signals |
JP2003186500A (ja) | 2001-12-17 | 2003-07-04 | Sony Corp | 情報伝達システム、情報符号化装置および情報復号装置 |
US20030187663A1 (en) | 2002-03-28 | 2003-10-02 | Truman Michael Mead | Broadband frequency translation for high frequency regeneration |
RU2316154C2 (ru) | 2002-04-10 | 2008-01-27 | Конинклейке Филипс Электроникс Н.В. | Кодирование стереофонических сигналов |
BR0304542A (pt) | 2002-04-22 | 2004-07-20 | Koninkl Philips Electronics Nv | Método e codificador para codificar um sinal de áudio de multicanal, aparelho para fornecer um sinal de áudio, sinal de áudio codificado, meio de armazenamento, e, método e decodificador para decodificar um sinal de áudio |
BR0304540A (pt) * | 2002-04-22 | 2004-07-20 | Koninkl Philips Electronics Nv | Métodos para codificar um sinal de áudio, e para decodificar um sinal de áudio codificado, codificador para codificar um sinal de áudio, aparelho para fornecer um sinal de áudio, sinal de áudio codificado, meio de armazenagem, e, decodificador para decodificar um sinal de áudio codificado |
JP4187719B2 (ja) | 2002-05-03 | 2008-11-26 | ハーマン インターナショナル インダストリーズ インコーポレイテッド | マルチチャネル・ダウンミキシング装置 |
JP2005533271A (ja) | 2002-07-16 | 2005-11-04 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | オーディオ符号化 |
JP2004064363A (ja) | 2002-07-29 | 2004-02-26 | Sony Corp | デジタルオーディオ処理方法、デジタルオーディオ処理装置およびデジタルオーディオ記録媒体 |
EP1554716A1 (en) | 2002-10-14 | 2005-07-20 | Koninklijke Philips Electronics N.V. | Signal filtering |
US7395210B2 (en) | 2002-11-21 | 2008-07-01 | Microsoft Corporation | Progressive to lossless embedded audio coder (PLEAC) with multiple factorization reversible transform |
PL1621047T3 (pl) | 2003-04-17 | 2007-09-28 | Koninl Philips Electronics Nv | Generowanie sygnału audio |
US7394903B2 (en) * | 2004-01-20 | 2008-07-01 | Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. | Apparatus and method for constructing a multi-channel output signal or for generating a downmix signal |
CN1906664A (zh) | 2004-02-25 | 2007-01-31 | 松下电器产业株式会社 | 音频编码器和音频解码器 |
SE0400998D0 (sv) | 2004-04-16 | 2004-04-16 | Cooding Technologies Sweden Ab | Method for representing multi-channel audio signals |
KR101120911B1 (ko) | 2004-07-02 | 2012-02-27 | 파나소닉 주식회사 | 음성신호 복호화 장치 및 음성신호 부호화 장치 |
KR100663729B1 (ko) * | 2004-07-09 | 2007-01-02 | 한국전자통신연구원 | 가상 음원 위치 정보를 이용한 멀티채널 오디오 신호부호화 및 복호화 방법 및 장치 |
JP4466242B2 (ja) | 2004-07-13 | 2010-05-26 | 株式会社サタケ | ペレット選別機 |
KR100658222B1 (ko) | 2004-08-09 | 2006-12-15 | 한국전자통신연구원 | 3차원 디지털 멀티미디어 방송 시스템 |
US8204261B2 (en) * | 2004-10-20 | 2012-06-19 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Diffuse sound shaping for BCC schemes and the like |
SE0402652D0 (sv) | 2004-11-02 | 2004-11-02 | Coding Tech Ab | Methods for improved performance of prediction based multi- channel reconstruction |
KR100682904B1 (ko) | 2004-12-01 | 2007-02-15 | 삼성전자주식회사 | 공간 정보를 이용한 다채널 오디오 신호 처리 장치 및 방법 |
EP1691348A1 (en) | 2005-02-14 | 2006-08-16 | Ecole Polytechnique Federale De Lausanne | Parametric joint-coding of audio sources |
US7573912B2 (en) | 2005-02-22 | 2009-08-11 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschunng E.V. | Near-transparent or transparent multi-channel encoder/decoder scheme |
EP1905002B1 (en) | 2005-05-26 | 2013-05-22 | LG Electronics Inc. | Method and apparatus for decoding audio signal |
CA2613731C (en) | 2005-06-30 | 2012-09-18 | Lg Electronics Inc. | Apparatus for encoding and decoding audio signal and method thereof |
US8359341B2 (en) | 2005-12-10 | 2013-01-22 | International Business Machines Corporation | Importing content into a content management system using an e-mail application |
US8081762B2 (en) * | 2006-01-09 | 2011-12-20 | Nokia Corporation | Controlling the decoding of binaural audio signals |
JP4966981B2 (ja) * | 2006-02-03 | 2012-07-04 | 韓國電子通信研究院 | 空間キューを用いたマルチオブジェクト又はマルチチャネルオーディオ信号のレンダリング制御方法及びその装置 |
EP1989920B1 (en) * | 2006-02-21 | 2010-01-20 | Koninklijke Philips Electronics N.V. | Audio encoding and decoding |
DE102007003374A1 (de) | 2006-02-22 | 2007-09-20 | Pepperl + Fuchs Gmbh | Induktiver Näherungsschalter sowie Verfahren zum Betreiben eines solchen |
JP5222279B2 (ja) * | 2006-03-28 | 2013-06-26 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | マルチチャネルオーディオ再構成における信号整形のための改善された方法 |
CA2656867C (en) * | 2006-07-07 | 2013-01-08 | Johannes Hilpert | Apparatus and method for combining multiple parametrically coded audio sources |
BRPI0716854B1 (pt) * | 2006-09-18 | 2020-09-15 | Koninklijke Philips N.V. | Codificador para codificar objetos de áudio, decodificador para decodificar objetos de áudio, centro distribuidor de teleconferência, e método para decodificar sinais de áudio |
WO2008039041A1 (en) | 2006-09-29 | 2008-04-03 | Lg Electronics Inc. | Methods and apparatuses for encoding and decoding object-based audio signals |
US8295494B2 (en) | 2007-08-13 | 2012-10-23 | Lg Electronics Inc. | Enhancing audio with remixing capability |
TW200930042A (en) * | 2007-12-26 | 2009-07-01 | Altek Corp | Method for capturing image |
-
2007
- 2007-10-01 WO PCT/KR2007/004800 patent/WO2008039041A1/en active Application Filing
- 2007-10-01 CA CA2645910A patent/CA2645910C/en active Active
- 2007-10-01 WO PCT/KR2007/004797 patent/WO2008039039A1/en active Application Filing
- 2007-10-01 JP JP2009530280A patent/JP4787362B2/ja not_active Expired - Fee Related
- 2007-10-01 RU RU2010141970/08A patent/RU2551797C2/ru active
- 2007-10-01 US US11/865,671 patent/US8504376B2/en active Active
- 2007-10-01 MX MX2008012251A patent/MX2008012251A/es active IP Right Grant
- 2007-10-01 US US11/865,663 patent/US7987096B2/en active Active
- 2007-10-01 MX MX2008012315A patent/MX2008012315A/es active IP Right Grant
- 2007-10-01 KR KR1020087026604A patent/KR100987457B1/ko active IP Right Grant
- 2007-10-01 JP JP2009530281A patent/JP5238707B2/ja active Active
- 2007-10-01 KR KR1020087026605A patent/KR101065704B1/ko active IP Right Grant
- 2007-10-01 JP JP2009530278A patent/JP5232789B2/ja active Active
- 2007-10-01 WO PCT/KR2007/004801 patent/WO2008039042A1/en active Application Filing
- 2007-10-01 EP EP07833116A patent/EP2071564A4/en not_active Ceased
- 2007-10-01 CA CA2645908A patent/CA2645908C/en active Active
- 2007-10-01 JP JP2009530279A patent/JP5238706B2/ja active Active
- 2007-10-01 US US11/865,632 patent/US8625808B2/en active Active
- 2007-10-01 AU AU2007300813A patent/AU2007300813B2/en not_active Ceased
- 2007-10-01 AU AU2007300814A patent/AU2007300814B2/en not_active Ceased
- 2007-10-01 BR BRPI0711104-5A patent/BRPI0711104A2/pt not_active IP Right Cessation
- 2007-10-01 MX MX2008012250A patent/MX2008012250A/es active IP Right Grant
- 2007-10-01 BR BRPI0711185-1A patent/BRPI0711185A2/pt not_active IP Right Cessation
- 2007-10-01 KR KR1020087026606A patent/KR20090013178A/ko not_active Application Discontinuation
- 2007-10-01 KR KR1020087026607A patent/KR101069266B1/ko active IP Right Grant
- 2007-10-01 US US11/865,679 patent/US7979282B2/en active Active
- 2007-10-01 AU AU2007300810A patent/AU2007300810B2/en not_active Ceased
- 2007-10-01 BR BRPI0711102-9A patent/BRPI0711102A2/pt not_active IP Right Cessation
- 2007-10-01 CA CA2646045A patent/CA2646045C/en active Active
- 2007-10-01 WO PCT/KR2007/004803 patent/WO2008039043A1/en active Application Filing
- 2007-10-01 EP EP07833112A patent/EP2070080A4/en not_active Ceased
- 2007-10-01 BR BRPI0710923-7A patent/BRPI0710923A2/pt not_active IP Right Cessation
- 2007-10-01 EP EP07833118A patent/EP2070081A4/en not_active Ceased
- 2007-10-01 MX MX2008012246A patent/MX2008012246A/es active IP Right Grant
- 2007-10-01 EP EP07833115A patent/EP2071563A4/en not_active Ceased
- 2007-10-01 CA CA2645909A patent/CA2645909C/en active Active
- 2007-10-01 AU AU2007300812A patent/AU2007300812B2/en not_active Ceased
-
2011
- 2011-02-07 US US13/022,585 patent/US8762157B2/en active Active
-
2014
- 2014-06-23 US US14/312,567 patent/US9384742B2/en active Active
-
2016
- 2016-07-01 US US15/201,335 patent/US9792918B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006517356A (ja) * | 2002-12-02 | 2006-07-20 | トムソン ライセンシング | オーディオ信号の構成を記述する方法 |
WO2006060279A1 (en) * | 2004-11-30 | 2006-06-08 | Agere Systems Inc. | Parametric coding of spatial audio with object-based side information |
JP2008522244A (ja) * | 2004-11-30 | 2008-06-26 | アギア システムズ インコーポレーテッド | オブジェクト・ベースのサイド情報を用いる空間オーディオのパラメトリック・コーディング |
WO2006089685A1 (de) * | 2005-02-23 | 2006-08-31 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und verfahren zum speichern von audiodateien |
JP2008537833A (ja) * | 2005-02-23 | 2008-09-25 | フラウンホーファーゲゼルシャフト ツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー. | オーディオファイルを記憶するための装置および方法 |
Non-Patent Citations (1)
Title |
---|
JPN7010003166, J. Breebaart et al., "MPEG Spatial Audio Coding/MPEG Surround:Overview and Current Status", Audio Engineering Society 119th Convention Paper, 20051007, US, AES * |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9565509B2 (en) | 2006-10-16 | 2017-02-07 | Dolby International Ab | Enhanced coding and parameter representation of multichannel downmixed object coding |
US8687829B2 (en) | 2006-10-16 | 2014-04-01 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Apparatus and method for multi-channel parameter transformation |
JP2010507114A (ja) * | 2006-10-16 | 2010-03-04 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | マルチチャネル・パラメータ変換のための装置および方法 |
US8370164B2 (en) | 2006-12-27 | 2013-02-05 | Electronics And Telecommunications Research Institute | Apparatus and method for coding and decoding multi-object audio signal with various channel including information bitstream conversion |
US9257127B2 (en) | 2006-12-27 | 2016-02-09 | Electronics And Telecommunications Research Institute | Apparatus and method for coding and decoding multi-object audio signal with various channel including information bitstream conversion |
JP2016200824A (ja) * | 2006-12-27 | 2016-12-01 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute | トランスコーディング装置 |
JP2011519223A (ja) * | 2008-04-24 | 2011-06-30 | エルジー エレクトロニクス インコーポレイティド | オーディオ信号の処理方法及び装置 |
JP2012526296A (ja) * | 2009-05-08 | 2012-10-25 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | 音声フォーマット・トランスコーダ |
JP2021131562A (ja) * | 2011-07-01 | 2021-09-09 | ドルビー ラボラトリーズ ライセンシング コーポレイション | オーディオ信号処理システム及び方法 |
JP2018088713A (ja) * | 2011-07-01 | 2018-06-07 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 向上した3dオーディオ作成および表現のためのシステムおよびツール |
JP2019193302A (ja) * | 2011-07-01 | 2019-10-31 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 向上した3dオーディオ作成および表現のためのシステムおよびツール |
US10609506B2 (en) | 2011-07-01 | 2020-03-31 | Dolby Laboratories Licensing Corporation | System and tools for enhanced 3D audio authoring and rendering |
JP2020065310A (ja) * | 2011-07-01 | 2020-04-23 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 向上した3dオーディオ作成および表現のためのシステムおよびツール |
US11057731B2 (en) | 2011-07-01 | 2021-07-06 | Dolby Laboratories Licensing Corporation | System and tools for enhanced 3D audio authoring and rendering |
JP7009664B2 (ja) | 2011-07-01 | 2022-01-25 | ドルビー ラボラトリーズ ライセンシング コーポレイション | オーディオ信号処理システム及び方法 |
US11412342B2 (en) | 2011-07-01 | 2022-08-09 | Dolby Laboratories Licensing Corporation | System and method for adaptive audio signal generation, coding and rendering |
US11641562B2 (en) | 2011-07-01 | 2023-05-02 | Dolby Laboratories Licensing Corporation | System and tools for enhanced 3D audio authoring and rendering |
US11962997B2 (en) | 2011-07-01 | 2024-04-16 | Dolby Laboratories Licensing Corporation | System and method for adaptive audio signal generation, coding and rendering |
US12047768B2 (en) | 2011-07-01 | 2024-07-23 | Dolby Laboratories Licensing Corporation | System and tools for enhanced 3D audio authoring and rendering |
KR102058619B1 (ko) * | 2013-04-27 | 2019-12-23 | 인텔렉추얼디스커버리 주식회사 | 예외 채널 신호의 렌더링 방법 |
JP2016019041A (ja) * | 2014-07-04 | 2016-02-01 | 日本放送協会 | 音響信号変換装置、音響信号変換方法、音響信号変換プログラム |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4787362B2 (ja) | オブジェクトベースオーディオ信号をエンコーディング及びデコーディングする方法及び装置 | |
RU2455708C2 (ru) | Способы и устройства кодирования и декодирования объектно-ориентированных аудиосигналов |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101012 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110614 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110714 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4787362 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140722 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |