JP2021520760A - 音源の位置特定 - Google Patents
音源の位置特定 Download PDFInfo
- Publication number
- JP2021520760A JP2021520760A JP2020564659A JP2020564659A JP2021520760A JP 2021520760 A JP2021520760 A JP 2021520760A JP 2020564659 A JP2020564659 A JP 2020564659A JP 2020564659 A JP2020564659 A JP 2020564659A JP 2021520760 A JP2021520760 A JP 2021520760A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- sound source
- microphone
- signal
- sound field
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 76
- 230000001934 delay Effects 0.000 claims description 7
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 230000003287 optical effect Effects 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 abstract description 2
- 238000004519 manufacturing process Methods 0.000 description 22
- 230000033001 locomotion Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 9
- 230000004044 response Effects 0.000 description 9
- 230000005236 sound signal Effects 0.000 description 7
- 238000001228 spectrum Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 3
- 230000003111 delayed effect Effects 0.000 description 2
- 230000001079 digestive effect Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 241001342895 Chorus Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 238000005311 autocorrelation function Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- ZYXYTGQFPZEUFX-UHFFFAOYSA-N benzpyrimoxan Chemical compound O1C(OCCC1)C=1C(=NC=NC=1)OCC1=CC=C(C=C1)C(F)(F)F ZYXYTGQFPZEUFX-UHFFFAOYSA-N 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000009529 body temperature measurement Methods 0.000 description 1
- HAORKNGNJCEJBX-UHFFFAOYSA-N cyprodinil Chemical compound N=1C(C)=CC(C2CC2)=NC=1NC1=CC=CC=C1 HAORKNGNJCEJBX-UHFFFAOYSA-N 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- RDYMFSUJUZBWLH-UHFFFAOYSA-N endosulfan Chemical compound C12COS(=O)OCC2C2(Cl)C(Cl)=C(Cl)C1(Cl)C2(Cl)Cl RDYMFSUJUZBWLH-UHFFFAOYSA-N 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 230000008521 reorganization Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/406—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R29/00—Monitoring arrangements; Testing arrangements
- H04R29/004—Monitoring arrangements; Testing arrangements for microphones
- H04R29/005—Microphone arrays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/027—Spatial or constructional arrangements of microphones, e.g. in dummy heads
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/008—Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/01—Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/11—Application of ambisonics in stereophonic audio systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/02—Systems employing more than two channels, e.g. quadraphonic of the matrix type, i.e. in which input signals are combined algebraically, e.g. after having been phase shifted with respect to each other
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Otolaryngology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Circuit For Audible Band Transducer (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
- Studio Devices (AREA)
Abstract
Description
少なくとも2つのマイクロホンを備える音場マイクロホンシステムを使用して、空間的に符号化された音場信号を生成することであって、この空間的に符号化された音場信号は複数の成分を含み、各成分は当該音源からの音声を含む、ことと、
当該音源に近接して配置されたローカルマイクロホンを使用して、当該音源からの音声に対応するローカルマイクロホン信号を生成することと、
このローカルマイクロホン信号を複数の成分のそれぞれと比較して、複数の比較結果を生成することと、
これら複数の比較結果を使用して、音場マイクロホンシステムに対する当該音源の位置を特定することとを含む。
第2の音源に近接して配置された第2のマイクロホンを使用して、第2のマイクロホン信号をキャプチャすることであって、ここで第1のマイクロホン信号は、第2の音源からの音声を含む、ことと、
この第2のマイクロホン信号を複数の成分のそれぞれと比較して、第2の複数の比較結果を生成することと、
これら第2の複数の比較結果を使用して、本音場マイクロホンシステムに対する第2の音源の位置を特定することとをさらに含む。
複数の成分を含む、空間的に符号化された音場信号を供給することであって、各成分は当該音源からの音声を含む、ことと、
当該音源からの音声に対応するローカルマイクロホン信号を供給することと、
このローカルマイクロホン信号を複数の成分のそれぞれと比較して、複数の比較結果を生成することと、
これら複数の比較結果を使用して、当該音源の位置を特定することとを含む。
複数の成分を含む空間的に符号化された音場信号を受信し、各成分はある音源からの音声を含み、
当該音源からの音声に対応するローカルマイクロホン信号を受信し、
このローカルマイクロホン信号を複数の成分のそれぞれと比較して、複数の比較結果を生成し、かつ
これら複数の比較結果を使用して、当該音源の位置を特定するように構成されたソフトウェアを備える、コンピュータソフトウェアツール又は非一時的なコンピュータ可読媒体に及ぶ。
複数の成分を含む音場信号を出力するように構成された音場マイクロホンシステムであって、各成分はある音源からの音声を含む、音場マイクロホンシステムと、
当該音源に近接して配置され、かつ当該音源からの音声に対応する近接マイクロホン信号を出力するように構成された近接マイクロホンと、
この近接マイクロホン信号及び音場信号を受信するように構成されたプロセッサとを備え、
このプロセッサは、近接マイクロホン信号を複数の成分のそれぞれと比較して、複数の比較結果を生成し、かつこれら複数の比較結果を使用して、本音場マイクロホンシステムに対する当該音源の位置を特定するように構成されている。
個のマイクロホンで構成され、アンビソニックAフォーマット信号のセット
を出力しており(すなわち、それぞれのマイクロホンからの生の出力)、これらの信号はそれぞれ音源からの音声を含む。ローカルマイクロホンは、音源からの音声に対応するローカルマイクロホン信号
をキャプチャする。
個の独立した音源で構成されていると仮定すると、
番目のマイクロホンの信号は次のように表すことができ、
ここで、
はノイズであり、
は
番目の音源と
番目のマイクロホンとの間の室内インパルス応答である。この室内インパルス応答が次のような
回の遅延反射で構成されていると仮定している。
の到達時刻が推定される。ローカルマイクロホン信号
及びAフォーマット信号
に対し、位相変換(PHAT)アルゴリズムが使用されている。
が付され、その際、m及びnは球面調和関数を表している。好ましい実施例では、本アンビソニックマイクロホンは、n=m=0及びn=1m=−1,0,1の場合に対応する4つの信号を出力する。これは、直交して配置された3つの8の字型マイクロホン(n=1m=−1,0,1)と一致する、全指向性マイクロホン(n=m=1)から発信されるAフォーマット信号と概念的に同等のものである。他の実施例では、高次の球面調和関数を使用してもよい(Bフォーマット信号の数を増加させる)。
個の無相関の音源
が反射壁のある部屋でモデル化されている。この場合、結果として得られるアンビソニックBフォーマット信号は次のように記述でき、
ここで、
は室内インパルス応答であり、
は球面調和関数であり、また
はノイズを表している。
で畳み込まれたマイクロホン信号における、室内インパルス応答のアンビソニックBフォーマット表現(すなわち、球面調和関数へと分解されたもの)が、次のように生成される。
は、Aフォーマット信号の場合と同一の方法で、ローカルマイクロホン信号及び
(全指向性Bフォーマット成分)にPHATアルゴリズムを使用することによって抽出することができる。
は
よりも小さいと仮定され、
となるように選択される。
Claims (23)
- 音源の位置を特定する方法であって、前記方法は、
少なくとも2つのマイクロホンを備える音場マイクロホンシステムを使用して、空間的に符号化された音場信号を生成することであって、前記空間的に符号化された音場信号は複数の成分を含み、各成分は前記音源からの音声を含む、ことと、
前記音源に近接して配置されたローカルマイクロホンを使用して、前記音源からの音声に対応するローカルマイクロホン信号を生成することと、
前記ローカルマイクロホン信号を前記複数の成分のそれぞれと比較して、複数の比較結果を生成することと、
前記複数の比較結果を使用して、前記音場マイクロホンシステムに対する前記音源の位置を特定することとを含む、
音源の位置を特定する方法。 - 前記ローカルマイクロホン信号を前記複数の成分のそれぞれと比較することは、前記ローカルマイクロホン信号と前記複数の成分のそれぞれとの間の相関の尺度をそれぞれ決定することを含む、請求項1に記載の方法。
- 前記音場マイクロホンシステムに対する前記音源の位置を特定することは、
前記相関の尺度を使用して、球面調和関数によって重み付けされた直接音の自己相関を求めることと、
前記直接音の自己相関の成分を評価することによって、前記音場マイクロホンシステムから前記ローカルマイクロホンへの方向を抽出することとを含む、請求項2に記載の方法。 - 前記決定された相関の尺度を使用して、前記ローカルマイクロホン信号と前記複数の成分の少なくとも1つとの間における1つ又は複数の伝搬遅延を計算することを含む、請求項2又は3に記載の方法。
- 前記複数の比較結果を使用して、前記音場マイクロホンシステムに対する前記音源の位置を特定することは、前記伝搬遅延の2つ以上の間の差を使用して、前記音場マイクロホンシステムから前記ローカルマイクロホンへの方向を特定することを含む、請求項4に記載の方法。
- 前記複数の比較結果を使用して、前記音場マイクロホンシステムに対する前記音源の位置を特定することは、前記伝搬遅延の少なくとも1つを使用して、前記音場マイクロホンシステムから前記ローカルマイクロホンまでの距離、又は距離の変化を特定することを含む、請求項4又は5に記載の方法。
- 前記音源が移動している、請求項1から6のいずれか一項に記載の方法。
- 前記複数の成分のそれぞれは第2の音源からの音声を含み、前記方法は、
前記第2の音源に近接して配置された第2のマイクロホンを使用して、第2のマイクロホン信号をキャプチャすることであって、ここで前記第1のマイクロホン信号は、前記第2の音源からの音声を含む、ことと、
前記第2のマイクロホン信号を前記複数の成分のそれぞれと比較して、第2の複数の比較結果を生成することと、
前記第2の複数の比較結果を使用して、前記音場マイクロホンシステムに対する前記第2の音源の位置を特定することとをさらに含む、請求項1から7のいずれか一項に記載の方法。 - 空間的に符号化されたサウンドトラックを生成することをさらに含み、ここで前記ローカルマイクロホン信号は、前記音場マイクロホンシステムに対する前記音源の位置で符号化される、請求項1から8のいずれか一項に記載の方法。
- 前記方法は、前記特定された前記音源の位置を使用して、さらなる動作を制御することを含む、請求項1から9のいずれか一項に記載の方法。
- カメラシステムを使用して映像信号をキャプチャすることをさらに含み、ここで前記音源は前記映像信号内でキャプチャされる、請求項1から10のいずれか一項に記載の方法。
- 前記音場マイクロホンシステムは前記カメラシステムと併置されている、請求項11に記載の方法。
- 前記方法は、光学画像追跡技術を前記映像信号と共に使用して、前記音源の位置を精緻化することをさらに含む、請求項11又は12に記載の方法。
- 前記方法は、光学画像追跡技術を使用して、前記空間的に符号化された音場信号と前記映像信号とを整列させることをさらに含む、請求項11に記載の方法。
- 前記音場マイクロホンシステムは、少なくとも4つのマイクロホンを備える、請求項1から14のいずれか一項に記載の方法。
- 前記音場マイクロホンシステムは、マイクロホンアレイとエンコーダとを備える、請求項1から15のいずれか一項に記載の方法。
- 前記空間的に符号化された音場信号は、アンビソニックBフォーマット信号を含む、請求項1から16のいずれか一項に記載の方法。
- 前記音場マイクロホンシステムの前記少なくとも2つのマイクロホンは、互いに隣接している、請求項1から17のいずれか一項に記載の方法。
- 前記ローカルマイクロホン信号を前記複数の成分のそれぞれと比較することは、前記ローカルマイクロホン信号及び前記複数の成分のそれぞれをニューラルネットワークに入力することと、前記音場マイクロホンシステムに対する前記音源の位置を前記ニューラルネットワークからの出力として受信することとを含む、請求項1から18のいずれか一項に記載の方法。
- 従前にキャプチャされたローカルマイクロホン信号と、空間的に符号化された音場信号と、音源位置に関する情報とを使用して、前記ニューラルネットワークを訓練することをさらに含む、請求項19に記載の方法。
- 音源の位置を特定する方法であって、前記方法は、
複数の成分を含む、空間的に符号化された音場信号を供給することであって、各成分は前記音源からの音声を含む、ことと、
前記音源からの音声に対応するローカルマイクロホン信号を供給することと、
前記ローカルマイクロホン信号を前記複数の成分のそれぞれと比較して、複数の比較結果を生成することと、
前記複数の比較結果を使用して、前記音源の位置を特定することとを含む、
音源の位置を特定する方法。 - 複数の成分を含む空間的に符号化された音場信号を受信し、各成分はある音源からの音声を含み、
前記音源からの音声に対応するローカルマイクロホン信号を受信し、
前記ローカルマイクロホン信号を前記複数の成分のそれぞれと比較して、複数の比較結果を生成し、かつ
前記複数の比較結果を使用して、前記音源の位置を特定するように構成された、コンピュータソフトウェアツール。 - 複数の成分を含む音場信号を出力するように構成された音場マイクロホンシステムであって、各成分はある音源からの音声を含む、音場マイクロホンシステムと、
前記音源に近接して配置され、かつ前記音源からの音声に対応する近接マイクロホン信号を出力するように構成された近接マイクロホンと、
前記近接マイクロホン信号及び前記音場信号を受信するように構成されたプロセッサとを備え、
前記プロセッサは、前記近接マイクロホン信号を前記複数の成分のそれぞれと比較して、複数の比較結果を生成し、かつ前記複数の比較結果を使用して、前記音場マイクロホンシステムに対する前記音源の位置を特定するように構成されている、
音源位置特定システム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862633755P | 2018-02-22 | 2018-02-22 | |
GB1802850.6 | 2018-02-22 | ||
US62/633,755 | 2018-02-22 | ||
GBGB1802850.6A GB201802850D0 (en) | 2018-02-22 | 2018-02-22 | Positioning sound sources |
PCT/GB2019/050497 WO2019162690A1 (en) | 2018-02-22 | 2019-02-22 | Positioning sound sources |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021520760A true JP2021520760A (ja) | 2021-08-19 |
JP7469235B2 JP7469235B2 (ja) | 2024-04-16 |
Family
ID=61903200
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020564659A Active JP7469235B2 (ja) | 2018-02-22 | 2019-02-22 | 音源の位置特定 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11388512B2 (ja) |
EP (1) | EP3756359A1 (ja) |
JP (1) | JP7469235B2 (ja) |
CN (1) | CN112005556B (ja) |
CA (1) | CA3091880A1 (ja) |
GB (1) | GB201802850D0 (ja) |
WO (1) | WO2019162690A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024070127A1 (ja) * | 2022-09-28 | 2024-04-04 | パナソニックIpマネジメント株式会社 | 音場再現装置、音場再現方法及び音場再現システム |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2590906A (en) * | 2019-12-19 | 2021-07-14 | Nomono As | Wireless microphone with local storage |
US11425496B2 (en) * | 2020-05-01 | 2022-08-23 | International Business Machines Corporation | Two-dimensional sound localization with transformation layer |
WO2023232864A1 (en) * | 2022-05-31 | 2023-12-07 | Nomono As | Method for obtaining a position of a sound source |
CN115604646B (zh) * | 2022-11-25 | 2023-03-21 | 杭州兆华电子股份有限公司 | 一种全景深空间音频处理方法 |
CN117935837B (zh) * | 2024-03-25 | 2024-05-24 | 中国空气动力研究与发展中心计算空气动力研究所 | 一种时域多声源定位及噪声处理方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016020873A (ja) * | 2014-07-15 | 2016-02-04 | パナソニックIpマネジメント株式会社 | 音速補正装置 |
US9430931B1 (en) * | 2014-06-18 | 2016-08-30 | Amazon Technologies, Inc. | Determining user location with remote controller |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2379147B (en) * | 2001-04-18 | 2003-10-22 | Univ York | Sound processing |
US8155331B2 (en) | 2006-05-10 | 2012-04-10 | Honda Motor Co., Ltd. | Sound source tracking system, method and robot |
US20090017910A1 (en) | 2007-06-22 | 2009-01-15 | Broadcom Corporation | Position and motion tracking of an object |
KR101395722B1 (ko) | 2007-10-31 | 2014-05-15 | 삼성전자주식회사 | 마이크로폰을 이용한 음원 위치 추정 방법 및 장치 |
US8116994B2 (en) * | 2008-11-23 | 2012-02-14 | Parker David H | Method for locating an underground septic tank, conduit, or the like using injection/detection synchronization of an acoustic signal and digital signal processing |
US8842851B2 (en) | 2008-12-12 | 2014-09-23 | Broadcom Corporation | Audio source localization system and method |
US9318096B2 (en) * | 2010-09-22 | 2016-04-19 | Broadcom Corporation | Method and system for active noise cancellation based on remote noise measurement and supersonic transport |
US8676728B1 (en) | 2011-03-30 | 2014-03-18 | Rawles Llc | Sound localization with artificial neural network |
US8830792B2 (en) | 2011-04-18 | 2014-09-09 | Microsoft Corporation | Mobile device localization using audio signals |
US8983089B1 (en) | 2011-11-28 | 2015-03-17 | Rawles Llc | Sound source localization using multiple microphone arrays |
US9560446B1 (en) | 2012-06-27 | 2017-01-31 | Amazon Technologies, Inc. | Sound source locator with distributed microphone array |
US10750132B2 (en) | 2013-03-14 | 2020-08-18 | Pelco, Inc. | System and method for audio source localization using multiple audio sensors |
EP2840807A1 (en) * | 2013-08-19 | 2015-02-25 | Oticon A/s | External microphone array and hearing aid using it |
US20170374455A1 (en) | 2015-01-20 | 2017-12-28 | 3M Innovative Properties Company | Mountable sound capture and reproduction device for determining acoustic signal origin |
WO2016123572A1 (en) * | 2015-01-30 | 2016-08-04 | Dts, Inc. | System and method for capturing, encoding, distributing, and decoding immersive audio |
US20160227377A1 (en) * | 2015-02-02 | 2016-08-04 | Carrier Corporation | System for locating an object and a method of using the same |
US10602265B2 (en) | 2015-05-04 | 2020-03-24 | Rensselaer Polytechnic Institute | Coprime microphone array system |
GB2540226A (en) | 2015-07-08 | 2017-01-11 | Nokia Technologies Oy | Distributed audio microphone array and locator configuration |
GB2543275A (en) * | 2015-10-12 | 2017-04-19 | Nokia Technologies Oy | Distributed audio capture and mixing |
US10063965B2 (en) | 2016-06-01 | 2018-08-28 | Google Llc | Sound source estimation using neural networks |
GB2551780A (en) | 2016-06-30 | 2018-01-03 | Nokia Technologies Oy | An apparatus, method and computer program for obtaining audio signals |
-
2018
- 2018-02-22 GB GBGB1802850.6A patent/GB201802850D0/en not_active Ceased
-
2019
- 2019-02-22 JP JP2020564659A patent/JP7469235B2/ja active Active
- 2019-02-22 CA CA3091880A patent/CA3091880A1/en active Pending
- 2019-02-22 EP EP19708643.2A patent/EP3756359A1/en active Pending
- 2019-02-22 US US16/971,630 patent/US11388512B2/en active Active
- 2019-02-22 WO PCT/GB2019/050497 patent/WO2019162690A1/en unknown
- 2019-02-22 CN CN201980027342.3A patent/CN112005556B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9430931B1 (en) * | 2014-06-18 | 2016-08-30 | Amazon Technologies, Inc. | Determining user location with remote controller |
JP2016020873A (ja) * | 2014-07-15 | 2016-02-04 | パナソニックIpマネジメント株式会社 | 音速補正装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024070127A1 (ja) * | 2022-09-28 | 2024-04-04 | パナソニックIpマネジメント株式会社 | 音場再現装置、音場再現方法及び音場再現システム |
Also Published As
Publication number | Publication date |
---|---|
CN112005556B (zh) | 2022-05-03 |
JP7469235B2 (ja) | 2024-04-16 |
CA3091880A1 (en) | 2019-08-29 |
CN112005556A (zh) | 2020-11-27 |
GB201802850D0 (en) | 2018-04-11 |
WO2019162690A1 (en) | 2019-08-29 |
US20200396537A1 (en) | 2020-12-17 |
EP3756359A1 (en) | 2020-12-30 |
US11388512B2 (en) | 2022-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10645518B2 (en) | Distributed audio capture and mixing | |
CN112005556B (zh) | 确定声源的位置的方法、声源定位系统以及存储介质 | |
US11528576B2 (en) | Distributed audio capturing techniques for virtual reality (VR), augmented reality (AR), and mixed reality (MR) systems | |
WO2017064368A1 (en) | Distributed audio capture and mixing | |
CN118633032A (zh) | 获得声源位置的方法 | |
WO2021095563A1 (ja) | 信号処理装置および方法、並びにプログラム | |
JP6587047B2 (ja) | 臨場感伝達システムおよび臨場感再現装置 | |
JP2023510141A (ja) | ローカルストレージを有する無線マイクロフォン | |
CN116614762B (zh) | 一种球幕影院的音效处理方法及系统 | |
WO2023085186A1 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
JP2024007669A (ja) | 音源及び受音体の位置情報を用いた音場再生プログラム、装置及び方法 | |
NZ795232A (en) | Distributed audio capturing techniques for virtual reality (1vr), augmented reality (ar), and mixed reality (mr) systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230301 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230731 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231012 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240313 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240404 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7469235 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |