JP6723120B2 - 音響処理装置および音響処理方法 - Google Patents
音響処理装置および音響処理方法 Download PDFInfo
- Publication number
- JP6723120B2 JP6723120B2 JP2016172985A JP2016172985A JP6723120B2 JP 6723120 B2 JP6723120 B2 JP 6723120B2 JP 2016172985 A JP2016172985 A JP 2016172985A JP 2016172985 A JP2016172985 A JP 2016172985A JP 6723120 B2 JP6723120 B2 JP 6723120B2
- Authority
- JP
- Japan
- Prior art keywords
- sound source
- sound
- acoustic
- unit
- acoustic model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/406—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2201/00—Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
- H04R2201/40—Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
- H04R2201/401—2D or 3D arrays of transducers
Landscapes
- Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Circuit For Audible Band Transducer (AREA)
- Stereophonic System (AREA)
Description
例えば、特許文献1に記載の技術では、マイクが音響信号を収音し、音源定位部が音源の方向を推定する。そして、特許文献1に記載の技術では、音源定位部が推定した音源の方向の情報を用いて、音源分離部が音響信号から音源信号を分離する。
また、上述した(2)によれば、音響モデルにおいて特徴量を用いることで、音源同定の精度を向上させることができる。
また、上述した(3)によれば、音源の近接度合いと音源の種類とに応じて、確率的なモデル表現の音響モデルにおける確率を設定する。音源同士が近接する場合は、相互に依存関係が生ずるので、音源同定の精度を向上させることができる。
また、上述した(4)によれば、音響モデルに、音源分離部が分離した分離結果を用いているので、より音源同定の精度を向上させることができる。
第1実施形態では、音響信号が、野鳥の鳴き声を集音した音響信号の例を説明する。
図1は、本実施形態に係る音響信号処理システム1の構成を示すブロック図である。図1に示すように、音響信号処理システム1は、収音部11、録音再生装置12、再生装置13、および音響処理装置20を含む。また、音響処理装置20は、取得部21、音源定位部22、音源分離部23、音響モデル生成部24、音響モデル記憶部25、音源同定部26、および出力部27を備える。
再生装置13は、Pチャネルの音響信号を音響処理装置20に出力する。
なお、音響信号処理システム1は、収音部11、録音再生装置12、再生装置13のうち、少なくとも1つを備えていればよい。
また、出力部27は、他の機器に各種の情報を出力する入出力インタフェースを含んでいてもよく、これらの情報を記憶する記憶媒体を含んでいてもよい。また、出力部27は、これらの情報を表示する画像表示部(ディスプレイ等)を含んでいてもよい。
音源クラスとは、1つの音の区間を音の特徴によって分類したものであり、例えば鳥の種類、鳥の個体などによって区分されるクラスである。なお、音の区間とは、音響信号のうち、例えば所定のしきい値以上の大きさの音が連続している時間である。音響モデル生成部24は、例えば音響特徴量に基づいてクラスタリングして音源クラスを分類する。また、サブクラスとは、音源クラスより短い音の区間であり、音源クラスの構成単位である。サブクラスは、例えば人間が発声した音声の音韻に相当する。
例えば、ウグイス場合は、ウグイスが音源クラスであり、区間U1と区間U2(図2)がサブクラスである。このように、鳥の鳴き声である歌において、音源クラスは、1つまたは複数のサブクラスを備えている。
MUSIC法は、以下に説明する空間スペクトルのパワーPext(ψ)が極大であって、所定のレベルよりも高い方向ψを音源方向として定める手法である。音源定位部22が備える記憶部は、予め所定の間隔(例えば5°)で分布した音源方向ψ毎の伝達関数を記憶する。音源定位部22は、音源から各チャネルp(pは、1以上P以下の整数)に対応するマイクロフォンまでの伝達関数D[p](ω)を要素とする伝達関数ベクトル[D(ψ)]を音源方向ψ毎に生成する。
音源定位部22は、入力相関行列[Rxx]の固有値δiおよび固有ベクトル[ei]を算出する。入力相関行列[Rxx]、固有値δi、および固有ベクトル[ei]は、次式(2)に示す関係を有する。
音源定位部22は、伝達関数ベクトル[D(ψ)]と算出した固有ベクトル[ei]に基づいて、次式(3)に示す周波数別空間スペクトルのパワーPsp(ψ)を算出する。
音源定位部22は、SN比(信号対ノイズ比)が予め定めた閾値(例えば、20dB)よりも大きい周波数帯域における空間スペクトルPsp(ψ)の総和を全帯域の空間スペクトルのパワーPext(ψ)として算出する。
なお、音源定位部22は、MUSIC法に代えて、その他の手法を用いて音源位置を算出してもよい。音源定位部22は、例えば、重み付き遅延和ビームフォーミング(WDS−BF:Weighted Delay and Sum Beam Forming)法を用いて音源位置を算出してもよい。
GHDSS法は、2つのコスト関数(cost function)として、分離尖鋭度(Separation Sharpness)JSS([V(ω)])と幾何制約度(Geometric Constraint)JGC([V(ω)])が、それぞれ減少するように分離行列[V(ω)]を適応的に算出する方法である。分離行列[V(ω)]は、音源定位部22が出力するPチャネルの音声信号[x(ω)]に乗じることによって、検出される最大K個の音源それぞれの音源別音声信号(推定値ベクトル)[u’(ω)]を算出するために用いられる行列である。ここで、[…]Tは、行列またはベクトルの転置を示す。
音源の種類が鳥の鳴き声であり、その音源クラスが複数のサブクラスを有する場合、各時刻の音源からの音は、複数の音源クラスおよび複数のサブクラスの中から確率的に選択されると仮定する。前述したウグイスの歌「ホーホケキョ」の場合は、第1のサブクラス「ホーホ」と、第2のサブクラス「ケキョ」それぞれの異なる周波数スペクトルを確率的に選択しているとみなす。これにより、本実施形態では、音源同定に用いる音響モデルを、異なるスペクトルを混合したモデルとして生成する。さらに、本実施形態における音響モデルは、分離音に関する確率分布と、到来方向に関する確率分布の2つの分布によって構成する。分離音に関する分布としては、GMM(Gaussian Mixture Model;混合ガウスモデル)を用いる。そして、到来方向に関する分布には、フォン・ミーゼス(von Mises)分布を用いる。すなわち、本実施形態では、音源位置を考慮するようにGMMを拡張して用いる。
GMMを用いた音響モデルでは、1つの音源クラスが複数のサブクラスを有しているとする。また、GMMを用いた音響モデルにおいて、各時刻における音源からの音響信号は、複数のサブクラスから確率的に選択すると仮定する。また、GMMを用いた音響モデルでは、周波数スペクトルから計算した音響特徴量が多変量ガウス分布に従うと仮定する。これにより、GMMを用いた音響モデルでは、1つの音源クラスであってもサブクラスの数の周波数スペクトルのパターンを表現することができる。この結果、GMMを用いた音響モデルでは、異なるスペクトルを持つ信号が混合した音響信号であっても、モデル化を行うことができる。
GMMを用いた音響モデルでは、音響モデルの構築後、次式(7)を用いてMAP(Maximum A Postriori)推定を行うことで、音源の同定を行う。なお、式(7)において、Ckは、音源kの音源クラスを示す。
上述したGMMによる音響モデルでは、分離音毎に独立してモデル化を行う。このため、時刻t、時刻tにおける分離音kt毎に独立している。GMMを用いた音響モデルでは、分離音毎に独立して学習を行うため、音源位置を音響モデルに反映することができない。従って、GMMを用いた音響モデルでは、音源の位置関係に依存した分離音間の漏れを考慮できなかった。このため、本実施形態の音響モデルでは、各分離音間の依存性を考慮して、GMMを拡張する。
観測変数xは、第1の分離音の音響特徴量である。観測変数x’は、第2の分離音の音響特徴量である。観測変数sは、第1の分離音の時刻tにおけるサブクラスである。観測変数s’は、第2の分離音の時刻tにおけるサブクラスである。観測変数cは、第1の分離音の時刻tにおける音源クラスである。観測変数c’は、第2の分離音の時刻tにおける音源クラスである。観測変数dは、分離音の到来方向のベクトルである。
図3に示したベイジアンネットワークは、次式(8)のように記述することができる。
ここで、本実施形態においてフォン・ミーゼス分布を用いる理由を説明する。フォン・ミーゼス分布は、円周上に定義された連続型の確率分布である。音源の方向は、円周上に存在していると想定される。このため、本実施形態では、方向の分布として、円周上に定義されたフォン・ミーゼス分布を用いる。
本実施形態では、分離音間の相互依存性を考慮し、EMアルゴリズムにおける半教師あり学習を行う。
音響モデル生成部24は、予め取得した音響信号に対して分離した音のいくつかに対して予めアノテーションを行った半教師あり学習を行うことで音響モデルを生成し、生成した音響モデルを音響モデル記憶部25に記憶する。
しかし、部分的なアノテーションの場合、つまり半教師あり学習を行う場合は、音源クラスcと音源クラスc’とが独立ではないため、音響特徴量x毎に独立に学習することができない。
EMアルゴリズムにおいては、データセット中のサブクラスs の出現確率の期待値を計算する必要がある。期待値Nsは、次式(15)のように表現できる。
ただし、ベイジアンネットワークの性質からp(st,kt= s,X,d)は、音源ktだけでなく,時刻tにおけるそのほかの音源と独立に決定することはできない。
この場合、音源ktのサブクラスsに関する確率p(s,X,d) は、次式(16)のように表現できる。
また、確率p(s|x)は、サブクラスsに関する多変量ガウス分布となる。そして、p(s|x)以外の確率は、定義より与えられる。また、フォン・ミーゼス分布のパラメータκ1,κ2についても、EMアルゴリズムを用いて決定することが可能である。
図4は、本実施形態に係る音響モデル生成処理のフローチャートである。
(ステップS1)音響モデル生成部24は、予め取得した音源別音響信号に対して、その区間毎に音源クラスとサブクラスとを対応付ける(アノテーション)。音響モデル生成部24は、例えば、音源別音響信号のスペクトログラムを画像表示部に表示させる。音響モデル生成部24は、収音部11等が出力する音響信号に対して、音源の区間検出、音源定位処理、音源分離処理を行った分離音に音源クラスとサブクラスを対応付ける。
図5は、本実施形態に係る音源同定部26の構成を示すブロック図である。図5に示すように、音源同定部26は、音響特徴量算出部261、音源推定部262を備える。
図6は、本実施形態に係る音源同定処理のフローチャートである。音源推定部262は、ステップS101〜S102に示す処理を音源方向毎に繰り返す。
図7は、本実施形態に係る音声処理のフローチャートである。
(ステップS201)取得部21は、例えば収音部11が出力するPチャネルの音響信号を取得し、取得したPチャネルの音響信号を音源定位部22に出力する。
以上で、音響処理装置20は、音声処理を終了する。
図8では、線種により音源クラスを表している。太い実線、太い破線、細い実線、細い破線、一点破線は、それぞれキビタキの鳴き声、ヒヨドリ(A)の鳴き声、メジロの鳴き声、ヒロドリ(B)の鳴き声、その他の音源を示す。なお、ヒヨドリ(A)とヒヨドリ(B)は、異なる個体であり、歌い方の特徴が異なっていたため別の音源クラスとした。
比較のため、従来法として音源分離により得られた音源別音声信号について、MUSIC法による音源定位とは独立に、GHDSSによる音源分離により得られた音源別音響信号について音データを用いて区間毎に音源の種類を定めた。また、パラメータκ1、κ2を、それぞれ0.2とした。また、音響特徴量算出部261は、音響特徴量として、16kHzサンプリングのデジタル信号の分離音から窓幅80の40ステップ幅(2.5ms毎)で周波数スペクトルの1フレームを算出した。そして、音響特徴量算出部261は、10フレームのステップ幅で100フレームのブロックを抽出し、このブロックを4100次元のベクトルとみなして主成分分析によって32次元に圧縮して、評価用のデータセットとして用いた。また、音源同定部26は、この1ブロック毎に音源クラスを推定し、最終的にイベント内の全てのブロックの多数決によってそのイベントの音源クラスを決定した。
図9に示すように、すべてのアノテーション割合において,本実施形態による手法の方が比較例より正答率が高い。
また、本実施形態では、フォン・ミーゼス分布を用いて音響モデルを生成するようにした。これにより、本実施形態によれば、音源の方向を適切にモデル化することができる。この結果、本実施形態によれば、この音響モデルを用いて音源クラスを推定するので、精度よく音源クラスを推定することができる。
また、本実施形態では、音響モデルに、音源分離部が分離した分離結果を用いているので、より音源同定の精度を向上させることができる。
例えば、音源が3つで観測変数が音源クラスc1〜c3の場合、これらの音源クラスそれぞれが有するサブクラス、音響特徴量を用いてベイジアンネットワークによって表現する。
この場合、上述した式(8)において、異なる音源クラスの場合(ci≠cj)、確率p(di,dj|ci≠cj)の式(12)は、次式(18)のように表すことができる。
さらに、音源の数が4つの場合は、音源の方位が(2π/4)ずつ離れている関係が遠い関係になる。以下、音源の数がK個の場合、音源の方位が(2π/K)ずつ離れている関係が遠い関係になる。
第1実施形態では、取得部21が取得する音響信号が、鳥の鳴き声、特に歌の例を説明したが、音響処理装置20が推定する音源クラスは、これに限られない。音源クラスを推定する音響信号は、人間の発話であってもよい。この場合は、1つの発話が音源クラスであり、音節がサブクラスである。
人間の発話に対して音源クラスを推定する場合の音響処理装置20の構成は、第1実施形態の音響処理装置20と同じである。
なお、本実施形態においても、近くにいる話者の数は2人に限られず、3人以上であっても同様の効果を得ることができる。
音響処理装置20が取得する音響信号は、人間の発話が含まれる音響信号であってもよい。例えば、取得する音響信号に人間の発話と犬の鳴き声が含まれている場合、音響処理装置20は、第1の音源クラスを人間、第2の音源クラスを犬としてもよい。この場合の音響処理装置20の構成は、第1実施形態の音響処理装置20と同じである。
このように、音響処理装置20が取得する音響信号は、野鳥の鳴き声、人間の発話、動物の鳴き声等の少なくとも1つ、あるいは混合した物であってもよい。
また、音響処理装置20は、さらに収音部11を含んで構成されてもよい。音響処理装置20は、音源同定部26が生成した音源種類情報を記憶する記憶部を備えてもよい。その場合には、出力部27を備えていなくてもよい。
Claims (5)
- マイクロフォンアレイで収音された音響信号を取得する取得部と、
前記取得部が取得した音響信号に基づいて音源方向を定める音源定位部と、
音源同士の依存関係を示す音響モデルに基づいて音源の種類を同定する音源同定部とを備え、
前記音響モデルは、前記音源方向を要素として含んだ確率的なモデル表現で表される音響処理装置。 - 前記音響モデルは、確率的なモデル表現において、前記音源の特徴量に基づくクラス毎にモデル化したものである、請求項1に記載の音響処理装置。
- 前記音源同定部は、前記音源の特徴量に基づくクラスが同じ複数の前記音源の場合に前記音源同士が近接する方向にあると判別し、前記クラスが異なる複数の前記音源の場合に前記音源同士が離れた方向にあると判別する、請求項1または請求項2に記載の音響処理装置。
- 前記音源定位部が定めた音源方向の結果に基づいて音源分離する音源分離部、を備え、
前記音響モデルは、前記音源分離部での分離結果に基づく、請求項1から請求項3のいずれか1項に記載の音響処理装置。 - 取得部が、マイクロフォンアレイで収音された音響信号を取得する取得手順と、
音源定位部が、前記取得手順が取得した音響信号に基づいて音源方向を定める音源定位手順と、
音源同士の依存関係を示す音響モデルに基づいて音源の種類を同定する音源同定手順と、
を含み、
前記音響モデルは、前記音源方向を要素として含んだ確率的なモデル表現で表される、音響処理方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016172985A JP6723120B2 (ja) | 2016-09-05 | 2016-09-05 | 音響処理装置および音響処理方法 |
US15/619,865 US10390130B2 (en) | 2016-09-05 | 2017-06-12 | Sound processing apparatus and sound processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016172985A JP6723120B2 (ja) | 2016-09-05 | 2016-09-05 | 音響処理装置および音響処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018040848A JP2018040848A (ja) | 2018-03-15 |
JP6723120B2 true JP6723120B2 (ja) | 2020-07-15 |
Family
ID=61281452
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016172985A Active JP6723120B2 (ja) | 2016-09-05 | 2016-09-05 | 音響処理装置および音響処理方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10390130B2 (ja) |
JP (1) | JP6723120B2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3829161B1 (en) * | 2018-07-24 | 2023-08-30 | Sony Group Corporation | Information processing device and method, and program |
US10976748B2 (en) * | 2018-08-22 | 2021-04-13 | Waymo Llc | Detecting and responding to sounds for autonomous vehicles |
JP7177631B2 (ja) | 2018-08-24 | 2022-11-24 | 本田技研工業株式会社 | 音響シーン再構成装置、音響シーン再構成方法、およびプログラム |
JP7001566B2 (ja) * | 2018-09-04 | 2022-02-04 | 本田技研工業株式会社 | 音響処理装置、音響処理方法、およびプログラム |
JP7245669B2 (ja) * | 2019-02-27 | 2023-03-24 | 本田技研工業株式会社 | 音源分離装置、音源分離方法、およびプログラム |
JP6759479B1 (ja) * | 2020-03-24 | 2020-09-23 | 株式会社 日立産業制御ソリューションズ | 音響分析支援システム、及び音響分析支援方法 |
WO2021228059A1 (zh) * | 2020-05-14 | 2021-11-18 | 华为技术有限公司 | 一种固定声源识别方法及装置 |
JP7551457B2 (ja) * | 2020-11-09 | 2024-09-17 | 株式会社東芝 | 計測方法及び計測装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1818909B1 (en) | 2004-12-03 | 2011-11-02 | Honda Motor Co., Ltd. | Voice recognition system |
JP4873913B2 (ja) * | 2004-12-17 | 2012-02-08 | 学校法人早稲田大学 | 音源分離システムおよび音源分離方法、並びに音響信号取得装置 |
US7475014B2 (en) * | 2005-07-25 | 2009-01-06 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for tracking signal sources with wrapped-phase hidden markov models |
JP5724125B2 (ja) * | 2011-03-30 | 2015-05-27 | 株式会社国際電気通信基礎技術研究所 | 音源定位装置 |
EP2738962A1 (en) * | 2012-11-29 | 2014-06-04 | Thomson Licensing | Method and apparatus for determining dominant sound source directions in a higher order ambisonics representation of a sound field |
EP2765791A1 (en) * | 2013-02-08 | 2014-08-13 | Thomson Licensing | Method and apparatus for determining directions of uncorrelated sound sources in a higher order ambisonics representation of a sound field |
US10194650B2 (en) * | 2014-04-25 | 2019-02-05 | Steven Foster Byerly | Turkey sensor |
-
2016
- 2016-09-05 JP JP2016172985A patent/JP6723120B2/ja active Active
-
2017
- 2017-06-12 US US15/619,865 patent/US10390130B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10390130B2 (en) | 2019-08-20 |
JP2018040848A (ja) | 2018-03-15 |
US20180070170A1 (en) | 2018-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6723120B2 (ja) | 音響処理装置および音響処理方法 | |
JP6234060B2 (ja) | ターゲットドメインの学習用音声データの生成方法、生成装置、および生成プログラム | |
JP7018659B2 (ja) | 声質変換装置、声質変換方法およびプログラム | |
WO2019102884A1 (ja) | ラベル生成装置、モデル学習装置、感情認識装置、それらの方法、プログラム、および記録媒体 | |
JP6501260B2 (ja) | 音響処理装置及び音響処理方法 | |
US9971012B2 (en) | Sound direction estimation device, sound direction estimation method, and sound direction estimation program | |
JP4746533B2 (ja) | 多音源有音区間判定装置、方法、プログラム及びその記録媒体 | |
WO2019116889A1 (ja) | 信号処理装置および方法、学習装置および方法、並びにプログラム | |
Chaki | Pattern analysis based acoustic signal processing: a survey of the state-of-art | |
Boulmaiz et al. | Robust acoustic bird recognition for habitat monitoring with wireless sensor networks | |
US10548534B2 (en) | System and method for anhedonia measurement using acoustic and contextual cues | |
KR20190032868A (ko) | 음성인식 방법 및 그 장치 | |
JP6348427B2 (ja) | 雑音除去装置及び雑音除去プログラム | |
CN111666996B (zh) | 一种基于attention机制的高精度设备源识别方法 | |
Eklund | Data augmentation techniques for robust audio analysis | |
Duong et al. | Gaussian modeling-based multichannel audio source separation exploiting generic source spectral model | |
JP5726790B2 (ja) | 音源分離装置、音源分離方法、およびプログラム | |
WO2020195924A1 (ja) | 信号処理装置および方法、並びにプログラム | |
CN115116469B (zh) | 特征表示的提取方法、装置、设备、介质及程序产品 | |
EP3557576B1 (en) | Target sound emphasis device, noise estimation parameter learning device, method for emphasizing target sound, method for learning noise estimation parameter, and program | |
Hakim et al. | Automated birdsong clustering and interactive visualization tool. | |
Jamil et al. | SiulMalaya: an annotated bird audio dataset of Malaysia lowland forest birds for passive acoustic monitoring | |
JP6961545B2 (ja) | 音信号処理装置、音信号処理方法、およびプログラム | |
JP6633579B2 (ja) | 音響信号処理装置、方法及びプログラム | |
JP6059112B2 (ja) | 音源分離装置とその方法とプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181005 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191018 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200108 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200602 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200623 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6723120 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |