JP2020020872A - 識別器、学習済モデル、学習方法 - Google Patents
識別器、学習済モデル、学習方法 Download PDFInfo
- Publication number
- JP2020020872A JP2020020872A JP2018142418A JP2018142418A JP2020020872A JP 2020020872 A JP2020020872 A JP 2020020872A JP 2018142418 A JP2018142418 A JP 2018142418A JP 2018142418 A JP2018142418 A JP 2018142418A JP 2020020872 A JP2020020872 A JP 2020020872A
- Authority
- JP
- Japan
- Prior art keywords
- input
- time delay
- ctc
- attention module
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 97
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims abstract description 94
- 239000013598 vector Substances 0.000 claims abstract description 49
- 238000012549 training Methods 0.000 claims description 75
- 230000006870 function Effects 0.000 claims description 21
- 230000008859 change Effects 0.000 claims description 17
- 230000001934 delay Effects 0.000 claims description 6
- 230000010365 information processing Effects 0.000 description 62
- 238000012545 processing Methods 0.000 description 34
- 230000008569 process Effects 0.000 description 32
- 238000010586 diagram Methods 0.000 description 22
- 238000011156 evaluation Methods 0.000 description 22
- 230000005236 sound signal Effects 0.000 description 20
- 230000003287 optical effect Effects 0.000 description 11
- 230000002123 temporal effect Effects 0.000 description 11
- 238000000605 extraction Methods 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 6
- 230000015654 memory Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 5
- 238000011161 development Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000012886 linear function Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000007786 learning performance Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000013138 pruning Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
Landscapes
- Image Analysis (AREA)
- Machine Translation (AREA)
Abstract
Description
まず、本実施の形態に従う学習済モデルを用いたアプリケーション例について説明する。
本実施の形態に従う学習済モデルは、以下に説明するような基本ネットワーク構造に対して、アテンションモジュールを適宜付加して学習およびネットワーク構造の最適化を実現する。先に、本実施の形態に従う基本ネットワーク構造について説明する。
本実施の形態においては、CTCフレームワークを用いたモデルに分類される基本ネットワーク構造(以下、「基本CTCベースドモデル」とも称す。)を用いる。基本CTCベースドモデルは、入力信号に対してラベルのシーケンスを出力する識別器である。以下では、主として、入力信号として音声信号を用いるとともに、基本CTCベースドモデルが音声信号に対する音声認識結果を示すラベルを出力する例について説明するが、基本CTCベースドモデルは、音声認識以外のタスクにも応用が可能である。
図5は、本実施の形態に従う基本CTCベースドモデル1に含まれる時間遅延層24の処理構造を示す模式図である。図5を参照して、時間遅延層24は、入力に対して所定のタイムステップtiの遅延を与える2つの遅延要素241,242を含む。
積層された複数の時間遅延層24からなる残差ブロック20全体で見ると、多層変換fiの出力と多層変換fiをバイパスするショートカット出力との結合(加算器29の結果)が出力されることになる。多層変換fiは、時間遅延層24および活性化関数(ReLU)を直列結合した関数である。
次に、本実施の形態に従う改良ネットワーク構造について説明する。本実施の形態に従う改良ネットワーク構造は、上述の図4および図6に示される基本CTCベースドモデル1を構成する残差ブロック20に改良を加えたものに相当する。以下、「基本CTCベースドモデル」との対比として「改良CTCベースドモデル」とも称す。なお、「基本CTCベースドモデル」と「改良CTCベースドモデル」とを区別しない文脈においては、単に「CTCベースドモデル」と総称することもある。
次に、本実施の形態に従う学習済モデルを用いた音声認識システムSを実現するためのハードウェア構成の一例について説明する。
次に、本実施の形態に従う改良CTCベースドモデル1Aの学習方法について説明する。
本実施の形態に従うCTCベースドモデルは、E2Eフレームワークを提供するものであり、音響モデルおよび言語モデルを別々に学習する必要はない。すなわち、CTCベースドモデルは、入力される音声信号に対応するテキストを直接出力するものであり、学習処理においては、音声信号と対応するテキストとからなるトレーニングデータセットを用いる。
再トレーニング法は、超深層畳み込みネットワークである改良CTCベースドモデル1Aを規定するすべてのパラメータ(アテンションモジュール28のパラメータも含む)を再度トレーニングする方法である。より具体的には、基本CTCベースドモデル1をトレーニングすることで学習済モデルを取得し、この取得された学習済モデルに対して、アテンションモジュール28を付加して改良CTCベースドモデル1Aを構成した上で、再度トレーニングを実行する。
上述の再トレーニング法では、改良CTCベースドモデル1Aを規定するすべてのパラメータ(アテンションモジュール28のパラメータも含む)を更新対象としたが、切り落とし法では、生成された学習済モデルのパラメータについては固定した上で、より少ないトレーニングデータでアテンションモジュール28のパラメータのみをトレーニングするようにしてもよい。
本実施の形態に従う改良CTCベースドモデル1Aのアテンションモジュール28が示す各残差ブロック20Aのアテンションスコアあるいはスケールファクタ(重み)の平均値は、データを伝達可能なすべての経路からの情報を示すことになる。
以上のような手順によって、ネットワーク構造を最適化した上で、学習処理を実行することになる。
次に、本実施の形態に従う改良CTCベースドモデル1Aを用いたデコーディング方法について説明する。本実施の形態に従う改良CTCベースドモデル1Aは、E2Eフレームワークであるので、音声信号から順次生成される特徴ベクトルを入力するだけで、対応するテキスト(サブワードシーケンス)が順次出力されることになる。
本願発明者らは、上述した本実施の形態に従う改良CTCベースドモデル1Aの性能について評価実験を行なった。以下、評価実験について説明する。
評価実験には、トレーニングデータおよび評価データとして、国立国語研究所が提供している「日本語話し言葉コーパス(Corpus of Spontaneous Japanese:CSJ)」を用いた。
まず、CSJ−Trainを用いて、評価基準となるベースラインモデルをトレーニングした。第1のベースラインモデルとして、DNN−HMM−CE(deep neural network and hidden Markov model cross entropy)モデルを取り上げる。DNN−HMM−CEモデルを構築するにあたって、まず、音響モデルに相当するGMM−HMM(Gaussian mixture model and hidden Markov model)モデルをトレーニングし、続いて、5個の隠れ層(各層は2048個の隠れノードを有する)からなるDNNモデル(言語モデルに相当する)をトレーニングした。出力層は、約8500個のノードを有しており、これは、GMM−HMMモデルの結合トライフォン(triphone)状態に対応する。これらのトレーニングにおいて、72次元のフィルタバンク特徴(24次元のスタティック+Δ+ΔΔ)を用いた。フィルタバンク特徴は、話者ごとに平均化および正規化が行なわれた結果であり、分割された11フレーム(過去5フレーム、現在フレーム、未来5フレーム)からなる。DNNモデルは、交差エントロピー損失基準に基づく標準的な確率的勾配降下法(SGD:stochastic gradient descent)を用いてトレーニングした。
本実施の形態に従う改良CTCベースドモデル1Aは、72次元のフィルタバンク特徴(24次元のスタティック+Δ+ΔΔ)(非分割)を用いてトレーニングした。このトレーニングにおいては、日本語の263音節(日本語書き言葉の基本単位であるかな)と、非発話ノイズと、発話ノイズと、ブランク(φ)とを基本音響モデル単位として用いた。
上述したように、基本CTCベースドモデル1(VResTD−CTC)に対して、アテンションモジュール28を付加することで、改良CTCベースドモデル1Aを構成する。改良CTCベースドモデル1Aを規定するすべてのパラメータ(アテンションモジュール28のパラメータも含む)をCSJ−Trainを用いてトレーニングすることで得られた学習済モデルを「VResTDM−CTCretrain」と称する。
次に、本実施の形態に従う改良CTCベースドモデル1Aの音声認識性能の評価結果の一例について説明する。音声認識性能の評価には、CSJに含まれる3個の評価データセット(CSJ−Eval01、CSJ−Eval02、CSJ−Eval03)を用いた。音声認識性能の評価には、上述したベースラインモデル(DNN−HMM−CEおよびVResTD−CE)と比較した。この音声認識性能の評価結果を以下のTable3に示す。
本実施の形態に従う改良CTCベースドモデル1Aによれば、複数の時間遅延層24を通過する経路に対する重み(第1の重み)と、ショートカット経路26に対する重み(第2の重み)とをタイムステップごとに更新できる。このようなタイムステップ毎の重みの更新によって、ネットワーク全体を動的に振る舞わせることができ、これによって、対象のシステムに応じた適切なネットワーク構造を実現できる。
Claims (6)
- 入力信号に対してラベルのシーケンスを出力する識別器であって、
前記入力信号から所定時間幅のフレームごとに第1の特徴ベクトルを順次生成する入力層と、
前記入力層に引き続く、積層された複数の残差ブロックと、
前記複数の残差ブロックの出力側に接続された出力層とを備え、
前記複数の残差ブロックの各々は、
積層された複数の時間遅延層と、
前記複数の時間遅延層をバイパスするショートカット経路と、
前記複数の時間遅延層を通過する経路と前記ショートカット経路との間の重みを調整するアテンションモジュールとを含み、
前記複数の時間遅延層は、入力に対して所定のタイムステップの遅延を与える遅延要素を有しており、
前記アテンションモジュールは、対応する残差ブロックに与えられる入力が対応する複数の時間遅延層を通過して得られる結果出力と、当該対応する残差ブロックに与えられる入力とに基づいて、前記タイムステップごとに前記重みを更新する、識別器。 - 前記アテンションモジュールは、
対応する残差ブロックの出力と前記ショートカット経路とに接続された全結合層と、
前記全結合層に接続されたsoftmax関数とを含む、請求項1に記載の識別器。 - 前記時間遅延層の各々は、
入力ベクトルに対して、当該入力ベクトルに対応するフレームである現在フレームに対して、前記タイムステップだけ時間を戻した過去フレームに対応する第1の内部ベクトルと、前記タイムステップだけ時間を進めた未来フレームに対応する第2の内部ベクトルとを生成する、請求項1に記載の識別器。 - 入力信号に対してラベルのシーケンスを出力するように、コンピュータを機能させるための学習済モデルであって、前記学習済モデルは、
前記入力信号から所定時間幅のフレームごとに第1の特徴ベクトルを順次生成する入力層と、
前記入力層に引き続く、積層された複数の残差ブロックと、
前記複数の残差ブロックの出力側に接続された出力層とを備え、
前記複数の残差ブロックの各々は、
積層された複数の時間遅延層と、
前記複数の時間遅延層をバイパスするショートカット経路と、
前記複数の時間遅延層を通過する経路と前記ショートカット経路との間の重みを調整するアテンションモジュールとを含み、
前記複数の時間遅延層は、入力に対して所定のタイムステップの遅延を与える遅延要素を有しており、
前記アテンションモジュールは、対応する残差ブロックに与えられる入力が対応する複数の時間遅延層を通過して得られる結果出力と、当該対応する残差ブロックに与えられる入力とに基づいて、前記タイムステップごとに前記重みを更新する、ように構成される、学習済モデル。 - 入力信号に対してラベルのシーケンスを出力する識別器の学習方法であって、
前記識別器は、
前記入力信号から所定時間幅のフレームごとに第1の特徴ベクトルを順次生成する入力層と、
前記入力層に引き続く、積層された複数の残差ブロックと、
前記複数の残差ブロックの出力側に接続された出力層とを備え、
前記複数の残差ブロックの各々は、
積層された複数の時間遅延層と、
前記複数の時間遅延層をバイパスするショートカット経路とを含み、
前記複数の時間遅延層は、入力に対して所定のタイムステップの遅延を与える遅延要素を有しており、
前記学習方法は、
トレーニングデータセットを用いて前記識別器のネットワークを規定するパラメータを決定する第1のトレーニングステップと、
前記識別器に、前記複数の時間遅延層を通過する経路と前記ショートカット経路との間の重みを調整するアテンションモジュールを付加する付加ステップとを備え、前記アテンションモジュールは、対応する残差ブロックに与えられる入力が対応する複数の時間遅延層を通過して得られる結果出力と、当該対応する残差ブロックに与えられる入力とに基づいて、前記タイムステップごとに前記重みを更新するように構成されており、
トレーニングデータセットを用いて前記アテンションモジュールを規定するパラメータを決定する第2のトレーニングステップとを備える、学習方法。 - 前記アテンションモジュールが付加された識別器に入力信号を与えることで、前記アテンションモジュールにより算出される前記重みの値の変化に基づいて、前記複数の時間遅延層の一部を削除するステップをさらに備える、請求項5に記載の学習方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018142418A JP7209330B2 (ja) | 2018-07-30 | 2018-07-30 | 識別器、学習済モデル、学習方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018142418A JP7209330B2 (ja) | 2018-07-30 | 2018-07-30 | 識別器、学習済モデル、学習方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020020872A true JP2020020872A (ja) | 2020-02-06 |
JP7209330B2 JP7209330B2 (ja) | 2023-01-20 |
Family
ID=69589711
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018142418A Active JP7209330B2 (ja) | 2018-07-30 | 2018-07-30 | 識別器、学習済モデル、学習方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7209330B2 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111402891A (zh) * | 2020-03-23 | 2020-07-10 | 北京字节跳动网络技术有限公司 | 语音识别方法、装置、设备和存储介质 |
CN112530410A (zh) * | 2020-12-24 | 2021-03-19 | 北京地平线机器人技术研发有限公司 | 一种命令词识别方法及设备 |
CN112957054A (zh) * | 2021-01-25 | 2021-06-15 | 北京工业大学 | 一种基于通道注意力分组残差网络的12导联心电信号分类方法 |
CN114224354A (zh) * | 2021-11-15 | 2022-03-25 | 吉林大学 | 心律失常分类方法、装置及可读存储介质 |
JP2022091660A (ja) * | 2020-12-09 | 2022-06-21 | 三星電子株式会社 | ニューラルネットワークを用いるデータ処理方法、データ処理装置及びこれを含む電子装置 |
JP2022117376A (ja) * | 2021-01-29 | 2022-08-10 | 株式会社アイシン | 音声認識プログラム及び音声認識装置 |
CN116861799A (zh) * | 2023-09-04 | 2023-10-10 | 自然资源部第一海洋研究所 | 基于残差的海底地形反演模型生成及海底地形反演方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018003457A1 (ja) * | 2016-06-30 | 2018-01-04 | パナソニックIpマネジメント株式会社 | 情報処理装置、時系列データの情報処理方法、及びプログラム |
WO2018071389A1 (en) * | 2016-10-10 | 2018-04-19 | Google Llc | Very deep convolutional neural networks for end-to-end speech recognition |
JP2018513399A (ja) * | 2015-11-25 | 2018-05-24 | バイドゥ ユーエスエー エルエルシーBaidu USA LLC | 配置されたエンドツーエンド音声認識 |
-
2018
- 2018-07-30 JP JP2018142418A patent/JP7209330B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018513399A (ja) * | 2015-11-25 | 2018-05-24 | バイドゥ ユーエスエー エルエルシーBaidu USA LLC | 配置されたエンドツーエンド音声認識 |
WO2018003457A1 (ja) * | 2016-06-30 | 2018-01-04 | パナソニックIpマネジメント株式会社 | 情報処理装置、時系列データの情報処理方法、及びプログラム |
WO2018071389A1 (en) * | 2016-10-10 | 2018-04-19 | Google Llc | Very deep convolutional neural networks for end-to-end speech recognition |
Non-Patent Citations (2)
Title |
---|
SHILIANG ZHANG, ET AL.: "DEEP-FSMN FOR LARGE VOCABULARY CONTINUOUS SPEECH RECOGNITION", ICASSP 2018, JPN6022026594, April 2018 (2018-04-01), pages 5869 - 5873, XP033403970, ISSN: 0004811587, DOI: 10.1109/ICASSP.2018.8461404 * |
田中智大他: "Highwayネットワーク言語モデルを用いた日本語話し言葉音声認識", 日本音響学会2017年春季研究発表会講演論文集[CD−ROM], JPN6022026597, March 2017 (2017-03-01), pages 107 - 108, ISSN: 0004811586 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111402891A (zh) * | 2020-03-23 | 2020-07-10 | 北京字节跳动网络技术有限公司 | 语音识别方法、装置、设备和存储介质 |
CN111402891B (zh) * | 2020-03-23 | 2023-08-11 | 抖音视界有限公司 | 语音识别方法、装置、设备和存储介质 |
JP2022091660A (ja) * | 2020-12-09 | 2022-06-21 | 三星電子株式会社 | ニューラルネットワークを用いるデータ処理方法、データ処理装置及びこれを含む電子装置 |
CN112530410A (zh) * | 2020-12-24 | 2021-03-19 | 北京地平线机器人技术研发有限公司 | 一种命令词识别方法及设备 |
CN112957054A (zh) * | 2021-01-25 | 2021-06-15 | 北京工业大学 | 一种基于通道注意力分组残差网络的12导联心电信号分类方法 |
CN112957054B (zh) * | 2021-01-25 | 2023-06-23 | 北京工业大学 | 一种基于通道注意力分组残差网络的12导联心电信号分类方法 |
JP2022117376A (ja) * | 2021-01-29 | 2022-08-10 | 株式会社アイシン | 音声認識プログラム及び音声認識装置 |
JP7615841B2 (ja) | 2021-01-29 | 2025-01-17 | 株式会社アイシン | 音声認識プログラム及び音声認識装置 |
CN114224354A (zh) * | 2021-11-15 | 2022-03-25 | 吉林大学 | 心律失常分类方法、装置及可读存储介质 |
CN114224354B (zh) * | 2021-11-15 | 2024-01-30 | 吉林大学 | 心律失常分类方法、装置及可读存储介质 |
CN116861799A (zh) * | 2023-09-04 | 2023-10-10 | 自然资源部第一海洋研究所 | 基于残差的海底地形反演模型生成及海底地形反演方法 |
CN116861799B (zh) * | 2023-09-04 | 2023-11-24 | 自然资源部第一海洋研究所 | 基于残差的海底地形反演模型生成及海底地形反演方法 |
Also Published As
Publication number | Publication date |
---|---|
JP7209330B2 (ja) | 2023-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7583080B2 (ja) | 音声認識のためのコンテキストバイアス | |
JP7209330B2 (ja) | 識別器、学習済モデル、学習方法 | |
US10629185B2 (en) | Statistical acoustic model adaptation method, acoustic model learning method suitable for statistical acoustic model adaptation, storage medium storing parameters for building deep neural network, and computer program for adapting statistical acoustic model | |
US9824683B2 (en) | Data augmentation method based on stochastic feature mapping for automatic speech recognition | |
US10373610B2 (en) | Systems and methods for automatic unit selection and target decomposition for sequence labelling | |
Zazo et al. | Language identification in short utterances using long short-term memory (LSTM) recurrent neural networks | |
US11264044B2 (en) | Acoustic model training method, speech recognition method, acoustic model training apparatus, speech recognition apparatus, acoustic model training program, and speech recognition program | |
CN107077842B (zh) | 用于语音转录的系统和方法 | |
JP7537708B2 (ja) | コネクショニスト時系列分類に基づく自動音声認識のためのソフト忘却 | |
JP7109771B2 (ja) | 音声認識システム、音声認識方法、学習済モデル | |
CN110546656A (zh) | 前馈生成式神经网络 | |
CN111771213A (zh) | 语音风格迁移 | |
US8494847B2 (en) | Weighting factor learning system and audio recognition system | |
US12182711B2 (en) | Generation of neural network containing middle layer background | |
JP2019105899A (ja) | 学習方法 | |
Gumelar et al. | Bilstm-cnn hyperparameter optimization for speech emotion and stress recognition | |
Bataev et al. | Exploring end-to-end techniques for low-resource speech recognition | |
Kivaisi et al. | Swahili speech dataset development and improved pre-training method for spoken digit recognition | |
US12141521B2 (en) | Method for editing text information | |
US8639510B1 (en) | Acoustic scoring unit implemented on a single FPGA or ASIC | |
JP6646337B2 (ja) | 音声データ処理装置、音声データ処理方法および音声データ処理プログラム | |
JP7423056B2 (ja) | 推論器および推論器の学習方法 | |
JP7333490B1 (ja) | 音声信号に関連するコンテンツを決定する方法、コンピューター可読保存媒体に保存されたコンピュータープログラム及びコンピューティング装置 | |
JP6158105B2 (ja) | 言語モデル作成装置、音声認識装置、その方法及びプログラム | |
US12051421B2 (en) | Method for pronunciation transcription using speech-to-text model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210720 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220519 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220826 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7209330 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |