JP2020006482A - アンドロイドのジェスチャ生成装置及びコンピュータプログラム - Google Patents
アンドロイドのジェスチャ生成装置及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2020006482A JP2020006482A JP2018129916A JP2018129916A JP2020006482A JP 2020006482 A JP2020006482 A JP 2020006482A JP 2018129916 A JP2018129916 A JP 2018129916A JP 2018129916 A JP2018129916 A JP 2018129916A JP 2020006482 A JP2020006482 A JP 2020006482A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- android
- function
- section
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
<構成>
〔全体構成〕
図1は、本願発明の1実施の形態に係るジェスチャ生成システム50の概略構成を示す。図1を参照して、ジェスチャ生成システム50は、発話のテキスト60と発話の談話機能62とを受けてテキストによるジェスチャを生成する、テキストによるジェスチャ生成部66と、ジェスチャ生成システム50に対応する音声信号64と談話機能62とを受けて、音声の韻律に基づいて拍子ジェスチャを生成するための、韻律による拍子ジェスチャ生成部68とを含む。談話機能とは、対話においてその発話が果たす機能のことをいう。談話機能には以下のようなものがある。
図2は、テキストによるジェスチャ生成部66の概略構成を、テキストによるジェスチャ生成部66で使用する確率モデルの学習を行うための学習部90の概略構成とともに示す。
図7に、韻律による拍子ジェスチャ生成部68の概略構成を示す。図7を参照して、韻律による拍子ジェスチャ生成部68は、アンドロイドが発話する音声の入力を受け、その音声の韻律から発話の強調位置である韻律フォーカスを推定しその位置を特定する情報を出力する韻律フォーカス推定部280と、韻律フォーカス推定部280の出力を受けて、韻律フォーカスの生じた時点を基準に拍子ジェスチャを生成する拍子ジェスチャ生成部282とを含む。
テキストによるジェスチャ生成部66により行われるジェスチャ生成の前に、以下のような準備作業が必要になる。図9に、その準備作業をコンピュータのハードウェアとの協働により実現するプログラムの制御構造を示す。図9を参照して、このプログラムは、被験者の対話セッションから得られた書き起こしテキストと、その各単語に付されたジェスチャ機能ラベルとの関係性を計算し、単語の概念が与えられたときにどのジェスチャ機能がどのような確率で生成されるかに関するジェスチャ機能確率モデルを生成するステップ300と、被験者の対話セッションから得られたジェスチャデータを3次元ジェスチャに変換するステップ302と、ジェスチャデータをその軌跡の長さにより大、中、小の3クラスに分類し、各クラスのジェスチャデータを20のクラスタにクラスタリングし、さらに各ジェスチャの始点を10クラスにクラスタリングするステップ304とを含む。
ジェスチャ生成処理を実現するプログラムの制御構造を図10を参照して説明する。このプログラムは、入力された文章に含まれる文の各々に対して、指定された談話機能がbcでもbc2でもないとステップ331で判定されたときに限りジェスチャ生成処理332を実行する処理を繰返すことにより、入力された文章の全体についてアンドロイドの腕をテキストにしたがって動かすためのジェスチャデータを生成するステップ330と、ステップ330で生成された各ジェスチャデータについて、ホームポジション(ジェスチャの前後のレスト区間での腕のデフォルト位置)からジェスチャのストロークまでの区間、及びジェスチャ終了からホームポジションへの動作データを生成し、文章全体のジェスチャデータを生成するステップ334と、ステップ334で生成されたジェスチャデータにしたがってアンドロイドの腕を動かすために、これらジェスチャデータをアンドロイドの動作にマッピングするステップ336と、図9にステップ310で選択された拍子ジェスチャの生成ポイントの各々において、ジェスチャの始点及び終点を決定して処理を終了するステップ338とを含む。
図12に、ステップ310のより詳細なフローチャートを示す。図12を参照して、ステップ310は、各発話の音声信号からその基本周波数F0を抽出するステップ430と、予め記憶装置に補間されていた各発話者のF0の平均値を算出するステップ432と、F0が平均値を超える位置を選択するステップ434と、F0ピーク位置を検出するステップ436と、ステップ436で検出された各ピーク位置に対して以下に説明する処理440を実行することにより拍子ジェスチャを生成する位置を選択して処理を終了するステップ438とを含む。
図13を参照して、アンドロイドの腕600を構成する各ジョイントの座標系の設定の仕方について説明する。胸の中心を基準点とし、基準点からi番目のジョイントの座標系行列をTi、行列Tiの座標系のx軸、y軸、z軸成分をそれぞれxi、yi、zi、回転角度をθiジョイント間の長さをliとする。なお、各ジョイントには図13に示されるように番号が割り当てられている。
上記した実施の形態に係るジェスチャ生成システム50及び学習部90の各機能部は、それぞれコンピュータハードウェアと、そのハードウェア上でCPU(中央演算処理装置)及びGPU(Graphics Processing Unit)により実行されるプログラムとにより実現できる。図20に上記各装置及びシステムを実現するコンピュータハードウェアの構成を示す。GPUは通常は画像処理を行うために使用されるが、このようにGPUを画像処理ではなく通常の演算処理に使用することも可能である。
〔学習データの準備〕
学習データは以下のような手順で準備した。なお、以下に述べる手順は一例であってこれ以外の方法でも目的に照らして適切な手順で学習データを準備してもよい。
テキストによるジェスチャ生成部66の学習は以下のようにして行われる。図2に示す単語概念抽出部110が、学習データ記憶部100から各発話のテキストデータ102を読出し、各単語についてWordNet108を参照することにより各単語の概念を抽出する。ジェスチャ機能確率モデル算出部114は、学習データ記憶部100からジェスチャ機能データ104を抽出し、単語概念抽出部110が発話の各単語について出力する、抽出された単語概念ごとに統計的処理を行い、各単語概念に対してどのようなジェスチャ機能が生ずるかに関するジェスチャ機能確率モデル92(P(Gf|Wc))を算出する。前述のようにGfはジェスチャ機能を表し、Wcは抽出された単語概念を表す。
テキストによるジェスチャ生成部66の単語概念抽出部130は、アンドロイドが発話する各発話のテキストの入力を受けて、その各単語についてWordNet108を参照して単語概念を抽出し出力する。ジェスチャ機能サンプリング部132は、単語概念抽出部130の出力する各単語について、ジェスチャ機能確率モデル算出部114により算出されたジェスチャ機能確率モデル92から、その単語に対応する単語概念に対するジェスチャ機能データをサンプリングし出力する。ジェスチャサンプリング部134は、ジェスチャ機能サンプリング部132によりサンプリングされたジェスチャ機能について、ジェスチャクラスタ確率モデル94からサンプリングすることにより、そのジェスチャ機能に対するジェスチャクラスタの1つを選択し、そのジェスチャクラスタに属するジェスチャをランダムに1つ選択し出力する。ジェスチャサンプリング部134の出力はジェスチャデータの系列、すなわちジェスチャを表す3次元座標データの系列となる。このジェスチャデータの系列が図1に示すジェスチャ統合部70に与えられる。
図7を参照して、韻律による拍子ジェスチャ生成部68の韻律フォーカス推定部280は、アンドロイドが発話する音声の入力を受け、基本周波数に基づいて音声の強調位置である韻律フォーカスを推定しその位置を特定する情報を出力する。
ジェスチャ統合部70は、テキストによるジェスチャ生成部66の出力する、テキストによるジェスチャデータに、拍子ジェスチャ生成部68が出力するジェスチャデータを重畳しアクチュエータ指令値生成部72に与える。
図17を参照して、アクチュエータ指令値生成部72は、ジェスチャ統合部70からジェスチャデータが与えられると、その各データに対して、手首の位置を中心、アンドロイドの前腕の長さを半径とする球と、アンドロイドの肩の位置を中心、アンドロイドの上腕の長さを半径とする球との交円を求める(ステップ680)。この交円と、入力情報として与えられるジェスチャデータの肩、肘、及び手首の3点を通る平面との2つの交点を求める(ステップ682)。そして、これら2つの交点の内、入力された肘の位置に近い交点をアンドロイドの肘の位置とする(ステップ684)。
上記第1の実施の形態に係るジェスチャ生成システム50は、テキストによるジェスチャ生成部66と、韻律による拍子ジェスチャ生成部68とを備え、両者の生成するジェスチャを統合してアンドロイドの腕にジェスチャをマッピングしている。しかし本発明はそのような実施の形態には限定されない。テキストによるジェスチャ生成部66のみによるジェスチャ生成を行っても良い。
60 テキスト
62 談話機能
64 音声信号
66 テキストによるジェスチャ生成部
68 拍子ジェスチャ生成部
70 ジェスチャ統合部
72 アクチュエータ指令値生成部
90 学習部
92 ジェスチャ機能確率モデル
94 ジェスチャクラスタ確率モデル
100 学習データ記憶部
102 テキストデータ
104 ジェスチャ機能データ
106 動作データ
108 WordNet
110、130 単語概念抽出部
112 ジェスチャクラスタリング部
114 ジェスチャ機能確率モデル算出部
116 ジェスチャクラスタ確率モデル算出部
132 ジェスチャ機能サンプリング部
134 ジェスチャサンプリング部
160、162、164 被験者
200、250 ジェスチャフレーズ
210、222、260、264 レスト区間
212 準備区間
214 ストローク区間
216 ホールド区間
220 終了区間
230、232 拍子区間
262 アダプタ区間
280 韻律フォーカス推定部
282 拍子ジェスチャ生成部
600 アンドロイドの腕
710 手首の位置
714 肩の位置
712、716 球
718 交円
720、722 交点
Claims (16)
- 単語が発話されたときに生ずるジェスチャ機能の確率を規定するジェスチャ機能確率モデルを記憶するためのジェスチャ機能確率モデル記憶手段を含み、
前記ジェスチャ機能は複数個に分類され、
さらに、前記複数個のジェスチャ機能に対応して人間の腕のジェスチャが生ずる確率を、人間の腕の動きの種類に応じた複数個のジェスチャクラスタについてそれぞれ規定するジェスチャクラスタ確率モデルを記憶するためのジェスチャクラスタ確率モデル記憶手段と、
入力された発話テキストの各単語について、当該単語に応じて前記ジェスチャ機能モデルからサンプリングすることにより前記複数個のジェスチャ機能のいずれかを選択するためのジェスチャ機能選択手段と、
前記ジェスチャ機能選択手段により選択された前記ジェスチャ機能に応じて前記ジェスチャクラスタ確率モデルからサンプリングすることにより、前記複数個のジェスチャクラスタのいずれかを選択し、選択されたジェスチャクラスタに属するジェスチャのいずれか1つを選択するためのジェスチャ選択手段と、
前記ジェスチャ選択手段により選択されたジェスチャをアンドロイドの腕のジェスチャにマッピングするためのマッピング手段とを含む、アンドロイドのジェスチャ生成装置。 - さらに、前記発話テキストに対応する音声信号の入力を受け、音声の韻律に基づいて発話の強調位置を検出するための強調位置検出手段と、
前記強調位置を含む所定の時間期間において、アンドロイドの拍子ジェスチャを生成する第1の拍子ジェスチャ生成手段を含み、
前記マッピング手段は、前記ジェスチャ選択手段により選択された腕のジェスチャと前記第1の拍子ジェスチャ生成手段の生成した拍子ジェスチャとを統合したジェスチャを前記アンドロイドの腕のジェスチャにマッピングするための統合ジェスチャマッピング手段を含む、請求項1に記載のアンドロイドのジェスチャ生成装置。 - 前記強調位置検出手段は、
前記音声信号の入力を受け、前記音声信号の基本周波数のピークであって、前記発話を行った話者の音声の基本周波数の平均値を超えるピークを検出するためのピーク検出手段と、
前記ピーク検出手段の検出したピーク位置の内、直後に連続する基本周波数の下降値が3セミトーン以上であるピーク位置を前記強調位置として検出するための手段とを含む、請求項2に記載のアンドロイドのジェスチャ生成装置。 - 前記第1の拍子ジェスチャ生成手段は、前記強調位置を含む0.7秒〜0.9秒の時間期間において、前記アンドロイドの拍子ジェスチャを生成する第2の拍子ジェスチャ生成手段を含む、請求項2又は請求項3に記載のアンドロイドのジェスチャ生成装置。
- 前記第2の拍子ジェスチャ生成手段が前記アンドロイドの前記拍子ジェスチャを生成する前記時間期間は、前記強調位置より第1の期間だけ前の発話位置から、前記強調位置より第2の期間だけ後の発話位置までの間であり、
前記第1の期間は前記第2の期間より長い、請求項4に記載のアンドロイドのジェスチャ生成装置。 - 前記第1の期間は0.55秒であり、前記第2の期間は0.25秒である、請求項5に記載のアンドロイドのジェスチャ生成装置。
- 前記第1の拍子ジェスチャ生成手段は、前記アンドロイドの正立時の高さ方向に、前記所定の時間期間内におよそ15度の角度まで腕を上げて下ろすジェスチャを生成する、請求項2〜請求項6のいずれかに記載のアンドロイドのジェスチャ生成手段。
- 前記ジェスチャ機能確率モデルは、単語が表す概念ごとに、当該概念を表す単語が発話されたときに生ずるジェスチャ機能の確率を規定しており、
前記ジェスチャ機能選択手段は、
前記発話テキストの内、特定の品詞の単語の各々について、その概念を抽出するための概念抽出手段と、
前記概念抽出手段により抽出された概念に応じて前記ジェスチャ機能確率モデルからサンプリングすることにより前記ジェスチャ機能のいずれかを選択するための手段とを含む、請求項1〜請求項7のいずれかに記載のアンドロイドのジェスチャ生成装置。 - 前記特定の品詞は、名詞、動詞、副詞及び形容詞である、請求項8に記載のアンドロイドのジェスチャ生成装置。
- 各前記ジェスチャは、ジェスチャ開始前の位置からジェスチャの開始位置まで腕を移動させるための準備区間、ジェスチャ動作を行うストローク区間及び前記ストローク区間の後に腕をジェスチャ終了位置まで戻す終了区間に分割され、さらにジェスチャ動作の後に腕を静止させた状態を保つホールド区間を含むことがあり、
前記マッピング手段は、前記ジェスチャ選択手段がジェスチャを選択したときの単語の開始位置が前記ストローク区間の開始位置に一致するように前記ストローク区間を決定するストローク区間決定手段と、
前記ストローク区間決定手段により決定された前記ストローク区間の前に前記準備区間を設定するための準備区間設定手段と、
前記ストローク区間の後に前記ホールド区間を設定するホールド区間設定手段と、
前記ホールド区間の間に次のジェスチャが設定されているか否かにしたがって、当該次のジェスチャの前記準備区間の開始位置まで腕を移動させる区間を設ける処理と、前記ホールド区間の終了後に前記終了区間を設定する処理とを選択的に実行するための手段と、
前記選択されたジェスチャにしたがって、前記ストローク区間、前記準備区間、前記ホールド区間、及び前記終了区間における前記アンドロイドの腕に対し各区間について前記選択されたジェスチャの動作をマッピングするための手段と含む、請求項1〜請求項9のいずれかに記載のアンドロイドのジェスチャ生成装置。 - 前記マッピング手段が前記アンドロイドの腕の動作をマッピングする際に、前記ジェスチャのデータにより定められるアンドロイドの肘の位置座標を、前記ジェスチャのデータにより定められる肩、肘及び手首の位置、並びに前記アンドロイドの上腕及び前腕の長さにより定められる座標で置換するための肘座標置換手段をさらに含む、請求項10の記載のアンドロイドのジェスチャ生成装置。
- 前記肘座標置換手段は、前記ジェスチャのデータにより定められる肩及び手首の位置を中心とし、前記アンドロイドの上腕の長さ及び前腕の長さを半径とする球の交円と、前記ジェスチャのデータにより定められる肩、肘及び手首の3次元座標との関係で定められる平面との2交点の3次元座標を求めるための手段と、
前記2交点の内、その3次元座標が前記ジェスチャのデータにより定められる肘の位置に近い方を前記アンドロイドの肘の座標として選択し、前記ジェスチャのデータにより定められる肘の座標と置換するための手段とを含む、請求項11に記載のアンドロイドのジェスチャ生成装置。 - 前記ジェスチャのデータにより定められる肩、肘及び手首の3次元座標との関係で定められる前記平面は、前記ジェスチャのデータにより定められる肩、肘及び手首の各点を通る平面である、請求項12に記載のアンドロイドのジェスチャ生成装置。
- さらに、アンドロイドの各発話に関する談話機能を指定する情報を受け、当該情報により指定された談話機能が予め定める談話機能であるときには、前記ジェスチャ選択手段によるジェスチャ選択を制限するためのジェスチャ制限手段を含む、請求項1〜請求項13のいずれかに記載のアンドロイドのジェスチャ生成装置。
- 前記予め定める談話機能は、相槌的発話である、請求項14に記載のアンドロイドのジェスチャ生成装置。
- コンピュータを、請求項1〜請求項15のいずれかに記載のジェスチャ生成装置として機能させる、コンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018129916A JP7201984B2 (ja) | 2018-07-09 | 2018-07-09 | アンドロイドのジェスチャ生成装置及びコンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018129916A JP7201984B2 (ja) | 2018-07-09 | 2018-07-09 | アンドロイドのジェスチャ生成装置及びコンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020006482A true JP2020006482A (ja) | 2020-01-16 |
JP7201984B2 JP7201984B2 (ja) | 2023-01-11 |
Family
ID=69150107
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018129916A Active JP7201984B2 (ja) | 2018-07-09 | 2018-07-09 | アンドロイドのジェスチャ生成装置及びコンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7201984B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023090419A1 (ja) * | 2021-11-19 | 2023-05-25 | 凸版印刷株式会社 | コンテンツ生成装置、コンテンツ生成方法、及びプログラム |
WO2024202600A1 (ja) * | 2023-03-27 | 2024-10-03 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及び記録媒体 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011167820A (ja) * | 2010-02-22 | 2011-09-01 | Advanced Telecommunication Research Institute International | 頭部動作制御情報生成装置 |
JP2013119155A (ja) * | 2011-12-09 | 2013-06-17 | Advanced Telecommunication Research Institute International | シナリオ生成装置およびシナリオ生成方法 |
JP2013171131A (ja) * | 2012-02-20 | 2013-09-02 | Jvc Kenwood Corp | 報知音検出装置、雑音信号抑制装置、報知音検出方法、雑音信号抑制方法 |
JP2014504959A (ja) * | 2011-01-26 | 2014-02-27 | 本田技研工業株式会社 | 人間型ロボットのジェスチャと音声の同期 |
US20170148434A1 (en) * | 2014-04-17 | 2017-05-25 | Softbank Robotics Europe | Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method |
-
2018
- 2018-07-09 JP JP2018129916A patent/JP7201984B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011167820A (ja) * | 2010-02-22 | 2011-09-01 | Advanced Telecommunication Research Institute International | 頭部動作制御情報生成装置 |
JP2014504959A (ja) * | 2011-01-26 | 2014-02-27 | 本田技研工業株式会社 | 人間型ロボットのジェスチャと音声の同期 |
JP2013119155A (ja) * | 2011-12-09 | 2013-06-17 | Advanced Telecommunication Research Institute International | シナリオ生成装置およびシナリオ生成方法 |
JP2013171131A (ja) * | 2012-02-20 | 2013-09-02 | Jvc Kenwood Corp | 報知音検出装置、雑音信号抑制装置、報知音検出方法、雑音信号抑制方法 |
US20170148434A1 (en) * | 2014-04-17 | 2017-05-25 | Softbank Robotics Europe | Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023090419A1 (ja) * | 2021-11-19 | 2023-05-25 | 凸版印刷株式会社 | コンテンツ生成装置、コンテンツ生成方法、及びプログラム |
WO2024202600A1 (ja) * | 2023-03-27 | 2024-10-03 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及び記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP7201984B2 (ja) | 2023-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022048403A1 (zh) | 基于虚拟角色的多模态交互方法、装置及系统、存储介质、终端 | |
CN106653052B (zh) | 虚拟人脸动画的生成方法及装置 | |
Lee et al. | MMDAgent—A fully open-source toolkit for voice interaction systems | |
US8224652B2 (en) | Speech and text driven HMM-based body animation synthesis | |
US9431027B2 (en) | Synchronized gesture and speech production for humanoid robots using random numbers | |
CN113454708A (zh) | 语言学风格匹配代理 | |
US20020024519A1 (en) | System and method for producing three-dimensional moving picture authoring tool supporting synthesis of motion, facial expression, lip synchronizing and lip synchronized voice of three-dimensional character | |
JP7352115B2 (ja) | 非言語情報生成装置、非言語情報生成モデル学習装置、非言語情報生成方法、非言語情報生成モデル学習方法及びプログラム | |
KR20120130627A (ko) | 아바타를 이용한 애니메이션 생성 장치 및 방법 | |
JP5913394B2 (ja) | 音声同期処理装置、音声同期処理プログラム、音声同期処理方法及び音声同期システム | |
JPWO2019160104A1 (ja) | 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム | |
KR101089184B1 (ko) | 캐릭터의 발화와 감정표현 제공 시스템 및 방법 | |
JP7212284B2 (ja) | 非言語情報生成装置、方法、及びプログラム | |
JP7157340B2 (ja) | 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム | |
JP7201984B2 (ja) | アンドロイドのジェスチャ生成装置及びコンピュータプログラム | |
Karpov et al. | Multimodal synthesizer for Russian and Czech sign languages and audio-visual speech | |
Pausch et al. | Tailor: creating custom user interfaces based on gesture | |
Beskow | Talking heads-communication, articulation and animation | |
JP7225642B2 (ja) | コミュニケーションロボット、制御方法及び制御プログラム | |
Maarif et al. | Survey on language processing algorithm for sign language synthesizer | |
Ding et al. | Lip animation synthesis: a unified framework for speaking and laughing virtual agent. | |
JP2003058908A (ja) | 顔画像制御方法および装置、コンピュータプログラム、および記録媒体 | |
JPH11184370A (ja) | 手話情報提示装置 | |
Gao et al. | HandTalker II: a Chinese sign language recognition and synthesis system | |
Courty et al. | Why is the creation of a virtual signer challenging computer animation? |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210324 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220318 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220921 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221216 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7201984 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |