JP7207210B2 - 行動認識装置、行動認識方法、及び行動認識プログラム - Google Patents
行動認識装置、行動認識方法、及び行動認識プログラム Download PDFInfo
- Publication number
- JP7207210B2 JP7207210B2 JP2019130055A JP2019130055A JP7207210B2 JP 7207210 B2 JP7207210 B2 JP 7207210B2 JP 2019130055 A JP2019130055 A JP 2019130055A JP 2019130055 A JP2019130055 A JP 2019130055A JP 7207210 B2 JP7207210 B2 JP 7207210B2
- Authority
- JP
- Japan
- Prior art keywords
- action
- image
- images
- desired subject
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000009471 action Effects 0.000 title claims description 321
- 238000000034 method Methods 0.000 title claims description 31
- 230000003287 optical effect Effects 0.000 claims description 47
- 230000033001 locomotion Effects 0.000 claims description 34
- 230000008569 process Effects 0.000 claims description 14
- 239000013598 vector Substances 0.000 claims description 11
- 230000008859 change Effects 0.000 claims description 10
- 230000000694 effects Effects 0.000 claims description 8
- 238000003860 storage Methods 0.000 description 25
- 238000001514 detection method Methods 0.000 description 24
- 238000004364 calculation method Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 11
- 230000006399 behavior Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 238000005457 optimization Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000003909 pattern recognition Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/60—Rotation of whole images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/38—Registration of image sequences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
Description
本実施形態では、見えのパターンの多様性の影響を抑制するために、行動方向をある一つの方向に整列させる手段を備える。具体的には、映像中の人もしくは人が操作している物体について、前後のフレーム画像からその物体の画像上での動きの方向(行動方向)を算出する。そして、行動方向が事前に定められた基準方向(例えば左から右)になるよう、学習及び認識に用いられる画像を回転させる。学習及び認識には、フレーム画像のみを用いてもよいし、画像間の動きを画像で表現したオプティカルフロー画像をさらに用いてもよい(図1参照)。つまり、本実施形態では、1つのニューラルネットワークが学習すべきデータの多様性を減らすことで推定精度の向上を狙う。例えば図14の場合、人間が各画像を基準として様々な方向に向かって荷物を運んでいる。このような画像群をそのまま学習に用いると、どの方向に向かっていても荷物を運んでいると推定するよう学習される必要がある。つまり、各方向毎に十分な学習用画像がなければ学習が十分に収束せず、結果として精度が低いモデルとなってしまう場合がある。本実施形態では、学習用画像を回転若しくは/及び反転し、”一定の方向に向かっている”学習用画像群を生成することで、ニューラルネットワークが学習すべきデータの多様性を減らしつつ、十分な数の学習用画像の生成を可能とする。
<第1実施形態に係る学習装置の構成>
図2は、本実施形態の学習装置10のハードウェア構成を示すブロック図である。
[参考文献2]A. Bewley, Z. Ge, L. Ott, F. Ramos, B. Upcroft, “Simple online and realtime tracking,” in Proc. IEEE Int. Conf. on Image Processing, 2017.
上記図1は、本実施形態の行動認識装置50のハードウェア構成を示すブロック図である。
次に、学習装置10の作用について説明する。図6は、学習装置10による学習処理の流れを示すフローチャートである。CPU11がROM12又はストレージ14から学習プログラムを読み出して、RAM13に展開して実行することにより、学習処理が行なわれる。また、学習装置10に、所望の被写体が撮像された映像と行動ラベルとの組が複数入力される。
次に、行動認識装置50の作用について説明する。
次に、第2実施形態に係る学習装置及び行動認識装置について説明する。なお、第2実施形態に係る学習装置及び行動認識装置は、第1実施形態と同様の構成であるため、同一符号を付して説明を省略する。
「右左折」等、行動ラベルが、行動方向の経時変化を含む行動を示す場合、フレーム画像ごとに回転させることで、行動認識精度が低下してしまうと考えられる。そこで、本実施形態では、図8に示すように、映像全体から一つの行動方向を算出し、全フレーム画像を同一の回転角で回転させることが望ましいと考えられる。また、行動方向が映像中で大きく変化することを鑑みると、行動方向は映像の一部から推定することが望ましいと考えられる。例えば、映像の前半分から行動方向を算出する。その場合には、映像全体における移動方向ヒストグラムH(b)の各ビンの値H(b)を下記式により算出する。
上記図1に示すように、本実施形態の学習装置10のハードウェア構成は、第1実施形態の学習装置10と同様である。
上記図1に示すように、本実施形態の行動認識装置50のハードウェア構成は、第1実施形態の行動認識装置50と同様である。
上記第2実施形態で説明した行動認識装置を用いた実験例について説明する。実験例では、図9に示すように、オプティカルフローの算出に、TV-LIアルゴリズム(参考文献4)を使用した。行動認識器として、I3D(参考文献5)とSVMを使用し、可視光画像とオプティカルフローを入力とした。
[参考文献5]Carreira, J. and Zisserman, A.: Quo Vadis, Action Recognition? A New Model and the Kinetics Dataset, IEEE Conf. on Computer Vision and Pattern Recognition(2017).
所望の被写体が撮像された画像が入力されると、前記所望の被写体の行動を認識する行動認識装置であって、
メモリと、
前記メモリに接続された少なくとも1つのプロセッサと、
を含み、
前記プロセッサは、
前記画像内における前記所望の被写体の行動方向又は前記所望の被写体とは別の被写体の行動方向に応じて前記画像に対して回転及び反転の少なくとも一方を行い、調整画像を取得し、
前記調整画像を入力とし、前記所望の被写体の行動を認識する、
行動認識装置。
所望の被写体が撮像された画像が入力されると、前記所望の被写体の行動を認識する行動認識処理を実行するようにコンピュータによって実行可能なプログラムを記憶した非一時的記憶媒体であって、
前記行動認識処理は、
前記画像内における前記所望の被写体の行動方向又は前記所望の被写体とは別の被写体の行動方向に応じて前記画像に対して回転及び反転の少なくとも一方を行い、調整画像を取得し、
前記調整画像を入力とし、前記所望の被写体の行動を認識する、
非一時的記憶媒体。
14 ストレージ
15 入力部
16 表示部
17 通信インタフェース
19 バス
20 物体検出部
22 オプティカルフロー算出部
24 方向整列部
26 行動認識部
28 最適化部
30 記憶装置
50 行動認識装置
52 物体検出部
54 オプティカルフロー算出部
56 方向整列部
58 行動認識部
Claims (6)
- 所望の被写体が撮像された画像が入力されると、前記所望の被写体の行動を認識する行動認識装置であって、
前記画像内における前記所望の被写体の行動方向又は前記所望の被写体とは別の被写体の行動方向に応じて前記画像に対して回転及び反転の少なくとも一方を行い、調整画像を取得する方向整列部と、
前記調整画像を入力とし、前記所望の被写体の行動を認識する行動認識部と、
を含み、
認識する前記所望の被写体の行動が、移動を伴う単一の運動である行為、または複数の運動を含む活動であって、かつ、行動方向の経時変化を含む行動であり、
入力される画像が、時系列に並んだ複数の画像であり、
前記方向整列部は、前記複数の画像のうちの前半分の画像から、前記行動方向のヒストグラムを算出し、前記行動方向のヒストグラムの中央値を、前記複数の画像全体の行動方向とし、前記複数の画像全体の行動方向が、基準方向となるように、前記複数の画像からなる画像群毎にほぼ画一的に回転及び反転の少なくとも一方を行い、前記調整画像の各々を取得し、
前記行動認識部は、前記複数の画像に対応する前記調整画像の各々を入力とし、前記所望の被写体の行動を認識する行動認識装置。 - 前記行動認識部は、
前記所望の被写体が撮像された第二の画像と第三の画像において、前記第二の画像の前記所望の被写体の行動方向又は前記所望の被写体とは別の被写体の行動方向と、前記第三の画像の前記所望の被写体の行動方向又は前記所望の被写体とは別の被写体の行動方向と、が同一の方向となるよう回転及び反転の少なくとも一方が施された画像を関連付けることで得られた処理に基づき前記所望の被写体の行動を認識する
請求項1記載の行動認識装置。 - 前記方向整列部は、前記画像の前記行動方向を算出する際に、前記画像内における前記所望の被写体を表す領域での、オプティカルフローの動きベクトルの角度から、前記行動方向を算出する請求項1又は2記載の行動認識装置。
- 前記方向整列部は、前記算出した前記行動方向を、前記基準方向とするために必要な回転角度が、予め定められた反転角度範囲である場合に、前記画像に対して反転を行った上で、前記行動方向が、基準方向となるように、前記反転した前記画像に対して回転を行い、前記調整画像を取得する請求項3記載の行動認識装置。
- 所望の被写体が撮像された画像が入力されると、前記所望の被写体の行動を認識する行動認識方法であって、
方向整列部が、前記画像内における前記所望の被写体の行動方向又は前記所望の被写体とは別の被写体の行動方向に応じて前記画像に対して回転及び反転の少なくとも一方を行い、調整画像を取得し、
行動認識部が、前記調整画像を入力とし、前記所望の被写体の行動を認識する
ことを含み、
認識する前記所望の被写体の行動が、移動を伴う単一の運動である行為、または複数の運動を含む活動であって、かつ、行動方向の経時変化を含む行動であり、
入力される画像が、時系列に並んだ複数の画像であり、
前記方向整列部は、前記複数の画像のうちの前半分の画像から、前記行動方向のヒストグラムを算出し、前記行動方向のヒストグラムの中央値を、前記複数の画像全体の行動方向とし、前記複数の画像全体の行動方向が、基準方向となるように、前記複数の画像からなる画像群毎にほぼ画一的に回転及び反転の少なくとも一方を行い、前記調整画像の各々を取得し、
前記行動認識部は、前記複数の画像に対応する前記調整画像の各々を入力とし、前記所望の被写体の行動を認識する行動認識方法。 - 所望の被写体が撮像された画像が入力されると、前記所望の被写体の行動を認識するための行動認識プログラムであって、
前記画像内における前記所望の被写体の行動方向又は前記所望の被写体とは別の被写体の行動方向に応じて前記画像に対して回転及び反転の少なくとも一方を行い、調整画像を取得し、
前記調整画像を入力とし、前記所望の被写体の行動を認識する
ことをコンピュータに実行させるための行動認識プログラムであって、
認識する前記所望の被写体の行動が、移動を伴う単一の運動である行為、または複数の運動を含む活動であって、かつ、行動方向の経時変化を含む行動であり、
入力される画像が、時系列に並んだ複数の画像であり、
前記調整画像を取得することでは、前記複数の画像のうちの前半分の画像から、前記行動方向のヒストグラムを算出し、前記行動方向のヒストグラムの中央値を、前記複数の画像全体の行動方向とし、前記複数の画像全体の行動方向が、基準方向となるように、前記複数の画像からなる画像群毎にほぼ画一的に回転及び反転の少なくとも一方を行い、前記調整画像の各々を取得し、
前記行動を認識することでは、前記複数の画像に対応する前記調整画像の各々を入力とし、前記所望の被写体の行動を認識する行動認識プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019130055A JP7207210B2 (ja) | 2019-07-12 | 2019-07-12 | 行動認識装置、行動認識方法、及び行動認識プログラム |
US17/626,073 US20220277592A1 (en) | 2019-07-12 | 2020-07-10 | Action recognition device, action recognition method, and action recognition program |
PCT/JP2020/027113 WO2021010342A1 (ja) | 2019-07-12 | 2020-07-10 | 行動認識装置、行動認識方法、及び行動認識プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019130055A JP7207210B2 (ja) | 2019-07-12 | 2019-07-12 | 行動認識装置、行動認識方法、及び行動認識プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021015479A JP2021015479A (ja) | 2021-02-12 |
JP7207210B2 true JP7207210B2 (ja) | 2023-01-18 |
Family
ID=74209902
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019130055A Active JP7207210B2 (ja) | 2019-07-12 | 2019-07-12 | 行動認識装置、行動認識方法、及び行動認識プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220277592A1 (ja) |
JP (1) | JP7207210B2 (ja) |
WO (1) | WO2021010342A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11176682B2 (en) * | 2019-11-27 | 2021-11-16 | Nvidia Corporation | Enhanced optical flow estimation using a varied scan order |
US12039742B2 (en) * | 2020-11-13 | 2024-07-16 | Qualcomm Incorporated | Supervised learning and occlusion masking for optical flow estimation |
KR102642995B1 (ko) * | 2020-12-31 | 2024-03-05 | 한국과학기술연구원 | 안전성이 고려된 계층적 클래스 학습을 사용하는 사람 행동 인식 시스템 및 방법 |
JP2022175748A (ja) * | 2021-05-14 | 2022-11-25 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
WO2024127589A1 (ja) * | 2022-12-15 | 2024-06-20 | 日本電信電話株式会社 | 映像処理装置、方法、及びプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012221250A (ja) | 2011-04-08 | 2012-11-12 | Sony Corp | 画像処理装置、表示制御方法及びプログラム |
US20150023607A1 (en) | 2013-07-22 | 2015-01-22 | Lsi Corporation | Gesture recognition method and apparatus based on analysis of multiple candidate boundaries |
JP2018124801A (ja) | 2017-02-01 | 2018-08-09 | 株式会社エクスビジョン | ジェスチャ認識装置およびジェスチャ認識プログラム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100663483B1 (ko) * | 2005-08-09 | 2007-01-02 | 삼성전자주식회사 | 전방향 카메라를 이용한 무인 감시 방법 및 장치 |
-
2019
- 2019-07-12 JP JP2019130055A patent/JP7207210B2/ja active Active
-
2020
- 2020-07-10 WO PCT/JP2020/027113 patent/WO2021010342A1/ja active Application Filing
- 2020-07-10 US US17/626,073 patent/US20220277592A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012221250A (ja) | 2011-04-08 | 2012-11-12 | Sony Corp | 画像処理装置、表示制御方法及びプログラム |
US20150023607A1 (en) | 2013-07-22 | 2015-01-22 | Lsi Corporation | Gesture recognition method and apparatus based on analysis of multiple candidate boundaries |
JP2018124801A (ja) | 2017-02-01 | 2018-08-09 | 株式会社エクスビジョン | ジェスチャ認識装置およびジェスチャ認識プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20220277592A1 (en) | 2022-09-01 |
WO2021010342A1 (ja) | 2021-01-21 |
JP2021015479A (ja) | 2021-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7207210B2 (ja) | 行動認識装置、行動認識方法、及び行動認識プログラム | |
US9361510B2 (en) | Efficient facial landmark tracking using online shape regression method | |
US11543830B2 (en) | Unsupervised real-to-virtual domain unification for end-to-end highway driving | |
US11182592B2 (en) | Target object recognition method and apparatus, storage medium, and electronic device | |
US10460470B2 (en) | Recognition and reconstruction of objects with partial appearance | |
US11386293B2 (en) | Training image signal processors using intermediate loss functions | |
Wang et al. | Least soft-threshold squares tracking | |
Deng et al. | Mimamo net: Integrating micro-and macro-motion for video emotion recognition | |
US9734424B2 (en) | Sensor data filtering | |
Liu et al. | Real-time facial expression recognition based on cnn | |
WO2019102962A1 (ja) | 学習装置、学習方法、及び、記録媒体 | |
CN113312973B (zh) | 一种手势识别关键点特征提取方法及系统 | |
JP2022531828A (ja) | 手動作の対称性の認識方法及びシステム | |
Wang et al. | Deep nrsfm++: Towards unsupervised 2d-3d lifting in the wild | |
JP7188359B2 (ja) | 行動認識学習装置、行動認識学習方法、行動認識装置、及びプログラム | |
Shiravandi et al. | Hand gestures recognition using dynamic Bayesian networks | |
KR20220003946A (ko) | 전자 장치 및 전자 장치의 제어 방법 | |
Li et al. | Research on hybrid information recognition algorithm and quality of golf swing | |
JP7310927B2 (ja) | 物体追跡装置、物体追跡方法及び記録媒体 | |
Balatkan et al. | Improving regression performance on monocular 3D object detection using bin-mixing and sparse voxel data | |
CN115362481A (zh) | 运动模糊鲁棒图像特征描述符 | |
CN115210758A (zh) | 运动模糊稳健的图像特征匹配 | |
Jacobsen et al. | Fpga accelerated online boosting for multi-target tracking | |
Hanche et al. | Comparative Analysis of Methods of Gesture Recognition in Image Processing | |
Jiang et al. | A robust tracking with low-dimensional target-specific feature extraction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7207210 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |