JP7479978B2 - 内視映像表示システム、内視映像表示装置及び内視映像表示方法 - Google Patents
内視映像表示システム、内視映像表示装置及び内視映像表示方法 Download PDFInfo
- Publication number
- JP7479978B2 JP7479978B2 JP2020126693A JP2020126693A JP7479978B2 JP 7479978 B2 JP7479978 B2 JP 7479978B2 JP 2020126693 A JP2020126693 A JP 2020126693A JP 2020126693 A JP2020126693 A JP 2020126693A JP 7479978 B2 JP7479978 B2 JP 7479978B2
- Authority
- JP
- Japan
- Prior art keywords
- endoscopy
- image
- internal
- model
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 23
- 238000001839 endoscopy Methods 0.000 claims description 249
- 238000004891 communication Methods 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 6
- 239000007788 liquid Substances 0.000 claims description 2
- 238000013507 mapping Methods 0.000 claims description 2
- 238000010191 image analysis Methods 0.000 claims 3
- 230000000295 complement effect Effects 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 22
- 239000003550 marker Substances 0.000 description 20
- 230000006870 function Effects 0.000 description 14
- 238000004364 calculation method Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000007689 inspection Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000010079 rubber tapping Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- JEIPFZHSYJVQDO-UHFFFAOYSA-N iron(III) oxide Inorganic materials O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 2
- 238000009659 non-destructive testing Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000002845 discoloration Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Description
例えば、特開2014-106556(特許文献1)には、「建物外に取り付けられたARマーカを読み取る機能を有するWEBカメラを有する端末からの映像を受信し、当該映像を画像とし、かつ3Dオブジェクトにマッピングし、当該マッピング画像を端末のカメラと当該ARマーカとの相対視角に応じて当該画像の見える範囲が変化する仮想のぞき穴画像を生成し、当該仮想のぞき穴画像を当該端末に送信し、当該端末側に映し出される画像の見える範囲が変わるように構成した手段を設ける」技術が記載されている。
しかしながら、特許文献1の手段では、ARマーカを事前に対象の建物に設置した上、ARマーカと当該ARマーカに対応する3Dオブジェクト等のデジタルコンテンツの位置関係を予め設定しておく必要があり、相当程度の事前準備が必要である。また、建物内の様子を見ることができるのは、ARマーカを設置した個所だけであり、ユーザーが建物内を透視する場所を自由に選択することは想定されていない。
上記した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。
(本開示の背景及び概要)
従来では、現場での配管の劣化確認において、配管の内側を確認するには、カメラを管に挿入し、内部を撮影するなどの方法がある。しかし、管の内部を撮影したとしても、内部映像の情報だけでは管の外側との関係が明らかではないため、配管の外側しか見えない現場の作業員にとっては、どの配管を交換すべきかの判断に窮することがある。外側と内側を同時に確認する手法として非破壊検査があるが、非破壊検査では内部の色の状態などを確認できないため、内部の状態の詳細を把握することができない。
これにより、例えば水道管のような配管設備において、現場にいる作業員が、管の内部及び外部の両方の状態を容易に確認することが可能となり、点検等の作業の効率を向上させることができる。
以下では、本開示の実施形態に係る内視映像表示手段を配管点検に適用した場合を一例として説明するが、本開示はこれに限定されず、例えば、建物の内部、自動車の内部等、使用目的に応じて任意の環境に適用されてもよい。
(ハードウエア構成)
ネットワーク225は、例えばインターネットやLAN(Local Area Network)であってもよい。
また、クライアント端末205は、映像を取得するための撮影機能(カメラ)、クライアント端末の絶対位置を判定するための測位機能(GPS等)、及び内視対象物等の被写体に対する相対的な位置を判定するための方角計測機能や向き計測機能を備えてもよい。更に、クライアント端末205は、ユーザからの入力を受け付けるためのタッチ画面、キーボード、マウス、音声認識機能等の入力機能を備えてもよい。
クライアント端末205を利用しているユーザは、内視対象物の内部が視認したい意図を示す内視要求を、ネットワーク225を介して計算装置230に送信する。この内視要求は、例えば、内視対象物の外側を示す外側映像と、当該外側映像に対して指定された、内視の対象となる内視対象領域の絶対位置を示す内視対象領域座標とを含んでもよい。
以下では、内視対象物の内部構造の外観を示すCGモデルを生成するために取得される、内視対象物の内部構造の外観を示す内部映像、センサ装置210の絶対位置、方角、向き、内視対象物からの距離、及びこれらの情報の取得時刻に関する情報を「内部情報」という。これらの内部情報は、定期的に取得されてもよく(1時間毎、6時間毎、24時間毎等)、継続的に取得されてもよい。
ある実施形態では、センサ装置210は、内視対象物の内部において設置されてもよい。あるいは、ある実施形態では、センサ装置210は、配管などの内視対象物に流れる液体と共に流れながら上述した内部情報を取得するための防水小型撮影装置であってもよい。
なお、本開示においてCGモデルとは、3次元空間内のポイントの集まりによって画定される三角形、線、曲面などの様々な幾何学的オブジェクトによって形成される物理的な物体を立体的に表現するデータの集合である。また、このCGモデルの面は、テクスチャマッピングにより、様々なテクスチャ(物体表面の質感)を表すことができる。
また、ここで生成されるCGモデルは、例えば計算装置230に備えられるモデル記憶部238に、CGモデル240として格納されてもよく、ネットワーク225を介してストレージ部220に格納されてもよい。このモデル記憶部238は、計算装置230の内部記憶領域であり、例えばハードディスクドライブやソリッドステートドライブなど、任意の記憶手段であってもよい。
また、ここで生成される内視映像は、上述した通信部232を用いて、クライアント端末205に送信される。一例として、ここでの内視映像は、クライアント端末205から受信した内視要求に含まれる内視対象物の外側映像に、当該内視対象物の内部構造の外観を示すCGモデル映像を重ね合わせて表示する映像であってもよい。
また、上述したように、これらの内部情報は、継続的に取得されてもよい。これにより、これらの内部情報に基づいて生成される内視映像を常時、リアルタイムで動的に更新することが可能となる。
一例として、ユーザは、クライアント端末205を用いて、内視対象物の外側を撮影し、外側映像を取得した後、指によるタップやスワイプなどの動作で、当該外側映像に対して内視対象領域を入力してもよい。その後、クライアント端末205は、上述したように、指定された内視対象領域の絶対位置を示す内視対象領域座標を計算する。最後に、クライアント端末205は、取得された外側映像と、計算された内視対象領域座標とを内視要求として計算装置230に送信する。
なお、CGモデルの生成の詳細については、図5~10を参照して説明する。
その後、計算装置230は、設定した表示領域に対応するCGモデル映像を、例えば上述したモデル記憶部に格納されているCGモデルから抽出する。このCGモデル映像は、ユーザが視認したいと示した内視対象領域に対応するCGモデルの領域を少なくとも含む領域2次元の映像である。CGモデル映像が抽出された後、計算装置230は、当該CGモデル映像と、クライアント端末205から受信した内視要求に含まれる外側映像とを結合させることで、内視映像を生成してもよい。この内視映像は、内視対象物の外側を示す外側映像の上に、ユーザが内視したい領域に対応するCGモデル映像を重ねた映像であってもよい。また、ある実施形態では、この内視映像は、内視対象物の外側を示す外側映像と、ユーザが内視したい領域に対応するCGモデル映像とを別々に表示する映像であってもよい。
また、ある実施形態では、計算装置230は、リアルタイムでセンサ装置から送信される内部情報に応じて、内視映像をリアルタイムで更新してもよい。これにより、例えば内視対象物の内部が変化した場合、クライアント端末のユーザはこの変化を迅速に把握することができる。
内視映像が生成された後、計算装置230は、当該内視映像をクライアント端末205に送信する。
また、上述したように、クライアント端末205に搭載される機能を用いて、撮影された内視対象物における内視対象領域の絶対位置を示す内視対象領域座標を計算し、当該内視対象領域座標に対応するCGモデル映像を、内視対象物の内部構造の外観を立体的に示すCGモデルから抽出し、外側映像とCGモデル映像とを結合した内視映像を生成し、表示することで、ARマーカを用いなくても、内視対象物の内部の様子を視認することができる。
また、ある実施形態では、内視映像において、内視可能な領域は、本発明の実施形態に係るマスク解除手段によって制御されてもよい。以下では、本発明の実施形態に係るマスク解除手段の概念について説明する。
なお、ここで撮影される内視対象物の外側には、ARマーカ410が張り付けられてもよいが、上述したように、本開示では、ARマーカ410を用いなくても、内視対象物の内部の様子を視認することができる。ここでのARマーカ410とは、ARコンテンツを表示するトリガとして機能する標識となる、決まったパターンの画像を意味する。ARマーカ410は、例えばQRコード(登録商標)や他の所定の画像であってもよい。
これにより、ユーザは、クライアント端末に表示される内視映像において、マスク解除オブジェクト416による「のぞき穴」を通して、内視対象物の内部構造を視認することができる。
上述したように、本開示の実施形態に係るCGモデルを生成するに当たって、当該CGモデルが内視対象物においてどこの位置に対応するかを計算する必要がある。従って、CGモデルの元となる内部映像の撮影範囲の四隅の絶対位置を示す内部領域座標を計算することで、当該内部映像が内視対象物のどこに対応するかを把握することができ、CGモデルと内視対象物の位置関係を対応付けることができる。
以下、本開示の実施形態に係る深度推定を用いて、内視対象物の内部のテクスチャーを立体的に表現する3次元のCGモデルを生成する一例を説明する。ここでの深度推定とは、二次元の映像や映像を解析してセンサ装置から被写体(つまり、内視対象物の内側など)までの距離を推定する手法である。
なお、説明の便宜上、図6では、1枚の内部映像605のみを例示しているが、本開示はこれに限定されず、実際には、センサ装置は、複数の内部映像を取得する。例えば、センサ装置は、内部映像を連続的に撮影してもよく、動画などの映像を取得してもよい。
また、ある実施形態では、モデル生成部234は、Volumeなどの機械学習による深度測定手段を用いて、2次元の内部映像605を解析することで、上述したような内視対象物の領域における凹凸を表現する立体的なCGモデル610を生成してもよい。
以下、本開示の実施形態に係る外側映像710の一例について説明する。
以下、外側映像710に対する内視対象領域815を指定する一例について説明する。
内視対象物が複数ある場合には、それぞれの内視対象物に対応するCGモデル900が生成されてもよい。例えば、図9に示すように、5つの配管が内視対象物となっている場合には、計算装置は、それぞれの配管に対応するCGモデル900を生成してもよい。このように、内視対象物の内部構造における錆、傷、変色などを視認することができ、内視対象物の内部の状態を把握することができる。
計算装置は、内視映像1100を生成した後、当該内視映像1100をクライアント端末に送信する。これにより、ユーザは、クライアント端末の画面に表示される内視映像を視認することで、内視対象物の外観を確認し、内部の状態を把握することができる。
205 クライアント端末
210 センサ装置
220 ストレージ部
222 内部情報
225 ネットワーク
230 計算装置
232 通信部
234 モデル生成部
236 内視映像生成部
Claims (7)
- 内視の対象物である内視対象物の内部に関する内部情報を取得するためのセンサ装置と、
前記内視対象物の内部構造の外観を示す内視映像を生成するための計算装置と、
前記内視対象物について生成した前記内視映像を視認するためのクライアント端末とが通信ネットワークを介して接続される内視映像表示システムであって、
前記計算装置は、
前記内部情報を前記センサ装置から受信し、
前記内視対象物の外側を示す外側映像と、前記外側映像に対して指定された、内視の対象となる内視対象領域の絶対位置を示す内視対象領域座標とを含む内視要求を前記クライアント端末から受信すると共に、前記内視映像を前記クライアント端末に送信する通信部と、
前記センサ装置から受信した前記内部情報に基づいて、前記内視対象物の内部構造の外観を示すCGモデルを生成するモデル生成部と、
前記内視要求に含まれる前記内視対象領域座標に基づいて、前記内視映像に表示する前記CGモデルの領域である表示領域を設定し、前記表示領域に対応するCGモデル映像を前記CGモデルから抽出し、前記CGモデル映像と前記外側映像とを結合させることで、前記内視映像を生成する内視映像生成部と、
を含み、
前記内部情報は、
前記内視対象物の内部を示す内部映像と、前記センサ装置の前記内視対象物に対する距離及び向きと、前記センサ装置の絶対位置と、情報の取得時刻とを含み、
前記計算装置は、
前記内部情報に含まれる前記センサ装置の絶対位置と、前記センサ装置の前記内視対象物に対する距離及び向きとに基づいて、前記内部映像に示されている前記内視対象物の内部領域の四隅の座標を示す内部領域座標を計算し、
所定の映像解析手段により、前記内部映像に基づいて、前記内視対象物の内部を示す3次元のCGモデルを作成し、
前記内部領域座標を、前記CGモデルにマッピングすることにより、前記CGモデルと前記内視対象物の位置関係を対応付けることで、前記CGモデルを生成する、
ことを特徴とする内視映像表示システム。 - 前記計算装置は、
第1のセンサ装置から、障害物によって隠されている第1の領域を含む第1の内部映像と、
第2のセンサ装置から、前記第1の領域に対応し、且つ、視認可能な第2の領域を含む第2の内部映像とを受信し、
前記第1の領域を、前記第2の領域によって補足するように前記第1の内部映像と前記第2の内部映像とを結合した結合映像に基づいて、前記CGモデルを生成する、
ことを特徴とする、請求項1に記載の内視映像表示システム。 - 前記センサ装置は、
液体と共に流れながら前記内視対象物の内部を撮影する小型撮影装置である、
ことを特徴とする、請求項2に記載の内視映像表示システム。 - 前記センサ装置は、
前記内部情報を継続的に取得するように構成されており、
前記計算装置は、
前記内部情報に応じて、前記内視映像をリアルタイムで動的に更新する、
ことを特徴とする、請求項3に記載の内視映像表示システム。 - 内視の対象物である内視対象物の内部に関する内部情報をセンサ装置から受信し、前記内視対象物の外側を示す外側映像と、前記外側映像に対して指定された、内視の対象となる内視対象領域の絶対位置を示す内視対象領域座標とを含む内視要求をクライアント端末から受信すると共に、内視映像を前記クライアント端末に送信する通信部と、
前記センサ装置から受信した前記内部情報に基づいて、前記対象物の内部構造の外観を示すCGモデルを生成するモデル生成部と、
前記内視要求に含まれる前記内視対象領域座標に基づいて、前記内視映像に表示する前記CGモデルの領域である表示領域を設定し、前記表示領域に対応するCGモデル映像を前記CGモデルから抽出し、前記CGモデル映像と前記外側映像とを結合させることで、前記内視映像を生成する内視映像生成部と、
を含み、
前記モデル生成部は、
前記内部情報に含まれる前記センサ装置の絶対位置と、前記センサ装置の前記内視対象物に対する距離及び向きとに基づいて、前記内視対象物の内部構造の外観を示す内視映像に示されている前記内視対象物の内部領域の四隅の座標を示す内部領域座標を計算し、
所定の映像解析手段により、前記内部情報に含まれて前記内視対象物の内部を示す内部映像に基づいて、前記内視対象物の内部を示す3次元のCGモデルを作成し、
前記内部領域座標を、前記CGモデルにマッピングすることにより、前記CGモデルと前記内視対象物の位置関係を対応付けることで、前記CGモデルを生成する、
ことを特徴とする内視映像表示装置。 - 内視の対象物である内視対象物の内部に関する内部情報として、前記内視対象物の内部を示す内部映像と、前記内部映像を取得したセンサ装置の前記内視対象物に対する距離及び向きと、前記センサ装置の絶対位置とを取得する工程と、
前記内部情報に含まれる前記センサ装置の絶対位置と、前記センサ装置の前記内視対象物に対する距離及び向きとに基づいて、前記内部映像に示されている前記内視対象物の内部領域の四隅の座標を示す内部領域座標を計算する工程と、
所定の映像解析手段により、前記内部映像に基づいて、前記内視対象物の内部を示す3次元のCGモデルを作成し、
前記内部領域座標を、前記CGモデルにマッピングすることにより、前記CGモデルと前記内視対象物の位置関係を対応付ける工程と、
前記内視対象物の外側を示す外側映像と、前記外側映像に対して指定された、内視の対象となる内視対象領域の絶対位置を示す内視対象領域座標とを含む内視要求を受信する工程と、
前記内視要求に含まれる前記内視対象領域座標に基づいて、表示される前記CGモデルの領域である表示領域を設定し、前記表示領域に対応するCGモデル映像を前記CGモデルから抽出し、前記CGモデル映像と前記外側映像とを結合させることで、内視映像を生成する工程と、
前記内視映像を出力する工程と、
を含むことを特徴とする内視映像表示方法。 - 障害物によって隠されている第1の領域を含む第1の内部映像を受信する工程と、
前記第1の領域に対応し、且つ、視認可能な第2の領域を含む第2の内部映像とを受信する工程と、
前記第1の領域を、前記第2の領域によって補足するように前記第1の内部映像と前記第2の内部映像とを結合した結合映像に基づいて、前記CGモデルを生成する工程と、
を更に含むことを特徴とする請求項6に記載の内視映像表示方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020126693A JP7479978B2 (ja) | 2020-07-27 | 2020-07-27 | 内視映像表示システム、内視映像表示装置及び内視映像表示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020126693A JP7479978B2 (ja) | 2020-07-27 | 2020-07-27 | 内視映像表示システム、内視映像表示装置及び内視映像表示方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022023627A JP2022023627A (ja) | 2022-02-08 |
JP7479978B2 true JP7479978B2 (ja) | 2024-05-09 |
Family
ID=80226410
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020126693A Active JP7479978B2 (ja) | 2020-07-27 | 2020-07-27 | 内視映像表示システム、内視映像表示装置及び内視映像表示方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7479978B2 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016063868A (ja) | 2014-09-22 | 2016-04-28 | オリンパス株式会社 | 画像表示装置、画像表示方法、及び画像表示プログラム |
JP2018121686A (ja) | 2017-01-30 | 2018-08-09 | セイコーエプソン株式会社 | 内視鏡操作支援システム |
-
2020
- 2020-07-27 JP JP2020126693A patent/JP7479978B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016063868A (ja) | 2014-09-22 | 2016-04-28 | オリンパス株式会社 | 画像表示装置、画像表示方法、及び画像表示プログラム |
JP2018121686A (ja) | 2017-01-30 | 2018-08-09 | セイコーエプソン株式会社 | 内視鏡操作支援システム |
Also Published As
Publication number | Publication date |
---|---|
JP2022023627A (ja) | 2022-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4065507B2 (ja) | 情報提示装置および情報処理方法 | |
US8055061B2 (en) | Method and apparatus for generating three-dimensional model information | |
JP5430565B2 (ja) | 電子ミラー装置 | |
US20120120113A1 (en) | Method and apparatus for visualizing 2D product images integrated in a real-world environment | |
WO2016095057A1 (en) | Peripheral tracking for an augmented reality head mounted device | |
JP6008397B2 (ja) | 光学式シースルー型hmdを用いたarシステム | |
Hübner et al. | Marker-based localization of the microsoft hololens in building models | |
JP7162750B2 (ja) | 画像処理装置、画像処理方法、及び、プログラム | |
WO2016029939A1 (en) | Method and system for determining at least one image feature in at least one image | |
JP2002259992A (ja) | 画像処理装置およびその方法並びにプログラムコード、記憶媒体 | |
Jia et al. | 3D image reconstruction and human body tracking using stereo vision and Kinect technology | |
JP7182976B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US11436790B2 (en) | Passthrough visualization | |
JP2005174021A (ja) | 情報提示方法及び装置 | |
JP2016122392A (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
Adcock et al. | Visualization of off-surface 3D viewpoint locations in spatial augmented reality | |
JP6061334B2 (ja) | 光学式シースルー型hmdを用いたarシステム | |
CN113228117B (zh) | 创作装置、创作方法和记录有创作程序的记录介质 | |
JP2018010599A (ja) | 情報処理装置、パノラマ画像表示方法、パノラマ画像表示プログラム | |
JP7479978B2 (ja) | 内視映像表示システム、内視映像表示装置及び内視映像表示方法 | |
KR20120091749A (ko) | 혼합 현실 가시화 시스템 및 혼합 현실 가시화 방법 | |
JP2006252468A (ja) | 画像処理方法、画像処理装置 | |
JP7401245B2 (ja) | 画像合成装置、画像合成装置の制御方法およびプログラム | |
Seibert | Augmenting reality by using uncalibrated optical tracking | |
WO2024095744A1 (ja) | 情報処理装置、情報処理方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240423 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240424 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7479978 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |