[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2023009530A - 画像処理方法、画像処理装置、及びプログラム - Google Patents

画像処理方法、画像処理装置、及びプログラム Download PDF

Info

Publication number
JP2023009530A
JP2023009530A JP2021112900A JP2021112900A JP2023009530A JP 2023009530 A JP2023009530 A JP 2023009530A JP 2021112900 A JP2021112900 A JP 2021112900A JP 2021112900 A JP2021112900 A JP 2021112900A JP 2023009530 A JP2023009530 A JP 2023009530A
Authority
JP
Japan
Prior art keywords
image
fundus
eye
subject
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021112900A
Other languages
English (en)
Inventor
泰士 田邉
Yasushi Tanabe
朋春 藤原
Tomoharu Fujiwara
真梨子 向井
Mariko Mukai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2021112900A priority Critical patent/JP2023009530A/ja
Publication of JP2023009530A publication Critical patent/JP2023009530A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

【課題】被検眼の動き量を正確に算出する。【解決手段】プロセッサが行う画像処理方法であって、被検眼の眼底画像を、異なるタイミングで少なくとも2回取得するステップと、前記少なくとも2回取得された眼底画像の各々から、脈絡膜血管の特徴点を抽出するステップと、前記少なくとも2回取得された眼底画像の各々から抽出された前記脈絡膜血管の特徴点を用いて前記被検眼の動き量を算出するステップと、を含む画像処理方法。【選択図】図5

Description

本開示の技術は、画像処理方法、画像処理装置、及びプログラムに関する。
特許文献1には、被検眼の動きに合わせて光学系を移動させるトラッキング方法が開示されている。従来からブレのない眼底画像を撮影することが求められている。
米国特許出願公開第2019/0059723号明細書
本開示の技術の第1態様は、プロセッサが行う画像処理方法であって、被検眼の眼底画像を、異なるタイミングで少なくとも2回取得するステップと、前記少なくとも2回取得された眼底画像の各々から、脈絡膜血管の特徴点を抽出するステップと、前記少なくとも2回取得された眼底画像の各々から抽出された前記脈絡膜血管の特徴点を用いて前記被検眼の動き量を算出するステップと、を含む。
本開示の技術の第2態様置は、プロセッサを備える画像処理装置であって、前記プロセッサは、被検眼の眼底画像を、異なるタイミングで少なくとも2回取得するステップと、前記少なくとも2回取得された眼底画像の各々から、脈絡膜血管の特徴点を抽出するステップと、前記少なくとも2回取得された眼底画像の各々から抽出された前記脈絡膜血管の特徴点を用いて前記被検眼の動き量を算出するステップと、を含む画像処理を実行する。
本開示の技術の第3態様は、コンピュータに、被検眼の眼底画像を、異なるタイミングで少なくとも2回取得するステップと、前記少なくとも2回取得された眼底画像の各々から、脈絡膜血管の特徴点を抽出するステップと、前記少なくとも2回取得された眼底画像の各々から抽出された前記脈絡膜血管の特徴点を用いて前記被検眼の動き量を算出するステップと、を含む画像処理を実行させるプログラムである。
眼科システム100のブロック図である。 眼科装置110の全体構成を示す概略構成図である。 眼科装置110の制御装置16のCPU16Aの機能のブロック図である。 眼科装置110のCPU16Aが実行するプログラムを示すフローチャートである。 図4のステップ306のアイトラッキング処理のサブルーチンのフローチャートである。 UWF-SLO眼底画像400Gを示す図である。 OCTデータを取得する位置402が重畳されたUWF-SLO眼底画像400Gを示す図である。 OCTデータを取得する位置402と矩形SLO眼底画像を取得する領域400が重畳されたUWF-SLO眼底画像400Gを示す図である。 ビューワ150のディスプレイのスクリーン500を示した図である。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
図1を参照して、眼科システム100の構成を説明する。図1に示すように、眼科システム100は、眼科装置110と、眼軸長測定器120と、管理サーバ装置(以下、「サーバ」という)140と、画像表示装置(以下、「ビューワ」という)150と、を備えている。眼科装置110は、眼底画像を取得する。眼軸長測定器120は、被検者の眼軸長を測定する。サーバ140は、眼科装置110によって被検者の眼底が撮影されることにより得られた眼底画像を、被検者のIDに対応して記憶する。ビューワ150は、サーバ140から取得した眼底画像などの医療情報を表示する。
眼科装置110は、本開示の技術の「画像処理装置」の一例である。
眼科装置110、眼軸長測定器120、サーバ140、およびビューワ150は、ネットワーク130を介して、相互に接続されている。ネットワーク130は、LAN、WAN、インターネットや広域イーサ網等の任意のネットワークである。例えば、眼科システム100が1つの病院に構築される場合には、ネットワーク130にLANを採用することができる。
なお、他の眼科機器(視野測定、眼圧測定などの検査機器)や人工知能を用いた画像解析を行う診断支援装置がネットワーク130を介して、眼科装置110、眼軸長測定器120、サーバ140、およびビューワ150に接続されていてもよい。
次に、図2を参照して、眼科装置110の構成を説明する。
説明の便宜上、走査型レーザ検眼鏡(Scanning Laser Ophthalmoscope)を「SLO」と称する。また、光干渉断層計(Optical Coherence Tomography)を「OCT」と称する。
なお、眼科装置110が水平面に設置された場合の水平方向を「X方向」、水平面に対する垂直方向を「Y方向」とし、被検眼12の前眼部の瞳孔の中心と眼球の中心とを結ぶ方向を「Z方向」とする。従って、X方向、Y方向、およびZ方向は互いに垂直である。
眼科装置110は、撮影装置14および制御装置16を含む。撮影装置14は、SLOユニット18、OCTユニット20、および撮影光学系19を備えており、被検眼12の眼底の眼底画像を取得する。以下、SLOユニット18により取得された二次元眼底画像をSLO眼底画像と称する。また、OCTユニット20により取得されたOCTデータに基づいて作成された網膜の断層画像や正面画像(en-face画像)などをOCT画像と称する。
制御装置16は、CPU(Central Processing Unit(中央処理装置))16A、RAM(Random Access Memory)16B、ROM(Read-Only memory)16C、および入出力(I/O)ポート16Dを有するコンピュータを備えている。ROM16Cには、後述する画像処理プログラムが記憶されている。なお、制御装置16は、外部記憶装置を更に備え、画像処理プログラムを、外部記憶装置に記憶してもよい。
画像処理プログラムは、本開示の技術の「プログラム」の一例である。ROM16C(又は外部記憶装置)は、本開示の技術の「メモリ」及び「コンピュータ可読記憶媒体」の一例である。CPU16Aは、本開示の技術の「プロセッサ」の一例である。制御装置16は、本開示の技術の「コンピュータープログラム製品」の一例である。
制御装置16は、I/Oポート16Dを介してCPU16Aに接続された入力/表示装置16Eを備えている。入力/表示装置16Eは、被検眼12の画像を表示したり、ユーザから各種指示を受け付けたりするグラフィックユーザインターフェースを有する。グラフィックユーザインターフェースとしては、タッチパネル・ディスプレイが挙げられる。
制御装置16はI/Oポート16Dに接続された通信インターフェース(I/F)16Fを備えている。眼科装置110は、通信インターフェース(I/F)16Fおよびネットワーク130を介して眼軸長測定器120、サーバ140、およびビューワ150に接続される。
上記のように、図2では、眼科装置110の制御装置16が入力/表示装置16Eを備えているが、本開示の技術はこれに限定されない。例えば、眼科装置110の制御装置16は入力/表示装置16Eを備えず、眼科装置110とは物理的に独立した別個の入力/表示装置を備えるようにしてもよい。この場合、当該表示装置は、制御装置16のCPU16Aの制御下で動作する画像処理プロセッサユニットを備える。画像処理プロセッサユニットが、CPU16Aが出力指示した画像信号に基づいて、SLO眼底画像やOCT画像等を表示するようにしてもよい。
撮影装置14は、制御装置16のCPU16Aの制御下で作動する。撮影装置14は、SLOユニット18、撮影光学系19、およびOCTユニット20を含む。撮影光学系19は、第1光学スキャナ22、第2光学スキャナ24、および広角光学系30を含む。
第1光学スキャナ22は、SLOユニット18から射出された光をX方向、およびY方向に2次元走査する。第2光学スキャナ24は、OCTユニット20から射出された光をX方向、およびY方向に2次元走査する。第1光学スキャナ22および第2光学スキャナ24は、光束を偏向できる光学素子であればよく、例えば、ポリゴンミラーや、ガルバノミラー等を用いることができる。また、それらの組み合わせであってもよい。
広角光学系30は、共通光学系28を有する対物光学系(図2では不図示)、およびSLOユニット18からの光とOCTユニット20からの光を合成する合成部26を含む。
なお、共通光学系28の対物光学系は、楕円鏡などの凹面ミラーを用いた反射光学系や、広角レンズなどを用いた屈折光学系、あるいは、凹面ミラーやレンズを組み合わせた反射屈折光学系でもよい。楕円鏡や広角レンズなどを用いた広角光学系を用いることにより、視神経乳頭や黄斑が存在する眼底中心部だけでなく眼球の赤道部や渦静脈が存在する眼底周辺部の網膜を撮影することが可能となる。
広角光学系30によって、眼底において広い視野(FOV:Field of View)12Aでの観察が実現される。FOV12Aは、撮影装置14によって撮影可能な範囲を示している。FOV12Aは、視野角として表現され得る。視野角は、本実施の形態において、内部照射角と外部照射角とで規定され得る。外部照射角とは、眼科装置110から被検眼12へ照射される光束の照射角を、瞳孔27を基準として規定した照射角である。また、内部照射角とは、眼底へ照射される光束の照射角を、眼球中心Oを基準として規定した照射角である。外部照射角と内部照射角とは、対応関係にある。例えば、外部照射角が120度の場合、内部照射角は約160度に相当する。本実施の形態では、内部照射角は200度としている。
ここで、内部照射角で160度以上の撮影画角で撮影されて得られたSLO眼底画像をUWF-SLO眼底画像と称する。なお、UWFとは、UltraWide Field(超広角)の略称を指す。
SLOシステムは、図2に示す制御装置16、SLOユニット18、および撮影光学系19によって実現される。SLOシステムは、広角光学系30を備えるため、広いFOV12Aでの眼底撮影を可能とする。
SLOユニット18は、複数の光源、例えば、B光(青色光)の光源40、G光(緑色光)の光源42、R光(赤色光)の光源44、およびIR光(赤外線(例えば、近赤外光))の光源46と、光源40、42、44、46からの光を、反射または透過して1つの光路に導く光学系48、50、52、54、56とを備えている。光学系48、50、56は、ミラーであり、光学系52、54は、ビームスプリッタ―である。B光は、光学系48で反射し、光学系50を透過し、光学系54で反射し、G光は、光学系50、54で反射し、R光は、光学系52、54を透過し、IR光は、光学系56、52で反射して、それぞれ1つの光路に導かれる。
SLOユニット18は、G光、R光、およびB光を発するモードと、赤外線を発するモードなど、波長の異なるレーザ光を発する光源あるいは発光させる光源の組合せを切り替え可能に構成されている。図2に示す例では、B光(青色光)の光源40、G光の光源42、R光の光源44、およびIR光の光源46の4つの光源を備えるが、本開示の技術は、これに限定されない。例えば、SLOユニット18は、さらに、白色光の光源をさらに備え、白色光のみを発するモード等の種々のモードで光を発するようにしてもよい。
SLOユニット18から撮影光学系19に入射された光は、第1光学スキャナ22によってX方向およびY方向に走査される。走査光は広角光学系30および瞳孔27を経由して、被検眼12の後眼部に照射される。眼底により反射された反射光は、広角光学系30および第1光学スキャナ22を経由してSLOユニット18へ入射される。
SLOユニット18は、被検眼12の後眼部(例えば、眼底)からの光の内、B光を反射し且つB光以外を透過するビームスプリッタ64、ビームスプリッタ64を透過した光の内、G光を反射し且つG光以外を透過するビームスプリッタ58を備えている。SLOユニット18は、ビームスプリッタ58を透過した光の内、R光を反射し且つR光以外を透過するビームスプリッタ60を備えている。SLOユニット18は、ビームスプリッタ60を透過した光の内、IR光を反射するビームスプリッタ62を備えている。
SLOユニット18は、複数の光源に対応して複数の光検出素子を備えている。SLOユニット18は、ビームスプリッタ64により反射したB光を検出するB光検出素子70、およびビームスプリッタ58により反射したG光を検出するG光検出素子72を備えている。SLOユニット18は、ビームスプリッタ60により反射したR光を検出するR光検出素子74、およびビームスプリッタ62により反射したIR光を検出するIR光検出素子76を備えている。
広角光学系30および第1光学スキャナ22を経由してSLOユニット18へ入射された光(眼底により反射された反射光)は、B光の場合、ビームスプリッタ64で反射してB光検出素子70により受光され、G光の場合、ビームスプリッタ64を透過し、ビームスプリッタ58で反射してG光検出素子72により受光される。上記入射された光は、R光の場合、ビームスプリッタ64、58を透過し、ビームスプリッタ60で反射してR光検出素子74により受光される。上記入射された光は、IR光の場合、ビームスプリッタ64、58、60を透過し、ビームスプリッタ62で反射してIR光検出素子76により受光される。CPU16Aは、B光検出素子70、G光検出素子72、R光検出素子74、およびIR光検出素子76で検出された信号を用いてUWF-SLO眼底画像を生成する。
UWF-SLO眼底画像(後述するようにUWF眼底画像、オリジナル眼底画像ともいう)には、眼底がG色で撮影されて得られたUWF-SLO眼底画像(G色眼底画像)と、眼底がR色で撮影されて得られたUWF-SLO眼底画像(R色眼底画像)とがある。UWF-SLO眼底画像には、眼底がB色で撮影されて得られたUWF-SLO眼底画像(B色眼底画像)と、眼底がIRで撮影されて得られたUWF-SLO眼底画像(IR眼底画像)とがある。
また、制御装置16が、同時に発光するように光源40、42、44を制御する。B光、G光およびR光で同時に被検眼12の眼底が撮影されることにより、各位置が互いに対応するG色眼底画像、R色眼底画像、およびB色眼底画像が得られる。G色眼底画像、R色眼底画像、およびB色眼底画像からRGBカラー眼底画像が得られる。制御装置16が、同時に発光するように光源42、44を制御し、G光およびR光で同時に被検眼12の眼底が撮影されることにより、各位置が互いに対応するG色眼底画像およびR色眼底画像が得られる。G色眼底画像およびR色眼底画像からRGカラー眼底画像が得られる。
このようにUWF-SLO眼底画像として、具体的には、B色眼底画像、G色眼底画像、R色眼底画像、IR眼底画像、RGBカラー眼底画像、RGカラー眼底画像がある。UWF-SLO眼底画像の各画像データは、入力/表示装置16Eを介して入力された被検者の情報と共に、通信インターフェース(I/F)16Fを介して眼科装置110からサーバ140へ送信される。UWF-SLO眼底画像の各画像データと被検者の情報とは、記憶装置254に、対応して記憶される。なお、被検者の情報には、例えば、被検者ID、氏名、年齢、視力、右眼/左眼の区別等がある。被検者の情報はオペレータが入力/表示装置16Eを介して入力する。
OCTシステムは、図2に示す制御装置16、OCTユニット20、および撮影光学系19によって実現される。OCTシステムは、広角光学系30を備えるため、上述したSLO眼底画像の撮影と同様に、広いFOV12Aでの眼底撮影を可能とする。OCTユニット20は、光源20A、センサ(検出素子)20B、第1の光カプラ20C、参照光学系20D、コリメートレンズ20E、および第2の光カプラ20Fを含む。
光源20Aから射出された光は、第1の光カプラ20Cで分岐される。分岐された一方の光は、測定光として、コリメートレンズ20Eで平行光にされた後、撮影光学系19に入射される。測定光は、第2光学スキャナ24によってX方向およびY方向に走査される。走査光は広角光学系30および瞳孔27を経由して、眼底に照射される。眼底により反射された測定光は、広角光学系30および第2光学スキャナ24を経由してOCTユニット20へ入射され、コリメートレンズ20Eおよび第1の光カプラ20Cを介して、第2の光カプラ20Fに入射する。
光源20Aから射出され、第1の光カプラ20Cで分岐された他方の光は、参照光として、参照光学系20Dへ入射され、参照光学系20Dを経由して、第2の光カプラ20Fに入射する。
第2の光カプラ20Fに入射されたこれらの光、即ち、眼底で反射された測定光と、参照光とは、第2の光カプラ20Fで干渉されて干渉光を生成する。干渉光はセンサ20Bで受光される。CPU16Aは、センサ20Bで検出された検出信号に対してフーリエ変換などの信号処理を行い、OCTデータ生成する。CPU16Aは、当該OCTデータに基づいて断層画像やen-face画像などのOCT画像を生成する。
ここで、OCTシステムは、広角光学系30で実現される撮影領域のOCTデータを取得可能である。
CPU16Aで生成されたOCTデータ、断層画像やen-face画像は、被検者の情報と共に、通信インターフェース(I/F)16Fを介して眼科装置110からサーバ140へ送信される。OCTデータ、断層画像やen-face画像などの各種OCT画像と被検者の情報とは関連付けがなされて、記憶装置254に記憶される。
なお、本実施の形態では、光源20Aが波長掃引タイプのSS-OCT(Swept-Source OCT)を例示するが、SD-OCT(Spectral-Domain OCT)、TD-OCT(Time-Domain OCT)など、様々な方式のOCTシステムであってもよい。
次に、眼軸長測定器120を説明する。眼軸長測定器120は、被検眼12の眼軸方向の長さである眼軸長を測定する。
眼軸長測定器120は、測定された眼軸長をサーバ140に送信する。サーバ140は、被検者の眼軸長を被検者IDに対応して記憶する。
次に、図3を参照して、眼科装置110のCPU16Aが眼科機器の制御プログラムを実行することで実現される各種機能について説明する。眼科機器の制御プログラムは、撮影制御機能、表示制御機能、画像処理機能、および処理機能を備えている。CPU16Aがこの各機能を有する眼科機器の制御プログラムを実行することで、CPU16Aは、図3に示すように、撮影制御部202、表示制御部204、画像処理部206、および処理部208として機能する。
次に、図4を用いて、眼科装置110の画像処理を詳細に説明する。眼科装置110の制御装置16のCPU16Aが眼科機器の画像処理プログラムを実行することで、図4のフローチャートに示された眼科機器の制御が実現される。
図4のフローチャートに示された処理は、本開示の技術の「画像処理方法」の一例である。
眼科装置110のオペレータは、被検者に、眼科装置110の図示しない支持部にあごをのせてもらい、被検者の被検眼12の位置を調整する。
眼科装置110の表示制御部204は、入力/表示装置16Eの画面に、被検者の情報の入力とモード選択のためのメニュー画面を表示する。モードには、SLO眼底画像を取得するSLOモード及びOCT眼底画像を取得するOCTモードなどがある。オペレータは、被検者の情報を、入力/表示装置16Eを介して入力するとともに、OCTモードを選択すると、CPU16Aは図4に示す眼科機器の制御プログラムの実行を開始する。
ステップ302で、撮影制御部202は、SLOユニット18及び撮影光学系19を制御して、被検眼12の眼底の第1眼底画像、具体的には、B光源40、G光源42、R光源44を発光させ、3種類の波長でUWF-SLO眼底画像を取得する。なお、上記のように、UWF-SLO眼底画像は、G色眼底画像、R色眼底画像、B色眼底画像、及びRGBカラー眼底画像が含まれる。
UWF-SLO眼底画像は、本開示の技術の「第1眼底画像」の一例である。
ステップ304で、表示制御部204は、入力/表示装置16EのディスプレイにUWF-SLO眼底画像400Gを表示する。図6Aには、ディスプレイに表示されたUWF-SLO眼底画像400Gが示されている。UWF-SLO眼底画像400Gは、SLOユニット18が走査できる領域の画像に相当し、図6Aに示すように、被検眼12の眼底自体からの反射光が導かれて形成された被検眼の眼底領域400ggを含む。
ユーザ(眼科装置110の操作者)が、表示されているUWF-SLO眼底画像400Gを用いて、OCTデータを取得する領域(断層画像を取得する位置)をタッチパネルや図示せぬ入力デバイスを用いて設定する。図6Bには、UWF-SLO眼底画像400Gを用いて、断層画像を取得する位置402が、X方向の直線で設定された場合が示されている。断層画像を取得する位置402が直線で設定されると、断層画像を取得する位置402が矢印で表される。
なお、断層画像を取得する位置402は、図6Bに示すようにX方向の直線に限定されず、ある一点、線、例えば、Y方向の直線、X方向及びY方向の各々と交差する直線、2点を結ぶ曲線等、あるいは面、例えば、円形領域や矩形領域等でもよい。
断層画像を取得する位置が一点の場合には、眼底の1点の深さ(光軸)方向の走査(この走査を「Aスキャン」と言う。)によりOCTデータ(「Aスキャンデータ」という)が得られる。
断層画像を取得する位置が線の場合には、Aスキャンを当該線に沿って移動しつつAスキャンを複数回行うこと(「Bスキャン」と言う。)することにより、OCTデータ(「Bスキャンデータ」という)が得られる。
断層画像を取得する位置が面の場合には、Bスキャンを当該面に沿って移動しつつBスキャンを繰り返す(「Cスキャン」と言う。)することにより、OCTデータ(「Cスキャンデータ」という)が得られる。Cスキャンデータにより、3次元OCTデータが生成され、その3次元OCTデータに基づいて二次元のen-face画像などが生成される。
そして、処理部208は、UWF-SLO眼底画像400Gを用いて設定された、断層画像を取得する位置402の位置データ(座標データなど)を取得する。断層画像を取得する位置を示すデータは座標データに限らず眼底画像の位置が大まかにわかる番号などででもよい。
ステップ306で、アイトラッキング処理が実行される。図5を用いて、アイトラッキング処理を説明する。
なお、本開示の技術は、このようにステップ304でUWF-SLO眼底画像400Gを用いて設定された、断層画像を取得する位置402の位置データが取得されると、直ちにアイトラッキング処理が実行されることに限定されない。例えば、オペレータは被検者の被検眼12と眼科装置110とのアライメントを適切な状態となっていることを確認する。オペレータは、アライメントを適切な状態となっていることを確認すると、OCT撮影を開始することを、入力/表示装置16Eのディスプレイにあるボタン等を操作することにより、指示する。このようにOCT撮影を開始する操作が指示された場合に、アイトラッキング処理を実行する。
図5のステップ350で、画像処理部206は、UWF-SLO眼底画像のR色眼底画像とG色眼底画像とを用いて、脈絡膜血管の特徴点を抽出する。具体的には、画像処理部206は、まず、脈絡膜血管を抽出し、脈絡膜血管の特徴点を抽出する。
まず、R色眼底画像とG色眼底画像とを用いて、脈絡膜血管を抽出する方法を説明する。
眼の構造は、硝子体を、構造が異なる複数の層が覆うようになっている。複数の層には、硝子体側の最も内側から外側に、網膜、脈絡膜、強膜が含まれる。R光は、網膜を通過して脈絡膜まで到達する。よって、R色眼底画像には、網膜に存在する血管(網膜血管)の情報と脈絡膜に存在する血管(脈絡膜血管)の情報とが含まれる。これに対し、G光は、網膜までしか到達しない。よって、G色眼底画像には、網膜に存在する血管(網膜血管)の情報のみが含まれる。
画像処理部206は、G色眼底画像にブラックハットフィルタ処理などの画像処理を施すことにより、G色眼底画像から網膜血管を抽出する。これによりG色眼底画像から網膜血管の画素のみが抽出された網膜血管画像が得られる。ブラックハットフィルタ処理とは、原画像であるG色眼底画像の画像データと、この原画像に対してN回(Nは1以上の整数)の膨張処理及びN回の収縮処理を行うクロージング処理により得られる画像データとの差分をとる処理を指す。
次に、画像処理部206は、R色眼底画像から、G色眼底画像から抽出した網膜血管画像を用いてインペインティング処理などにより、網膜血管を除去する。インペイント処理とは、所定位置の画素値を、周囲の画素の平均値との差が特定範囲(例えば、0)になるように設定する処理である。つまり、G色眼底画像から抽出された網膜血管の位置情報を用いてR色眼底画像の網膜血管に相当する画素を周囲の画素と同じ値に塗りつぶす処理を行う。これにより、網膜血管の画素のみが抽出されたR色眼底画像から脈絡膜血管画像が得られる。さらに、画像処理部206は、網膜血管が除去されたR色眼底画像に対し、適応ヒストグラム均等化(CLAHE:Contrast Limited Adaptive Histogram Equalization)処理を施し、脈絡膜血管を強調する強調処理を行ってもよい。
次に、画像処理部206は、脈絡膜血管画像から脈絡膜血管の分岐点あるいは合流点を脈絡膜血管の第1特徴点として抽出する。脈絡膜血管の第1特徴点とは処理部208によりRAM16Bに記憶される。
以上説明した例では、R色眼底画像とG色眼底画像から脈絡膜血管画像を生成しているが、本開示の技術はこれに限定されない。例えば、画像処理部206は、R色眼底画像あるはIR光で撮影されたIR眼底画像を用いて脈絡膜血管画像を生成してもよい。
具体的には、画像処理部206は、ブラックハットフィルタ処理をR色眼底画像に施すことにより、R色眼底画像から網膜血管を抽出する。上記のようにR色眼底画像には、網膜に存在する血管(網膜血管)の情報と脈絡膜に存在する血管(脈絡膜血管)の情報とが含まれる。しかし、ブラックハットフィルタ処理をR色眼底画像に施すと、網膜血管の情報だけが抽出される。網膜血管はG光だけでなく、R光を吸収するため眼底画像では血管の周囲に比べて黒く撮影される。そのため、ブラックハットフィルタ処理をR色眼底画像に施すことにより、網膜血管を抽出することができる。そして、画像処理部206は、R色眼底画像から抽出された網膜血管の位置情報を用いてR色眼底画像の網膜血管に相当する画素を周囲の画素と同じ値に塗りつぶす処理を行う。これにより、脈絡膜血管画像が得られる。更に、上記のように適応ヒストグラム均等化処理(CLAHE)を施すことにより、R色眼底画像において、脈絡膜血管を強調する。
ステップ352で、撮影制御部202は、SLOユニット18及び撮影光学系19を制御して、被検眼12の眼底の矩形SLO眼底画像を取得する。
なお、被検眼12の眼底の矩形SLO眼底画像は、本開示の技術の「第2眼底画像」の一例である
具体的には、まず、オペレータは、UWF-SLO眼底画像400Gを用いて、矩形SLO眼底画像を取得する領域を設定する。図6Cには、断層画像を取得する位置402の他に、矩形SLO眼底画像を取得する領域400が重畳されたUWF-SLO眼底画像400Gが示されている。図6Cに示す例では、矩形SLO眼底画像を取得する領域400は、断層画像を取得する位置402の全ての領域を含んでいる。
本開示の技術は、矩形SLO眼底画像を取得する領域400は、断層画像を取得する位置402の全ての領域を含む場合に限定されない。例えば、矩形SLO眼底画像を取得する領域は、断層画像を取得する位置402の一部のみを含んでもよい。このように矩形SLO眼底画像を取得する領域は、断層画像を取得する位置402の少なくとも一部を含むようにしてもよい。
矩形SLO眼底画像を取得する領域は、断層画像を取得する位置402を含まなくてもよい。よって、矩形SLO眼底画像を取得する領域は、断層画像を取得する位置402とは無関係に設定されてもよい。
なお、矩形SLO眼底画像を取得する領域400が断層画像を取得する位置402の全ての領域を含むほうが、領域400が位置402を全く含まない又は一部のみ含む場合より、後述する眼の動き量を計算するための探索範囲が狭くなる確率を高くできる。これにより、アイトラッキング処理を円滑に行うこと、つまり、処理時間を短縮することができる。
矩形SLO眼底画像を取得する領域は、被検眼の眼底領域400ggの少なくとも一部を含む。
矩形SLO眼底画像を取得する領域の大きさは、UWF-SLO眼底画像400Gの大きさより小さい。つまり、矩形SLO眼底画像の画角は、UWF-SLO眼底画像の撮影画角より小さい画角であり、例えば、10度~50度の画角に設定される。
ステップ352で、撮影制御部202は、UWF-SLO眼底画像400Gを用いて設定された矩形SLO眼底画像を取得する領域400の位置を取得する。処理部208は、矩形SLO眼底画像を取得する領域の位置を第1位置としてRAM16Bに記憶保持する。そして、撮影制御部202は、取得された当該領域400の位置に基づいて、SLOユニット18及び撮影光学系19を制御して、被検眼12の眼底の画像を取得することにより、被検眼12の眼底の矩形SLO眼底画像を取得する。なお、矩形SLO眼底画像を取得する際、撮影制御部202は、IR光源46を発光させ、IR光を眼底に照射することで、眼底を撮影する。これは、IR光は被検眼の網膜の視細胞で感知されないので、被検者にまぶしさを感じさせないようにするためである。
次に、ステップ354で、画像処理部206は、第2眼底画像の矩形SLO眼底画像における脈絡膜血管の特徴点(具体的には、脈絡膜血管の分岐点あるいは合流点)を抽出する。
ところで、IR光で撮影された矩形SLO眼底画像では、網膜血管は細い黒い血管として、脈絡膜血管は太い白い血管として写る。そこで、画像処理部206は、ブラックハット処理を矩形SLO眼底画像に施し網膜血管の画素位置を特定する。
次に、画像処理部206は、網膜血管の画素位置にインペインティング処理を行うことにより、矩形SLO眼底画像から網膜血管を除去し、網膜血管が除去された矩形SLO眼底画像から、脈絡膜血管の第2特徴点を抽出する。処理部208は、脈絡膜血管の第2特徴点を、RAM16Bに記憶される。
次に、ステップ356で、レジストレーション処理を実行する。
ここで、レジストレーション処理とは、矩形SLO眼底画像とUWF-SLO眼底画像(特に、RGBカラー眼底画像)との位置合わせ処理である。具体的には、矩形SLO眼底画像がRGBカラー眼底画像上のどの位置に位置するかを画像マッチングにより特定する処理である。
ステップ356のレジストレーション処理の画像マッチングでは、画像処理部206は、矩形SLO眼底画像から抽出された脈絡膜血管の第2特徴点を、例えば、3個抽出する。画像処理部206は、当該3つの第2特徴点と、UWF-SLO眼底画像から抽出された脈絡膜血管の第1特徴点とが一致する位置を探索する。処理部208は、レジストレーション処理でマッチングした位置を第2位置としてRAM16Bに記憶保持する。
なお、レジストレーション処理では、UWF-SLO眼底画像にデノイズ処理を行わないが、行うようにしてもよい。
上記のようにレジストレーション処理の画像マッチングでは、脈絡膜血管の第2特徴点を3個抽出するが、本開示の技術はこれに限定されない。例えば、特徴点の数は、2個、4個、5個などでもよい。
ステップ358で、画像処理部206は、第1位置と第2位置とから、眼の動き量を算出する。具体的には、画像処理部206は、第1の位置と第2の位置とのズレの大きさとズレの方向を算出する。そして、画像処理部206は、算出したズレの大きさとズレの方向とから被検眼12の動き量を算出する。当該動き量は動きの大きさと動きの方向を持つ量、つまり、ベクトル量である。ステップ302でUWF-SLO眼底画像を取得するために被検眼12の眼底を撮影した時点からステップ352で矩形SLO眼底画像を取得するために被検眼12の眼底を撮影した時点までの時間が経過しているので、被検眼の同じ場所を撮影しているとは限らない。また、OCT撮影中に固視微動などにより、被検眼が動く場合もある。よって、画像処理部206は、OCTの撮影開始時あるいはOCTの撮影中に被検眼12が、どの方向にどのくらいの量、ずれているのか、つまり、被検眼12の動き量(ベクトル量)を算出する。
なお、ステップ356が実行されてステップ358で算出されたズレ量とズレの方向は、「ズレ量とズレの方向」の一例である。
このように被検眼12がずれたので、UWF-SLO眼底画像を基準に設定した断層画像を取得する位置に基づいて被検眼12を走査したのでは、本来取得したい位置から上記動き量(ズレ量及びズレの方向に)ずれた位置を走査することになる。
そこで、ステップ360で、撮影制御部202は、動いた後の被検眼12の上記取得する位置の断層画像を取得できるように、被検眼12の動き量(ベクトル量)に基づいて、第2光学スキャナ24による走査範囲を調整する。
第2光学スキャナ24は、本開示の技術の「走査デバイス」の一例である。
このように被検眼12の走査範囲の調整が終了すると、図4のステップ306のアイトラッキング処理が終了し、画像処理はステップ308に進む。
ステップ308で、撮影制御部202は、OCTユニット20と、走査範囲が調整された第2光学スキャナ24とを制御し、被検眼12の断層画像を取得する位置を走査することにより、断層画像を取得する。
ステップ310で、処理部208は、取得された断層画像、RG-UWF-SLO眼底画像、断層画像を取得する位置402のデータを、被検者の情報に対応して、サーバ140に出力する。以上により、図4の画像処理が終了する。
サーバ140は、断層画像、RGBカラー眼底画像、断層画像を取得する位置402のデータを、被検者IDと関連付けて、図示しない記憶装置に記憶する。
ビューワ150から、眼科医などのユーザからの指示により、被検者IDに対応して断層画像などデータの送信の要求がサーバ140にされる。
上記要求がサーバ140にされると、サーバ140は、被検者IDに対応して記憶されている断層画像、UWF-SLO眼底画像、断層画像を取得する位置402のデータを、被検者の情報等に対応して、ビューワ150に送信する。これによりビューワ150は、受信した各データを、図示しないディスプレイに表示する。
図7には、ビューワ150のディスプレイに表示されたスクリーン500が示されている。スクリーン500は、被検者情報表示エリア502及び画像表示エリア504を有する。
被検者情報表示エリア502は、被検者ID表示フィールド512、被検者氏名表示フィールド514、年齢表示フィールド516、視力表示フィールド518、右眼/左眼表示フィールド520、及び眼軸長表示フィールド522を有する。表示制御部204は、サーバ140から受信した被検者ID、被検者の氏名、被検者の年齢、視力、右眼又は左眼の情報、及び被検者の眼軸長のデータを、対応する表示フィールド512~522に表示する。
画像表示エリア504は、RGBカラー眼底画像表示フィールド508、断層画像表示フィールド506、及びテキストデータ表示フィールド510を備える。
RGBカラー眼底画像表示フィールド508には、断層画像を取得する位置402が重畳されたUWF-SLO眼底画像400Gが表示される。
断層画像表示フィールド506には、断層画像が表示される。テキストデータ表示フィールド510には、診察の際のコメント等が表示される。
以上説明したように、本実施の形態では、異なるタイミングで少なくとも2回取得された眼底画像の各々から抽出された脈絡膜血管の特徴点を用いて被検眼の動き量を算出する。ところで、同じ大きさの眼底の領域において、脈絡膜血管の特徴点の数は、網膜血管の特徴点の数より、多い。よって、本実施の形態は、眼の動き量を、より正確に算出することができる。
以上説明したように、本実施の形態では、ステップ302で、撮影制御部202は、SLOユニット18及び撮影光学系19を制御して、UWF-SLO眼底画像を取得する。
本開示の技術はこれに限定されない。例えば、このように取得されたUWF-SLO眼底画像を、サーバ140の図示しない記憶媒体に記憶しておく。ステップ302では、処理部208が、サーバ140の記憶媒体からUWF-SLO眼底画像を取得するようにしてよい。また、上記のように取得されたUWF-SLO眼底画像を、眼科装置110のRAM16Bに記憶しておく。ステップ302では、処理部208が、眼科装置110のRAM16Bの記憶媒体からUWF-SLO眼底画像を取得するようにしてよい。
上記実施の形態では、アイトラッキング処理を実行した後に、断層画像を取得している。本開示の技術はこれに限定されない。例えば、断層画像を取得しながら、アイトラッキング処理を実行してもよい。この場合、図5のステップ352からステップ360を、断層画像を取得している間、繰り返し実行するようにしてもよい。そして、ステップ352からステップ360を所定回繰り返し実行する毎に、得られた被検眼12の動き量の平均値を求め、断層画像を取得している間、第2光学スキャナ24による走査範囲を調整し、断層画像を取得するようにしてもよい。これにより被検眼12の同じ位置の断層画像を複数枚取得する。これらの複数枚の断層画像の加算平均を行うことにより、ノイズが低減された断層画像を取得するようにしてもよい。
上記実施の形態では、アイトラッキング処理を実行した後に、断層画像を取得している。本開示の技術はこれに限定されない。例えば、光学スキャナを追従させることなく複数枚の断層画像の取得を行う。複数枚の断層画像を取得している間、図5のステップ352からステップ360を、繰り返し実行するようにする、そして、眼の動きが所定値以上のときに撮影された断層画像を削除し、残された複数の断層画像を用いて加算平均を行うようにしてもうよい。
本開示において、各構成要素(装置等)は、矛盾が生じない限りは、1つのみ存在しても2つ以上存在してもよい 。
以上説明した各例では、コンピュータを利用したソフトウェア構成により画像処理が実現される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、コンピュータを利用したソフトウェア構成に代えて、FPGA(Field-Programmable Gate Array)またはASIC(Application Specific Integrated Circuit)等のハードウェア構成のみによって、画像処理が実行されるようにしてもよい。画像処理のうちの一部の処理がソフトウェア構成により実行され、残りの処理がハードウェア構成によって実行されるようにしてもよい。
このように本開示の技術は、コンピュータを利用したソフトウェア構成により画像処理が実現される場合とされない場合とを含むので、以下の技術を含む。
(第1の技術)
被検眼の眼底画像を、異なるタイミングで少なくとも2回取得する取得部と、
前記少なくとも2回取得された眼底画像の各々から、脈絡膜血管の特徴点を抽出する抽出部と、
前記少なくとも2回取得された眼底画像の各々から抽出された前記脈絡膜血管の特徴点を用いて前記被検眼の動き量を算出する算出部と、
を備える画像処理装置。
(第2の技術)
取得部が、被検眼の眼底画像を、異なるタイミングで少なくとも2回取得するステップと、
抽出部が、前記少なくとも2回取得された眼底画像の各々から、脈絡膜血管の特徴点を抽出するステップと、
算出部が、前記少なくとも2回取得された眼底画像の各々から抽出された前記脈絡膜血管の特徴点を用いて前記被検眼の動き量を算出するステップと、
を備える画像処理方法。
撮影制御部202は、本開示の技術の「取得部」の一例である。画像処理部206は、本開示の技術の「抽出部」及び「算出部」の一例である。
以上の開示内容から以下の技術が提案される。
(第3の技術)
画像処理するためのコンピュータープログラム製品であって、前記コンピュータープログラム製品は、それ自体が一時的な信号ではないコンピュータ可読記憶媒体を備え、前記コンピュータ可読記憶媒体には、プログラムが格納されており、前記プログラムは、コンピュータに、プロセッサが行う画像処理であって、
被検眼の眼底画像を、異なるタイミングで少なくとも2回取得するステップと、
前記少なくとも2回取得された眼底画像の各々から、脈絡膜血管の特徴点を抽出するステップと、
前記少なくとも2回取得された眼底画像の各々から抽出された前記脈絡膜血管の特徴点を用いて前記被検眼の動き量を算出するステップと、
を含む画像処理を実行させる、コンピュータープログラム製品。
以上説明した各画像処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
本明細書に記載された全ての文献、特許出願、及び技術規格は、個々の文献、特許出願、及び技術規格が参照により取り込まれることが具体的にかつ個々に記載された場合と同様に、本明細書中に参照により取り込まれる。
100 眼科システム
16 制御装置
16A CPU
16C ROM
202 撮影制御部
204 表示制御部
206 画像処理部
208 処理部

Claims (14)

  1. プロセッサが行う画像処理方法であって、
    被検眼の眼底画像を、異なるタイミングで少なくとも2回取得するステップと、
    前記少なくとも2回取得された眼底画像の各々から、脈絡膜血管の特徴点を抽出するステップと、
    前記少なくとも2回取得された眼底画像の各々から抽出された前記脈絡膜血管の特徴点を用いて前記被検眼の動き量を算出するステップと、
    を含む画像処理方法。
  2. 前記眼底画像を取得するステップは、
    前記被検眼の第1眼底画像を取得するステップと、
    前記第1眼底画像が取得された後、前記被検眼の第2眼底画像を取得するステップと、
    を含み、
    前記脈絡膜血管の特徴点を抽出するステップは、
    前記第1眼底画像から第1脈絡膜血管の第1特徴点を抽出するステップと、
    前記第2眼底画像から第2脈絡膜血管の第2特徴点を抽出するステップと、
    を含み、
    前記動き量を算出するステップは、
    前記第1特徴点と前記第2特徴点とを用いて前記第1眼底画像と前記第2眼底画像との位置合わせをするレジストレーション処理を行い、前記被検眼の動き量を算出するステップと、
    を含む、
    請求項1に記載の画像処理方法。
  3. 前記第1眼底画像は、赤色(R)光、緑色(G)光、及び青色(B)光の少なくとも2種類の光の組み合わせの光を用いて前記被検眼を撮影することにより、得られ、
    前記第2眼底画像は、赤外線(IR)を用いて前記被検眼を撮影することにより、得られる、
    請求項2に記載の画像処理方法。
  4. 前記第2眼底画像は、前記第1眼底画像の少なくとも一部の領域を撮影して得られる
    ことを特徴とする、請求項2又は請求項3に記載の画像処理方法。
  5. 前記領域の大きさは、前記第1眼底画像の大きさより小さいことを特徴とする、請求項4に記載の画像処理方法。
  6. 前記領域は、前記被検眼の眼底の断層画像を取得する位置の少なくとも一部を含むことを特徴とする、請求項4又は請求項5に記載の画像処理方法。
  7. 前記動き量に基づいて、前記被検眼の眼底の断層画像を取得するための走査デバイスを制御するステップを更に含む請求項1から請求項6の何れか1項に記載の画像処理方法。
  8. 前記制御された走査デバイスを用いて、前記被検眼の眼底の断層画像を取得するステップを更に含む、請求項7に記載の画像処理方法。
  9. 前記動き量は、大きさと方向からなるベクトル量である、請求項1から請求項8の何れか1項に記載の画像処理方法。
  10. プロセッサを備える画像処理装置であって、
    前記プロセッサは、
    被検眼の眼底画像を、異なるタイミングで少なくとも2回取得するステップと、
    前記少なくとも2回取得された眼底画像の各々から、脈絡膜血管の特徴点を抽出するステップと、
    前記少なくとも2回取得された眼底画像の各々から抽出された前記脈絡膜血管の特徴点を用いて前記被検眼の動き量を算出するステップと、
    を含む画像処理を実行する、画像処理装置。
  11. コンピュータに、
    被検眼の眼底画像を、異なるタイミングで少なくとも2回取得するステップと、
    前記少なくとも2回取得された眼底画像の各々から、脈絡膜血管の特徴点を抽出するステップと、
    前記少なくとも2回取得された眼底画像の各々から抽出された前記脈絡膜血管の特徴点を用いて前記被検眼の動き量を算出するステップと、
    を含む画像処理を実行させるプログラム。
  12. プロセッサが行う画像処理方法であって、
    被検眼の第1眼底画像を記録媒体から取得するステップと、
    第2眼底画像を、前記被検眼を赤外線(IR)で撮影することにより、取得するステップと、
    前記第1眼底画像から脈絡膜血管の第1特徴点を抽出するステップと、
    前記第2眼底画像から前記脈絡膜血管の第2特徴点を抽出するステップと、
    前記第1特徴点と前記第2特徴点とを用いて前記被検眼の動き量を算出するステップと、
    を含む画像処理方法。
  13. プロセッサを備える画像処理装置であって、
    前記プロセッサは、
    被検眼の第1眼底画像を記録媒体から取得するステップと、
    第2眼底画像を、前記被検眼を赤外線(IR)で撮影することにより、取得するステップと、
    前記第1眼底画像から脈絡膜血管の第1特徴点を抽出するステップと、
    前記第2眼底画像から前記脈絡膜血管の第2特徴点を抽出するステップと、
    前記第1特徴点と前記第2特徴点とを用いて前記被検眼の動き量を算出するステップと、
    を含む画像処理を実行する、画像処理装置。
  14. コンピュータに、
    被検眼の第1眼底画像を記録媒体から取得するステップと、
    第2眼底画像を、前記被検眼を赤外線(IR)で撮影することにより、取得するステップと、
    前記第1眼底画像から脈絡膜血管の第1特徴点を抽出するステップと、
    前記第2眼底画像から前記脈絡膜血管の第2特徴点を抽出するステップと、
    前記第1特徴点と前記第2特徴点とを用いて前記被検眼の動き量を算出するステップと、
    を含む画像処理を実行させるプログラム。

JP2021112900A 2021-07-07 2021-07-07 画像処理方法、画像処理装置、及びプログラム Pending JP2023009530A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021112900A JP2023009530A (ja) 2021-07-07 2021-07-07 画像処理方法、画像処理装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021112900A JP2023009530A (ja) 2021-07-07 2021-07-07 画像処理方法、画像処理装置、及びプログラム

Publications (1)

Publication Number Publication Date
JP2023009530A true JP2023009530A (ja) 2023-01-20

Family

ID=85119115

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021112900A Pending JP2023009530A (ja) 2021-07-07 2021-07-07 画像処理方法、画像処理装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP2023009530A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023054223A (ja) * 2019-03-28 2023-04-13 株式会社三洋物産 遊技機
JP2023054224A (ja) * 2019-04-11 2023-04-13 株式会社三洋物産 遊技機
JP2023054225A (ja) * 2019-04-11 2023-04-13 株式会社三洋物産 遊技機
JP2023054222A (ja) * 2019-03-28 2023-04-13 株式会社三洋物産 遊技機
JP2023060269A (ja) * 2022-04-01 2023-04-27 株式会社三洋物産 遊技機
JP2023060270A (ja) * 2022-04-01 2023-04-27 株式会社三洋物産 遊技機
JP2023063369A (ja) * 2022-01-07 2023-05-09 株式会社三洋物産 遊技機
JP2023071934A (ja) * 2019-02-15 2023-05-23 株式会社三洋物産 遊技機
JP2023105105A (ja) * 2020-05-29 2023-07-28 株式会社三洋物産 遊技機

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023071934A (ja) * 2019-02-15 2023-05-23 株式会社三洋物産 遊技機
JP2023054223A (ja) * 2019-03-28 2023-04-13 株式会社三洋物産 遊技機
JP2023054222A (ja) * 2019-03-28 2023-04-13 株式会社三洋物産 遊技機
JP2023054224A (ja) * 2019-04-11 2023-04-13 株式会社三洋物産 遊技機
JP2023054225A (ja) * 2019-04-11 2023-04-13 株式会社三洋物産 遊技機
JP2023105105A (ja) * 2020-05-29 2023-07-28 株式会社三洋物産 遊技機
JP2023063369A (ja) * 2022-01-07 2023-05-09 株式会社三洋物産 遊技機
JP2023060269A (ja) * 2022-04-01 2023-04-27 株式会社三洋物産 遊技機
JP2023060270A (ja) * 2022-04-01 2023-04-27 株式会社三洋物産 遊技機

Similar Documents

Publication Publication Date Title
JP2023009530A (ja) 画像処理方法、画像処理装置、及びプログラム
JP7521634B2 (ja) 画像処理方法、プログラム、眼科装置、及び脈絡膜血管画像生成方法
US10561311B2 (en) Ophthalmic imaging apparatus and ophthalmic information processing apparatus
JP2022040372A (ja) 眼科装置
JP7306467B2 (ja) 画像処理方法、画像処理装置、及びプログラム
JP7186587B2 (ja) 眼科装置
JP2022027879A (ja) 眼科撮影装置、その制御方法、プログラム、及び記録媒体
US10321819B2 (en) Ophthalmic imaging apparatus
JP2022089086A (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP2024059709A (ja) 画像処理方法
WO2021074960A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
WO2022177028A1 (ja) 画像処理方法、画像処理装置、及びプログラム
WO2023282339A1 (ja) 画像処理方法、画像処理プログラム、画像処理装置及び眼科装置
JP7419946B2 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP7272453B2 (ja) 画像処理方法、画像処理装置、およびプログラム
WO2022250048A1 (ja) 画像処理方法、画像処理装置、及びプログラム
WO2023199847A1 (ja) 画像処理方法、画像処理装置、及びプログラム
WO2021210281A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
US11954872B2 (en) Image processing method, program, and image processing device
US12133684B2 (en) Ophthalmic imaging apparatus, controlling method of the same, and recording medium
WO2023182011A1 (ja) 画像処理方法、画像処理装置、眼科装置、及びプログラム
WO2022113409A1 (ja) 画像処理方法、画像処理装置、及びプログラム
US20230380680A1 (en) Ophthalmic apparatus and method of controlling the same
JP2019118420A (ja) 眼科撮影装置、その制御方法、プログラム、及び記録媒体
JP2023066198A (ja) 情報出力装置、眼底画像撮影装置、情報出力方法、及び情報出力プログラム