JP2021072979A - 眼科撮影装置 - Google Patents
眼科撮影装置 Download PDFInfo
- Publication number
- JP2021072979A JP2021072979A JP2021017075A JP2021017075A JP2021072979A JP 2021072979 A JP2021072979 A JP 2021072979A JP 2021017075 A JP2021017075 A JP 2021017075A JP 2021017075 A JP2021017075 A JP 2021017075A JP 2021072979 A JP2021072979 A JP 2021072979A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- scan
- eye
- abnormality
- oct
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
Abstract
【課題】被検眼の移動が発生した場合でも高確度のOCT画像を取得することが可能な眼科撮影装置を提供する。【解決手段】実施形態の眼科撮影装置のデータ収集部は、被検眼に3次元スキャンを適用してデータを収集する。制御部は、3次元スキャンが適用されるスキャンエリアを予め分割して設定された複数のユニットスキャンエリアに対して順次にスキャンを行うようにデータ収集部を制御する。データ収集部は、制御部による制御の下に、一のユニットスキャンエリアに含まれる複数のスキャンラインに対して順次に且つ所定回数ずつスキャンを適用する。異常検知部は、この一のユニットスキャンエリアに対するスキャンにより収集されたデータに基づいて被検眼の変位の発生を検知する。【選択図】図5
Description
本発明は、光コヒーレンストモグラフィ(OCT)を利用して被検眼を画像化する眼科撮影装置に関する。
眼科分野において画像診断は重要な位置を占める。近年ではOCTの活用が進んでいる。OCTは、被検眼のBモード画像や3次元画像の取得だけでなく、Cモード画像やシャドウグラムなどの正面画像(en−face画像)の取得にも利用されるようになってきている。また、被検眼の特定部位を強調した画像を取得することや、機能情報を取得することも行われている。例えば、OCTにより収集された時系列データに基づいて、網膜血管や脈絡膜血管が強調された画像(アンギオグラム)を構築することができる。更に、OCTにより収集された時系列データにおける位相情報から血流情報(血流速度、血流量等)を求めることも可能である。このような画像化技術は、例えば特許文献1−3に開示されている。また、同一断面を繰り返しスキャンして複数の画像を取得し、これらを加算平均して低ノイズの画像を作成する技術も知られている(例えば特許文献4を参照)。
上記のような画像化技術では3次元スキャンや繰り返しスキャンが適用される。3次元スキャンや繰り返しスキャンには、数秒から十秒程度、場合によってはそれ以上の時間が掛かる。そのため、スキャン中に被検眼の位置がずれたり瞬きが発生したりするおそれがある。このような問題に鑑み、トラッキングや再スキャンが利用されている。トラッキングは、スキャン中における被検眼の移動をビデオカメラで監視し、その移動に合わせて光スキャナをリアルタイムで制御する技術である(例えば特許文献5を参照)。再スキャンは、スキャン中における被検眼をビデオカメラで監視し、被検眼が大きく動いたタイミングや瞬きが発生したタイミングにてスキャンされた位置を再度スキャンする技術である(例えば特許文献6を参照)。
従来のトラッキングや再スキャンでは、ビデオカメラによる映像を解析して被検眼の移動や瞬きを検知している。一方、近年のOCT技術の進歩によって、OCTスキャンの繰り返しレート(例えばBスキャンの反復レート)は、ビデオカメラのフレームレートよりもかなり高くなっている。例えば、典型的なBスキャンの反復間隔が2〜3ms程度であるのに対し、ビデオカメラのフレームレートは20〜50FPS程度(フレーム間隔20〜50ms程度)である。そのため、ビデオカメラでは検知できない被検眼の移動等がOCT画像に影響を与えることがある。また、被検眼の移動等の影響を受けたスキャンを特定できないこと、当該スキャンの特定に時間が掛かること、といった問題もある。なお、被検眼の移動等を検知する間隔を短くすることも考えられるが、非常に高価な撮影装置が必要となるため現実的ではない。
本発明の目的は、被検眼の移動が発生した場合でも高確度のOCT画像を取得可能な眼科撮影装置を提供することにある。
実施形態の眼科撮影装置は、データ収集部、制御部、及び異常検知部を備える。データ収集部は、光コヒーレンストモグラフィを用いて被検眼に3次元スキャンを適用することによりデータを収集する。制御部は、3次元スキャンが適用されるスキャンエリアを予め分割して設定された複数のユニットスキャンエリアに対して順次にスキャンを行うようにデータ収集部を制御する。異常検知部は、異常の検知を行う。更に、データ収集部は、制御部による制御の下に、複数のユニットスキャンエリアのうちの一のユニットスキャンエリアに対するスキャンとして、この一のユニットスキャンエリアに含まれる複数のスキャンラインに対して順次に且つ所定回数ずつスキャンを適用し、異常検知部は、この一のユニットスキャンエリアに対するスキャンにより収集されたデータに基づいて被検眼の変位の発生を検知する。
実施形態に係る眼科撮影装置によれば、被検眼の移動が発生した場合でも高確度のOCT画像を取得可能である。
本発明の幾つかの実施形態について図面を参照しながら詳細に説明する。実施形態は、光干渉断層計(OCT)としての機能と、被検眼の正面画像を取得する機能とを備える眼科撮影装置である。後者の機能は、例えば、眼底カメラ、走査型レーザ検眼鏡(SLO)、スリットランプ顕微鏡、眼科手術用顕微鏡、前眼部撮影カメラ等により実現可能である。以下、スウェプトソースOCTと眼底カメラとを組み合わせた例を説明するが、実施形態はこれに限定されない。
〈構成〉
図1に示すように、眼科撮影装置1は、眼底カメラユニット2、OCTユニット100及び演算制御ユニット200を含む。眼底カメラユニット2には、被検眼の正面画像を取得するための光学系や機構が設けられている。OCTユニット100には、OCTを実行するための光学系や機構が設けられている。演算制御ユニット200は、各種の演算及び制御を実行するプロセッサを含む。これらに加え、被検者の顔を支持するための部材(顎受け、額当て等)や、OCTの対象部位を切り替えるためのレンズユニット(例えば、前眼部OCT用アタッチメント)が設けられてもよい。
図1に示すように、眼科撮影装置1は、眼底カメラユニット2、OCTユニット100及び演算制御ユニット200を含む。眼底カメラユニット2には、被検眼の正面画像を取得するための光学系や機構が設けられている。OCTユニット100には、OCTを実行するための光学系や機構が設けられている。演算制御ユニット200は、各種の演算及び制御を実行するプロセッサを含む。これらに加え、被検者の顔を支持するための部材(顎受け、額当て等)や、OCTの対象部位を切り替えるためのレンズユニット(例えば、前眼部OCT用アタッチメント)が設けられてもよい。
本明細書において「プロセッサ」は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array))等の回路を意味する。プロセッサは、例えば、記憶回路や記憶装置に格納されているプログラムを読み出し実行することで、実施形態に係る機能を実現する。
〈眼底カメラユニット2〉
眼底カメラユニット2には、被検眼Eの眼底Efを撮影するための光学系が設けられている。取得される眼底Efの画像(眼底像、眼底写真等と呼ばれる)は、観察画像、撮影画像等の正面画像である。観察画像は、近赤外光を用いた動画撮影により得られる。撮影画像は、フラッシュ光を用いた静止画像である。
眼底カメラユニット2には、被検眼Eの眼底Efを撮影するための光学系が設けられている。取得される眼底Efの画像(眼底像、眼底写真等と呼ばれる)は、観察画像、撮影画像等の正面画像である。観察画像は、近赤外光を用いた動画撮影により得られる。撮影画像は、フラッシュ光を用いた静止画像である。
眼底カメラユニット2は、照明光学系10と撮影光学系30とを含む。照明光学系10は被検眼Eに照明光を照射する。撮影光学系30は、被検眼Eからの照明光の戻り光を検出する。OCTユニット100からの測定光は、眼底カメラユニット2内の光路を通じて被検眼Eに導かれ、その戻り光は、同じ光路を通じてOCTユニット100に導かれる。
照明光学系10の観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19及びリレーレンズ20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて被検眼E(眼底Ef又は前眼部)を照明する。被検眼Eからの観察照明光の戻り光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、撮影合焦レンズ31を経由し、ミラー32により反射される。更に、この戻り光は、ハーフミラー33Aを透過し、ダイクロイックミラー33により反射され、集光レンズ34によりイメージセンサ35の受光面に結像される。イメージセンサ35は、所定のフレームレートで戻り光を検出する。なお、撮影光学系30のフォーカスは眼底Ef又は前眼部に対して調整される。
撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。被検眼Eからの撮影照明光の戻り光は、観察照明光の戻り光と同じ経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりイメージセンサ38の受光面に結像される。
LCD39は固視標や視力測定用視標を表示する。LCD39から出力された光束は、その一部がハーフミラー33Aにて反射され、ミラー32に反射され、撮影合焦レンズ31及びダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した固視光束は、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。
アライメント光学系50は、被検眼Eに対する光学系のアライメントに用いられるアライメント指標を生成する。LED51から出力されたアライメント光は、絞り52及び53並びにリレーレンズ54を経由し、ダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した光は、ダイクロイックミラー46を透過し、対物レンズ22により被検眼Eに投射される。アライメント光の角膜反射光は、観察照明光の戻り光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(アライメント指標像)に基づいてマニュアルアライメントやオートアライメントを実行できる。
フォーカス光学系60は、被検眼Eに対するフォーカス調整に用いられるスプリット指標を生成する。フォーカス光学系60は、撮影光学系30の光路(撮影光路)に沿った撮影合焦レンズ31の移動に連動して、照明光学系10の光路(照明光路)に沿って移動される。反射棒67は、照明光路に対して挿脱可能である。フォーカス調整を行う際には、反射棒67の反射面が照明光路に傾斜配置される。LED61から出力されたフォーカス光は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65により反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。フォーカス光の眼底反射光は、アライメント光の角膜反射光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(スプリット指標像)に基づいてマニュアルアライメントやオートアライメントを実行できる。
視度補正レンズ70及び71は、孔開きミラー21とダイクロイックミラー55との間の撮影光路に選択的に挿入可能である。視度補正レンズ70は、強度遠視を補正するためのプラスレンズ(凸レンズ)である。視度補正レンズ71は、強度近視を補正するためのマイナスレンズ(凹レンズ)である。
ダイクロイックミラー46は、眼底撮影用の光路とOCT用の光路とを合成する。ダイクロイックミラー46は、OCTに用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。OCT用の光路には、OCTユニット100側から順に、コリメータレンズユニット40、光路長変更部41、光スキャナ42、OCT合焦レンズ43、ミラー44、及びリレーレンズ45が設けられている。
光路長変更部41は、図1に示す矢印の方向に移動可能とされ、OCT用の光路長を変更する。この光路長の変更は、眼軸長に応じた光路長補正や、干渉状態の調整などに利用される。光路長変更部41は、コーナーキューブと、これを移動する機構とを含む。
光スキャナ42は、被検眼Eの瞳孔と光学的に共役な位置に配置される。光スキャナ42は、OCT用の光路を通過する測定光LSを偏向する。光スキャナ42は、例えば、2次元走査が可能なガルバノスキャナである。
OCT合焦レンズ43は、OCT用の光学系のフォーカス調整を行うために、測定光LSの光路に沿って移動される。撮影合焦レンズ31の移動、フォーカス光学系60の移動、及びOCT合焦レンズ43の移動を連係的に制御することができる。
〈OCTユニット100〉
図2に例示するように、OCTユニット100には、スウェプトソースOCTを実行するための光学系が設けられている。この光学系は、波長可変光源(波長掃引型光源)からの光を測定光と参照光とに分割し、被検眼Eからの測定光の戻り光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光を検出する干渉光学系を含む。干渉光学系により得られる検出結果(検出信号)は、干渉光のスペクトルを示す信号であり、演算制御ユニット200に送られる。
図2に例示するように、OCTユニット100には、スウェプトソースOCTを実行するための光学系が設けられている。この光学系は、波長可変光源(波長掃引型光源)からの光を測定光と参照光とに分割し、被検眼Eからの測定光の戻り光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光を検出する干渉光学系を含む。干渉光学系により得られる検出結果(検出信号)は、干渉光のスペクトルを示す信号であり、演算制御ユニット200に送られる。
光源ユニット101は、例えば、出射光の波長を高速で変化させる近赤外波長可変レーザを含む。光源ユニット101から出力された光L0は、光ファイバ102により偏波コントローラ103に導かれてその偏光状態が調整される。更に、光L0は、光ファイバ104によりファイバカプラ105に導かれて測定光LSと参照光LRとに分割される。
参照光LRは、光ファイバ110によりコリメータ111に導かれて平行光束に変換され、光路長補正部材112及び分散補償部材113を経由し、コーナーキューブ114に導かれる。光路長補正部材112は、参照光LRの光路長と測定光LSの光路長とを合わせるよう作用する。分散補償部材113は、参照光LRと測定光LSとの間の分散特性を合わせるよう作用する。コーナーキューブ114は、参照光LRの入射方向に移動可能であり、それにより参照光LRの光路長が変更される。
コーナーキューブ114を経由した参照光LRは、分散補償部材113及び光路長補正部材112を経由し、コリメータ116によって平行光束から集束光束に変換され、光ファイバ117に入射する。光ファイバ117に入射した参照光LRは、偏波コントローラ118に導かれてその偏光状態が調整され、光ファイバ119によりアッテネータ120に導かれて光量が調整され、光ファイバ121によりファイバカプラ122に導かれる。
一方、ファイバカプラ105により生成された測定光LSは、光ファイバ127により導かれてコリメータレンズユニット40により平行光束に変換され、光路長変更部41、光スキャナ42、OCT合焦レンズ43、ミラー44及びリレーレンズ45を経由し、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて被検眼Eに入射する。測定光LSは、被検眼Eの様々な深さ位置において散乱・反射される。被検眼Eからの測定光LSの戻り光は、往路と同じ経路を逆向きに進行してファイバカプラ105に導かれ、光ファイバ128を経由してファイバカプラ122に到達する。
ファイバカプラ122は、光ファイバ128を介して入射された測定光LSと、光ファイバ121を介して入射された参照光LRとを合成して(干渉させて)干渉光を生成する。ファイバカプラ122は、所定の分岐比(例えば1:1)で干渉光を分岐することにより、一対の干渉光LCを生成する。一対の干渉光LCは、それぞれ光ファイバ123及び124を通じて検出器125に導かれる。
検出器125は、例えばバランスドフォトダイオードである。バランスドフォトダイオードは、一対の干渉光LCをそれぞれ検出する一対のフォトディテクタを有し、これらによる検出結果の差分を出力する。検出器125は、この出力(検出信号)をDAQ(Data Acquisition System)130に送る。
DAQ130には、光源ユニット101からクロックKCが供給される。クロックKCは、光源ユニット101において、波長可変光源により所定の波長範囲内で掃引される各波長の出力タイミングに同期して生成される。光源ユニット101は、例えば、各出力波長の光L0を分岐することにより得られた2つの分岐光の一方を光学的に遅延させた後、これらの合成光を検出した結果に基づいてクロックKCを生成する。DAQ130は、検出器125から入力される検出信号をクロックKCに基づきサンプリングする。DAQ130は、検出器125からの検出信号のサンプリング結果を演算制御ユニット200に送る。
本例では、測定光LSの光路(測定光路、測定アーム)の長さを変更するための光路長変更部41と、参照光LRの光路(参照光路、参照アーム)の長さを変更するためのコーナーキューブ114の双方が設けられているが、光路長変更部41とコーナーキューブ114のいずれか一方のみが設けられもよい。また、これら以外の光学部材を用いて、測定光路長と参照光路長との差を変更することも可能である。
〈制御系〉
眼科撮影装置1の制御系の構成例を図3に示す。制御部210、画像形成部220及びデータ処理部230は、演算制御ユニット200に設けられる。
眼科撮影装置1の制御系の構成例を図3に示す。制御部210、画像形成部220及びデータ処理部230は、演算制御ユニット200に設けられる。
〈制御部210〉
制御部210は、各種の制御を実行する。制御部210は、主制御部211と記憶部212とを含む。
制御部210は、各種の制御を実行する。制御部210は、主制御部211と記憶部212とを含む。
〈主制御部211〉
主制御部211は、眼科撮影装置1の各部(図1〜図3に示された要素を含む)を制御する。なお、図3に示す撮影合焦駆動部31Aは撮影合焦レンズ31を移動し、OCT合焦駆動部43AはOCT合焦レンズ43を移動し、参照駆動部114Aはコーナーキューブ114を移動し、移動機構150は眼底カメラユニット2を3次元的に移動する。
主制御部211は、眼科撮影装置1の各部(図1〜図3に示された要素を含む)を制御する。なお、図3に示す撮影合焦駆動部31Aは撮影合焦レンズ31を移動し、OCT合焦駆動部43AはOCT合焦レンズ43を移動し、参照駆動部114Aはコーナーキューブ114を移動し、移動機構150は眼底カメラユニット2を3次元的に移動する。
〈記憶部212〉
記憶部212は各種のデータを記憶する。記憶部212に記憶されるデータとしては、OCT画像や眼底像や被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者情報や、左眼/右眼の識別情報や、電子カルテ情報などを含む。
記憶部212は各種のデータを記憶する。記憶部212に記憶されるデータとしては、OCT画像や眼底像や被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者情報や、左眼/右眼の識別情報や、電子カルテ情報などを含む。
〈画像形成部220〉
画像形成部220は、DAQ130からの出力(検出信号のサンプリング結果)に基づき画像を形成する。例えば、画像形成部220は、従来のスウェプトソースOCTと同様に、Aライン毎のサンプリング結果に基づくスペクトル分布に信号処理を施してAライン毎の反射強度プロファイルを形成し、これらAラインプロファイルを画像化してスキャンラインに沿って配列する。上記信号処理には、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などが含まれる。
画像形成部220は、DAQ130からの出力(検出信号のサンプリング結果)に基づき画像を形成する。例えば、画像形成部220は、従来のスウェプトソースOCTと同様に、Aライン毎のサンプリング結果に基づくスペクトル分布に信号処理を施してAライン毎の反射強度プロファイルを形成し、これらAラインプロファイルを画像化してスキャンラインに沿って配列する。上記信号処理には、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などが含まれる。
〈データ処理部230〉
データ処理部230は、画像形成部220により形成された画像に対して画像処理や解析処理を施す。例えば、データ処理部230は、ラスタースキャンデータに基づく3次元画像データ(スタックデータ、ボリュームデータ等)の作成、3次元画像データのレンダリング、画像補正、解析アプリケーションに基づく画像解析などを実行する。データ処理部230は、OCTデータ解析部231と撮影データ解析部232とを含む。
データ処理部230は、画像形成部220により形成された画像に対して画像処理や解析処理を施す。例えば、データ処理部230は、ラスタースキャンデータに基づく3次元画像データ(スタックデータ、ボリュームデータ等)の作成、3次元画像データのレンダリング、画像補正、解析アプリケーションに基づく画像解析などを実行する。データ処理部230は、OCTデータ解析部231と撮影データ解析部232とを含む。
〈OCTデータ解析部231〉
OCTデータ解析部231は、複数のスキャンラインに沿う一連のOCTスキャン(後述のユニットスキャン)により収集された一連のデータを解析することで異常の発生を検知する。検知可能な異常の種類は、被検眼Eの変位(固視ズレ等)及び瞬きの発生の少なくとも一方を含む。被検眼Eの変位は、小さな変位及び大きな変位の少なくとも一方を含む。OCTデータ解析部231が実行する処理の内容については後述する。
OCTデータ解析部231は、複数のスキャンラインに沿う一連のOCTスキャン(後述のユニットスキャン)により収集された一連のデータを解析することで異常の発生を検知する。検知可能な異常の種類は、被検眼Eの変位(固視ズレ等)及び瞬きの発生の少なくとも一方を含む。被検眼Eの変位は、小さな変位及び大きな変位の少なくとも一方を含む。OCTデータ解析部231が実行する処理の内容については後述する。
〈撮影データ解析部232〉
撮影データ解析部232は、ユニットスキャンに対応して眼底カメラユニット2により取得された1以上の眼底像を含む2以上の眼底像を解析することで異常を検知する。検知の対象は、例えば、OCTデータ解析部231により発生が検知された異常の量である。また、異常の発生を検知することもできる。撮影データ解析部232が実行する処理の内容については後述する。
撮影データ解析部232は、ユニットスキャンに対応して眼底カメラユニット2により取得された1以上の眼底像を含む2以上の眼底像を解析することで異常を検知する。検知の対象は、例えば、OCTデータ解析部231により発生が検知された異常の量である。また、異常の発生を検知することもできる。撮影データ解析部232が実行する処理の内容については後述する。
〈ユーザインターフェイス240〉
ユーザインターフェイス240は表示部241と操作部242とを含む。表示部241は表示装置3を含む。操作部242は各種の操作デバイスや入力デバイスを含む。ユーザインターフェイス240は、例えばタッチパネルのような表示機能と操作機能とが一体となったデバイスを含んでいてもよい。ユーザインターフェイス240の少なくとも一部を含まない実施形態を構築することも可能である。例えば、表示デバイスは、眼科撮影装置に接続された外部装置であってよい。
ユーザインターフェイス240は表示部241と操作部242とを含む。表示部241は表示装置3を含む。操作部242は各種の操作デバイスや入力デバイスを含む。ユーザインターフェイス240は、例えばタッチパネルのような表示機能と操作機能とが一体となったデバイスを含んでいてもよい。ユーザインターフェイス240の少なくとも一部を含まない実施形態を構築することも可能である。例えば、表示デバイスは、眼科撮影装置に接続された外部装置であってよい。
〈スキャンモード及び異常の検知〉
本実施形態において適用されるOCTスキャンモードと、OCTデータ解析部231及び撮影データ解析部232が実行する処理について説明する。
本実施形態において適用されるOCTスキャンモードと、OCTデータ解析部231及び撮影データ解析部232が実行する処理について説明する。
本例では3次元スキャン(ラスタースキャン)が適用される。3次元スキャンは、互いに平行な複数のスキャンラインに沿ったスキャンである。本例の3次元スキャンを図4A及び図4Bに示す。
図4Bに示すように、本例の3次元スキャンは320本のスキャンラインL1〜L320に対して実行される。1本のスキャンラインLi(i=1〜320)に沿った1回のスキャンをBスキャンと呼ぶ。1つのBスキャンは320個のAスキャンからなる(図4Aを参照)。Aスキャンは1つのAラインに対するスキャンである。つまり、Aスキャンは、測定光LSの入射方向(z方向、深さ方向)に沿うAラインに対するスキャンである。Bスキャンは、z方向に直交するxy面上のスキャンラインLiに沿って配列された320個のAラインスキャンからなる。
3次元スキャンでは、スキャンラインL1〜L320に対するBスキャンをその配列順序に応じて4回ずつ実行する。各スキャンラインLiに対する4回のBスキャンをレペティションスキャンと呼ぶ。スキャンラインL1〜L320は、配列順序に応じて5本ずつの組に分類されている。この分類により得られる64個の組をユニットと呼び、各ユニットに対するスキャンをユニットスキャンと呼ぶ。ユニットスキャンは、5本のスキャンラインのそれぞれに対する4回のBスキャン(つまり、全20回のBスキャン)からなる。
本例の異常検知処理はユニット毎に実行される。3次元スキャンの間に異常が検知されない場合、図4Aに示す時間的順序で320×4×5×64回のAスキャンが実行され、4×5×64枚のBスキャン像が取得される。異常が検知された場合には、後述のように、異常発生時のユニットに対するスキャンが再度実行される。
実施形態は、例えば次のいずれかを検知する。
(1)瞬き
(2)比較的大きな固視ズレ(被検眼Eの大きな変位)
(3)比較的小さな固視ズレ(被検眼Eの小さな変位)
(4)被検眼Eの変位の有無を判定できないこと
(5)被検眼Eの変位の量(変位方向を含む)
(1)瞬き
(2)比較的大きな固視ズレ(被検眼Eの大きな変位)
(3)比較的小さな固視ズレ(被検眼Eの小さな変位)
(4)被検眼Eの変位の有無を判定できないこと
(5)被検眼Eの変位の量(変位方向を含む)
(1)〜(3)はOCTデータに基づき検知され、(4)及び(5)は正面画像(眼底像)に基づき検知される。本実施形態は、OCTと眼底撮影とを組み合わせることで、次のような利点を奏する。第1に、赤外眼底観察画像を利用して異常を検知する従来の技術では更新速度(フレームレート)の遅さから検知漏れが起こる可能性が少なからずあるが、本実施形態では更新速度(Bスキャンの反復レート)の速いOCTを利用するため検知漏れが起こる可能性はほぼない。第2に、OCTのみでは被検眼の変位量を求めることはできないが、本実施形態では、正面画像の解析で変位量を求めてスキャン位置を補正(トラッキング)することができる。第3に、OCTデータと正面画像とを或るタイミングで同時に取得した場合でも、実際は僅かな時間差が介在するため、一方の解析結果を他方の確認に利用することはできないが、本実施形態では、1つのユニットスキャンの間に発生した異常をOCTにて検知し、ユニットスキャンを開始した後に得られた正面画像から変位量を検知することができる。
〈OCTデータ解析部231が実行する処理〉
OCTデータ解析部231が実行する処理の例を説明する。前述したように、OCTデータ解析部231は、1つのユニットスキャンにより収集された一連のデータ(干渉信号)を解析することで異常の発生を検知する。OCTデータ解析部231は、各Bスキャンデータに含まれる各Aスキャンデータ(干渉信号)を解析して、その信号波形の特徴を表す特徴値を求める。この特徴値は、例えば、信号波形における所定の特徴点の個数である。この特徴点は、例えば、信号波形における折り返し点(極値を取る点、例えば上に凸のピーク点)、或いは、振幅がゼロである点(ゼロクロス点)である。OCTデータ解析部231は、Aスキャンデータにおける特徴点を特定し、その個数をカウントする。当該Bスキャンデータに含まれる320個のAスキャンデータのそれぞれについて上記処理を実行する。それにより、当該Bスキャンに関する320個の特徴値が得られる。これら320個の特徴値の集合を当該Bスキャンの特性情報と呼ぶ。このような処理を、当該ユニットスキャンにて得られた20個のBスキャンデータのそれぞれについて実行する。それにより、当該ユニットスキャンに関する20個の特性情報が得られる。更に、OCTデータ解析部231は、2つの特性情報の誤差を算出し、この誤差に基づき異常の有無を検知する。ここで算出される誤差は、例えば相関係数又は平均自乗誤差である。
OCTデータ解析部231が実行する処理の例を説明する。前述したように、OCTデータ解析部231は、1つのユニットスキャンにより収集された一連のデータ(干渉信号)を解析することで異常の発生を検知する。OCTデータ解析部231は、各Bスキャンデータに含まれる各Aスキャンデータ(干渉信号)を解析して、その信号波形の特徴を表す特徴値を求める。この特徴値は、例えば、信号波形における所定の特徴点の個数である。この特徴点は、例えば、信号波形における折り返し点(極値を取る点、例えば上に凸のピーク点)、或いは、振幅がゼロである点(ゼロクロス点)である。OCTデータ解析部231は、Aスキャンデータにおける特徴点を特定し、その個数をカウントする。当該Bスキャンデータに含まれる320個のAスキャンデータのそれぞれについて上記処理を実行する。それにより、当該Bスキャンに関する320個の特徴値が得られる。これら320個の特徴値の集合を当該Bスキャンの特性情報と呼ぶ。このような処理を、当該ユニットスキャンにて得られた20個のBスキャンデータのそれぞれについて実行する。それにより、当該ユニットスキャンに関する20個の特性情報が得られる。更に、OCTデータ解析部231は、2つの特性情報の誤差を算出し、この誤差に基づき異常の有無を検知する。ここで算出される誤差は、例えば相関係数又は平均自乗誤差である。
(1)瞬きの検知
1つのユニットスキャンに含まれる各スキャンラインについて、OCTデータ解析部231は、このスキャンラインのレペティションスキャンに基づく4つの特性情報の異なる組み合わせからなる複数のペアの相関係数を算出する。ここで考慮される複数のペアは、例えば、第1特性情報と第2特性情報とのペア、第2特性情報と第3特性情報とのペア、及び、第3特性情報と第4特性情報とのペアである。OCTデータ解析部231は、算出された相関係数が所定の閾値未満であるか否か判定する。相関係数が閾値未満である場合、このスキャンラインのレペティションスキャンの間に瞬きが発生したと判定される。
1つのユニットスキャンに含まれる各スキャンラインについて、OCTデータ解析部231は、このスキャンラインのレペティションスキャンに基づく4つの特性情報の異なる組み合わせからなる複数のペアの相関係数を算出する。ここで考慮される複数のペアは、例えば、第1特性情報と第2特性情報とのペア、第2特性情報と第3特性情報とのペア、及び、第3特性情報と第4特性情報とのペアである。OCTデータ解析部231は、算出された相関係数が所定の閾値未満であるか否か判定する。相関係数が閾値未満である場合、このスキャンラインのレペティションスキャンの間に瞬きが発生したと判定される。
一般に、瞬きが発生している間に取得された干渉信号はノイズ成分のみとなり、相関係数はほぼゼロになる。上記した瞬きの検知は、このような現象を利用した処理である。
(2)比較的大きな固視ズレの検知
1つのユニットスキャンに含まれる各スキャンラインについて、OCTデータ解析部231は、このスキャンラインのレペティションスキャンに基づく4つの特性情報の異なる組み合わせからなる複数のペアのそれぞれの平均自乗誤差を算出する。ここで考慮される複数のペアは、例えば、4つの特性情報から2つを選択する組み合わせの全て(4C2=6個)である。OCTデータ解析部231は、算出された誤差が所定の閾値を超えるか否か判定する。算出された誤差が所定の閾値を超える場合、このスキャンラインのレペティションスキャンの間に被検眼Eが変位した(固視ズレが発生した)と判定される。
1つのユニットスキャンに含まれる各スキャンラインについて、OCTデータ解析部231は、このスキャンラインのレペティションスキャンに基づく4つの特性情報の異なる組み合わせからなる複数のペアのそれぞれの平均自乗誤差を算出する。ここで考慮される複数のペアは、例えば、4つの特性情報から2つを選択する組み合わせの全て(4C2=6個)である。OCTデータ解析部231は、算出された誤差が所定の閾値を超えるか否か判定する。算出された誤差が所定の閾値を超える場合、このスキャンラインのレペティションスキャンの間に被検眼Eが変位した(固視ズレが発生した)と判定される。
平均自乗誤差の代わりに相関係数を適用することもできる。また、1つのユニットスキャンで得られる20個のBスキャンデータが必要な下記(3)と異なり、この検知処理(2)はその一部しか使用しないため、固視ズレを早期に発見できるという利点がある。なお、検知処理(2)及び(3)の一方のみを実行するよう構成することも可能である。
(3)比較的小さな固視ズレの検知
1つのユニットスキャンに含まれる各スキャンラインについて、OCTデータ解析部231は、このスキャンラインのレペティションスキャンに基づく4つの特性情報の異なる組み合わせからなる複数のペアのそれぞれの平均自乗誤差を算出し、算出された複数の平均自乗誤差のうちの最大値と最小値を特定する。ここで考慮される複数のペアは、例えば、4つの特性情報から2つを選択する組み合わせの全てである。
1つのユニットスキャンに含まれる各スキャンラインについて、OCTデータ解析部231は、このスキャンラインのレペティションスキャンに基づく4つの特性情報の異なる組み合わせからなる複数のペアのそれぞれの平均自乗誤差を算出し、算出された複数の平均自乗誤差のうちの最大値と最小値を特定する。ここで考慮される複数のペアは、例えば、4つの特性情報から2つを選択する組み合わせの全てである。
OCTデータ解析部231は、このユニットスキャンの対象である5つのスキャンラインについて特定された5つの最大値及び5つの最小値のうちから、最大値と最小値を特定する。ここで特定される最大値及び最小値は、それぞれ、上記5つの最大値のうちの最大値、及び、上記5つの最小値のうちの最小値である。OCTデータ解析部231は、このユニットスキャンに対応する最大値と最小値との差を算出し、この差が所定の閾値を超えるか否か判定する。差が閾値を超える場合、このユニットスキャンの間に被検眼Eが変位した(固視ズレが発生した)と判定される。
レペティションスキャンのうちの1つのBスキャンの間に固視ズレが発生した場合、平均自乗誤差の最大値と最小値との差が大きくなる。これに対し、満遍なく固視ズレが発生した場合、最大値と最小値との差は小さくなる。この検知処理(3)では、ユニットスキャンに含まれる各レペティションスキャンに対応する平均自乗誤差を比較することで、異常の検知漏れの回避を図っている。
上記の例では、4つの特性情報の全ての組み合わせ(6個)のペアを考慮して平均自乗誤差の最大値を求めているが、これには限定されない。例えば、レペティションスキャンに含まれる4つのBスキャンのいずれかを冗長化のためのスキャンとみなし、外れ値を与えるBスキャンを除外して最大値を求めることができる。レペティションスキャンは極めて短い時間で行われるため、平均自乗誤差の値を悪化させる要因は、固視ズレではなく、ノイズの混入と考えられる。この変形例によれば、ノイズの混入による異常の誤検知を防止することができる。
〈撮影データ解析部232が実行する処理〉
撮影データ解析部232が実行する処理の例を説明する。前述したように、撮影データ解析部232は、ユニットスキャンに対応して眼底カメラユニット2により取得された1以上の眼底像を含む2以上の眼底像を解析することで異常を検知する。
撮影データ解析部232が実行する処理の例を説明する。前述したように、撮影データ解析部232は、ユニットスキャンに対応して眼底カメラユニット2により取得された1以上の眼底像を含む2以上の眼底像を解析することで異常を検知する。
解析される2以上の眼底像は、このユニットスキャンの開始から終了までの間に取得された眼底像を少なくとも1つ含む。本例では、上記の3次元スキャンと並行して赤外眼底観察画像が取得される。赤外眼底観察画像は、既定のフレームレートの動画像である。フレームレートは、各ユニットスキャンの間に少なくとも1枚のフレームが得られるように設定される。つまり、赤外眼底観察画像のフレームレートと、OCTのスキャン条件(スキャンレート、スキャンラインの総数、レペティションスキャンの反復回数、ユニットスキャンに含まれるスキャンラインの本数等)とは、各ユニットスキャンに少なくとも1枚のフレームが得られるように設定される。
撮影データ解析部232は、異なるタイミングで取得された2枚の正面画像(赤外眼底観察画像のフレーム)を解析することで、これら正面画像に描出されている眼底Efの変位量(変位方向を含む)を算出する。この解析では、例えば、従来と同様に、正規化相関法等のパターンマッチングや、位相限定相関法(POC)が用いられる。比較される2枚のフレームのうちの1枚は、例えば、撮影開始時(例えばOCTスキャンの開始時)に取得された基準画像(ベースライン画像)である。この場合、撮影データ解析部232は、新たに取得された正面画像(或るユニットスキャンの間に取得されたフレーム)と、この基準画像との間の変位量を算出する。
(4)固視ズレの有無を判定できないことの検知
2枚の正面画像に描出されている眼底Efの範囲が全く異なる場合や、フォーカスがずれた場合など、眼底Efの変位量を求めることができないケースがある。このような異常を検知するために、例えば次の処理を実行することが可能である。撮影データ解析部232は、新たに取得された正面画像と基準画像との正規化相関値を求める。この正規化相関値が所定の閾値未満である場合、異常が発生したと判定する。
2枚の正面画像に描出されている眼底Efの範囲が全く異なる場合や、フォーカスがずれた場合など、眼底Efの変位量を求めることができないケースがある。このような異常を検知するために、例えば次の処理を実行することが可能である。撮影データ解析部232は、新たに取得された正面画像と基準画像との正規化相関値を求める。この正規化相関値が所定の閾値未満である場合、異常が発生したと判定する。
ここで、赤外眼底観察画像と異なる画像を利用することも可能である。例えば、レペティションスキャンにより得られた複数のBスキャン像の間の位相の時間変化を表す位相画像を作成し、このような位相画像の間の相関を利用することができる。また、可視光をフラッシュ発光して得られた眼底像(上記の撮影画像等)や、蛍光画像を用いることも可能である。
相関値の大きさの判定に用いられる閾値は任意の手法で設定される。例えば、白内障等により混濁が生じている被検眼では相関値が低くなることなどを考慮して閾値を設定することができる。また、この検知処理(4)において所定回数連続して異常が検知された場合(エラー判定がなされた場合)、閾値を連続的又は段階的に低下させることが可能である。
(5)固視ズレの量(方向)の検知
上記のように、撮影データ解析部232は、2つの正面画像の間の変位量(被検眼Eの変位量)を算出することができる。この処理は、例えば、OCTデータ解析部231によって変位の発生が検知されたときに実行される。それにより、OCTデータを利用して変位の発生の検知を実行しつつ、検知された変位の量を赤外眼底観察画像等から求めることができる。
上記のように、撮影データ解析部232は、2つの正面画像の間の変位量(被検眼Eの変位量)を算出することができる。この処理は、例えば、OCTデータ解析部231によって変位の発生が検知されたときに実行される。それにより、OCTデータを利用して変位の発生の検知を実行しつつ、検知された変位の量を赤外眼底観察画像等から求めることができる。
主制御部211は、算出された変位量をOCTスキャンにフィードバックすることができる。例えば、記憶部212は、基準画像が取得されたときの光スキャナ42の制御情報や、各ユニットスキャンにおける光スキャナ42の制御情報を記憶している。制御情報は、例えば、Bスキャンに対応する座標群を含む。主制御部211は、撮影データ解析部232により算出された変位量で上記制御情報を補正し、補正された制御情報を用いて、変位が検知されたユニットスキャンを再度実行させることができる。また、最新の正面画像と基準画像との間の変位量を求め、これを制御情報に反映してユニットスキャンを実行することができる。更に、このユニットスキャンに対応する正面画像と基準画像との変位量を求め、この変位量と制御情報(座標群)との差が所定の閾値以上であるか判定することによって異常を検知することができる。このときの閾値は、例えば、0.5ピクセル分、0.7ピクセル分、又は1.0ピクセル分に設定される。
〈動作〉
眼科撮影装置1の動作について説明する。動作の一例を図5に示す。
眼科撮影装置1の動作について説明する。動作の一例を図5に示す。
(撮影の準備)
まず、撮影の準備が行われる。検者は、眼科撮影装置1を起動し、上記の3次元スキャンを実行するためのキー(グラフィカルユーザインターフェイスのアイコン等)を操作すると、主制御部211は、ライブOCT画像で眼底Efを観察するための画面を表示部241に表示させる。検者は、操作部242(例えばジョイスティック)を用いて装置本体(眼底カメラユニット2等)を顎受け等から離れる方向に移動する。それにより、前眼部の観察が可能となる。
まず、撮影の準備が行われる。検者は、眼科撮影装置1を起動し、上記の3次元スキャンを実行するためのキー(グラフィカルユーザインターフェイスのアイコン等)を操作すると、主制御部211は、ライブOCT画像で眼底Efを観察するための画面を表示部241に表示させる。検者は、操作部242(例えばジョイスティック)を用いて装置本体(眼底カメラユニット2等)を顎受け等から離れる方向に移動する。それにより、前眼部の観察が可能となる。
図示しない椅子に被検者を座らせ、顎受けに顎を載置させ、額当てに額を当接させる。検者は、被検者の座高に合わせて顎受け等の高さを調整する。所定の操作を受けて、主制御部211は、観察光源11を点灯させ、イメージセンサ35からの出力に基づく観察画像(前眼部観察画像)を表示部241に表示させる。検者(又は眼科撮影装置1)は、観察画像のフレームの中心に瞳孔が描出されるように装置本体の位置を調整する。この位置調整が完了したら、検者(又は眼科撮影装置1)は、装置本体を被検眼Eに近接させていく。それにより、観察対象が前眼部から眼底Efに切り替えられ、眼底Efの観察画像が表示部241に表示される。
この段階又はそれ以前の段階において、主制御部211は、アライメント光学系50を制御してアライメント指標(2つのアライメント輝点)の投影を開始する。観察画像には、2つのアライメント輝点像が描出される。検者(又は眼科撮影装置1)は、フレームの中心に提示されたターゲット(括弧マーク等)内に2つのアライメント輝点像が重なって描出されるように、装置本体の位置を調整する。
この位置調整が完了すると、OCTを実行するための各種設定の最適化が実行される。この段階又はそれ以前の段階において、主制御部211は、フォーカス光学系60を制御してスプリット指標の投影を開始する。この最適化では、光路長の調整(例えば、光路長変更部41及びコーナーキューブ114の少なくとも一方の位置の調整)、偏光状態の調整(例えば、偏波コントローラ103及び118の少なくとも一方の制御)、光量の調整(例えば、アッテネータ120の制御)、フォーカスの調整(例えば、OCT合焦レンズ43の位置の調整)などが実行される。
最適化の完了後、検者(又は眼科撮影装置1)は、フレア混入等の問題が観察画像に発生していないか確認する。問題が発生していないことが確認されたら、検者は、操作部242を用いて、撮影を開始するための操作を行う。撮影の開始を受けて、主制御部211は、OCTによる現在のスキャン位置を表す画像を観察画像にオーバレイすることができる。
(S11:基準画像を取得する)
主制御部211は、この段階で得られた観察画像のフレーム(正面画像)を基準画像として登録する。撮影データ解析部232は、この基準画像と、その後に取得されたフレームとの変位を検知する処理を開始する。瞬きや固視ズレの影響によって変位が閾値を超えた場合や変位の検知が不可能になった場合、主制御部211は、新たに取得されたフレームを新たな基準画像として登録する。
主制御部211は、この段階で得られた観察画像のフレーム(正面画像)を基準画像として登録する。撮影データ解析部232は、この基準画像と、その後に取得されたフレームとの変位を検知する処理を開始する。瞬きや固視ズレの影響によって変位が閾値を超えた場合や変位の検知が不可能になった場合、主制御部211は、新たに取得されたフレームを新たな基準画像として登録する。
基準画像が登録されると、撮影データ解析部232は、その後に取得されるフレームと基準画像との変位を逐次に算出する。主制御部211は、逐次に算出される変位をキャンセルするように光スキャナ42の向きを補正する。この処理は、従来のトラッキングと同じ要領で実行されてよい。なお、光スキャナ42の向きの補正は、1つのレペティションスキャンが実行されている間には行われず、その完了後に行われる。
なお、基準画像を登録する方法やタイミングはこれには限定されない。例えば、後段の処理のいずれかのタイミングにおいて任意の方法で基準画像を登録することができる。また、任意の方法及び任意のタイミング(任意の条件)で基準画像を更新することが可能である。
(S12:撮影位置を決定する)
主制御部211は、OCTによるスキャン位置(撮影位置)を決定する。撮影開始直後の段階では、3次元スキャンの対象となる範囲が設定される。ここで図6を参照する。符号Fは観察画像のフレームを示し、符号Rは3次元スキャンのスキャンエリアを示す。また、スキャンエリアRは、64個のユニットスキャンエリアU1〜U64に分割されている。ユニットスキャンエリアU1〜U64は、それぞれ、図4Aに示すユニットスキャン「#1 Unit scan」〜「#64 Unit scan」に相当する。撮影開始直後の段階では、このスキャンエリアRが設定される。
主制御部211は、OCTによるスキャン位置(撮影位置)を決定する。撮影開始直後の段階では、3次元スキャンの対象となる範囲が設定される。ここで図6を参照する。符号Fは観察画像のフレームを示し、符号Rは3次元スキャンのスキャンエリアを示す。また、スキャンエリアRは、64個のユニットスキャンエリアU1〜U64に分割されている。ユニットスキャンエリアU1〜U64は、それぞれ、図4Aに示すユニットスキャン「#1 Unit scan」〜「#64 Unit scan」に相当する。撮影開始直後の段階では、このスキャンエリアRが設定される。
(S13:1ユニット分のOCTを実行する)
主制御部211は、ステップS12で決定された撮影位置に基づいてOCTスキャンを実行する。撮影開始直後の段階では、スキャンエリアRに対する3次元スキャンが、第1ユニットスキャンエリアU1に対するスキャン(図4Aに示す「#1 Unit scan」)から開始される。また、OCTと並行して眼底Efの赤外動画撮影が所定のフレームレートで実行される。
主制御部211は、ステップS12で決定された撮影位置に基づいてOCTスキャンを実行する。撮影開始直後の段階では、スキャンエリアRに対する3次元スキャンが、第1ユニットスキャンエリアU1に対するスキャン(図4Aに示す「#1 Unit scan」)から開始される。また、OCTと並行して眼底Efの赤外動画撮影が所定のフレームレートで実行される。
(S21:OCTデータ・正面画像を取得する)
主制御部211は、ステップS13において1つのユニットスキャンエリアに対するOCTスキャンにより収集されたデータと、このユニットスキャンと並行して取得された観察画像のフレームとを、データ処理部230に送る。撮影開始直後の段階では、データ処理部230は、第1ユニットスキャンエリアU1に対する第1ユニットスキャン(「#1 Unit scan」)にて収集されたBスキャン20回分のOCTデータと、この第1ユニットスキャンと並行して取得された観察画像のフレームとを取得する。なお、ステップS13で開始されたOCTスキャン及び赤外動画撮影は、ステップS21〜S25の異常検知処理と並行して実行される。
主制御部211は、ステップS13において1つのユニットスキャンエリアに対するOCTスキャンにより収集されたデータと、このユニットスキャンと並行して取得された観察画像のフレームとを、データ処理部230に送る。撮影開始直後の段階では、データ処理部230は、第1ユニットスキャンエリアU1に対する第1ユニットスキャン(「#1 Unit scan」)にて収集されたBスキャン20回分のOCTデータと、この第1ユニットスキャンと並行して取得された観察画像のフレームとを取得する。なお、ステップS13で開始されたOCTスキャン及び赤外動画撮影は、ステップS21〜S25の異常検知処理と並行して実行される。
(S22:異常の発生を検知する処理を実行する)
OCTデータ解析部231は、被検眼Eの変位や瞬き等の異常の発生を検知するための処理を実行する。例えば、OCTデータ解析部231は、上記した検知処理(1)〜(3)のいずれかを実行する。また、撮影データ解析部232は、例えば検知処理(4)を実行して異常の発生を検知する。
OCTデータ解析部231は、被検眼Eの変位や瞬き等の異常の発生を検知するための処理を実行する。例えば、OCTデータ解析部231は、上記した検知処理(1)〜(3)のいずれかを実行する。また、撮影データ解析部232は、例えば検知処理(4)を実行して異常の発生を検知する。
(S23:異常の発生を検知したか?)
ステップS22において異常の発生が検知されなかった場合(S23:No)、つまり、当該ユニットスキャンの間に異常が発生しなかったと判断された場合、処理はステップS25に移行する。一方、当該ユニットスキャンの間に発生した異常が検知された場合(S23:Yes)、処理はステップS24に移行する。
ステップS22において異常の発生が検知されなかった場合(S23:No)、つまり、当該ユニットスキャンの間に異常が発生しなかったと判断された場合、処理はステップS25に移行する。一方、当該ユニットスキャンの間に発生した異常が検知された場合(S23:Yes)、処理はステップS24に移行する。
(S24:異常の量を検知する)
ステップS22において異常の発生が検知された場合(S23:Yes)、撮影データ解析部232は、例えば検知処理(5)を実行することで、被検眼Eの変位の量(変位方向及び変位量)を求める。そして、処理はステップS25に移行する。
ステップS22において異常の発生が検知された場合(S23:Yes)、撮影データ解析部232は、例えば検知処理(5)を実行することで、被検眼Eの変位の量(変位方向及び変位量)を求める。そして、処理はステップS25に移行する。
ステップS22〜S24の異常検知処理は、例えば次のようにして実行される。まず、検知処理(1)を実行する。具体的には、OCTデータ解析部231は、当該ユニットスキャンの最初の4つのBスキャンで得られたOCTデータに基づいて前述の特性情報を求め、それらの相関係数を算出する。この相関係数が閾値未満である場合、異常が発生したと判定し、異常の発生を検知するための他の処理をスキップしてステップS24へ進む。
検知処理(1)で異常の発生が検知されなかった場合、検知処理(2)に移行する。具体的には、OCTデータ解析部231は、レペティションスキャンに基づく4つの特性情報の全ての組み合わせからなる6つのペアのそれぞれの平均自乗誤差を算出し、平均自乗誤差が閾値を超えるか否か判定する。平均自乗誤差が閾値を超える場合、異常が発生したと判定し、異常の発生を検知するための他の処理をスキップしてステップS24へ進む。このとき、平均自乗誤差の最大値及び最小値を保持しておく。
検知処理(2)で異常の発生が検知されなかった場合、当該ユニットスキャンに含まれる他のスキャンラインに対応する4つのBスキャンデータについて、検知処理(1)及び(2)を実行する。
当該ユニットスキャンで得られたBスキャン20回分のOCTデータに基づく検知処理(1)及び(2)が完了したら、検知処理(3)に移行する。具体的には、OCTデータ解析部231は、当該ユニットスキャンの対象である5つのスキャンラインについて特定された5つの最大値及び5つの最小値のうちから、最大値と最小値を特定し、これらの差を算出する。この差が閾値を超える場合、異常が発生したと判定し、異常の発生を検知するための他の処理をスキップしてステップS24へ進む。
検知処理(1)〜(3)のいずれでも異常が検知されなかった場合であって、この段階にて基準画像が登録されていない場合、当該ユニットスキャンの最後のBスキャン(20番目のBスキャン)に対応するタイミングで取得された観察画像(フレーム)を基準画像として採用することができる。
検知処理(1)〜(3)のいずれでも異常が検知されなかった場合、検知処理(4)に移行する。具体的には、撮影データ解析部232は、当該ユニットスキャンの間に取得されたフレームのそれぞれと基準画像とに対して正規化相関法や位相限定相関法を適用することで(或いは、位相画像の相関演算等を実行することで)、異常の発生を検知する。検知処理(1)〜(4)のいずれでも異常が検知されなかった場合(S23:No)、処理はステップS25に移行する。
検知処理(1)〜(4)のいずれでも異常が検知されなかった場合であって、複数のフレームについて基準画像との変位が算出された場合、次の処理を実行することができる:算出された複数の変位の間の差を算出する;この差が(トラッキングによるスキャン位置の補正量を加味して)x方向及びy方向の少なくとも一方に閾値(例えば0.5ピクセル)以上ずれているか判定する:差が閾値以上であると判定された場合、異常が発生したと判定する。
一方、上記のいずれかの処理において異常が検知された場合(S23:Yes)、処理はステップS24に移行する。ステップS24では、例えば検知処理(5)が実行される。具体的には、撮影データ解析部232が、観察画像のフレームと基準画像との間の変位量を算出する。
(S25:検知結果を保存する)
データ処理部230により取得された異常の検知結果は記憶部212に保存される。ステップS22において異常の発生が検知されなかった場合(S23:No)、その旨を示す情報が検知結果として保存される。
データ処理部230により取得された異常の検知結果は記憶部212に保存される。ステップS22において異常の発生が検知されなかった場合(S23:No)、その旨を示す情報が検知結果として保存される。
一方、ステップS22において異常の発生が検知され(S23:No)、かつ、この異常の量が検知された場合(S24)、例えば、異常が検知されたことを示す情報、検知された異常の種別を示す情報、検知された異常の量を示す情報などが検知結果として保存される。
(S14:検知結果を確認する)
主制御部211は、ステップS25で保存された検知結果を確認(参照)して異常の有無やその量を認識する。
主制御部211は、ステップS25で保存された検知結果を確認(参照)して異常の有無やその量を認識する。
(S15:異常無し?)
異常が検知されなかった場合(S15:Yes)、処理はステップS16に移行する。一方、異常が検知された場合(S15:No)、処理はステップS12に戻る。このとき、異常が検知されたユニットスキャンの最初の位置にスキャン位置を戻すように撮影位置が決定される(S12)。また、検知された変位をキャンセルするように撮影位置を補正することができる。
異常が検知されなかった場合(S15:Yes)、処理はステップS16に移行する。一方、異常が検知された場合(S15:No)、処理はステップS12に戻る。このとき、異常が検知されたユニットスキャンの最初の位置にスキャン位置を戻すように撮影位置が決定される(S12)。また、検知された変位をキャンセルするように撮影位置を補正することができる。
(S16:最終ユニットか?)
異常が検知されなかった場合(S15:Yes)であって、当該ユニットスキャンが最後のユニットスキャンエリアU64のOCTスキャンである場合(S16:Yes)、処理はステップS17に移行する。
異常が検知されなかった場合(S15:Yes)であって、当該ユニットスキャンが最後のユニットスキャンエリアU64のOCTスキャンである場合(S16:Yes)、処理はステップS17に移行する。
一方、当該ユニットが最後のユニットスキャンエリアU64のOCTスキャンでない場合(S16:No)、処理はステップS12に戻る。このとき、当該ユニットスキャンのユニットスキャンエリアの次のユニットスキャンエリア(又は、現にユニットスキャンが実行されているユニットスキャンエリアの次のユニットスキャンエリア)が撮影位置として設定される(S12)。このとき、検知された変位をキャンセルするように撮影位置を補正することができる。
(S17:異常無し?)
当該ユニットスキャンが最後のユニットスキャンエリアU64のOCTスキャンである場合(S16:Yes)、処理はこのステップS17に移行する。最後のユニットスキャン(図4Aに示す「#64 Unit scan」)において異常が検知された場合(S17:No)、処理はステップS12に戻る。このとき、最後のユニットスキャンの最初の位置にスキャン位置を戻すように撮影位置が決定される(S12)。また、検知された変位をキャンセルするように撮影位置を補正することができる。
当該ユニットスキャンが最後のユニットスキャンエリアU64のOCTスキャンである場合(S16:Yes)、処理はこのステップS17に移行する。最後のユニットスキャン(図4Aに示す「#64 Unit scan」)において異常が検知された場合(S17:No)、処理はステップS12に戻る。このとき、最後のユニットスキャンの最初の位置にスキャン位置を戻すように撮影位置が決定される(S12)。また、検知された変位をキャンセルするように撮影位置を補正することができる。
一方、最後のユニットスキャンにおいて異常が検知されなかった場合(S17:Yes)、本撮影は終了となる。このような撮影モードによれば、複数のユニットスキャンエリアU1〜U64を順次にスキャンしつつ、異常が発生したときにはそのユニットスキャンエリアに戻って再度スキャンを実行することができる。
〈作用・効果〉
実施形態に係る眼科撮影装置の作用及び効果について説明する。
実施形態に係る眼科撮影装置の作用及び効果について説明する。
実施形態の眼科撮影装置は、データ収集部、撮影部、制御部、及び異常検知部を備える。データ収集部は、光コヒーレンストモグラフィ(OCT)を用いて被検眼をスキャンすることによりデータを収集する。データ収集部は、例えば、OCTユニット100と、測定光路を形成する眼底カメラユニット2内の要素とを含む。撮影部は、被検眼を撮影して正面画像を取得する。撮影部は、例えば、照明光学系10と撮影光学系30とを含む。制御部は、予め設定された経路群に沿って一連のスキャンを行うようにデータ収集部を制御する。制御部は、例えば主制御部211を含む。上記の実施形態では、この一連のスキャンとして、5つのスキャンラインからなる経路群に沿ったユニットスキャンが実行される。異常検知部は、一連のスキャンにより収集された一連のデータと、この一連のスキャンに対応して撮影部により取得された1以上の正面画像を含む2以上の正面画像とに基づいて異常を検知する。2以上の正面画像のうちの1つは基準画像であってよい。異常の検知は、異常の発生の検知及び異常の量の検知の少なくとも一方を含んでよい。
このように構成された実施形態によれば、ビデオカメラのフレームレートよりも繰り返しレートが十分に高いOCTスキャンを利用して被検眼の移動や瞬きを検知することができる。また、被検眼の移動や瞬きの発生の検知や、被検眼の移動量を正面画像から検知することができる。したがって、被検眼の移動や瞬きが発生した場合であっても高確度のOCT画像を取得することが可能となる。
実施形態において、異常検知部は、OCTを用いた一連のスキャンで収集された一連のデータに基づいて異常の発生を検知する第1異常検知部と、撮影部により得られた2以上の正面画像に基づいて異常の量を検知する第2異常検知部とを含んでいてよい。例えば、第1異常検知部はOCTデータ解析部231を含み、第2異常検知部は撮影データ解析部232を含む。更に、第1異常検知部により異常の発生が検知されたときに、第2異常検知部が当該異常の量を検知するように構成してよい。
実施形態において、OCTを用いた一連のスキャンは、上記経路群に対して順次に且つ所定回数ずつ実行されるスキャン(レペティションスキャン)を含んでよい。また、一連のデータは、この経路群に含まれるそれぞれの経路に対応する所定個数のデータセット(各スキャンラインのレペティションスキャンにより得られる複数のBスキャンデータ)を含んでよい。更に、第1異常検知部は、所定個数のデータセットのそれぞれの特性情報を求め、この特性情報に基づいて異常の発生を検知するように構成されてよい。
実施形態において、第1異常検知部は、上記経路群のそれぞれの経路について、所定個数の特性情報の異なる組み合わせからなる複数のペアのそれぞれの誤差(平均自乗誤差等)を算出し、算出された複数の誤差のうちの最大値及び最小値を特定するよう構成されてよい。更に、第1異常検知部は、この経路群について特定された複数の最大値及び複数の最小値のうちの最大値と最小値との差が閾値を超える場合、この一連のスキャンの間に異常が発生したと判定することができる。この処理の例として、上記実施形態における検知処理(3)がある。
実施形態において、第1異常検知部は、上記経路群のそれぞれの経路について、所定個数の特性情報の異なる組み合わせからなる複数のペアのそれぞれの誤差(平均自乗誤差等)を算出するよう構成されてよい。更に、第1異常検知部は、算出された誤差が閾値を超える場合、当該経路に対するスキャンの間に異常が発生したと判定することができる。この処理の例として、上記実施形態における検知処理(2)がある。
実施形態において、第1異常検知部は、上記経路群のそれぞれの経路について、所定個数の特性情報の異なる組み合わせからなる複数のペアの相関係数を算出し、算出された相関係数が閾値未満である場合、当該経路に対するスキャンの間に異常が発生したと判定するよう構成されてよい。この処理の例として、上記実施形態における検知処理(1)がある。
実施形態において、第1異常検知部は、前述した所定個数のデータセット(各スキャンラインのレペティションスキャンにより得られる複数のBスキャンデータ)のそれぞれについて、このデータセットに含まれる複数のAスキャンデータのそれぞれを解析して信号波形の特徴を表す特徴値を求め、求められた複数の特徴値に基づいて特性情報を求めるように構成されていてよい。この特徴値は、この信号波形における所定の特徴点の個数であってよい。この特徴点は極値点又はゼロクロス点であってよい。
実施形態において、第2異常検知部は、2以上の正面画像の間の変位を異常の量として検知するように構成されていてよい。更に、第2異常検知部は、位相限定相関法を用いて2以上の正面画像の間の変位を算出することができる。
実施形態において、異常検知部は、正面画像に基づいて異常の発生を検知する第3異常検知部を含んでいてよい。第3異常検知部は、2以上の正面画像の間の相関係数を算出し、この相関係数が閾値未満である場合、当該経路に対するスキャンの間に異常(被検眼の変位、フォーカスのズレ等)が発生したと判定するよう構成される。この処理の例として、上記の実施形態における検知処理(4)がある。撮影データ解析部232は第3異常検知部の例である。
実施形態において、制御部は、異常検知部により異常が検知されたとき(つまり、異常が発生した場合や、異常の量が大きい場合など)、この異常の発生時に実行されていた一連のスキャンを再度行うようにデータ収集部を制御することができる。それにより、異常の発生時にスキャンされていたエリアを再度スキャンしてデータを再取得することができる。
実施形態において、制御部は、予め設定された複数の経路群に対して順次に一連のスキャンを行うように前記データ収集部を制御することができる。この場合、異常検知部は、前述した異常の検知を経路群毎に実行することが可能である。上記の実施形態では、64個のユニットスキャンエリアに対して順次にユニットスキャンを実行しつつ、ユニットスキャンエリア毎に異常の検知を行うようになっている。これにより、被検眼の移動や瞬きが発生した場合であっても高確度の3次元OCT画像(ボリュームデータ等)を取得することが可能となる。
以上に説明した実施形態は本発明の一例に過ぎない。本発明を実施しようとする者は、本発明の要旨の範囲内における変形(省略、置換、付加等)を任意に施すことが可能である。
1 眼科撮影装置
2 眼底カメラユニット
10 照明光学系
30 撮影光学系
100 OCTユニット
211 主制御部
231 OCTデータ解析部
232 撮影データ解析部
2 眼底カメラユニット
10 照明光学系
30 撮影光学系
100 OCTユニット
211 主制御部
231 OCTデータ解析部
232 撮影データ解析部
Claims (4)
- 光コヒーレンストモグラフィを用いて被検眼に3次元スキャンを適用することによりデータを収集するデータ収集部と、
前記3次元スキャンが適用されるスキャンエリアを予め分割して設定された複数のユニットスキャンエリアに対して順次にスキャンを行うように前記データ収集部を制御する制御部と、
異常の検知を行う異常検知部と
を備え、
前記データ収集部は、前記制御部による制御の下に、前記複数のユニットスキャンエリアのうちの一のユニットスキャンエリアに対するスキャンとして、前記一のユニットスキャンエリアに含まれる複数のスキャンラインに対して順次に且つ所定回数ずつスキャンを適用し、
前記異常検知部は、前記一のユニットスキャンエリアに対するスキャンにより収集されたデータに基づいて前記被検眼の変位の発生を検知する
ことを特徴とする眼科撮影装置。 - 前記異常検知部により前記被検眼の変位の発生が検知されなかった場合、前記制御部は、前記一のユニットスキャンエリアの次のユニットスキャンエリアに対するスキャンを前記データ収集部に実行させる
ことを特徴とする請求項1に記載の眼科撮影装置。 - 前記異常検知部により前記被検眼の変位の発生が検知された場合、前記制御部は、前記一のユニットスキャンエリアに対するスキャンを前記データ収集部に再度実行させる
ことを特徴とする請求項1又は2に記載の眼科撮影装置。 - 前記異常検知部は、前記一のユニットスキャンエリアに含まれる前記複数のスキャンラインのうちの一のスキャンラインに対する前記所定回数のスキャンにより収集された所定個数のデータのそれぞれの特性情報を求め、求められた前記特性情報に基づいて前記被検眼の変位の発生を検知する
ことを特徴とする請求項1〜3のいずれかに記載の眼科撮影装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021017075A JP2021072979A (ja) | 2021-02-05 | 2021-02-05 | 眼科撮影装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021017075A JP2021072979A (ja) | 2021-02-05 | 2021-02-05 | 眼科撮影装置 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016037152A Division JP2017153543A (ja) | 2016-02-29 | 2016-02-29 | 眼科撮影装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021072979A true JP2021072979A (ja) | 2021-05-13 |
Family
ID=75802318
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021017075A Pending JP2021072979A (ja) | 2021-02-05 | 2021-02-05 | 眼科撮影装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021072979A (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011215134A (ja) * | 2010-03-16 | 2011-10-27 | Nidek Co Ltd | 光断層像撮影装置 |
JP2011254959A (ja) * | 2010-06-08 | 2011-12-22 | Canon Inc | 画像処理装置、画像処理方法、及びプログラム |
US20130176532A1 (en) * | 2011-07-07 | 2013-07-11 | Carl Zeiss Meditec, Inc. | Data acquisition methods for reduced motion artifacts and applications in oct angiography |
JP2013180125A (ja) * | 2012-03-02 | 2013-09-12 | Nidek Co Ltd | 眼科撮影装置 |
JP2014140488A (ja) * | 2013-01-23 | 2014-08-07 | Nidek Co Ltd | 眼科撮影装置及び眼科撮影プログラム |
-
2021
- 2021-02-05 JP JP2021017075A patent/JP2021072979A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011215134A (ja) * | 2010-03-16 | 2011-10-27 | Nidek Co Ltd | 光断層像撮影装置 |
JP2011254959A (ja) * | 2010-06-08 | 2011-12-22 | Canon Inc | 画像処理装置、画像処理方法、及びプログラム |
US20130176532A1 (en) * | 2011-07-07 | 2013-07-11 | Carl Zeiss Meditec, Inc. | Data acquisition methods for reduced motion artifacts and applications in oct angiography |
JP2013180125A (ja) * | 2012-03-02 | 2013-09-12 | Nidek Co Ltd | 眼科撮影装置 |
JP2014140488A (ja) * | 2013-01-23 | 2014-08-07 | Nidek Co Ltd | 眼科撮影装置及び眼科撮影プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6685151B2 (ja) | 眼科装置 | |
US10786153B2 (en) | Ophthalmologic imaging apparatus | |
JP6899632B2 (ja) | 眼科撮影装置 | |
JP6685144B2 (ja) | 眼科装置及び眼科検査システム | |
JP2019041841A (ja) | 眼科装置、及びその制御方法 | |
CN110269588B (zh) | 眼科装置及其控制方法 | |
JP2023080218A (ja) | 眼科装置 | |
WO2018135175A1 (ja) | 眼科装置 | |
JP7096392B2 (ja) | 眼科装置 | |
JP6788445B2 (ja) | 眼科装置 | |
JP7181135B2 (ja) | 眼科装置 | |
WO2019130872A1 (ja) | 眼科装置、及びその制御方法 | |
JP7118197B2 (ja) | 眼科装置 | |
JP6809926B2 (ja) | 眼科装置 | |
JP2019170710A (ja) | 眼科装置 | |
JP2021072979A (ja) | 眼科撮影装置 | |
JP2021072978A (ja) | 眼科撮影装置 | |
JP2022031533A (ja) | 眼科撮影装置 | |
JP2023101618A (ja) | 眼科撮影装置 | |
JP7219312B2 (ja) | 眼科装置 | |
JP7154260B2 (ja) | 眼科装置 | |
JP6625251B2 (ja) | 眼科撮影装置 | |
JP7231366B2 (ja) | 眼科装置および眼科装置の制御方法 | |
JP6954831B2 (ja) | 眼科撮影装置、その制御方法、プログラム、及び記録媒体 | |
JP2019130046A (ja) | 眼科装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211228 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220208 |