[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6825058B2 - Image processing equipment, image processing methods and programs - Google Patents

Image processing equipment, image processing methods and programs Download PDF

Info

Publication number
JP6825058B2
JP6825058B2 JP2019163443A JP2019163443A JP6825058B2 JP 6825058 B2 JP6825058 B2 JP 6825058B2 JP 2019163443 A JP2019163443 A JP 2019163443A JP 2019163443 A JP2019163443 A JP 2019163443A JP 6825058 B2 JP6825058 B2 JP 6825058B2
Authority
JP
Japan
Prior art keywords
image
findings
tomographic image
tomographic
similar case
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2019163443A
Other languages
Japanese (ja)
Other versions
JP2019202229A (en
Inventor
好彦 岩瀬
好彦 岩瀬
彰人 宇治
彰人 宇治
博之 関口
博之 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019163443A priority Critical patent/JP6825058B2/en
Publication of JP2019202229A publication Critical patent/JP2019202229A/en
Application granted granted Critical
Publication of JP6825058B2 publication Critical patent/JP6825058B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Description

開示の技術は、画像処理装置、画像処理方法及びプログラムに関する。 The disclosed techniques relate to image processing devices, image processing methods and programs.

前眼部の断層像から所見(形態の異常)を自動抽出し、異常の内容を表示することが知られている(特許文献1)。 It is known that findings (morphological abnormalities) are automatically extracted from a tomographic image of the anterior segment of the eye and the contents of the abnormalities are displayed (Patent Document 1).

特開2010−268916号公報JP-A-2010-268916

しかしながら、異常の内容と断層像とをどのように関連付けて表示するかについては開示されておらず、医師は異常の内容と断層像との関係を容易に把握することができないという課題があった。 However, how to display the contents of the anomaly and the tomographic image in association with each other is not disclosed, and there is a problem that the doctor cannot easily grasp the relationship between the contents of the anomaly and the tomographic image. ..

開示の技術は、上記課題に鑑みてなされたものであり、所見と断層像との関係を容易に把握可能とすることを目的の一つとする。 The disclosed technique was made in view of the above problems, and one of the purposes is to make it possible to easily grasp the relationship between the findings and the tomographic image.

なお、前記目的に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも開示の技術の他の目的の1つとして位置付けることができる。 In addition to the above-mentioned purpose, other of the disclosed techniques, it is an action and effect derived by each configuration shown in the embodiment for carrying out the invention described later, and the action and effect which cannot be obtained by the conventional technique can be obtained. It can be positioned as one of the purposes.

開示の画像処理装置の一つは、
被検眼の断層画像に対して解析を行うことで、前記被検眼の異常部位を検出する検出手段と、
前記検出された異常部位の所見に関する所見情報と前記検出された異常部位の位置に関する位置情報とを用いて、前記検出された異常部位の類似症例に関連する類似症例画像を取得する取得手段と、
前記断層画像と前記取得された類似症例画像とを表示手段に表示させる表示制御手段と、を備える。
One of the disclosed image processing devices is
A detection means for detecting an abnormal part of the eye to be inspected by analyzing a tomographic image of the eye to be inspected.
An acquisition means for acquiring a similar case image related to a similar case of the detected abnormal site by using the finding information regarding the findings of the detected abnormal site and the position information regarding the position of the detected abnormal site.
A display control means for displaying the tomographic image and the acquired similar case image on the display means is provided.

開示の技術の一つによれば、所見と断層像との関係を容易に把握することが可能となる。 According to one of the disclosed techniques, it is possible to easily grasp the relationship between the findings and the tomographic image.

医療診断支援装置の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of a medical diagnosis support device. 医療診断支援装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the medical diagnosis support device. 医療診断支援装置の処理の一例を示すフローチャートである。It is a flowchart which shows an example of the processing of a medical diagnosis support apparatus. 画像処理の一例を示す図である。It is a figure which shows an example of image processing. テーブル情報の一例を示す図である。It is a figure which shows an example of the table information. 画像処理および位置の特定の一例を示す図である。It is a figure which shows an example of image processing and identification of a position. 実施形態1における表示部の表示の一例を示す図である。It is a figure which shows an example of the display of the display part in Embodiment 1. FIG. 実施形態1における表示部の表示の一例を示す図である。It is a figure which shows an example of the display of the display part in Embodiment 1. FIG. 医療診断支援装置の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of a medical diagnosis support device. 医療診断支援装置の処理の一例を示すフローチャートである。It is a flowchart which shows an example of the processing of a medical diagnosis support apparatus. 実施形態2における表示部の表示の一例を示す図である。It is a figure which shows an example of the display of the display part in Embodiment 2. 医療診断支援装置の処理の一例を示すフローチャートである。It is a flowchart which shows an example of the processing of a medical diagnosis support apparatus. 医療診断支援装置の処理の一例を示すフローチャートである。It is a flowchart which shows an example of the processing of a medical diagnosis support apparatus. 実施形態3における表示部の表示の一例を示す図である。It is a figure which shows an example of the display of the display part in Embodiment 3. 光干渉断層計の撮影方法の一例を示す図である。It is a figure which shows an example of the imaging method of an optical interference tomography. 実施形態4における表示部の表示の一例を示す図である。It is a figure which shows an example of the display of the display part in Embodiment 4. 実施形態4における表示部の表示の一例を示す図である。It is a figure which shows an example of the display of the display part in Embodiment 4. 医療診断支援装置の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of a medical diagnosis support device. 医療診断支援装置の処理の一例を示すフローチャートである。It is a flowchart which shows an example of the processing of a medical diagnosis support apparatus. 実施形態5における推定処理を説明するための図である。It is a figure for demonstrating the estimation process in Embodiment 5. 実施形態5における表示部の表示の一例を示す図である。It is a figure which shows an example of the display of the display part in Embodiment 5.

以下、添付の図面を参照して、本実施形態に係る画像処理装置について説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は本明細書及び図面に開示された構成に限定されるものではない。 Hereinafter, the image processing apparatus according to the present embodiment will be described with reference to the attached drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the configurations disclosed in the present specification and drawings.

<実施形態1>
実施形態1における診断支援装置(画像処理装置)は、診断の対象となる医用画像を取得し、取得した医用画像の画像処理結果を用いて医用画像上に支援情報を提示することにより当該医用画像に関する診断支援を行う。
<Embodiment 1>
The diagnostic support device (image processing device) in the first embodiment acquires a medical image to be diagnosed, and presents support information on the medical image using the image processing result of the acquired medical image to obtain the medical image. Diagnostic support for.

本実施形態では、眼科領域における光干渉断層画像(以下、単に断層画像と称する)に対し画像処理を行い、画像処理結果を基に所見を同定し、その情報を断層画像上に提示する場合を例として説明する。なお、本実施形態では、断層画像は視神経乳頭と中心窩(黄斑部)とを通る方向で撮影した1枚の眼底の2次元画像であるものとする。以下、視神経乳頭と中心窩とを通る方向で撮影した画像をHスキャン像と称する場合がある。もちろん画像処理の対象はこれに限定されるものではない。例えば、断層画像は視神経乳頭および黄斑部のうちいずれか一方のみを含む画像であってもよいし、視神経乳頭および黄斑部を含まない画像であってもよい。また、以下に示す所見等は、何れも診断支援装置の処理の工程を説明するための一例に過ぎない。なお、以下に示す実施形態においては医用画像として主に眼底の断層画像に対する画像処理について説明を行うが、前眼の断層画像に対して以下に示す画像処理を適用することとしてもよい。 In the present embodiment, a case where image processing is performed on an optical interference tomographic image (hereinafter, simply referred to as a tomographic image) in the ophthalmic region, findings are identified based on the image processing result, and the information is presented on the tomographic image. This will be described as an example. In the present embodiment, the tomographic image is a two-dimensional image of the fundus taken in the direction passing through the optic nerve head and the fovea centralis (macula). Hereinafter, an image taken in the direction passing through the optic nerve head and the fovea centralis may be referred to as an H scan image. Of course, the target of image processing is not limited to this. For example, the tomographic image may be an image containing only one of the optic nerve head and the macula, or an image not including the optic disc and the macula. In addition, the findings and the like shown below are merely examples for explaining the processing process of the diagnostic support device. In the embodiment shown below, image processing for a tomographic image of the fundus of the eye will be mainly described as a medical image, but the image processing shown below may be applied to a tomographic image of the anterior eye.

図1は、実施形態1における診断支援装置100の機能構成の一例を示す図である。なお、診断支援装置100は例えばデスクトップ型のPC、ノート型PCまたはタブレット型PCである。本実施形態における診断支援装置(画像処理装置)100は、光干渉断層計200と有線または無線を介して接続されている。光干渉断層計200は、例えばSD(Spectral−Domain)−OCT、SS(Swept−Source)−OCTまたはPS(Polarization−Sensitive)−OCTからなる。なお、光干渉断層計200は既知の装置であるため、詳細な説明は省略する。光干渉断層計200は、眼底に近赤外線光を当てることにより得られた戻り光と参照光との干渉を利用して網膜の断層を示す断層画像(すなわち、医用画像)を取得する。そして、光干渉断層計200は、取得した医用画像と、撮影情報(画像の種類、撮影部位、撮影サイズ、スキャンパターン、等)に関するデータを、USBやLAN等の通信を介して診断支援装置100へと出力する。撮影情報には例えば、画像の種類は「OCT」、撮影部位は「黄斑部」、撮影サイズは「12mm」、スキャンパターンは「ラインスキャン」等という情報が含まれる。その他の例では、撮影情報には、画像の種類は「OCT」、撮影部位は「視神経乳頭部」、撮影サイズは「6mm」、スキャンパターンは「3Dスキャン」等という情報が含まれる。なお、撮影情報はこれに限るものではなく、上記に記載した全ての情報が必ずしも必要ではない。画像の種類はOCTだけではなく、SD−OCT、SS−OCTやPS−OCTなどOCTの種類まで情報に含めることとしてもよい。また、撮影サイズの単位は長さではなく角度でもよい。なお、画像の種類とは、例えば、OCT像(光干渉断層計により得られた断層画像)、単純X線像、CT像といったような、モダリティに応じた医用画像の種類である。 FIG. 1 is a diagram showing an example of the functional configuration of the diagnostic support device 100 according to the first embodiment. The diagnostic support device 100 is, for example, a desktop PC, a notebook PC, or a tablet PC. The diagnostic support device (image processing device) 100 in the present embodiment is connected to the optical interference tomographic meter 200 via a wire or wirelessly. The optical coherence tomography 200 comprises, for example, SD (Spectral-Domain) -OCT, SS (Swept-Source) -OCT or PS (Polarization-Sensitive) -OCT. Since the optical interference tomometer 200 is a known device, detailed description thereof will be omitted. The optical interference tomogram 200 acquires a tomographic image (that is, a medical image) showing a tomographic fault of the retina by utilizing the interference between the return light and the reference light obtained by irradiating the fundus with near-infrared light. Then, the optical interference tomographic meter 200 transmits the acquired medical image and data related to imaging information (image type, imaging site, imaging size, scan pattern, etc.) to the diagnostic support device 100 via communication such as USB or LAN. Output to. The imaging information includes, for example, information such as "OCT" for the image type, "macula" for the imaging region, "12 mm" for the imaging size, and "line scan" for the scanning pattern. In another example, the imaging information includes information such as the image type is "OCT", the imaging site is "optic disc", the imaging size is "6 mm", and the scan pattern is "3D scan". The shooting information is not limited to this, and all the information described above is not always necessary. The type of image may be included not only in OCT but also in the information including the type of OCT such as SD-OCT, SS-OCT and PS-OCT. Further, the unit of the shooting size may be an angle instead of a length. The type of image is a type of medical image according to modality, such as an OCT image (tomographic image obtained by an optical coherence tomography), a simple X-ray image, or a CT image.

診断支援装置100は、医用画像取得部102、記憶部104、解析情報取得部106、画像処理部108、判定部110、位置取得部112、表示制御部116および表示部118を備える。 The diagnosis support device 100 includes a medical image acquisition unit 102, a storage unit 104, an analysis information acquisition unit 106, an image processing unit 108, a determination unit 110, a position acquisition unit 112, a display control unit 116, and a display unit 118.

医用画像取得部102は、光干渉断層計200から診断支援装置100へ送信された医用画像、医用画像の撮影情報に関するデータを取得する。なお、医用画像および医用画像の撮影情報を記憶部104に保存しておき、ユーザからの要求に応じて記憶部104から読み出す構成であってもよい。あるいは、診断支援装置100にSSD、HDD、FDD、USBメモリ、CDドライブ、DVDドライブ、MOドライブ、ZIPドライブ等の不図示の外部記憶装置を接続し、医用画像取得部102は外部記憶装置から前記の情報を取得するようにしてもよい。本実施形態では、医用画像取得部102は光干渉断層計200から断層画像および断層画像の撮影情報に関するデータを取得するものとする。すなわち、医用画像取得部102は被検眼の断層画像を取得する取得手段の一例に相当する。 The medical image acquisition unit 102 acquires the medical image transmitted from the optical interference tomography meter 200 to the diagnosis support device 100 and the data related to the imaging information of the medical image. The medical image and the photographing information of the medical image may be stored in the storage unit 104 and read out from the storage unit 104 in response to a request from the user. Alternatively, an external storage device (not shown) such as an SSD, HDD, FDD, USB memory, CD drive, DVD drive, MO drive, or ZIP drive is connected to the diagnostic support device 100, and the medical image acquisition unit 102 is connected to the external storage device from the external storage device. You may try to get the information of. In the present embodiment, the medical image acquisition unit 102 acquires data related to a tomographic image and imaging information of the tomographic image from the optical interference tomographic meter 200. That is, the medical image acquisition unit 102 corresponds to an example of an acquisition means for acquiring a tomographic image of the eye to be inspected.

医用画像取得部102は、取得した医用画像を画像処理部108と表示制御部116とに、撮影した医用画像の撮影情報に関するデータを解析情報取得部106へと出力する。 The medical image acquisition unit 102 outputs the acquired medical image to the image processing unit 108 and the display control unit 116, and outputs the data related to the imaging information of the captured medical image to the analysis information acquisition unit 106.

記憶部104は、例えば、診断対象となる医用画像の部位毎に診断対象の画像に付与されるべき複数の所見の候補を含む第1のテーブル情報と、それぞれの所見の候補に対応する画像処理のパラメータを含む第2のテーブル情報とを記憶している。この画像処理のパラメータは、複数の所見の候補のそれぞれを特定するための画像処理に用いられるパラメータである。第1のテーブル情報、第2のテーブル情報のデータ構成の詳細については図5(a),(b)を用いて後述する。 The storage unit 104 contains, for example, first table information including a plurality of candidate findings to be given to the image to be diagnosed for each part of the medical image to be diagnosed, and image processing corresponding to each candidate for the findings. The second table information including the parameters of is stored. This image processing parameter is a parameter used in image processing for identifying each of a plurality of candidate findings. Details of the data structure of the first table information and the second table information will be described later with reference to FIGS. 5 (a) and 5 (b).

解析情報取得部106は、医用画像取得部102が取得した医用画像の種類と部位に関する情報とを基に、記憶部104から解析情報(画像処理のパラメータ)を取得する。具体的には、解析情報取得部106は、記憶部104に記憶された第1のテーブル情報から、医用画像取得部102から受け取った医用画像の種類および部位に対応する複数の所見の候補を取得する。さらに、解析情報取得部106は、取得した複数の所見の候補を基に、記憶部104に記憶された第2のテーブル情報から、それぞれの候補に対応する画像処理のパラメータを取得する。そして、解析情報取得部106は、複数の所見の候補を判定部110に、画像処理のパラメータを画像処理部108へと出力する。 The analysis information acquisition unit 106 acquires analysis information (image processing parameters) from the storage unit 104 based on the information on the type and site of the medical image acquired by the medical image acquisition unit 102. Specifically, the analysis information acquisition unit 106 acquires a plurality of candidate findings corresponding to the type and site of the medical image received from the medical image acquisition unit 102 from the first table information stored in the storage unit 104. To do. Further, the analysis information acquisition unit 106 acquires image processing parameters corresponding to each candidate from the second table information stored in the storage unit 104 based on the acquired candidates for the plurality of findings. Then, the analysis information acquisition unit 106 outputs the candidates for a plurality of findings to the determination unit 110 and the image processing parameters to the image processing unit 108.

画像処理部108は、医用画像取得部102が取得した医用画像と、解析情報取得部106が取得した画像処理のパラメータとに基づいて、医用画像に対して画像処理を施す。画像処理部108は、画像処理の結果を判定部110及び位置取得部112へと出力する。 The image processing unit 108 performs image processing on the medical image based on the medical image acquired by the medical image acquisition unit 102 and the image processing parameters acquired by the analysis information acquisition unit 106. The image processing unit 108 outputs the result of image processing to the determination unit 110 and the position acquisition unit 112.

判定部110は、解析情報取得部106が取得した複数の所見の候補と、画像処理部108が実行した画像処理の結果とに基づいて、複数の所見の候補のうちどの所見が医用画像に存在するか否かを判定する。すなわち、判定部110は、どの所見の候補が医用画像に該当する所見か否かを判定する。判定部110は、判定結果を位置取得部112へと出力する。 The determination unit 110 finds which of the plurality of candidate findings exists in the medical image based on the plurality of candidate findings acquired by the analysis information acquisition unit 106 and the result of image processing executed by the image processing unit 108. Determine whether or not to do so. That is, the determination unit 110 determines which finding candidate is the finding corresponding to the medical image. The determination unit 110 outputs the determination result to the position acquisition unit 112.

位置取得部112は、画像処理部108が実行した画像処理の結果と、判定部110で該当すると判定された所見の候補とに基づいて、所見に対応する病変(異常部位)の医用画像における位置を示す情報を取得する。位置を示す情報の取得については後述する。位置取得部112は、取得した位置を示す情報を、判定部110で該当すると判定された所見の候補と紐づけて表示制御部116へと出力する。 The position acquisition unit 112 positions the lesion (abnormal site) corresponding to the finding in the medical image based on the result of the image processing executed by the image processing unit 108 and the candidate findings determined to be applicable by the determination unit 110. Get the information that indicates. The acquisition of information indicating the position will be described later. The position acquisition unit 112 outputs the information indicating the acquired position to the display control unit 116 in association with the candidate for the finding determined to be applicable by the determination unit 110.

表示制御部116は、医用画像取得部102が取得した医用画像と、位置取得部112が取得した該当すると判定された所見の候補に紐づいた医用画像における位置を示す情報とを基に表示を制御する。所見の候補に紐づいた医用画像における位置とは、所見に対応する病変(異常部位)の医用画像における位置である。具体的には、表示制御部116は、医用画像を表示部118に表示させ、表示された医用画像に、該当すると判定された所見の候補を重畳表示させる。なお、表示制御部116は、所見の位置を示す表示(後述するマーカ等)を表示部118に表示させることとしてもよい。 The display control unit 116 displays based on the medical image acquired by the medical image acquisition unit 102 and the information indicating the position in the medical image associated with the candidate for the finding determined to be applicable acquired by the position acquisition unit 112. Control. The position in the medical image associated with the candidate for the finding is the position in the medical image of the lesion (abnormal site) corresponding to the finding. Specifically, the display control unit 116 displays the medical image on the display unit 118, and superimposes and displays the candidate findings determined to be applicable on the displayed medical image. The display control unit 116 may display a display (marker or the like described later) indicating the position of the finding on the display unit 118.

表示部118は、表示制御部116により制御された表示内容を表示する。なお、表示部118は診断支援装置100に含まれることとしているが、これに限定されるものではなく、表示部118は診断支援装置100と別体であってもよい。 The display unit 118 displays the display content controlled by the display control unit 116. Although the display unit 118 is included in the diagnosis support device 100, the present invention is not limited to this, and the display unit 118 may be separate from the diagnosis support device 100.

なお、図1に示した診断支援装置100の各部の少なくとも一部は独立した装置として実現してもよい。また、夫々の機能を実現するソフトウェアとして実現してもよい。本実施形態では各部はそれぞれソフトウェアにより実現されているものとする。 At least a part of each part of the diagnostic support device 100 shown in FIG. 1 may be realized as an independent device. Further, it may be realized as software that realizes each function. In this embodiment, it is assumed that each part is realized by software.

図2(a)、(b)は、診断支援装置100のハードウェア構成の一例を示す図である。CPU1001は、主として各構成要素の動作を制御する。主メモリ1002は、CPU1001が実行する制御プログラムを格納したり、CPU1001によるプログラム実行時の作業領域を提供したりする。磁気ディスク1003は、オペレーティングシステム(OS)、周辺機器のデバイスドライバ、後述する処理等を行うためのプログラムを含む各種アプリケーションソフトを実現するためのプログラムを格納する。CPU1001が主メモリ1002、磁気ディスク1003に格納されているプログラムを実行することにより、図1に示した診断支援装置100の機能(ソフトウェア)及び後述するフローチャートにおける処理が実現される。 2A and 2B are diagrams showing an example of the hardware configuration of the diagnostic support device 100. The CPU 1001 mainly controls the operation of each component. The main memory 1002 stores a control program executed by the CPU 1001 and provides a work area when the program is executed by the CPU 1001. The magnetic disk 1003 stores programs for realizing various application software including an operating system (OS), device drivers for peripheral devices, and programs for performing processing described later. When the CPU 1001 executes a program stored in the main memory 1002 and the magnetic disk 1003, the function (software) of the diagnostic support device 100 shown in FIG. 1 and the processing in the flowchart described later are realized.

表示メモリ1004は、表示用データを一時記憶する。モニタ1005は、表示部118の一例であり、例えばCRTモニタや液晶モニタ等であり、表示メモリ1004からのデータに基づいて画像やテキスト等の表示を行う。マウス1006及びキーボード1007は、ユーザによるポインティング入力及び文字等の入力を夫々行う。上記各構成要素は、共通バス1008により互いに通信可能に接続されている。 The display memory 1004 temporarily stores display data. The monitor 1005 is an example of the display unit 118, for example, a CRT monitor, a liquid crystal monitor, or the like, and displays an image, a text, or the like based on the data from the display memory 1004. The mouse 1006 and the keyboard 1007 each perform pointing input and character input by the user. Each of the above components is communicably connected to each other by a common bus 1008.

なお、図2(a)におけるモニタ1005、マウス1006及びキーボード1007は、図2(b)に示すようにタッチパネルモニタ1015で置き換えてもよい。これは、例えば、タッチパネル液晶等であり、表示メモリ1004からのデータに基づいて画像やテキスト等の表示を行うと共に、ユーザによるポインティング入力及び文字等の入力を受け付ける。なお、タッチパネル1015に加えてマウス1006及びキーボード1007を設けることとしてもよい。タッチパネル1015が設けられた装置において患者を選択する場合、表示部118に表示された複数の患者情報(患者ID)のうち一の患者情報を操作者がタップすることで所望の患者情報が仮選択される。そして、仮選択が行われた後に操作者がスワイプを行うことで患者情報が選択される。なお、スワイプを行うタッチパネル上の位置は、所望の患者情報が表示された位置とは異なる位置であってもよい。CPU1001は上記のタップおよびスワイプの動作を検出して所望の患者情報を選択する。すなわち、CPU1001は、表示手段にリスト状に表示された複数の患者情報のうち一の患者情報がタップされた場合に前記一の患者情報を仮選択し、前記タップ後スワイプが行われた場合に前記一の患者情報を選択する選択手段の一例である。患者情報が選択されると医用画像取得手段102は、選択手段により選択された患者情報に対応する断層画像を取得する。このような患者情報の選択方法を採用することで、小さな文字で表示された複数の患者情報から操作者の意図に沿った患者情報を容易に選択することが可能となる。例えば、ダブルタップで患者情報を選択する場合には同じ箇所をタップ出来ずに所望の患者情報を迅速に選択できないという課題を上記の患者情報の選択方法により解決している。 The monitor 1005, mouse 1006 and keyboard 1007 in FIG. 2A may be replaced with the touch panel monitor 1015 as shown in FIG. 2B. This is, for example, a touch panel liquid crystal or the like, which displays images, texts, and the like based on data from the display memory 1004, and accepts pointing input and character input by the user. In addition to the touch panel 1015, a mouse 1006 and a keyboard 1007 may be provided. When selecting a patient in a device provided with a touch panel 1015, the operator taps one of the plurality of patient information (patient IDs) displayed on the display unit 118 to temporarily select the desired patient information. Will be done. Then, after the tentative selection is made, the operator swipes to select the patient information. The position on the touch panel on which the swipe is performed may be different from the position where the desired patient information is displayed. The CPU 1001 detects the above tap and swipe operations and selects desired patient information. That is, the CPU 1001 provisionally selects the one patient information when one of the plurality of patient information displayed in the display means is tapped, and when the swipe is performed after the tap. This is an example of a selection means for selecting the above-mentioned patient information. When the patient information is selected, the medical image acquisition means 102 acquires a tomographic image corresponding to the patient information selected by the selection means. By adopting such a patient information selection method, it is possible to easily select patient information according to the intention of the operator from a plurality of patient information displayed in small characters. For example, when the patient information is selected by double tapping, the problem that the same place cannot be tapped and the desired patient information cannot be quickly selected is solved by the above-mentioned method of selecting patient information.

次に、図3(a)のフローチャートを用いて、診断支援装置100が行う処理の一例を説明する。図3(a)は、診断支援装置100が行う処理の一例を示すフローチャートである。本実施形態では、CPU1001が主メモリ1002に格納されている各部の機能を実現するプログラムを実行することにより図3に示す処理が実現される。 Next, an example of the processing performed by the diagnosis support device 100 will be described with reference to the flowchart of FIG. 3A. FIG. 3A is a flowchart showing an example of processing performed by the diagnosis support device 100. In the present embodiment, the process shown in FIG. 3 is realized by the CPU 1001 executing a program that realizes the functions of each part stored in the main memory 1002.

ステップS3000において、医用画像取得部102は、光干渉断層計200から送信された医用画像と撮影した医用画像の種類に関する情報と医用画像の部位に関する情報とを取得する。本実施形態の例では、医用画像は光干渉断層計200で撮影した断層画像(Hスキャン像)であるので、医用画像取得部102は、医用画像の種類に関する情報として「OCT」を、医用画像の部位に関する情報として「黄斑部」を取得する。なお、医用画像の部位に関する情報は「黄斑部」に限定されるものではない。 In step S3000, the medical image acquisition unit 102 acquires the medical image transmitted from the optical interference tomogram 200, the information regarding the type of the captured medical image, and the information regarding the part of the medical image. In the example of the present embodiment, since the medical image is a tomographic image (H scan image) taken by the optical coherence tomography 200, the medical image acquisition unit 102 uses "OCT" as information regarding the type of the medical image, and the medical image. Acquire the "yellow spot" as information about the site. Information on the site of the medical image is not limited to the "macula".

ステップS3010において、解析情報取得部106は、ステップS3000で取得した医用画像の種類に関する情報と医用画像の部位に関する情報を基に、記憶部104に記憶された第1のテーブル情報から対応する複数の所見の候補を取得する。 In step S3010, the analysis information acquisition unit 106 corresponds to a plurality of corresponding information from the first table information stored in the storage unit 104 based on the information regarding the type of the medical image acquired in step S3000 and the information regarding the part of the medical image. Get candidates for findings.

図5(a)は、記憶部104に記憶された第1のテーブル情報の一例を示す図である。このテーブル情報には、被検眼の眼底の部位に画像の種類の情報が紐づいており、さらに画像の種類の情報に複数の所見の候補が紐づいて記憶されている。本実施形態の例の場合は、部位が「黄斑部」で画像の種類が「OCT」なので、解析情報取得部106は中心窩嚢胞様孔、繊維様嚢胞様孔、黄斑円孔などの複数の所見の候補を取得する。これは、部位および画像の種類に応じて判断出来る所見が異なるためである。なお、画像の種類に対し紐付けられている所見の候補は必ずしも複数である必要はない。例えば、部位がより細かく分類されている場合には画像の種類に対して紐付けられる所見の候補は1つの場合もあり得る。また、図5(a)の例において、画像の種類を省略して部位に対して所見を紐付けることとしてもよい。すなわち、第1のテーブル情報は図5(a)に示す例に限定されるものではない。 FIG. 5A is a diagram showing an example of the first table information stored in the storage unit 104. In this table information, information on the type of image is associated with the portion of the fundus of the eye to be inspected, and a plurality of candidates for findings are associated with the information on the type of image and stored. In the case of the example of this embodiment, since the site is the "macular hole" and the image type is "OCT", the analysis information acquisition unit 106 has a plurality of foveal cyst-like holes, fibrous cyst-like holes, macular holes, and the like. Get candidates for findings. This is because the findings that can be judged differ depending on the part and the type of image. It should be noted that the number of candidate findings associated with the type of image does not necessarily have to be multiple. For example, when the parts are classified more finely, there may be one candidate for the finding associated with the type of image. Further, in the example of FIG. 5A, the type of image may be omitted and the findings may be associated with the portion. That is, the first table information is not limited to the example shown in FIG. 5A.

ステップS3020において、解析情報取得部106は、ステップS3010で取得した複数の所見の候補を基に、記憶部104の第2のテーブル情報から、複数の所見の候補のそれぞれを特定するために必要な画像処理のパラメータを取得する。本実施形態では、解析情報取得部106は、画像処理のパラメータを取得するために、所見の候補の情報の他に、ステップS3000で取得した医用画像の種類に関する情報も用いるものとする。 In step S3020, the analysis information acquisition unit 106 is required to identify each of the plurality of finding candidates from the second table information of the storage unit 104 based on the plurality of finding candidates acquired in step S3010. Get image processing parameters. In the present embodiment, the analysis information acquisition unit 106 uses information on the type of medical image acquired in step S3000 in addition to the information on candidate findings in order to acquire the parameters of image processing.

図5(b)は、記憶部104に記憶された第2のテーブル情報の一例を示す図である。例えば、所見が「繊維層嚢胞様孔」であり、画像の種類が「OCT」の場合は、「X:25%−75%、Z:30%−70%、画素値:10以下」という画像処理のパラメータが紐づけられている。解析情報取得部106は、このような画像処理のパラメータを、ステップS3010で取得した複数の所見の候補それぞれに関して取得する。ここで、Z:30%−70%は例えば、断層画像における網膜領域を示している。 FIG. 5B is a diagram showing an example of the second table information stored in the storage unit 104. For example, when the finding is "fibrous layer cyst-like hole" and the image type is "OCT", the image is "X: 25% -75%, Z: 30% -70%, pixel value: 10 or less". The processing parameters are linked. The analysis information acquisition unit 106 acquires such image processing parameters for each of the plurality of findings candidates acquired in step S3010. Here, Z: 30% -70% indicates, for example, the retinal region in a tomographic image.

本実施形態の例の場合は、医用画像の種類が「OCT」であり、ステップS3010で所見の候補として「中心窩嚢胞様孔」が取得されている。従って、解析情報取得部106は、第2のテーブル情報から「X:40%−60%、Z:30%−70%、画素値:10以下」という画像処理のパラメータを取得する。 In the case of the example of this embodiment, the type of medical image is "OCT", and "foveal cyst-like foramen" is acquired as a candidate for findings in step S3010. Therefore, the analysis information acquisition unit 106 acquires the image processing parameter "X: 40% -60%, Z: 30% -70%, pixel value: 10 or less" from the second table information.

なお、図5(b)の例において、画像の種類を省略して所見に対して画像処理パラメータを紐付けることとしてもよい。すなわち、第2のテーブル情報は図5(b)に示す例に限定されるものではない。 In the example of FIG. 5B, the image type may be omitted and the image processing parameter may be associated with the finding. That is, the second table information is not limited to the example shown in FIG. 5 (b).

ステップS3030において、画像処理部108は、ステップS3000で取得された医用画像と、ステップS3020で取得された画像処理のパラメータとに基づいて、医用画像に対して画像処理を施す。なお、以下の例では断層画像は256階調のモノクロ画像で背景に相当する低反射領域は黒(画素値は0)だとする。 In step S3030, the image processing unit 108 performs image processing on the medical image based on the medical image acquired in step S3000 and the image processing parameters acquired in step S3020. In the following example, it is assumed that the tomographic image is a monochrome image with 256 gradations and the low reflection region corresponding to the background is black (pixel value is 0).

画像処理に関して図3(b)のフローチャートと図4とを参照して説明をする。図3(b)はステップS3030の処理の一例を詳細化したフローチャートである。図4(a)は断層画像の一例を示す図である。図4(a)において、400は断層画像、401は網膜層領域、402は黄斑部、403は内境界膜(ILM)あるいは神経線維層(NFL)上部、404は網膜色素上皮(RPE)を示す。さらに、図4(a)において、405は後部硝子体剥離、406は蓋、410は背景領域、420は視神経乳頭部領域、421は視神経乳頭部、430の網膜層上部の斜線領域は硝子体を示す。図4(a)に示すように断層画像には網膜を示す領域と背景領域410(網膜以外の領域)とが含まれている。 The image processing will be described with reference to the flowchart of FIG. 3B and FIG. FIG. 3B is a flowchart detailing an example of the process of step S3030. FIG. 4A is a diagram showing an example of a tomographic image. In FIG. 4A, 400 is a tomographic image, 401 is the retinal layer region, 402 is the macula, 403 is the upper limiting membrane (ILM) or nerve fiber layer (NFL), and 404 is the retinal pigment epithelium (RPE). .. Further, in FIG. 4A, 405 is the posterior vitreous detachment, 406 is the lid, 410 is the background region, 420 is the optic disc region, 421 is the optic disc head, and 430 is the shaded region above the retinal layer. Shown. As shown in FIG. 4A, the tomographic image includes a region showing the retina and a background region 410 (a region other than the retina).

ステップS3031において、画像処理部108は断層画像のノイズ除去を行う。OCT撮影において、ラインスキャンまたはクロススキャン等では、光干渉断層計200は眼のトラッキングを行い空間的に同一とされる箇所を複数回撮影する。そして、同一箇所で撮影した複数枚の断層画像の位置合わせを行い、その断層画像間で対応する複数のピクセルで平均化処理をすることで断層画像のノイズ除去を行う処理が実施される。なお、ここでは例えば画像処理部108によって既に断層画像の位置合わせと平均化処理が行われているものとして説明をする。上述したように、画像処理部108が、複数回撮影された断層画像の位置合わせを行い、平均化処理をすることでランダムノイズが除去される。しかし、撮影時の被検眼の状態(固視不良)によっては、位置合わせ時の断層画像間の類似度が低下するため、類似度が所定閾値よりも低い所定の枚数の断層画像の平均化処理が出来ないことがある。その場合、平均化に用いる断層画像の枚数の違いによって画像のノイズレベルも異なる。例えば、図4(a)の領域410のヒストグラムを図4(b)と(c)に示す。図4(b)は平均化処理の枚数が少ない場合(例えば、1〜3枚)のヒストグラム411であり、図4(c)は平均化処理の枚数が多い場合(例えば、10枚以上)のヒストグラム412の例である。図4(b)、(c)の黒い部分が領域410のヒストグラムを示している。図4(b),(c)の縦軸は頻度、横軸は輝度を示している。図で示すように、平均化処理に用いた断層画像の枚数によってノイズが異なる。そのため、画像処理部108は、ノイズのレベルに応じてノイズ除去のパラメータを変更する。断層画像に対するノイズ除去の方法として、まず、画像処理部108は、断層画像の網膜内層の背景に相当する領域410(硝子体および強膜の少なくとも一方)からノイズを推定する。そして、画像処理部108は、ノイズ量に応じてノイズ除去に用いるメディアンフィルタやガウシアンフィルタ等のフィルタサイズを変更する。画像処理部108は、ノイズが多い場合にはフィルタサイズを大きくし、ノイズが少ない場合にはフィルタサイズを小さくする。これにより、ノイズ除去による画像のボケを少なくし、ノイズが多い場合にはノイズを除去する事が出来る。また、フィルタサイズの上限値は、1ピクセルあたりの物理サイズによって決めることが望ましい。例えば、1mmの範囲をAスキャン100本で撮影した場合と、50本で撮影した場合とでは、画像のピクセルに相当する画像範囲が異なってしまう。すなわち、X方向のノイズ除去フィルタのパラメータを10と設定した場合に、1ピクセルあたりの物理サイズは100本で撮影した方は0.1mm相当だが、50本で撮影した方は0.2mm相当となるため、同程度の範囲でノイズ除去を行うようにパラメータを調整する。 In step S3031, the image processing unit 108 removes noise from the tomographic image. In OCT imaging, in line scanning, cross scanning, or the like, the optical coherence tomography 200 tracks the eyes and photographs spatially identical locations a plurality of times. Then, a process of removing noise from the tomographic image is performed by aligning a plurality of tomographic images taken at the same location and performing an averaging process on the corresponding plurality of pixels among the tomographic images. Here, for example, it is assumed that the tomographic image alignment and averaging process has already been performed by the image processing unit 108. As described above, the image processing unit 108 aligns the tomographic images taken a plurality of times and performs an averaging process to remove random noise. However, depending on the condition of the eye to be inspected at the time of imaging (poor fixation), the similarity between the tomographic images at the time of alignment may decrease. May not be possible. In that case, the noise level of the image also differs depending on the difference in the number of tomographic images used for averaging. For example, the histogram of the region 410 of FIG. 4 (a) is shown in FIGS. 4 (b) and 4 (c). FIG. 4B is a histogram 411 when the number of averaging processes is small (for example, 1 to 3), and FIG. 4C is a histogram when the number of averaging processes is large (for example, 10 or more). This is an example of histogram 412. The black portions in FIGS. 4 (b) and 4 (c) show the histogram of the region 410. The vertical axis of FIGS. 4B and 4C shows the frequency, and the horizontal axis shows the brightness. As shown in the figure, the noise differs depending on the number of tomographic images used in the averaging process. Therefore, the image processing unit 108 changes the noise removal parameter according to the noise level. As a method for removing noise from a tomographic image, first, the image processing unit 108 estimates noise from a region 410 (at least one of the vitreous body and the sclera) corresponding to the background of the inner retina layer of the tomographic image. Then, the image processing unit 108 changes the filter size of the median filter, Gaussian filter, etc. used for noise removal according to the amount of noise. The image processing unit 108 increases the filter size when there is a lot of noise, and decreases the filter size when there is little noise. As a result, blurring of the image due to noise removal can be reduced, and when there is a lot of noise, noise can be removed. Further, it is desirable that the upper limit of the filter size is determined by the physical size per pixel. For example, the image range corresponding to the pixels of the image differs between the case where the 1 mm range is photographed with 100 A scans and the case where the image is photographed with 50 A scans. That is, when the parameter of the noise reduction filter in the X direction is set to 10, the physical size per pixel is equivalent to 0.1 mm for those photographed with 100 pixels, but is equivalent to 0.2 mm for those photographed with 50 pixels. Therefore, adjust the parameters so that noise is removed within the same range.

ステップS3032において、画像処理部108は断層画像の濃度正規化を行う。これは基準となる断層画像と処理の対象となる断層画像との輝度の濃淡レベルを可能な限り一致させる処理である。これにより、被検眼毎の画像の明るさの違いを吸収する。濃淡補正の方法としては、基準画像と対象画像とのヒストグラムを一致させる方法または、濃淡変換テーブルを用いて濃淡レベルを一致させる方法がある。また、背景が白(画素値は255)の断層画像の場合には、画像処理部108は白黒反転を行う。なお、本画像処理において断層画像の背景が黒の場合について説明をしているが必ずしもこれに限らない。断層画像の背景が白である場合を基準として考えてもよい。その場合、画像処理パラメータの閾値として画素値が10以下としているものは、画素値が245以上となる。 In step S3032, the image processing unit 108 normalizes the density of the tomographic image. This is a process of matching the brightness levels of the reference tomographic image and the tomographic image to be processed as much as possible. As a result, the difference in the brightness of the image for each eye to be inspected is absorbed. As a method of shading correction, there is a method of matching the histograms of the reference image and the target image, or a method of matching the shading levels using a shading conversion table. Further, in the case of a tomographic image having a white background (pixel value is 255), the image processing unit 108 performs black-and-white inversion. Although the case where the background of the tomographic image is black in this image processing is described, it is not necessarily limited to this. The case where the background of the tomographic image is white may be considered as a reference. In that case, if the threshold value of the image processing parameter is 10 or less, the pixel value is 245 or more.

ステップS3033において、画像処理部108は視神経乳頭部の検出をする。黄斑疾患に関する場合には、視神経乳頭部領域を除去して処理を行い、視神経乳頭部に関する疾患の場合には、視神経乳頭部を抽出するためである。ここでは、一例として黄斑疾患の診断支援を行う場合について説明をする。その場合、画像処理部108は、断層画像から視神経乳頭部領域を除外する。図4(a)に示すように視神経乳頭部は断層画像において大きな陥凹形状をしている。そのため、画像処理部108は、断層画像から大きな窪み領域を検出する。あるいは、画像処理部108は、SLO画像や眼底写真(眼底画像)がある場合にはその画像から円形の視神経乳頭部を検出し、検出した視神経乳頭部を断層画像の撮影範囲と対応させることで断層画像から視神経乳頭部を検出するようにしてもよい。また、黄斑部中心の水平スキャンの場合、左目では向かって左側に視神経乳頭部があり、右眼では向かって右側に視神経乳頭部があるため、単純に断層画像の端部分(視神経乳頭部側)を無効領域としてもよい。なお、黄斑部中心の垂直スキャンの場合には視神経乳頭部は写らないため、本ステップの処理を実行する必要はない。 In step S3033, the image processing unit 108 detects the optic nerve head. This is because the optic disc region is removed and treated in the case of macular disease, and the optic disc is extracted in the case of a disease related to the optic disc. Here, as an example, a case of providing diagnostic support for macular disease will be described. In that case, the image processing unit 108 excludes the optic disc region from the tomographic image. As shown in FIG. 4A, the optic nerve head has a large concave shape in the tomographic image. Therefore, the image processing unit 108 detects a large recessed region from the tomographic image. Alternatively, if there is an SLO image or a fundus photograph (fundus image), the image processing unit 108 detects a circular optic disc from the image, and associates the detected optic disc with the imaging range of the tomographic image. The optic disc may be detected from the tomographic image. In the case of a horizontal scan of the center of the macula, the left eye has the optic disc on the left side, and the right eye has the optic disc on the right side, so the end of the tomographic image (the optic disc side) is simply May be an invalid area. In the case of a vertical scan of the center of the macula, the optic nerve head is not visible, so it is not necessary to perform the process of this step.

ステップS3034において、画像処理部108は網膜領域を検出する。具体的には画像処理部108は、断層像からILMとRPEとを検出し、これらの層境界に挟まれる領域を網膜領域として検出する。なお、ILMとRPEとに挟まれる領域に限らず、画像処理部108は、ILMおよびNFLの一方とRPEおよび視細胞内節外節境界(IS/OS)の一方とに挟まれる領域を網膜領域として検出することとしてもよい。 In step S3034, the image processing unit 108 detects the retinal region. Specifically, the image processing unit 108 detects ILM and RPE from the tomographic image, and detects a region sandwiched between these layer boundaries as a retinal region. The image processing unit 108 is not limited to the region sandwiched between the ILM and the RPE, and the image processing unit 108 extends the region sandwiched between one of the ILM and the NFL and one of the RPE and the inner segment outer segment boundary (IS / OS) of the photoreceptor to the retinal region. It may be detected as.

また、網膜領域は背景領域に比べて明るいので、画像処理部108は、判別分析法等を用いて2値化をし、画像の中から明るい領域を検出する。そして、画像処理部108は、モルフォロジー変換(ClosingやOpening)をして明るい領域を連結するとともに、ノイズ部分を除去する。画像処理部108は、その領域に対して中心線を求めて、中心線の上方で領域内の上方(例えば上端)にILMの初期境界線、中心線の下方で領域内の下方(例えば下端)にRPEの初期境界線を設定する。そして、画像処理部108は、その境界線に対してSnakesなどの輪郭線抽出アルゴリズムを適用して層境界の検出を行う。Snakesでは、形状エネルギーEshapeと画像エネルギーEImageとを定義し、繰り返し計算によりエネルギーを最小化する。形状エネルギーEshapeは、網膜層の形状が滑らかになるほどエネルギーが小さくなり、画像エネルギーEImageは、エッジ強度が強い所ほどエネルギーが小さくなるようにそれぞれ定義される。そのため、画像処理部108は、初期値で設定した境界線の全検出点を動かしながらエネルギーが最小になる箇所を見つけることで、初期の境界線は、層の境界(エッジが強い)でかつ滑らかな形状として最終的に出力される。すなわち、画像処理部108は、断層画像から層境界を抽出する抽出手段の一例に相当する。画像処理部108は上記の例ではILM(内境界膜)およびRPE(網膜色素上皮層境界)を抽出することとしているが、これに限定されるものではない。例えば、画像処理部108は、内境界膜および神経線維層境界の少なくとも一方および網膜色素上皮層境界および視細胞内節外節境界の少なくとも一方を抽出することとしてもよい。 Further, since the retinal region is brighter than the background region, the image processing unit 108 binarizes the retinal region by using a discriminant analysis method or the like, and detects the bright region from the image. Then, the image processing unit 108 performs morphological conversion (Closing or Opening) to connect bright regions and remove noise portions. The image processing unit 108 obtains a center line for the region, and above the center line, above the region (for example, the upper end) is the initial boundary line of the ILM, and below the center line, below the region (for example, the lower end). Set the initial border of RPE in. Then, the image processing unit 108 detects the layer boundary by applying a contour line extraction algorithm such as Snakes to the boundary line. In Snakes, define the shape energy E shape and image energy E Image, minimizing energy by repetitive calculations. The shape energy E shape is defined so that the smoother the shape of the retinal layer, the smaller the energy, and the image energy E Image is defined so that the stronger the edge strength, the smaller the energy. Therefore, the image processing unit 108 finds a place where the energy is minimized while moving all the detection points of the boundary line set by the initial value, so that the initial boundary line is a layer boundary (strong edge) and smooth. It is finally output as a shape. That is, the image processing unit 108 corresponds to an example of an extraction means for extracting a layer boundary from a tomographic image. In the above example, the image processing unit 108 extracts ILM (inner limiting membrane) and RPE (retinal pigment epithelial layer boundary), but the present invention is not limited to this. For example, the image processing unit 108 may extract at least one of the inner limiting membrane and the nerve fiber layer boundary and at least one of the retinal pigment epithelial layer boundary and the photoreceptor inner segment outer segment boundary.

通常、Snakesでは、層境界は滑らかな境界線として検出されるため、黄斑円孔で網膜層に穴が開いてしまった場合においてもILMの境界線は滑らかな境界線として検出される。網膜厚計測を行う場合には、境界線情報を基に計測を行うため、画像処理部108は、ここで検出したILMの境界線を基に、後述するステップS3037の硝子体存在領域の検出においてILM境界線の補正を行ってもよい。なお、層境界の検出には既知の種々手法を用いることとしてもよい。 Normally, in Snakes, the layer boundary is detected as a smooth boundary line, so that the ILM boundary line is detected as a smooth boundary line even when a hole is formed in the retinal layer by a macular hole. When measuring the network thickness, the image processing unit 108 detects the vitreous body region in step S3037, which will be described later, based on the ILM boundary line detected here because the measurement is performed based on the boundary line information. The ILM boundary line may be corrected. In addition, various known methods may be used for detecting the layer boundary.

ステップS3035において、画像処理部108は網膜位置の深さ方向(Z方向)における正規化を行う。網膜位置の正規化は事前に設定してある基準画像に合うようにステップS3034で求めた中心線を用いて網膜の深さ方向の位置を基準画像における網膜の位置に揃える。これは、所見候補検出時の位置を特定しやすくするため及び、断層画像に所見を表示するための場所を確保するために行う。 In step S3035, the image processing unit 108 normalizes the retinal position in the depth direction (Z direction). The normalization of the retina position aligns the position in the depth direction of the retina with the position of the retina in the reference image using the center line obtained in step S3034 so as to match the preset reference image. This is done to make it easier to identify the position when the finding candidate is detected and to secure a place for displaying the finding on the tomographic image.

ステップS3036において、画像処理部108は黄斑部の候補領域を検出する。黄斑部は断層画像において小さな陥凹形状をしている。例えば、黄斑部の陥凹は視神経乳頭部の陥凹に比べて小さい。そのため、画像処理部108は断層画像から小さな窪み領域を検出する。あるいは、SLO画像や眼底写真(眼底画像)がある場合には画像処理部108はその画像から黄斑部を検出し、検出した黄斑部を断層画像の撮影範囲と対応させることで断層画像から黄斑部を検出するようにしてもよい。あるいは、黄斑部中心で撮影を行った場合、黄斑部は断層画像の中心付近となるため、画像処理部108は単純に断層画像の中心付近を黄斑部として検出してもよい。あるいは、画像処理部108はステップS3033で検出した視神経乳頭部の位置を基準として黄斑部を検出するようにしてもよい。視神経乳頭径(DD)と乳頭中心から黄斑中心窩までの距離(DM)の比は通常、2.4から3.0であるため、画像処理部108はその比を用いておおよその黄斑部領域を特定するようにしてもよい。 In step S3036, the image processing unit 108 detects the candidate region of the macula. The macula has a small concave shape in the tomographic image. For example, the depression of the macula is smaller than the depression of the optic disc. Therefore, the image processing unit 108 detects a small recessed region from the tomographic image. Alternatively, if there is an SLO image or a fundus photograph (fundus image), the image processing unit 108 detects the macula from the image and associates the detected macula with the imaging range of the tom image to match the macula from the tom image. May be detected. Alternatively, when the image is taken at the center of the macula, the macula is near the center of the tomographic image, so the image processing unit 108 may simply detect the vicinity of the center of the tomographic image as the macula. Alternatively, the image processing unit 108 may detect the macula portion with reference to the position of the optic nerve head detected in step S3033. Since the ratio of the optic disc diameter (DD) to the distance (DM) from the center of the papilla to the fovea centralis of the macula is usually 2.4 to 3.0, the image processing unit 108 uses that ratio to approximate the macula region. May be specified.

ステップS3037において、画像処理部108は硝子体領域(図4(a)の斜線部430)を検出する。画像処理部108は、ステップS3034で検出した網膜領域(或いはILM)を基準として断層画像でZ方向の浅部側(上側)を硝子体領域として検出する。さらに、画像処理部108は、硝子体領域内において細線化処理を実行して、後部硝子体剥離候補として405を抽出することとしてもよい(図5(b)参照)。なお、後部硝子体剥離候補405の抽出はステップS3038で行うこととしてもよい。ここで、硝子体存在領域430検出後に画像処理部108がILMの補正を行う場合について説明をする。黄斑円孔により黄斑部に穴が開いている場合、滑らかな線として検出されたILM境界線は硝子体存在領域430を横切る。ILM境界線により硝子体領域430が分割されるため、その箇所に関しては、ILM境界線の再検出を行うようにしてもよい。 In step S3037, the image processing unit 108 detects the vitreous region (hatched portion 430 in FIG. 4A). The image processing unit 108 detects the shallow side (upper side) in the Z direction as the vitreous region in the tomographic image with reference to the retinal region (or ILM) detected in step S3034. Further, the image processing unit 108 may perform a thinning process in the vitreous region to extract 405 as a posterior vitreous peeling candidate (see FIG. 5B). The extraction of the posterior vitreous peeling candidate 405 may be performed in step S3038. Here, a case where the image processing unit 108 corrects the ILM after detecting the vitreous body existing region 430 will be described. If the macular hole is perforated by the macular hole, the ILM border detected as a smooth line crosses the vitreous region 430. Since the vitreous region 430 is divided by the ILM boundary line, the ILM boundary line may be rediscovered at that location.

次に、ステップS3038において、画像処理部108は複数の所見の候補にそれぞれ対応する画像処理のパラメータに基づいて、画像処理(病変候補の領域抽出)を行う。ここでは「繊維層嚢胞様孔」の画像処理のパラメータ「X:25%−75%、Z:30%−70%、画素値:10以下」を例とし説明する。この場合、前処理で正規化された断層画像に対して画像処理部108は上記の画像処理のパラメータに従い、断層画像のX座標が25%−75%、Z座標が30%−70%の矩形範囲に対して画素値が10以下である画素を抽出する。このような処理を複数の所見の候補夫々について行う。また、本実施形態では断層画像は1枚であるが、断層画像が複数存在する場合には複数の断層画像それぞれに対して上記の処理を行う。 Next, in step S3038, the image processing unit 108 performs image processing (region extraction of lesion candidates) based on the image processing parameters corresponding to the plurality of findings candidates. Here, the image processing parameters "X: 25% -75%, Z: 30% -70%, pixel value: 10 or less" of the "fibrous layer cyst-like pore" will be described as an example. In this case, for the tomographic image normalized by the preprocessing, the image processing unit 108 follows the above image processing parameters, and the X coordinate of the tomographic image is 25% -75% and the Z coordinate is 30% -70%. Pixels whose pixel value is 10 or less with respect to the range are extracted. Such processing is performed for each of the plurality of findings candidates. Further, in the present embodiment, there is only one tomographic image, but when there are a plurality of tomographic images, the above processing is performed for each of the plurality of tomographic images.

図3(a)のステップS3040に戻る。ステップS3040において判定部110は、ステップS3020で取得した複数の所見の候補と、ステップS3030で実行した画像処理の結果とに基づいて、複数の所見の候補夫々が該当するか否か(断層画像に存在する所見か否か)を判定する。 Return to step S3040 in FIG. 3A. In step S3040, the determination unit 110 determines whether or not each of the plurality of findings candidates is applicable based on the plurality of findings candidates acquired in step S3020 and the result of the image processing executed in step S3030 (to the tomographic image). Whether it is an existing finding) is determined.

例えば、「繊維層嚢胞様孔」に対しては、判定部110は、抽出した画素において隣接している画素を一つの領域とし、夫々の領域に対して縦横比(短辺/長辺)を計算する。そして、判定部110は例えば縦横比が0.7以下となる領域を「繊維層嚢胞様孔」に該当すると判定する。あるいは「後部硝子体剥離」の場合は、判定部110は細線化処理により抽出した線の長さが閾値以上(例えば、画像のX方向の長さの20%)である場合に「後部硝子体剥離」に該当すると判定する。すなわち、画像処理部108および判定部110は、取得手段により取得した断層画像に対して構造解析を行うことで被検眼の異常部位を検出する検出手段の一例に相当する。 For example, for the "fibrous layer cyst-like hole", the determination unit 110 sets adjacent pixels in the extracted pixels as one region, and sets the aspect ratio (short side / long side) to each region. calculate. Then, the determination unit 110 determines that, for example, a region having an aspect ratio of 0.7 or less corresponds to a “fibrous layer cyst-like hole”. Alternatively, in the case of "rear vitreous peeling", the determination unit 110 "rear vitreous" when the length of the line extracted by the thinning process is equal to or greater than the threshold value (for example, 20% of the length in the X direction of the image). It is judged that it corresponds to "peeling". That is, the image processing unit 108 and the determination unit 110 correspond to an example of the detection means for detecting an abnormal portion of the eye to be inspected by performing structural analysis on the tomographic image acquired by the acquisition means.

なお、これらの判定基準は第2のテーブル情報の一部として記憶されていてもよいし、記憶部104が判定基準を記憶した不図示の第三のテーブル情報を有するように構成してもよい。 These determination criteria may be stored as a part of the second table information, or may be configured such that the storage unit 104 has a third table information (not shown) in which the determination criteria are stored. ..

また、ステップS3038において、Z座標が30%−70%の領域を処理対象としているが、層境界の検出結果を用いて処理対象の領域を決定することとしてもよい。例えば、Z座標が30%−70%の領域をILMとRPEとによってはさまれる領域(第1領域の一例)に置き換えることとしてもよい。すなわち、繊維層嚢胞様孔の領域(第1異常部位の一例)を検出するために、画像処理部108は断層画像のX座標が25%−75%で且つILMとRPEとによってはさまれる領域に対して画素値が10以下である画素を抽出することとしてもよい。また、図5(b)の第2のテーブルに示すように、画像処理部108は後部硝子体剥離の領域(第2異常部位の一例)を検出するために層境界の検出結果であるILMより上側の領域(第2領域の一例)で細線化処理を行う。すなわち、画像処理部108および判定部110は、抽出手段により抽出された層境界(例えばILM)により画定される断層画像における第1領域と第2領域とに対して異なるアルゴリズムの構造解析を適用することで、第1領域から第1異常部位を検出し、第2領域から第1異常部位とは異なる第2異常部位を検出する。 Further, in step S3038, the region whose Z coordinate is 30% -70% is the processing target, but the region to be processed may be determined using the detection result of the layer boundary. For example, the region where the Z coordinate is 30% -70% may be replaced with a region sandwiched between the ILM and the RPE (an example of the first region). That is, in order to detect the region of the fibrous cyst-like pore (an example of the first abnormal site), the image processing unit 108 has a region where the X coordinate of the tomographic image is 25% -75% and is sandwiched between ILM and RPE. A pixel having a pixel value of 10 or less may be extracted. Further, as shown in the second table of FIG. 5B, the image processing unit 108 is based on the ILM which is the detection result of the layer boundary in order to detect the region of the posterior vitreous detachment (an example of the second abnormal region). The thinning process is performed in the upper region (an example of the second region). That is, the image processing unit 108 and the determination unit 110 apply structural analysis of different algorithms to the first region and the second region in the tomographic image defined by the layer boundary (for example, ILM) extracted by the extraction means. Therefore, the first abnormal part is detected from the first region, and the second abnormal part different from the first abnormal part is detected from the second region.

なお、内境界膜および神経線維層境界の一方と網膜色素上皮層境界および視細胞内節外節境界の一方とにより挟まれる領域を第1領域としてもよい。また、内境界膜および前記神経線維層境界の一方より硝子体側の領域を第2領域としてもよい。そして、上記のように定義された第1領域および第2領域それぞれの領域に対して異なるアルゴリズムの構造解析を適用することで第1異常部位および第2異常部位を生成してもよい。 The region sandwiched by one of the inner limiting membrane and the nerve fiber layer boundary and one of the retinal pigment epithelial layer boundary and the photoreceptor inner segment outer segment boundary may be the first region. Further, the region on the vitreous side of one of the inner limiting membrane and the nerve fiber layer boundary may be used as the second region. Then, the first abnormal portion and the second abnormal portion may be generated by applying the structural analysis of different algorithms to each of the first region and the second region defined as described above.

図6はステップS3030における画像処理結果の一例と、ステップS3040における判定の結果の一例とを示した図である。図6に示すRPE層610とILM620とは、断層画像600に対しステップS3030の処理によって抽出された層境界である。 FIG. 6 is a diagram showing an example of the image processing result in step S3030 and an example of the determination result in step S3040. The RPE layer 610 and ILM620 shown in FIG. 6 are layer boundaries extracted by the process of step S3030 with respect to the tomographic image 600.

繊維層嚢胞様孔の該当領域630と繊維層嚢胞様孔の非該当領域635は、ステップS3030において、「繊維層嚢胞様孔」に対応する画像処理のパラメータにより抽出された領域を示す。図6に示すように、繊維層嚢胞様孔の該当領域630では、縦横比が0.7以下(すなわち、横長)であるため、判定部110は、該当領域630は「繊維層嚢胞様孔」に該当すると判定している。一方、繊維層嚢胞様孔の非該当領域635では、縦横比が0.7を超えているために、判定部110は「繊維層嚢胞様孔」に該当しないと判定している。同様に、後部硝子体剥離該当部640は、ステップS3030において、「後部硝子体剥離」に対応する画像処理のパラメータにより抽出された線を示す。この例の場合は、線のX方向の長さが閾値である画像のX方向の長さの20%を超えているので、判定部110は「後部硝子体剥離」に該当すると判定する。このような判定を複数の所見の候補夫々について行う。図6の例では、上述の所見の他に、黄斑円孔650や蓋660が該当する所見として判定される。なお、本実施形態において上記のようにコンピュータ(診断支援装置100)が判定した所見をCAD所見と称する。 The corresponding region 630 of the fibrous cyst-like foramen and the non-corresponding region 635 of the fibrous cyst-like foramen indicate the regions extracted by the image processing parameters corresponding to the “fibrous layer cyst-like foramen” in step S3030. As shown in FIG. 6, since the aspect ratio of the corresponding region 630 of the fibrous layer cyst-like hole is 0.7 or less (that is, horizontally long), the determination unit 110 determines that the corresponding region 630 is a “fibrous layer cyst-like hole”. It is judged that it corresponds to. On the other hand, in the non-corresponding region 635 of the fibrous layer cyst-like hole, since the aspect ratio exceeds 0.7, the determination unit 110 determines that it does not correspond to the “fibrous layer cyst-like hole”. Similarly, the rear vitreous peeling corresponding portion 640 shows a line extracted by the image processing parameter corresponding to the “rear vitreous peeling” in step S3030. In the case of this example, since the length of the line in the X direction exceeds 20% of the length of the image in the X direction, which is the threshold value, the determination unit 110 determines that it corresponds to "rear vitreous detachment". Such a determination is made for each of the plurality of findings candidates. In the example of FIG. 6, in addition to the above-mentioned findings, the macular hole 650 and the lid 660 are determined as applicable findings. In this embodiment, the findings determined by the computer (diagnosis support device 100) as described above are referred to as CAD findings.

ステップS3050において、位置取得部112は、ステップS3030で実行した画像処理の結果と、ステップS3040で該当すると判定した所見の候補とに基づいて、所見に対応する医用画像の位置を示す情報(所見の位置を示す情報)を取得する。位置を示す情報は位置が特定できる情報であればどのような情報であってもよいが、本実施形態において、位置取得部112は、所見に該当すると判定された画像領域を内包する矩形の情報(例えば頂点の4つの座標)を、所見の位置を示す情報として取得する。言い換えれば、位置取得部112は、所見に該当すると判定された画像領域に外接する矩形の情報(例えば矩形の4つの頂点の座標)を、所見の位置を示す情報として取得する。なお、位置取得部112が取得する情報は画像領域を内包あるいは画像領域に外接する矩形の情報に限るものではなく、画像領域を含んでいれば矩形以外の形状であってもよい。 In step S3050, the position acquisition unit 112 indicates information (of the findings) indicating the position of the medical image corresponding to the findings, based on the result of the image processing executed in step S3030 and the candidate findings determined to be applicable in step S3040. Information indicating the position) is acquired. The information indicating the position may be any information as long as the position can be specified, but in the present embodiment, the position acquisition unit 112 is rectangular information including an image area determined to correspond to the finding. (For example, the four coordinates of the vertices) are acquired as information indicating the position of the finding. In other words, the position acquisition unit 112 acquires information on the rectangle circumscribing the image area determined to correspond to the finding (for example, the coordinates of the four vertices of the rectangle) as information indicating the position of the finding. The information acquired by the position acquisition unit 112 is not limited to the information of the rectangle that includes the image area or circumscribes the image area, and may have a shape other than the rectangle as long as the image area is included.

図6に示した例では、位置取得部112は、ステップS3040で「繊維層嚢胞様孔」と判定された領域に対して繊維層嚢胞様孔位置情報632、「後部硝子体剥離」と判定された領域に対して後部硝子体剥離位置情報642を取得する。ここで、繊維層嚢胞様孔位置情報632は繊維層嚢胞様孔の該当領域630に外接する矩形領域の位置情報であり、後部硝子体剥離位置情報642は後部硝子体剥離の該当領域640に外接する矩形領域の位置情報である。 In the example shown in FIG. 6, the position acquisition unit 112 is determined to have fibrous layer cyst-like hole position information 632 and “posterior vitreous detachment” with respect to the region determined to be “fibrous layer cyst-like hole” in step S3040. The posterior vitreous peeling position information 642 is acquired for the region. Here, the fibrous cyst-like pore position information 632 is the position information of a rectangular region circumscribing the corresponding region 630 of the fibrous cyst-like foramen, and the posterior vitreous detachment position information 642 circumscribes the corresponding region 640 of the posterior vitreous detachment. This is the position information of the rectangular area to be used.

位置取得部112は、このような所見の位置を示す情報の取得を、判定した複数の所見の候補夫々について行う。図6に示した例では、他に、黄斑円孔位置情報652と、蓋位置情報662が取得される。なお、同一所見の位置を示す情報はそれぞれの領域に関して取得してもよいし、それぞれの領域に優先度を付与し、優先度の最も高い領域の位置を示す情報を、その所見の位置を示す情報として取得してもよい。優先度は、例えば矩形面積の大きさ、画像中央からの距離、画像端からの距離の少なくとも一つによって決めることができる。例えば、断層画像において同一所見が複数存在する場合には、矩形面積が大きい所見を優先し、同一所見のうち矩形面積が大きい所見のみの位置を示す情報を取得することとしてもよい。 The position acquisition unit 112 acquires information indicating the position of such a finding for each of the determined candidates for the plurality of findings. In the example shown in FIG. 6, macular hole position information 652 and lid position information 662 are also acquired. Information indicating the position of the same finding may be acquired for each area, priority is given to each area, and information indicating the position of the area having the highest priority indicates the position of the finding. It may be acquired as information. The priority can be determined by, for example, at least one of the size of the rectangular area, the distance from the center of the image, and the distance from the edge of the image. For example, when there are a plurality of the same findings in the tomographic image, priority may be given to the findings having a large rectangular area, and information indicating only the positions of the findings having a large rectangular area among the same findings may be acquired.

ステップS3060において、表示制御部116は、表示部118に表示させる内容を制御する。そして、表示部118は、表示制御部116で制御された表示内容を表示する。 In step S3060, the display control unit 116 controls the content to be displayed on the display unit 118. Then, the display unit 118 displays the display content controlled by the display control unit 116.

具体的には、ステップS3050で取得した、ステップS3040において該当すると判定された所見の断層画像における位置を示す情報を用いて、ステップS3000で取得した断層画像上に、該当すると判定された所見の情報を重畳表示させる。より具体的には、表示制御部116は断層画像を表示部118に表示させるとともに、断層画像上に所見を文書或いは単語として重畳表示させる。すなわち、表示制御部116は、検出手段により検出された異常部位の所見を文書或いは単語として断層画像に重畳して表示手段に表示させる表示制御手段の一例に相当する。また、表示制御部116は所見に該当すると判定した画像領域(異常部位)の位置に対応する断層画像上の位置に所見を表示させる。 Specifically, using the information indicating the position in the tomographic image of the findings determined to be applicable in step S3040 acquired in step S3050, the information of the findings determined to be applicable on the tomographic image acquired in step S3000. Is superimposed and displayed. More specifically, the display control unit 116 displays the tomographic image on the display unit 118, and superimposes the findings on the tomographic image as a document or a word. That is, the display control unit 116 corresponds to an example of the display control means that superimposes the findings of the abnormal portion detected by the detection means on the tomographic image as a document or a word and displays them on the display means. Further, the display control unit 116 displays the findings at a position on the tomographic image corresponding to the position of the image region (abnormal portion) determined to correspond to the findings.

本実施形態では、表示制御部116は、各該当する所見に対して、以下の表示規則に従い、断層画像への重畳表示の位置を決定するものとする。(1)該当すると判定された他の所見の位置を示す情報の上には重畳表示しない。(2)所見の文字情報は、RPE層よりZ方向下側かILMよりZ方向上側に表示する。すなわち、所見の文字情報を網膜に重畳させない(3)該当すると判定された所見の位置を示す情報がZ方向においてRPE層とILMとの間にある場合には、当該情報が示す所見の位置の近傍にマーカ(例えば矢印など)を付与する。もちろん、表示規則は上記の例に限定されるものではない。例えば、条件(2)を、所見の文字情報は内境界膜および神経線維層境界の一方と網膜色素上皮層境界および視細胞内節外節境界の一方とに挟まれる領域以外の領域に表示させるという条件に変更してもよい。また、条件(2)を所見の文字情報の少なくとも一部はRPE層よりZ方向下側かILMよりZ方向上側に表示するという条件に変更することとしてもよい。このように条件を変更しても文字情報の全てが断層画像に重畳されることはなく、断層画像の視認性の低下を防ぐことが可能である。なお、条件(3)においてマーカを表示させるとともに、RPE層よりZ方向下側の領域およびILMよりZ方向上側の領域のうち該当する所見に対応する画像領域に近い方の領域に所見の文字情報を表示させることとしてもよい。このようにすれば、図7で示すマーカ712が不要に大きくなることによる断層画像の視認性の低下を防ぐことが可能となる。 In the present embodiment, the display control unit 116 determines the position of the superimposed display on the tomographic image according to the following display rules for each applicable finding. (1) Do not superimpose on the information indicating the position of other findings determined to be applicable. (2) The character information of the findings is displayed below the RPE layer in the Z direction or above the ILM in the Z direction. That is, the textual information of the findings is not superimposed on the retina. (3) When the information indicating the position of the findings determined to be applicable is between the RPE layer and the ILM in the Z direction, the position of the findings indicated by the information A marker (for example, an arrow) is added in the vicinity. Of course, the display rules are not limited to the above example. For example, condition (2) is displayed in a region other than the region where the textual information of the findings is sandwiched between one of the inner limiting membrane and the nerve fiber layer boundary and one of the retinal pigment epithelial layer boundary and the photoreceptor inner segment outer segment boundary. You may change to the condition. Further, the condition (2) may be changed to a condition that at least a part of the character information of the findings is displayed below the RPE layer in the Z direction or above the ILM in the Z direction. Even if the conditions are changed in this way, not all of the character information is superimposed on the tomographic image, and it is possible to prevent deterioration of the visibility of the tomographic image. In addition to displaying the marker under the condition (3), the character information of the findings is displayed in the region below the RPE layer in the Z direction and the region above the ILM in the Z direction, whichever is closer to the image region corresponding to the corresponding finding. May be displayed. By doing so, it is possible to prevent a decrease in visibility of the tomographic image due to the marker 712 shown in FIG. 7 becoming unnecessarily large.

図7は表示部118が表示する表示内容の一例を示したものである。表示部118が表示する表示内容700は、症例情報701、対象となる症例の断層画像710、断層画像に重畳表示する所見711、マーカ712、及び、対象となる症例の断層画像に対応する眼底画像715、眼底画像715に重畳表示する水平矢印717を有する。水平矢印717は断層画像710の眼底像上における取得位置を示している。さらに、解析処理結果画像720、モード730、表示情報740、オプション750、画像処理パラメータ760を有する。 FIG. 7 shows an example of the display content displayed by the display unit 118. The display content 700 displayed by the display unit 118 includes case information 701, a tomographic image 710 of the target case, findings 711 superimposed on the tomographic image, marker 712, and a fundus image corresponding to the tomographic image of the target case. 715, it has a horizontal arrow 717 that is superimposed and displayed on the fundus image 715. The horizontal arrow 717 indicates the acquisition position of the tomographic image 710 on the fundus image. Further, it has an analysis processing result image 720, a mode 730, display information 740, an option 750, and an image processing parameter 760.

表示制御部116は、前述した表示規則および所見711の位置を示す情報に基づいて所見711の文字情報を断層画像に重畳表示させる。例えば、「繊維層嚢胞様孔」に関しては、繊維層嚢胞様孔の領域713の位置を示す情報がZ方向においてRPE層とILMとの間にあるので、RPE層よりZ方向下側に所見711の文字情報が表示される。なお、本実施形態では、繊維層嚢胞様孔の領域713がILMよりZ方向上側の領域よりRPE層よりZ方向下側の領域に近いため「繊維層嚢胞様孔」という単語をRPE層よりZ方向下側の領域に表示させている。さらに、所見711の位置を示す情報の近傍にマーカ712が付与される。すなわち、異常部位である繊維層嚢胞様孔の領域713の近傍にマーカ712が表示される。また、「後部硝子体剥離」に関しては、「後部硝子体剥離」の位置を示す情報がILMよりZ方向上側にあるので、文字情報がILMに重ならないように、「後部硝子体剥離」の位置を示す情報の近傍に所見711の文字情報が表示される。図7に示す例では、検出された硝子体剥離部分に文字情報が重ならないように所見711の文字情報が表示されている。なお、文字情報の少なくとも一部が検出された硝子体剥離部分に重ならないように所見711の文字情報が表示させることとしてもよい。 The display control unit 116 superimposes and displays the character information of the finding 711 on the tomographic image based on the above-mentioned display rule and the information indicating the position of the finding 711. For example, regarding the "fibrous layer cyst-like foramen", since the information indicating the position of the fibrous layer cyst-like foramen region 713 is between the RPE layer and the ILM in the Z direction, the finding 711 is located below the RPE layer in the Z direction. Character information is displayed. In the present embodiment, since the region 713 of the fibrous layer cyst-like pore is closer to the region below the RPE layer in the Z direction than the region above the ILM in the Z direction, the word "fibrous layer cyst-like pore" is referred to as Z from the RPE layer. It is displayed in the area below the direction. Further, a marker 712 is added in the vicinity of the information indicating the position of the finding 711. That is, the marker 712 is displayed in the vicinity of the region 713 of the fibrous cyst-like foramen, which is an abnormal site. Regarding "rear vitreous detachment", since the information indicating the position of "rear vitreous detachment" is above the ILM in the Z direction, the position of "rear vitreous detachment" is prevented so that the character information does not overlap with the ILM. The character information of the finding 711 is displayed in the vicinity of the information indicating. In the example shown in FIG. 7, the character information of the finding 711 is displayed so that the character information does not overlap the detected vitreous peeled portion. The character information of the finding 711 may be displayed so that at least a part of the character information does not overlap the detected vitreous peeled portion.

上記の処理と同様に、「黄斑円孔」や「蓋」についても異常部位の近傍に所見711の文字情報が表示される。なお、表示される所見711の文字情報は、「後部硝子体剥離」のように単語であってもよいし、「後部硝子体に剥離がある」のように文書であってもよい。 Similar to the above processing, the character information of the finding 711 is displayed in the vicinity of the abnormal portion for the “macular hole” and the “lid”. The textual information of the displayed findings 711 may be a word such as "rear vitreous detachment" or a document such as "rear vitreous detachment".

解析処理結果画像720は、上述の画像解析結果を示す画像である。解析処理結果画像720には、硝子体領域721(斜線部分)、蓋722、繊維層嚢胞様孔723、後部硝子体剥離724、ILM725、網膜層領域726、RPE727、脈絡膜下領域728を示している。これらは、所見711を出力する基となった断層画像に対する画像解析の解析結果を表示している。本実施形態では、病変部(異常部位)として、蓋722、繊維層嚢胞様孔723、後部硝子体剥離724を検出する例を示しているが、これに限らない。黄斑上膜、網膜萎縮、硬性白斑などが存在する場合には、それらを検出した結果を示すようにする。なお、解析処理結果画像720は表示してもよいし表示しなくてもよい。 The analysis processing result image 720 is an image showing the above-mentioned image analysis result. The analysis processing result image 720 shows the vitreous region 721 (hatched portion), the lid 722, the fibrous layer cyst-like hole 723, the posterior vitreous detachment 724, the ILM725, the retinal layer region 726, the RPE727, and the subchoroidal region 728. .. These display the analysis results of the image analysis for the tomographic image that was the basis for outputting the findings 711. In the present embodiment, an example of detecting a lid 722, a fibrous layer cyst-like hole 723, and a posterior vitreous detachment 724 as a lesion (abnormal site) is shown, but the present invention is not limited to this. If there are epiretinal membranes, retinal atrophy, vitiligo, etc., show the results of detecting them. The analysis processing result image 720 may or may not be displayed.

モード730は表示モードを示す。本実施形態では診断画像モード731として断層画像に所見を表示するモードを示す。後述する実施形態(図11,14)においてはモード730として複数のモードが選択可能なインターフェースが表示される。 Mode 730 indicates a display mode. In this embodiment, a mode for displaying findings on a tomographic image is shown as a diagnostic image mode 731. In the embodiments (FIGS. 11 and 14) described later, an interface in which a plurality of modes can be selected is displayed as the mode 730.

表示情報740は、断層画像上に表示される情報を選択するユーザインターフェースである。医師等のユーザは、表示されたユーザインターフェースを例えばクリックまたはタップすることで断層画像上に表示される情報を切換えることが可能である。ユーザインターフェースとして、断層画像710に層検出の結果、医師による所見、CADによる所見、手書きメモなど、全ての情報の重畳表示をON/OFFする診断画像表示741が表示部118に表示されている。さらにユーザインターフェースとして、重畳表示する情報を個別に切り替えるために、層検出結果の表示ON/OFFを切り替える層検出表示742が表示部118に表示されている。加えて、医師により確定された所見の表示ON/OFFを切り替える医師所見表示743が表示部118に表示されている。また、ユーザインターフェースとして、CADにより検出した所見の表示ON/OFFを切り替えるCAD所見表示744、手書きメモの表示ON/OFFを切り替える手書きメモ表示745が表示部118に表示されている。表示情報740を指定するためのユーザインターフェースは例えばボタンやチェックボックス等とする。 The display information 740 is a user interface for selecting information to be displayed on the tomographic image. A user such as a doctor can switch the information displayed on the tomographic image by, for example, clicking or tapping the displayed user interface. As a user interface, a diagnostic image display 741 for turning on / off the superimposed display of all information such as a doctor's finding, a CAD finding, and a handwritten memo as a result of layer detection on the tomographic image 710 is displayed on the display unit 118. Further, as a user interface, a layer detection display 742 that switches the display ON / OFF of the layer detection result is displayed on the display unit 118 in order to individually switch the information to be superimposed and displayed. In addition, a doctor's finding display 743 for switching ON / OFF of the display of the findings confirmed by the doctor is displayed on the display unit 118. Further, as a user interface, a CAD finding display 744 for switching the display ON / OFF of the findings detected by CAD and a handwritten memo display 745 for switching the display ON / OFF of the handwritten memo are displayed on the display unit 118. The user interface for designating the display information 740 is, for example, a button or a check box.

所見は、CAD所見だけではなく医師が確定した所見も存在する。CAD所見は、コンピュータにより判定された所見を示し、医師による所見は、コンピュータが出力した所見について確定(承認)したもの或いはCADによる所見を修正したものとする。なお、医師が新たに追加した所見であってもよい。CAD所見の確定については、不図示の承認チェックボックス等を医者等の操作者が選択することでCAD所見の確定を行うことが可能である。その場合は、複数のCAD所見を一括で確定することが可能である。なお、マウスを持つPC装置であれば、チェックボックスをクリックしてCAD所見を選択することでCAD所見の確定を行うことが可能である。例えばチェックボックスは所見711のそれぞれの近傍に表示される。また、タッチパネルモニタであれば、画面のタップによりCAD所見を選択することでCAD所見の確定を行うことが可能である。一括確定の場合、チェックボックスではなく、所見711の存在しない断層画像711でのダブルクリックやダブルタップなどにより所見の一括確定としてもよい。なお、CAD所見の修正方法としては、表示部118に表示された所見711をタップまたはクリックすることで所定の所見711が選択し、選択した所見711に対して医師等がキーボード1007などを用いて修正を行うことが可能である。 The findings include not only CAD findings but also findings confirmed by a doctor. The CAD findings indicate the findings determined by the computer, and the findings by the doctor shall be the confirmed (approved) findings of the computer-output findings or the modified findings by the CAD. The findings may be newly added by the doctor. Regarding the determination of CAD findings, it is possible to confirm the CAD findings by an operator such as a doctor selecting an approval check box or the like (not shown). In that case, it is possible to determine a plurality of CAD findings at once. If the PC device has a mouse, the CAD findings can be confirmed by clicking the check box and selecting the CAD findings. For example, check boxes are displayed near each of Findings 711. Further, in the case of a touch panel monitor, it is possible to confirm the CAD findings by selecting the CAD findings by tapping the screen. In the case of batch confirmation, the findings may be collectively confirmed by double-clicking or double-tapping on the tomographic image 711 in which the finding 711 does not exist, instead of the check box. As a method for correcting CAD findings, a predetermined finding 711 is selected by tapping or clicking the finding 711 displayed on the display unit 118, and a doctor or the like uses a keyboard 1007 or the like for the selected finding 711. It is possible to make corrections.

また、個別に所見711を選択して確定を選択することとしてもよい。その場合、所見上で右クリックをしてメニューを表示させ、メニューに含まれる「確定」を選択してもよいし、所見711上でのダブルクリックやダブルタップなどにより確定させてもよい。さらには、所見711をタッチで仮選択とし、仮選択状態でタッチパネルモニタ上をスライドジェスチャ(スワイプ)する事により確定としてもよい。所見の修正の場合、所見711を選択すると他の所見名をリストボックスとして所見711近傍に表示をし、その中から任意の所見を選択することで確定することとしてもよい。また、不要な所見削除の場合は、所見711を選択してメニューから削除を選択するか、所見711を断層画像710の外までドラッグすることで削除することが可能である。すなわち、表示制御部116は、所見711に対する操作を検知して所見711を表示画面から削除することが可能である。 Alternatively, the findings 711 may be individually selected and confirmed may be selected. In that case, the menu may be displayed by right-clicking on the findings and "confirm" included in the menu may be selected, or may be confirmed by double-clicking or double-tapping on the findings 711. Further, the finding 711 may be tentatively selected by touching, and may be confirmed by sliding gesture (swipe) on the touch panel monitor in the tentatively selected state. In the case of correction of the finding, when the finding 711 is selected, another finding name may be displayed in the vicinity of the finding 711 as a list box, and the finding may be confirmed by selecting an arbitrary finding from the list box. Further, in the case of deleting unnecessary findings, it is possible to delete the findings by selecting the findings 711 and selecting the deletion from the menu, or by dragging the findings 711 to the outside of the tomographic image 710. That is, the display control unit 116 can detect the operation on the finding 711 and delete the finding 711 from the display screen.

また、所見の一括確定、個別確定共に、確定の解除機能を持つものとする。チェックボックスの場合は、チェックボックスのチェックを外せばよい。また、ダブルクリックやダブルタップの場合は、再度同じ操作をすることで解除する事も可能とする。 In addition, both the batch confirmation and individual confirmation of the findings shall have a confirmation cancellation function. In the case of a check box, uncheck the check box. Also, in the case of double-click or double-tap, it is possible to cancel by performing the same operation again.

所見には医師が確定した所見も含むため、CAD(診断支援装置100)が判定した所見とでは文字の色を変えて表示するのが望ましい。例えば、CAD所見は赤色とし、医師の所見は青色とする。このようにすれば、一見してどの所見がCADによるものか医師によるものかを容易に把握することが可能となる。なお、文字の色に限らずアイコンをつける、単語の周りを矩形で囲む、文字に影を付ける、フォントを変える等、CAD所見と医師による所見との違いが分かる表示であればよい。例えば、CAD所見をキーボード1007等を介して入力された医師の修正を表示制御部116が受け付けた場合、表示制御部116は所見711を医師による修正前後で異なる表示形態で表示させることとしてもよい。例えば、修正前後で所見711は文字の色が表示制御部116によって変更される。すなわち、表示制御部116は、操作者による表示手段に表示され記所見に対する修正を受け付ける受付手段の一例に相当すし、修正された所見を修正前と異なる表示形態で表示手段に表示させる。 Since the findings include the findings confirmed by the doctor, it is desirable to display the characters in a different color from the findings determined by the CAD (diagnosis support device 100). For example, CAD findings are red and doctors' findings are blue. In this way, it is possible to easily grasp which findings are due to CAD or doctors at first glance. It should be noted that the display is not limited to the color of the characters, and may be displayed so that the difference between the CAD findings and the findings by the doctor can be understood, such as adding an icon, enclosing the word with a rectangle, adding a shadow to the character, and changing the font. For example, when the display control unit 116 accepts the doctor's correction in which the CAD findings are input via the keyboard 1007 or the like, the display control unit 116 may display the findings 711 in different display forms before and after the correction by the doctor. .. For example, before and after the correction, the character color of the finding 711 is changed by the display control unit 116. That is, the display control unit 116 corresponds to an example of a reception means displayed on the display means by the operator and accepting corrections to the recorded findings, and causes the display means to display the corrected findings in a display form different from that before the correction.

なお、表示制御部116が、文字の色を変更するタイミングは医師により変更が行われた直後であってもよいし、不図示の承認チェックボックス等を選択することで修整を確定させたタイミングであってもよい。 The timing at which the display control unit 116 changes the character color may be immediately after the change is made by the doctor, or at the timing when the modification is confirmed by selecting an approval check box or the like (not shown). There may be.

さらには、所見の種類に応じて表示制御部116は所見711の文字の色を変えて表示部118に表示させるようにしてもよい。その場合、CADによる所見と医師による所見とではアイコンやフォント等を変えることとし、同じ所見では同じ色とする。例えば、黄斑円孔は水色、蓋は紫色などとし、CADによる所見は斜体、医師による所見は太字等とする。 Further, the display control unit 116 may change the color of the characters of the finding 711 and display it on the display unit 118 according to the type of the finding. In that case, the icon, font, etc. are changed between the findings by CAD and the findings by the doctor, and the same color is used for the same findings. For example, the macular hole is light blue, the lid is purple, etc., the CAD findings are italic, and the doctor's findings are bold.

また、手書きメモとして所見の他に任意のコメントを記入出来るものとする。手書きメモと所見入力との違いについて以下に示す。文字入力時に不図示の手書きメモ入力か所見入力かを選択する選択部を設け、医師等による選択に基づいてCPU1001が手書きメモ入力か所見入力かを判定することとしてもよい。あるいは、所見入力の場合は事前に登録された所見辞書の中から所見の単語を選択して追加をし、自由入力は手書きメモとする。あるいは、入力された単語の文字解析を行い、所見辞書に登録されている単語は所見であると判断する。あるいは、CADが出力した所見を修正したものや医師によってCADが出力した所見を確定したものを所見とし、自由入力は手書きメモとする。 In addition to the findings, any comment can be entered as a handwritten memo. The difference between handwritten memo and finding input is shown below. A selection unit for selecting a handwritten memo input or a finding input (not shown) may be provided at the time of character input, and the CPU 1001 may determine whether the handwritten memo input or the finding input is based on the selection by a doctor or the like. Alternatively, in the case of finding input, the word of the finding is selected from the pre-registered finding dictionary and added, and the free input is a handwritten memo. Alternatively, the character analysis of the input word is performed, and it is determined that the word registered in the finding dictionary is a finding. Alternatively, the findings obtained by modifying the findings output by the CAD or the findings output by the CAD are confirmed by the doctor, and the free input is a handwritten memo.

オプション750は、断層画像に対する処理を行うため、またはCADの情報を表示するためのユーザインターフェースである。医師等のユーザは、表示されたユーザインターフェースを例えばクリックまたはタップすることで画像処理部108による断層画像に対する処理の実行または表示制御部116によるCADの情報の表示を行うことが可能である。オプション750として、白黒反転表示751、傾き補正表示752、ノイズ除去753、濃度補正754、CAD詳細755というユーザインターフェースが表示されている。表示画像の白黒反転を指定する白黒反転表示751は、断層画像の表示色を低反射領域を黒とし高反射領域を白とする表示か、低反射領域を白とし高反射領域を黒とする表示とを切り替えるためのユーザインターフェースである。傾き補正表示752は、網膜層の傾き補正を行うためのユーザインターフェースである。これは、画像処理パラメータ760に基づいて表示する網膜層の傾きを補正する。ノイズ除去753は、画像処理パラメータ760に基づいて断層画像からノイズ除去を行うためのユーザインターフェースである。濃度補正754は、断層画像のWW/WLの補正を行うためのユーザインターフェースである。CAD詳細755は、解析処理結果画像720および画像処理パラメータ760の表示のON/OFFを選択するためのユーザインターフェースである。すなわち、解析処理結果画像720と画像処理パラメータ760は、CAD詳細755が選択されている時に表示制御部116によって表示部118に表示される。また、解析処理結果画像720には、解析処理を実行中の途中結果を随時表示するようにしてもよい。なお、画像処理パラメータ760の欄には、画像処理に必要なパラメータの項目761と、その数値762等を表示し、ここに表示した数値に基づいて処理が実行される。なお、数値762はマウス1006及びキーボード1007等を用いて編集可能とする。 Option 750 is a user interface for processing tomographic images or displaying CAD information. A user such as a doctor can execute processing on a tomographic image by the image processing unit 108 or display CAD information by the display control unit 116 by, for example, clicking or tapping the displayed user interface. As option 750, a user interface of black-and-white inverted display 751, tilt correction display 752, noise removal 753, density correction 754, and CAD details 755 is displayed. The black-and-white inverted display 751 that specifies the black-and-white inversion of the display image is a display in which the display color of the tomographic image is black in the low reflection area and white in the high reflection area, or white in the low reflection area and black in the high reflection area. It is a user interface for switching between. The tilt correction display 752 is a user interface for correcting the tilt of the retinal layer. This corrects the tilt of the retinal layer to be displayed based on the image processing parameter 760. The noise reduction 753 is a user interface for removing noise from a tomographic image based on the image processing parameter 760. The density correction 754 is a user interface for correcting the WW / WL of the tomographic image. The CAD detail 755 is a user interface for selecting ON / OFF of the display of the analysis processing result image 720 and the image processing parameter 760. That is, the analysis processing result image 720 and the image processing parameter 760 are displayed on the display unit 118 by the display control unit 116 when the CAD detail 755 is selected. Further, the analysis processing result image 720 may display the intermediate result during the execution of the analysis processing at any time. In the column of the image processing parameter 760, the item 761 of the parameter required for the image processing and the numerical value 762 thereof are displayed, and the processing is executed based on the numerical value displayed here. The numerical value 762 can be edited using a mouse 1006, a keyboard 1007, or the like.

図8に本実施形態における別の表示例について示す。図8では、図7における解析処理結果画像720と画像処理パラメータ760との箇所が異なり、解析データ820と解析値860とが表示される。それ以外の表示は図7に示す例と同じである。これらの表示はCAD詳細755のON/OFFによって切り替えられる。診断画像モード731ではCAD詳細755のONをデフォルト状態としているが、不図示の設定によりCAD詳細755のOFFをデフォルト状態として、解析データ820と画像解析値860の表示をデフォルトとしてもよい。解析データ820では、統計的な正常眼データベース821と、表示している断層画像710の層厚グラフ822を示している。正常眼データベース821は、例えば、「正常値の上限の外側」の範囲(99%以上)、「上側の境界線」の範囲(95%−99%)、「正常値」の範囲(5%−95%)、「下側の境界線」の範囲(1%−5%)、「正常値の下限の外側」の範囲(1%以下)で色分けがされている。層厚グラフ822は、正常眼データベース821と比較することで、網膜層の厚みが正常から外れる範囲に関してみる事が出来る。画像解析値860は、ステップS3030の画像処理とステップS3040の所見候補の判定の結果とにより、判定された病変のサイズや数等について計測した結果である。 FIG. 8 shows another display example in this embodiment. In FIG. 8, the location of the analysis processing result image 720 and the image processing parameter 760 in FIG. 7 is different, and the analysis data 820 and the analysis value 860 are displayed. Other than that, the display is the same as the example shown in FIG. These displays are switched by turning on / off the CAD details 755. In the diagnostic image mode 731, ON of CAD detail 755 is set as the default state, but OFF of CAD detail 755 may be set as the default state and display of analysis data 820 and image analysis value 860 may be set as default by a setting (not shown). The analysis data 820 shows a statistical normal eye database 821 and a layer thickness graph 822 of the displayed tomographic image 710. The normal eye database 821 contains, for example, a range of "outside the upper limit of normal value" (99% or more), a range of "upper boundary" (95% -99%), and a range of "normal value" (5%-). 95%), the range of "lower boundary line" (1% -5%), and the range of "outside the lower limit of normal value" (1% or less) are color-coded. The layer thickness graph 822 can be seen with respect to the range in which the thickness of the retinal layer deviates from the normal by comparing with the normal eye database 821. The image analysis value 860 is a result of measuring the size and number of the determined lesions by the image processing in step S3030 and the determination result of the finding candidate in step S3040.

本実施形態によれば、診断支援装置100は、医用画像の部位の情報を基に該当する所見の候補と所見の候補を導出に関する画像処理のパラメータを取得する。そして、取得した画像処理のパラメータを基に画像処理を行い、該当する所見の判定と位置を特定し、これらの結果を提示する。そうすることで、医師は医用画像上で該当すると判定された所見とその位置、および、解析結果を確認することができる。これにより、医師は現在対象としている医用画像の状態と、診断名を閲覧可能となるため、診断に係る負担を軽減させることができる。 According to the present embodiment, the diagnostic support device 100 acquires image processing parameters related to deriving the corresponding finding candidates and finding candidates based on the information of the site of the medical image. Then, image processing is performed based on the acquired image processing parameters, the determination and position of the corresponding findings are specified, and these results are presented. By doing so, the doctor can confirm the findings determined to be applicable on the medical image, their positions, and the analysis results. As a result, the doctor can view the state of the medical image currently being targeted and the diagnosis name, so that the burden related to the diagnosis can be reduced.

より具体的には、本実施形態によれば、断層画像上に所見が表示されるため、医師等は断層画像と所見との関係を容易に把握することが可能となる。また、所見は断層画像における異常部位の位置に対応して表示されるため異常部位と所見との関係を医師等は容易に把握することが可能となり、迅速な診断が可能となる。 More specifically, according to the present embodiment, since the findings are displayed on the tomographic image, the doctor or the like can easily grasp the relationship between the tomographic image and the findings. Further, since the findings are displayed corresponding to the positions of the abnormal parts in the tomographic image, the doctor or the like can easily grasp the relationship between the abnormal parts and the findings, and a quick diagnosis becomes possible.

さらに、所見を断層画像における網膜領域に極力重ならないように表示するため断層画像自体の視認性の低下を防ぎながら、断層画像上に所見を表示させることができる。 Further, since the findings are displayed so as not to overlap the retinal region in the tomographic image as much as possible, the findings can be displayed on the tomographic image while preventing deterioration of the visibility of the tomographic image itself.

<実施形態2>
実施形態1では、診断の対象となる医用画像を取得し、画像処理結果を用いて医用画像上にCAD所見等の支援情報を提示するとともに、画像処理の解析画像や解析データを提示した。本実施形態では、医用画像上に支援情報を提示するとともに、類似症例(類似画像)の結果を提示する場合について説明をする。
<Embodiment 2>
In the first embodiment, a medical image to be diagnosed is acquired, support information such as CAD findings is presented on the medical image using the image processing result, and an analysis image and analysis data of the image processing are presented. In the present embodiment, a case where the support information is presented on the medical image and the result of the similar case (similar image) is presented will be described.

図9を用いて実施形態2における診断支援装置900の機能構成の一例について説明を行う。診断支援装置900は、図1に対して、検索部914、データベース300が機能的に追加される。データベース300は有線または無線を介して診断支援装置900と通信可能に接続されている。データベース300は医用画像とその画像に対応する所見および診断名とが紐づけられて格納されている。すなわち、データベース300は複数の断層画像それぞれを所見と対付けて記憶する記憶手段の一例に相当する。 An example of the functional configuration of the diagnostic support device 900 according to the second embodiment will be described with reference to FIG. In the diagnosis support device 900, a search unit 914 and a database 300 are functionally added to FIG. The database 300 is communicably connected to the diagnostic support device 900 via wire or wireless. The database 300 stores a medical image and a finding and a diagnosis name corresponding to the image in association with each other. That is, the database 300 corresponds to an example of a storage means for storing each of a plurality of tomographic images in association with the findings.

また、データベース300に格納されている医用画像には性別および年齢等の患者情報が対応付けられている。そしてデータベース300は、診断支援装置900からの要求に対して、要求に対応する医用画像及び所見を診断支援装置900へと出力する。なお、データベース300は診断支援装置900内部の記憶部104に保存される構成であってもよい。検索部914は、判定部110で該当すると判定された所見の候補をキーとして、データベース300から、対象としている医用画像と類似する画像の情報を要求する。そして、検索部914は、データベース300から要求した情報を受信する。検索部914は、受信した画像の情報を対象としている医用画像との類似度とともに表示制御部116へと出力する。また、診断支援装置900のハードウェア構成は実施形態1における図2と同様である。即ち、CPU1001が主メモリ1002、磁気ディスク1003に格納されているプログラムを実行することにより、本実施形態の診断支援装置900の機能(ソフトウェア)及びフローチャートにおける処理が実現される。 In addition, patient information such as gender and age is associated with the medical image stored in the database 300. Then, in response to the request from the diagnosis support device 900, the database 300 outputs the medical image and findings corresponding to the request to the diagnosis support device 900. The database 300 may be configured to be stored in the storage unit 104 inside the diagnosis support device 900. The search unit 914 requests information on an image similar to the target medical image from the database 300, using the candidate findings determined by the determination unit 110 as a key. Then, the search unit 914 receives the information requested from the database 300. The search unit 914 outputs the information of the received image to the display control unit 116 together with the similarity with the target medical image. The hardware configuration of the diagnostic support device 900 is the same as that of FIG. 2 in the first embodiment. That is, when the CPU 1001 executes the program stored in the main memory 1002 and the magnetic disk 1003, the functions (software) of the diagnostic support device 900 of the present embodiment and the processing in the flowchart are realized.

診断支援装置900が行う処理の一例を説明するフローチャートを図10に示す。基本的に実施形態1における図3のフローと同じであるが、処理の一部が実施形態1とは異なっている。具体的には、類似画像の検索S10060と、情報の表示S10070が図3のフローとは異なる。以下、図10のフローチャート、図11の表示内容の一例を参照して、本実施形態における診断支援装置900が行う処理について、実施形態1との相違部分についてのみ説明する。 FIG. 10 shows a flowchart illustrating an example of processing performed by the diagnosis support device 900. It is basically the same as the flow of FIG. 3 in the first embodiment, but a part of the processing is different from the first embodiment. Specifically, the search S10060 for similar images and the information display S10070 are different from the flow of FIG. Hereinafter, with reference to the flowchart of FIG. 10 and an example of the display contents of FIG. 11, the processing performed by the diagnostic support device 900 in the present embodiment will be described only for the differences from the first embodiment.

図10のフローチャートにおいてステップS3000乃至ステップS3050の処理は、実施形態1と同様であるため説明を省略する。 In the flowchart of FIG. 10, the processes of steps S3000 to S3050 are the same as those of the first embodiment, and thus the description thereof will be omitted.

ステップS10060において、検索部914は、ステップS3040で該当すると判定された所見の候補をキーとして、データベース300から類似画像を取得する。すなわち、検索部914は、検出手段により検出された異常部位の所見と一致する所見に対応付けられた断層画像を記憶手段から取得する類似画像取得手段の一例に相当する。 In step S10060, the search unit 914 acquires a similar image from the database 300 using the candidate findings determined to be applicable in step S3040 as a key. That is, the search unit 914 corresponds to an example of a similar image acquisition means that acquires a tomographic image associated with a finding that matches the finding of the abnormal portion detected by the detection means from the storage means.

なお、検索キーは、「後部硝子体剥離」または「黄斑円孔」等である。検索キーとする所見は複数であってもよいし一つであってもよい。なお、データベース300に格納された所見は、例えば、医師が事前に症例に対して特定した所見であり、データベース300には医師により特定された所見の位置に関する情報も含まれているものとする。データベース300に含まれる所見の情報は医師によって事前に特定された情報に代えて、教科書のような文献情報を用いたものであってもよいし、データベース用に収集した症例に対して医師が特定した所見の情報を用いてもよい。 The search key is "posterior vitreous detachment" or "macular hole" or the like. The number of findings used as the search key may be multiple or one. It is assumed that the findings stored in the database 300 are, for example, findings specified by the doctor in advance for the case, and the database 300 also includes information regarding the position of the findings specified by the doctor. The information on the findings contained in the database 300 may be information on literature such as a textbook instead of the information specified in advance by the doctor, or the doctor may specify the cases collected for the database. You may use the information of the findings.

検索部914による類似画像の取得方法は、検索キーが完全に一致するもののみをデータベース300から取得してもよいし、検索キーの一部が一致する類似画像を取得してもよい。例えば、複数の所見を検索キーとした場合に、複数の所見のうち一部の所見にのみ一致する類似画像を検索部914は取得することとしてもよい。あるいは何らかの方法により類似度を計算し、類似度の高い順に規定の数だけ画像を取得するようにしてもよい。本実施形態では、検索キーが完全に一致する画像のみを取得するものとする。類似度を用いる方法に関しては後述の変形例で説明する。 As a method of acquiring similar images by the search unit 914, only those whose search keys match exactly may be acquired from the database 300, or similar images whose search keys partially match may be acquired. For example, when a plurality of findings are used as a search key, the search unit 914 may acquire a similar image that matches only a part of the plurality of findings. Alternatively, the similarity may be calculated by some method, and a specified number of images may be acquired in descending order of similarity. In the present embodiment, it is assumed that only the images whose search keys match exactly are acquired. The method of using the similarity will be described in a modified example described later.

ステップS10070において、表示制御部116は、表示部118に表示させる内容を制御する。そして、表示部118は、表示制御部116で制御された表示内容を表示する。具体的には、ステップS3050で取得した、ステップS3040において該当すると判定された所見の医用画像における位置を示す情報を用いて、ステップS3000で取得した医用画像上に、該当すると判定された所見の情報を重畳表示させる。所見情報の表示規則は実施形態1と同様とする。さらに、表示制御部116は、ステップS10060で取得した類似する画像の情報を基に、類似する画像と、それに紐づいている診断名の情報とを、類似度の高い順に表示させる。本実施形態ではステップS10060で検索キーが完全に一致する画像のみを取得しているため、ステップS3000で取得した医用画像に係る患者情報に関して、同性で、年齢が近い類似画像から表示するものとする。あるいは、撮影の情報以外に生活習慣に関する情報を取得可能な構成であれば、生活習慣の項目を検索キーに追加してもよい。例えば、糖尿病の有無や喫煙の有無などの情報を用いて検索を実行してもよい。これらの他に、撮影日が近い情報から表示するようにしてもよい。また、本実施形態では、類似する画像と、それに紐づく診断名の情報をリストで管理し、リストの情報を表示するとともに、リスト中の一つの症例をステップS3000で取得した医用画像と対比可能な形で表示する。なお、対比可能な形で表示する一つの症例は、診断支援装置900が選択してもよいし、診断支援装置900がユーザ入力による選択を受け入れるようにしてもよい。例えば、ユーザインターフェースとして類似症例のリストを格納したリストボックスを用意し、リストボックスの中から一つの症例を選択させることで実現できる。 In step S10070, the display control unit 116 controls the content to be displayed on the display unit 118. Then, the display unit 118 displays the display content controlled by the display control unit 116. Specifically, using the information indicating the position of the findings determined to be applicable in step S3040 in the medical image acquired in step S3050, the information of the findings determined to be applicable on the medical image acquired in step S3000. Is superimposed and displayed. The rules for displaying the finding information are the same as those in the first embodiment. Further, the display control unit 116 displays the similar images and the information of the diagnosis name associated with the similar images in descending order of the degree of similarity based on the information of the similar images acquired in step S10060. In the present embodiment, since only the images whose search keys exactly match in step S10060 are acquired, the patient information related to the medical image acquired in step S3000 is displayed from similar images of the same sex and similar ages. .. Alternatively, if the configuration is such that information on lifestyle habits can be acquired in addition to shooting information, lifestyle-related items may be added to the search key. For example, the search may be performed using information such as the presence or absence of diabetes and the presence or absence of smoking. In addition to these, information that is close to the shooting date may be displayed first. Further, in the present embodiment, information on similar images and diagnosis names associated therewith can be managed in a list, the information in the list can be displayed, and one case in the list can be compared with the medical image acquired in step S3000. Display in a simple form. The diagnosis support device 900 may select one case to be displayed in a comparable form, or the diagnosis support device 900 may accept the selection by user input. For example, it can be realized by preparing a list box that stores a list of similar cases as a user interface and having one case selected from the list box.

本実施形態では、表示制御部116が最も撮影日が近い類似する画像を初期の対比可能な形で表示する一つの症例として決定するものとし、その後はユーザ入力による選択に応じて対比可能な形で表示する症例を決定するものとする。なお、表示の方法はこれに限定されない。例えば、複数の類似する画像とそれに紐づく診断名の情報とを、ステップS3000で取得した医用画像と対比可能な形で表示してもよいし、全てを対比可能な形で表示してもよい。 In the present embodiment, the display control unit 116 determines as one case in which a similar image having the closest shooting date is displayed in an initial contrastable form, and thereafter, a contrastable form according to a user input selection. The cases to be displayed in shall be determined. The display method is not limited to this. For example, a plurality of similar images and information on the diagnosis name associated therewith may be displayed in a form that can be compared with the medical image acquired in step S3000, or all of them may be displayed in a form that can be compared. ..

図11は表示部118が表示する表示内容の一例を示したものである。表示部118が表示する表示内容700は、実施形態1の図7で説明した図を基本とする。実施形態1との差異は、ユーザインターフェースとして類似症例モード1132が表示されている点である。医師等が類似症例モード1132をタップまたはクリックすることで類似症例モードを選択すると、表示制御部116は類似症例リスト(すなわち、類似する画像が類似度の高い順に表示したリスト)1160を表示させる。そして、表示制御部116は、類似症例リストの中の一つの症例(ここでは、前述したように撮影日が最も近い画像)の断層画像1120、所見1121、診断名1122及び断層画像に対応する眼底画像1125を表示部118に表示させる。類似症例モード1132が選択された場合には、オプション750に症例検索を実行するユーザインターフェースである症例検索1155が追加される。医師等の操作者が症例検索1155をタップまたはクリックする事で、対象の断層画像710に類似する症例検索が実行される。なお、本実施形態では、症例検索を実行するためのユーザインターフェースを類似症例モード1132と別にする例を示したが、類似症例モード1132を選択すると同時に症例検索を実行するようにしてもよい。 FIG. 11 shows an example of the display contents displayed by the display unit 118. The display content 700 displayed by the display unit 118 is based on the diagram described with reference to FIG. 7 of the first embodiment. The difference from the first embodiment is that the similar case mode 1132 is displayed as a user interface. When a doctor or the like selects a similar case mode by tapping or clicking the similar case mode 1132, the display control unit 116 displays a similar case list (that is, a list in which similar images are displayed in descending order of similarity) 1160. Then, the display control unit 116 sets the tomographic image 1120, the finding 1121, the diagnosis name 1122, and the fundus corresponding to the tomographic image of one case in the similar case list (here, the image having the closest shooting date as described above). The image 1125 is displayed on the display unit 118. When similar case mode 1132 is selected, option 750 adds case search 1155, a user interface that performs case search. When an operator such as a doctor taps or clicks the case search 1155, a case search similar to the target tomographic image 710 is executed. In the present embodiment, an example in which the user interface for executing the case search is different from the similar case mode 1132 is shown, but the case search may be executed at the same time as selecting the similar case mode 1132.

所見が重畳表示された断層画像710、1120は、前述した表示規則に従って、所見の位置を示す情報に基づいて該当すると判定された所見711、1121の情報が重畳表示されている。なお、前述の通り、ユーザ入力による選択の結果、類似症例リストの他の症例を対比可能な形で表示する症例として決定した場合は、表示制御部116により表示部118の表示内容が制御される。具体的には、表示制御部116は、類似症例リスト1160で選択された症例に対応する、所見が重畳表示された断層画像1120、診断名1122及び断層画像に対応する眼底画像1125を表示部118に表示させる。 In the tomographic images 710 and 1120 on which the findings are superimposed and displayed, the information of the findings 711 and 1121 determined to be applicable based on the information indicating the position of the findings is superimposed and displayed in accordance with the display rules described above. As described above, as a result of selection by user input, when it is determined as a case to display other cases in the similar case list in a comparable form, the display content of the display unit 118 is controlled by the display control unit 116. .. Specifically, the display control unit 116 displays the tomographic image 1120 in which the findings are superimposed and displayed, the diagnosis name 1122, and the fundus image 1125 corresponding to the tomographic image corresponding to the cases selected in the similar case list 1160. To display.

本実施形態によれば、診断支援装置900は、医用画像の部位の情報を基に該当する所見の候補と所見の候補を導出に関する画像処理のパラメータを取得する。そして、取得した画像処理のパラメータを基に画像処理を行い、該当する所見の判定と位置を特定し、該当すると判定した所見を基に類似画像を検索し、これらの結果を提示する。そうすることで、医師は医用画像上で該当すると判定された所見とその位置、および、類似画像に紐づいた診断名を確認することができる。これにより、医師は現在対象としている医用画像の状態と、類似した症例の診断名を閲覧となるため、診断に係る負担を軽減させることができる。 According to the present embodiment, the diagnostic support device 900 acquires image processing parameters related to deriving the corresponding finding candidates and finding candidates based on the information of the site of the medical image. Then, image processing is performed based on the acquired image processing parameters, the determination and position of the corresponding findings are specified, similar images are searched based on the findings determined to be applicable, and these results are presented. By doing so, the doctor can confirm the findings determined to be applicable on the medical image, their positions, and the diagnosis name associated with the similar image. As a result, the doctor can browse the diagnosis name of the case similar to the state of the medical image currently targeted, so that the burden related to the diagnosis can be reduced.

また、デフォルト状態においては、現在対象としている医用画像に最も類似した画像を対比可能な形で表示されるため、医師等の操作者は対比に適した画像を選択する時間を節約することが可能である。 In addition, in the default state, an image most similar to the currently targeted medical image is displayed in a comparable form, so that an operator such as a doctor can save time to select an image suitable for the contrast. Is.

なお、データベース300に格納されている情報は上記の例に限定されるものではない。例えば、データベース300には医用画像とその画像に対応する所見および診断名と当該所見の断層画像における位置と診断名と所見とが紐づけられて格納されていることとしてもよい。この場合、検索部914は、所見に加えて所見の位置を検索キーとして、類似画像を検索することができる。例えば、検索部914は、所見が一致し且つ所見の位置が一致または対象とする断層画像とデータベース300内の断層画像の所見の位置の差が所定の閾値以内の断層画像(類似画像)をデータベース300から取得することとしてもよい。すなわち、データベース300は、複数の断層画像それぞれを所見および当該所見の断層画像における位置と対応付けて記憶することとしてもよい。また、類似画像取得手段の一例である検索部914は、検出手段により検出された異常部位の所見および当該所見の位置と一致する所見および当該所見の位置に対応付けられた断層画像を記憶手段から取得する。 The information stored in the database 300 is not limited to the above example. For example, the database 300 may store a medical image, a finding and a diagnosis name corresponding to the image, a position of the finding in a tomographic image, a diagnosis name, and a finding in association with each other. In this case, the search unit 914 can search for similar images by using the position of the finding as a search key in addition to the finding. For example, the search unit 914 prepares a database of tomographic images (similar images) in which the difference between the tomographic images to which the findings match and the positions of the findings match or the target tomographic images and the tomographic image in the database 300 are within a predetermined threshold value. It may be obtained from 300. That is, the database 300 may store the findings and the positions of the findings in the tomographic image in association with each of the plurality of tomographic images. In addition, the search unit 914, which is an example of the similar image acquisition means, stores the findings of the abnormal portion detected by the detection means, the findings matching the position of the findings, and the tomographic image associated with the position of the findings from the storage means. get.

このようにすれば、所見および所見の位置が一致する類似画像を取得できるため、対象とする断層画像により近い症状を呈する断層画像を取得することが可能となる。 By doing so, it is possible to acquire a similar image in which the findings and the positions of the findings match, so that it is possible to acquire a tomographic image showing symptoms closer to the target tomographic image.

(変形例1)
上記の実施形態では、所見を検索キーとして、所見の一致する類似症例を検索していた。しかし、類似症例検索の方法はこれに限らない。例えば、画像特徴量を基に類似症例を検索するようにしてもよい。この処理について、図12のフローチャートを用いて説明をする。図12は図10のフローチャートのステップS10060の処理を詳細化したものである。
(Modification example 1)
In the above embodiment, the findings are used as a search key to search for similar cases with matching findings. However, the method for searching for similar cases is not limited to this. For example, similar cases may be searched based on the amount of image features. This process will be described with reference to the flowchart of FIG. FIG. 12 is a refinement of the process of step S10060 in the flowchart of FIG.

ステップS10061では大局特徴抽出として、画像処理部108は断層画像から網膜層の厚み特徴を抽出する。網膜層の厚みは、ILMとRPEの境界線とのZ方向の差を網膜層の厚みとする。網膜層の厚みを計算するための領域として、画像処理部108は、黄斑部中心領域、黄斑部中心を除いた左右領域、全体領域とからそれぞれ特徴量を抽出する。領域分割の方法として、断層画像のX方向を単純に3分割してもよいし、5分割をして、左右領域は2/5ずつとし、黄斑領域は中心の1/5としてもよい。なお、厚みを計算する際の領域から視神経乳頭部領域を除去することが望ましい。それぞれの領域における厚みの特徴量は、平均厚、最大厚、最小厚、分散あるいは標準偏差のいずれかであるものとする。画像処理部108は、これらの特徴量から大局特徴ベクトルを作成する。このように、大局特徴は網膜全体の形状特徴を表す。 In step S10061, as a global feature extraction, the image processing unit 108 extracts the thickness feature of the retinal layer from the tomographic image. For the thickness of the retinal layer, the difference in the Z direction between the boundary line between ILM and RPE is defined as the thickness of the retinal layer. As a region for calculating the thickness of the retinal layer, the image processing unit 108 extracts a feature amount from each of the central region of the macula, the left and right regions excluding the center of the macula, and the entire region. As a method of region division, the X direction of the tomographic image may be simply divided into three, or five divisions may be made so that the left and right regions are 2/5 each and the macula region is 1/5 of the center. It is desirable to remove the optic disc region from the region when calculating the thickness. The thickness feature in each region shall be one of average thickness, maximum thickness, minimum thickness, dispersion or standard deviation. The image processing unit 108 creates a global feature vector from these features. Thus, the global feature represents the shape feature of the entire retina.

ステップS10062では局所特徴抽出として、画像処理部108は網膜内層の局所領域においてHOG特徴を計算する。HOG特徴は、局所領域において輝度の勾配方向と勾配強度を算出し、横軸を勾配方向、縦軸を勾配強度としたヒストグラムを作成する特徴量である。網膜内層が正常であれば、網膜内層は層構造をしているので、局所領域において輝度の勾配方向が揃うが、病変により層構造が乱れている場合には、輝度の勾配方向も乱れる。このように、局所特徴は網膜内層の層の整列状態を表す。なお、HOG特徴を計算する領域は、OCTの断層画像全体ではなく、実施形態1のステップS3034で示した網膜領域に適応するのが望ましい。ここで求める局所特徴量は数1000次元となるため、後述する画像表現で次元を減らす。 In step S10026, as local feature extraction, the image processing unit 108 calculates the HOG feature in the local region of the inner layer of the retina. The HOG feature is a feature amount that calculates the gradient direction and gradient intensity of brightness in a local region and creates a histogram with the horizontal axis as the gradient direction and the vertical axis as the gradient intensity. If the inner layer of the retina is normal, the inner layer of the retina has a layered structure, so that the gradient directions of the brightness are aligned in the local region, but when the layer structure is disturbed by the lesion, the gradient direction of the brightness is also disturbed. Thus, local features represent the alignment of the inner layers of the retina. It is desirable that the region for calculating the HOG feature is not the entire tomographic image of OCT but the retinal region shown in step S3034 of the first embodiment. Since the local feature amount obtained here has several thousand dimensions, the dimensions are reduced in the image representation described later.

ステップS10063では、画像処理部108はステップS10062で求めた局所特徴量をBag of Featuresにより画像表現に変換する。Bag of Featuresは画像特徴量の辞書(コードブック)に登録されている画像特徴の出現頻度から画像を分類する方法である。学習時に、全ての学習用画像から局所特徴量を抽出し、抽出した局所特徴量を特徴空間においてクラスタリングを行い、各クラスタの重心をVisual word(コードブック)とする。この際のクラスタリングには、K−meansを用いる。ステップS10063の画像表現時では、画像処理部108はステップS10062で求めた局所特徴量を、学習時に作成したVisual wordにおいて最も近いVisual wordに投票する。これにより画像処理部108は、局所特徴量をVisual wordの出現頻度をカウントした局所特徴ベクトルに変換する。 In step S10063, the image processing unit 108 converts the local feature amount obtained in step S10026 into an image representation by Bag of Features. Bag of Features is a method of classifying images based on the appearance frequency of image features registered in a dictionary (codebook) of image features. At the time of learning, local features are extracted from all the learning images, the extracted local features are clustered in the feature space, and the center of gravity of each cluster is set as a visual word (codebook). K-means is used for clustering at this time. At the time of image representation in step S10063, the image processing unit 108 votes the local feature amount obtained in step S10062 to the closest Visual word in the Visual word created at the time of learning. As a result, the image processing unit 108 converts the local feature amount into a local feature vector that counts the appearance frequency of the visual word.

ステップS10064の検索では、検索部914は、ステップS10061で求めた大局特徴ベクトルとステップS10063で求めた局所特徴ベクトルとを用いて類似画像の検索を行う。検索の方法として、大局特徴ベクトルと局所特徴ベクトルとそれぞれで類似度を計算し、その総合類似度で検索結果とする。類似度としては、例えば、コサイン類似度を用いる事が出来る。対象となる画像特徴ベクトルをVt、データベース300に保存されている画像特徴ベクトルをVsとすると、コサイン類似度は以下の式で示される。 In the search in step S10064, the search unit 914 searches for similar images using the global feature vector obtained in step S10061 and the local feature vector obtained in step S10063. As a search method, the similarity is calculated for each of the global feature vector and the local feature vector, and the total similarity is used as the search result. As the similarity, for example, cosine similarity can be used. Assuming that the target image feature vector is Vt and the image feature vector stored in the database 300 is Vs, the cosine similarity is expressed by the following equation.

Figure 0006825058

この類似度は1に近いほど二つのベクトルが類似していることを示し、0に近ければ類似していないことを示す。
Figure 0006825058

The closer this similarity is to 1, the more similar the two vectors are, and the closer to 0, the less similar they are.

類似度計算の方法としてはこれに限らず、偏差パターン類似度を計算するようにしてもよい。各要素の属する集団における平均値からの偏差を類似度とし、最大値は1となる。すなわち、偏差パターン類似度は特徴空間でのデータの分布を反映した類似度となる。このような類似度を用いた場合には、ステップS10070で類似度が高い順に症例リストに表示するのが望ましい。このように、所見による検索ではなく、画像特徴量を基に類似症例を検索することも出来る。 The method of calculating the similarity is not limited to this, and the deviation pattern similarity may be calculated. The deviation from the average value in the group to which each element belongs is defined as the similarity, and the maximum value is 1. That is, the deviation pattern similarity is a similarity that reflects the distribution of data in the feature space. When such similarity is used, it is desirable to display it in the case list in descending order of similarity in step S10070. In this way, it is possible to search for similar cases based on image features instead of searching based on findings.

データベース300は、複数の断層画像それぞれを所見、断層画像の所定の層の厚さに基づく情報および断層画像に含まれる網膜の輝度に基づく情報と対応付けて記憶することとしてもよい。ここで、断層画像の所定の層の厚さに基づく情報とは例えば大局特徴ベクトルであり、断層画像に含まれる網膜の輝度に基づく情報とは例えば局所特徴ベクトルである。データベース300が上記のような情報を格納する場合、検索部914は、検出手段により検出された異常部位の所見、層の厚さに基づく情報および輝度に基づく情報に対応する、異常部位の所見、層の厚さに基づく情報および輝度に基づく情報に対応付けられた断層画像を記憶手段から取得する。なお、この変形例は実施形態2のみならず他の実施形態においても適用可能である。 The database 300 may store each of the plurality of tomographic images in association with information based on the thickness of a predetermined layer of the tomographic image and information based on the brightness of the retina included in the tomographic image. Here, the information based on the thickness of a predetermined layer of the tomographic image is, for example, a global feature vector, and the information based on the brightness of the retina included in the tomographic image is, for example, a local feature vector. When the database 300 stores the above-mentioned information, the search unit 914 finds the abnormal portion detected by the detection means, the finding of the abnormal portion corresponding to the information based on the layer thickness and the information based on the brightness. A tomographic image associated with the layer thickness-based information and the brightness-based information is acquired from the storage means. It should be noted that this modification can be applied not only to the second embodiment but also to other embodiments.

(変形例2)
実施形態2では、ステップS3060において、検索部914は、ステップS3040で該当すると判定した所見の候補を検索キーとして、検索キーが完全一致する画像(症例)のみをデータベース300から取得していた。しかし、検索キーが部分一致の画像を取得してもよいし、検索キーの類似度を計算する方法を用いて画像を取得してもよい。
(Modification 2)
In the second embodiment, in step S3060, the search unit 914 uses the candidate for the finding determined to be applicable in step S3040 as the search key, and acquires only the image (case) in which the search key completely matches from the database 300. However, the search key may acquire an image with a partial match, or the image may be acquired by using a method of calculating the similarity of the search key.

類似度としては、例えば、ベクトルの類似度を計算するコサイン類似度を用いることができる。以下、具体的に説明する。まず、ステップS3010で取得した複数の所見の候補と、ステップS3040で該当すると判定された所見の候補とを用いて画像処理部108は所見ベクトルを作成する。所見ベクトルは、各所見の候補をベクトルの要素と見なし、対象とする画像にある所見が該当する(存在する)場合には1を、ない場合には0を与えることで生成できる。例えば、複数の所見の候補が20個ある場合には、20次元の所見ベクトルとなる。次に、画像処理部108は生成した所見ベクトルと、データベース300に保存されている医用画像の所見ベクトルを生成し、検索部914はこれらのベクトルの類似度を計算する。あるいは、データベース300には所見ベクトルを予め保存しておくようにしてもよい。 As the similarity, for example, a cosine similarity for calculating the similarity of vectors can be used. Hereinafter, a specific description will be given. First, the image processing unit 108 creates a finding vector using the plurality of finding candidates acquired in step S3010 and the finding finding candidates determined to be applicable in step S3040. The finding vector can be generated by considering each finding candidate as an element of the vector and giving 1 when the finding in the target image corresponds (exists) and 0 when it does not. For example, when there are 20 candidates for a plurality of findings, it becomes a 20-dimensional finding vector. Next, the image processing unit 108 generates the generated finding vector and the finding vector of the medical image stored in the database 300, and the search unit 914 calculates the similarity between these vectors. Alternatively, the finding vector may be stored in the database 300 in advance.

対象となる医用画像の所見ベクトルをVt、データベース300に保存されている医用画像の所見ベクトルをVsとすると、コサイン類似度は変形例1で説明した式1で示される。 Assuming that the finding vector of the target medical image is Vt and the finding vector of the medical image stored in the database 300 is Vs, the cosine similarity is represented by the formula 1 described in the modification 1.

なおこの変形例は第2の実施形態のみならず他の実施形態においても適用可能であり、変形例1で示した画像特徴の類似度と所見の類似度との両方を用いて類似症例を検索するようにしてもよい。具体的には、それぞれの類似度は1で正規化しているので、単純に類似度の総合和で最終的な類似度となるようにしてもよいし、画像特徴類似度と所見類似度とにそれぞれ重みを掛けて重み加算で最終的な類似度を計算するようにしてもよい。 Note that this modification can be applied not only to the second embodiment but also to other embodiments, and a similar case is searched for using both the similarity of the image features and the similarity of the findings shown in the first embodiment. You may try to do it. Specifically, since each similarity is normalized by 1, the final similarity may be simply the sum of the similarity, or the image feature similarity and the finding similarity may be used. The final similarity may be calculated by multiplying each weight and adding weights.

(変形例3)
実施形態2では、データベース300に格納された症例の該当する所見と所見の位置は医師が事前に特定することとしていた。しかし、その他の方法で所見等が特定されてもよい。例えば、データベース300に格納された症例に対してステップS3010乃至ステップS3050の処理を行い、該当する所見および所見の位置情報を医用画像
紐づけるようにしてもよい。また、ステップS10070の処理を行った後に、当該症例をデータベースに保存するようにしてもよい。
(Modification 3)
In the second embodiment, the doctor identifies the corresponding findings and the positions of the findings of the cases stored in the database 300 in advance. However, the findings and the like may be specified by other methods. For example, the cases stored in the database 300 may be processed in steps S3010 to S3050, and the corresponding findings and the position information of the findings may be associated with a medical image. Further, after performing the process of step S10070, the case may be saved in the database.

(変形例4)
実施形態2では、検索部914は、データベース300に格納された症例から類似症例を検索していた。しかし、必ずしも外部に接続されたデータベース300から類似症例を検索しなくてもよい。例えば、データベース300と同等の情報を有する症例情報を記憶部104に保存しておき、検索部914は記憶部104に記憶された症例情報から類似症例を検索してもよい。この場合、記憶部104に記憶された症例情報をユーザ、設置場所、時刻などの様々な条件に応じて入れ替えてもよい。同様に、第1のテーブル情報、第2のテーブル情報も条件に応じて入れ替えてもよい。
(Modification example 4)
In the second embodiment, the search unit 914 searched for similar cases from the cases stored in the database 300. However, it is not always necessary to search for similar cases from the database 300 connected to the outside. For example, case information having information equivalent to that of the database 300 may be stored in the storage unit 104, and the search unit 914 may search for similar cases from the case information stored in the storage unit 104. In this case, the case information stored in the storage unit 104 may be replaced according to various conditions such as the user, the installation location, and the time. Similarly, the first table information and the second table information may be replaced depending on the conditions.

<実施形態3>
実施形態2では、診断の対象となる医用画像を取得し、画像処理結果を用いて医用画像上に支援情報を提示するとともに、画像処理の解析画像や類似症例を提示した。本実施形態では、医用画像上にCAD所見等の支援情報を提示するとともに、診断をするにあたりガイドラインとなる情報を提示する場合について説明をする。なお、本実施形態におけるガイドラインとは、診断をするために支援をする情報であり、診断手順をしめす診断のマニュアル、アトラス、読影のポイント、同じモダリティの画像、異なるモダリティの画像(例えば、眼底写真、FA画像、IA画像)等、文章や図などの情報を含む。すなわち、ガイドラインは疾患の診断手順を示す情報である。また、データベース300には複数のガイドラインが格納されている。すなわち、データベース300には複数の疾患の診断手順を示す情報が格納されている。なお、ガイドラインは診断手順を示す電子書籍であってもよい。
<Embodiment 3>
In the second embodiment, a medical image to be diagnosed is acquired, support information is presented on the medical image using the image processing result, and an analysis image of the image processing and a similar case are presented. In the present embodiment, a case where support information such as CAD findings is presented on a medical image and information that serves as a guideline for diagnosis is presented will be described. The guideline in the present embodiment is information that supports the diagnosis, and is a diagnostic manual showing the diagnostic procedure, an atlas, a point of interpretation, an image of the same modality, and an image of a different modality (for example, a fundus photograph). , FA image, IA image), etc., including information such as sentences and figures. That is, the guideline is information indicating the diagnostic procedure of the disease. In addition, a plurality of guidelines are stored in the database 300. That is, the database 300 stores information indicating a procedure for diagnosing a plurality of diseases. The guideline may be an electronic book showing a diagnostic procedure.

なお、本施形態における診断支援装置900の機能構成は実施形態2における図9と同様である。データベース300には医用画像とその画像に対応するガイドラインと所見とが紐づけられて格納されている。すなわち、データベース300には、複数の疾患の診断手順を示す情報それぞれに対して所見が紐付けられて格納されている。そしてデータベース300は、診断支援装置900からの要求に対して、要求に対応するガイドライン及び所見を診断支援装置900へと出力する。なお、データベース300は診断支援装置900内部の記憶部104に保存される構成であってもよい。検索部914は、判定部110で該当すると判定された所見の候補を検索キーとして、データベース300から、対象としている医用画像に対応するガイドラインを要求する。そして検索部914はデータベース300からガイドラインを受信(取得)する。すなわち、検索部914は、検出手段により検出された異常部位の所見に基づいて複数の疾患の診断手順を示す情報から少なくとも一つの疾患の診断手順を示す情報を取得する情報取得手段の一例に相当する。具体的には、情報取得手段の一例である検索部914は、検出手段により検出された異常部位の所見が対応付けられた疾患の診断手順を示す情報を取得する。 The functional configuration of the diagnostic support device 900 in this embodiment is the same as that in FIG. 9 in the second embodiment. The database 300 stores medical images and guidelines and findings corresponding to the images in association with each other. That is, the database 300 stores the findings in association with each of the information indicating the diagnostic procedure of the plurality of diseases. Then, in response to the request from the diagnosis support device 900, the database 300 outputs the guideline and the findings corresponding to the request to the diagnosis support device 900. The database 300 may be configured to be stored in the storage unit 104 inside the diagnosis support device 900. The search unit 914 requests a guideline corresponding to the target medical image from the database 300 using the candidate of the finding determined to be applicable by the determination unit 110 as a search key. Then, the search unit 914 receives (acquires) the guideline from the database 300. That is, the search unit 914 corresponds to an example of an information acquisition means that acquires information indicating at least one disease diagnosis procedure from information indicating a plurality of disease diagnosis procedures based on the findings of the abnormal site detected by the detection means. To do. Specifically, the search unit 914, which is an example of the information acquisition means, acquires information indicating a disease diagnosis procedure associated with the findings of the abnormal site detected by the detection means.

さらに、検索部914は受信したガイドラインを対象としている医用画像との関連度とともに表示制御部116へと出力する。そして、表示制御部116は、ガイドラインを表示部118に表示させる。すなわち、表示制御部116は、情報取得手段によって取得された疾患の診断手順を示す情報を表示手段に表示させる。 Further, the search unit 914 outputs the received guideline to the display control unit 116 together with the degree of relevance to the medical image targeted. Then, the display control unit 116 causes the display unit 118 to display the guideline. That is, the display control unit 116 causes the display means to display information indicating the diagnosis procedure of the disease acquired by the information acquisition means.

また、診断支援装置900のハードウェア構成は実施形態1における図2と同様である。即ち、CPU1001が主メモリ1002、磁気ディスク1003に格納されているプログラムを実行することにより、本実施形態の診断支援装置900の機能(ソフトウェア)及びフローチャートにおける処理が実現される。また、診断支援装置900が行う処理の一例を説明するフローチャートを図13に示す。基本的に実施形態1と同じであるが、処理の一部が実施形態1とは異なっている。具体的には、ガイドラインの検索S13060と、情報の表示S13070とが図3のフローとは異なる。以下、図13のフローチャート、図14の表示内容の一例を参照して、本実施形態における診断支援装置900が行う処理の一例について、実施形態1、2との相違部分についてのみ説明する。 The hardware configuration of the diagnostic support device 900 is the same as that of FIG. 2 in the first embodiment. That is, when the CPU 1001 executes the program stored in the main memory 1002 and the magnetic disk 1003, the functions (software) of the diagnostic support device 900 of the present embodiment and the processing in the flowchart are realized. Further, FIG. 13 shows a flowchart illustrating an example of processing performed by the diagnosis support device 900. It is basically the same as the first embodiment, but a part of the treatment is different from the first embodiment. Specifically, the guideline search S13060 and the information display S13070 are different from the flow of FIG. Hereinafter, an example of the processing performed by the diagnostic support device 900 in the present embodiment will be described only with reference to the flowchart of FIG. 13 and an example of the display contents of FIG. 14, and only the differences from the first and second embodiments.

図13のフローチャートにおいてステップS3000乃至ステップS3050の処理は、実施形態1、2と同様である。 In the flowchart of FIG. 13, the processes of steps S3000 to S3050 are the same as those of the first and second embodiments.

ステップS13060において、検索部914は、ステップS3040で該当すると判定した所見の候補を検索キーとして、データベース300からガイドラインを取得する。検索キーは、「後部硝子体剥離」や「黄斑円孔」等である。なお、検索キーとする所見は複数であってもよいし1つであってもよい。なお、データベース300に格納された所見は、例えば、医師が事前に症例に対して特定した所見であり、データベース300には医師により特定された所見の位置に関する情報も含まれているものとする。データベース300に含まれる所見の情報は医師によって事前に特定された情報に代えて、教科書のような文献情報を用いたものであってもよいし、データベース用に収集した症例に対して医師が特定した所見の情報を用いてもよい。 In step S13060, the search unit 914 acquires a guideline from the database 300 using the candidate of the finding determined to be applicable in step S3040 as a search key. Search keys are "posterior vitreous detachment", "macular hole" and the like. The number of findings used as the search key may be plural or one. It is assumed that the findings stored in the database 300 are, for example, findings specified by the doctor in advance for the case, and the database 300 also includes information regarding the position of the findings specified by the doctor. The information on the findings contained in the database 300 may be information on literature such as a textbook instead of the information specified in advance by the doctor, or the doctor may specify the cases collected for the database. You may use the information of the findings.

ガイドラインの取得方法は、検索キーが完全に一致するもののみを取得してもよいし、一部が一致するものを取得してもよいし、検索キーの一部が一致するガイドラインを取得することとしてもよい。例えば、複数の所見を検索キーとした場合に、複数の所見のうち一部の所見にのみ一致するガイドラインを検索部914は取得することとしてもよい。あるいは何らかの方法により類似度を計算し、類似度の高い順に規定の数だけガイドラインを取得するようにしてもよい。類似度を用いる方法に関しては実施形態2の変形例で説明したものと同様に特徴ベクトルの一致度合いで計算する事が出来る。なお、本実施形態において類似度は関連度として説明する。 As for the method of obtaining the guideline, only the search key that exactly matches may be obtained, the one that partially matches may be obtained, or the guideline that partially matches the search key may be obtained. May be. For example, when a plurality of findings are used as a search key, the search unit 914 may acquire a guideline that matches only a part of the plurality of findings. Alternatively, the similarity may be calculated by some method, and a specified number of guidelines may be obtained in descending order of similarity. The method using the similarity can be calculated by the degree of coincidence of the feature vectors as described in the modified example of the second embodiment. In this embodiment, the degree of similarity will be described as the degree of relevance.

ステップS13070において、表示制御部116は、表示部118に表示させる内容を制御する。そして、表示部118は、表示制御部116で制御された表示内容を表示する。これについては、図14を用いて説明をする。 In step S13070, the display control unit 116 controls the content to be displayed on the display unit 118. Then, the display unit 118 displays the display content controlled by the display control unit 116. This will be described with reference to FIG.

図14は表示部118が表示する表示内容の一例を示したものである。表示部118が表示する表示内容700は、実施形態1の図7で説明した図を基本とする。実施形態1との差異は、ガイドラインモードを選択するユーザインターフェースとしてガイドラインモード1433が表示されている点である。操作者がガイドラインモード1433をタップまたはクリックによりガイドラインモードを選択すると、表示制御部116はガイドラインリスト(すなわち、ガイドラインの関連度の高い順に表示したリスト)1460を表示させる。さらに、表示制御部116は、ガイドラインリストの中の一つの症例の断層画像1420と所見1421、その診断名1422、読影のポイント1424、及び、断層画像に対応する眼底画像1425と眼底写真1426と表示部118に表示させる。読影のポイント1424には例えば、どのような手順で読影を行うことが望ましいかという情報が含まれている。ガイドラインリスト1460には、症例のID、診断名、関連度が含まれている。関連度は類似度と等価のものであり、本実施例では5段階評価で関連(類似)度を示している。例えば、類似度は1で正規化しているので、類似度が0.9以上のものを5、類似度が0.8―0.9のものを4、類似度が0.6−0.8のものを3、類似度が0.4−0.6のものを2、類似度が0.4以下を1などとする。なお、この数値は一例であり、類似度をそのまま表示してもよいし、5段階ではなく10段階評価としてもよい。また、類似度を用いて表示をする場合には、一定の類似度以上のものを表示するようにし、相関が低いものはリストに表示しないようにしてもよい。 FIG. 14 shows an example of the display contents displayed by the display unit 118. The display content 700 displayed by the display unit 118 is based on the diagram described with reference to FIG. 7 of the first embodiment. The difference from the first embodiment is that the guideline mode 1433 is displayed as a user interface for selecting the guideline mode. When the operator selects the guideline mode by tapping or clicking the guideline mode 1433, the display control unit 116 displays the guideline list (that is, the list displayed in descending order of the relevance of the guideline) 1460. Further, the display control unit 116 displays a tomographic image 1420 and findings 1421 of one case in the guideline list, its diagnosis name 1422, an interpretation point 1424, and a fundus image 1425 and a fundus photograph 1426 corresponding to the tomographic image. Displayed in unit 118. The interpretation point 1424 contains, for example, information on what kind of procedure is desirable for interpretation. The guideline list 1460 includes the case ID, diagnosis, and relevance. The degree of relevance is equivalent to the degree of similarity, and in this example, the degree of relevance (similarity) is shown on a 5-point scale. For example, since the similarity is normalized by 1, those with a similarity of 0.9 or more are 5, those with a similarity of 0.8-0.9 are 4, and those with a similarity of 0.6-0.8. The one with a similarity of 0.4-0.6 is 2, the one with a similarity of 0.4 or less is 1, and so on. Note that this numerical value is an example, and the similarity may be displayed as it is, or may be evaluated on a 10-point scale instead of a 5-point scale. Further, when displaying using the similarity, those having a certain degree of similarity or higher may be displayed, and those having a low correlation may not be displayed in the list.

ガイドラインモード1433が選択されている場合には、オプション750にガイドライン検索を実行するユーザインターフェースであるガイドライン検索1455が追加される。そして、ガイドライン検索1455をタップまたはクリックすることで対象の断層画像710に関連するガイドライン検索が実行される。なお、本実施形態では、ガイドライン検索を実行するためのユーザインターフェースをガイドラインモード1433とは
別にする例を示したが、ガイドラインモード1433を選択すると同時にガイドライン検索を実行するようにしてもよい。
If guideline mode 1433 is selected, option 750 adds guideline search 1455, a user interface that performs guideline search. Then, by tapping or clicking the guideline search 1455, the guideline search related to the target tomographic image 710 is executed. In the present embodiment, an example in which the user interface for executing the guideline search is different from the guideline mode 1433 is shown, but the guideline search may be executed at the same time as the guideline mode 1433 is selected.

所見が重畳表示された断層画像710は前述した表示規則に従って、所見の位置を示す情報に基づいて該当すると判定された所見711の情報が重畳表示されている。なお、前述の通り、ユーザ入力による選択の結果、ガイドラインリストの他の症例を選択した場合は、表示制御部116により表示部118の表示内容が制御される。具体的には、表示制御部116は、ガイドラインリスト1160で選択された症例に対応する、所見が重畳表示された断層像1420、その診断名1422、読影のポイント1424、及び、その画像に対応する眼底画像1425と眼底写真1426とを表示部118に表示させる。 In the tomographic image 710 on which the findings are superimposed and displayed, the information of the findings 711 determined to be applicable based on the information indicating the position of the findings is superimposed and displayed in accordance with the above-mentioned display rule. As described above, when another case in the guideline list is selected as a result of the selection by the user input, the display content of the display unit 118 is controlled by the display control unit 116. Specifically, the display control unit 116 corresponds to the tomographic image 1420 on which the findings are superimposed and displayed, the diagnosis name 1422, the interpretation point 1424, and the image corresponding to the case selected in the guideline list 1160. The fundus image 1425 and the fundus photograph 1426 are displayed on the display unit 118.

本実施形態によれば、診断支援装置900は、医用画像の部位の情報を基に該当する所見の候補と所見の候補を導出に関する画像処理のパラメータを取得する。そして、取得した画像処理のパラメータを基に画像処理を行い、該当する所見の判定と位置を特定し、該当すると判定した所見を基にガイドラインを検索し、これらの結果を提示する。そうすることで、医師は医用画像上で該当すると判定された所見とその位置、および、ガイドラインに紐づいた診断名や他のモダリティで撮影した画像、並びに読影する上での読影ポイントを確認することができる。これにより、医師は現在対象としている医用画像の状態と、類似した症例の診断名を閲覧可能となるため、診断に係る負担を軽減させることができる。 According to the present embodiment, the diagnostic support device 900 acquires image processing parameters related to deriving the corresponding finding candidates and finding candidates based on the information of the site of the medical image. Then, image processing is performed based on the acquired image processing parameters, the determination and position of the corresponding findings are specified, the guideline is searched based on the findings determined to be applicable, and these results are presented. By doing so, the doctor confirms the findings and their positions determined to be applicable on the medical image, the diagnosis name associated with the guideline, the image taken with other modality, and the interpretation point for interpretation. be able to. As a result, the doctor can browse the diagnosis name of the case similar to the state of the medical image currently targeted, so that the burden related to the diagnosis can be reduced.

なお、実施形態2で述べたように類似画像の検索に所見の位置を用いることとしてもよい。 As described in the second embodiment, the position of the finding may be used for searching for similar images.

(変形例1)
実施形態3では、所見を検索キーとして、所見の一致でガイドラインを検索していた。しかし、ガイドライン検索の方法はこれに限らない。例えば、複数の所見の中から任意の所見だけを選んでガイドライン検索を行ってもよい。ガイドライン検索を行う際に、医師所見表示743をONとし、CAD所見表示744をOFFにしてガイドライン検索を実行した場合には、医師により確定された所見だけを用いてガイドラインを検索することとしてもよい。また、医師所見表示743をOFFとし、CAD所見表示744をONにしてガイドライン検索を実行した場合には、CAD所見だけを用いてガイドラインを検索することとしてもよい。さらに、断層画像に表示している所見711の中から任意の所見だけを選択して、ガイドライン検索を実行した場合、選択した任意の所見を用いてガイドライン検索を実行してもよい。なおこの変形例は実施形態3のみならず他の実施形態においても適用可能である。
(Modification example 1)
In the third embodiment, the guideline is searched by matching the findings using the findings as a search key. However, the guideline search method is not limited to this. For example, a guideline search may be performed by selecting only arbitrary findings from a plurality of findings. When the guideline search is performed with the doctor's finding display 743 turned on and the CAD finding display 744 turned off, the guideline may be searched using only the findings confirmed by the doctor. .. Further, when the doctor finding display 743 is turned off and the CAD finding display 744 is turned on and the guideline search is executed, the guideline may be searched using only the CAD findings. Further, when only an arbitrary finding is selected from the findings 711 displayed on the tomographic image and the guideline search is executed, the guideline search may be executed using the selected arbitrary finding. Note that this modification can be applied not only to the third embodiment but also to other embodiments.

<実施形態4>
実施形態1〜3では、撮影された1枚の断層画像を用いてCAD所見等の支援情報を提示していた。一方、光干渉断層計を用いた検査では、一検査において複数の方向から断層画像を撮影し、取得することがある。例えば、図15(a)に示すように、視神経乳頭と中心窩を通る断層画像と、中心窩を通り、視神経乳頭と中心窩を通る断層画像に直交する断面との二つの断層画像を取得する場合がある。また、図15(b)に示すように、眼底上をラスタースキャン(3Dスキャン)することで3次元撮影をする場合がある。
<Embodiment 4>
In the first to third embodiments, support information such as CAD findings is presented using one captured tomographic image. On the other hand, in the inspection using the optical interference tomography, tomographic images may be taken and acquired from a plurality of directions in one inspection. For example, as shown in FIG. 15A, two tomographic images are acquired, one is a tomographic image passing through the optic disc and the fovea, and the other is a cross section orthogonal to the tomographic image passing through the optic disc and the fovea. In some cases. Further, as shown in FIG. 15B, a three-dimensional image may be taken by performing a raster scan (3D scan) on the fundus.

本実施形態における診断支援装置は、複数の方向または複数の位置で撮影された複数の医用画像を取得し、取得した医用画像の画像処理結果を用いて医用画像上に支援情報を提示することにより当該医用画像に関する診断支援を行う。 The diagnostic support device in the present embodiment acquires a plurality of medical images taken in a plurality of directions or at a plurality of positions, and presents support information on the medical image using the image processing result of the acquired medical image. Provide diagnostic support for the medical image.

なお、本施形態における診断支援装置900の機能構成は実施形態2における図9と同様である。また、診断支援装置900のハードウェア構成は実施形態1における図2と同様である。即ち、CPU1001が主メモリ1002、磁気ディスク1003に格納されているプログラムを実行することにより、本実施形態の診断支援装置900の機能(ソフトウェア)及びフローチャートにおける処理が実現される。また、診断支援装置900が行う処理の一例を説明するフローチャートは図3、図10、図13のいずれかと同様である。本実施形態では、図10の類似画像の検索を行う場合について説明をする。以下、図10のフローチャートを参照して、本実施形態における診断支援装置900が行う全体の処理について、実施形態1乃至3との相違部分についてのみ説明する。本実施形態では図15(a)に示すような二つの断層画像を取得する場合と図15(b)に示す3次元の断層画像を取得する例についてそれぞれ説明をする。すなわち、医用画像取得部102が、被検眼における位置がそれぞれ異なる複数の断層画像を取得した場合の例である。 The functional configuration of the diagnostic support device 900 in this embodiment is the same as that in FIG. 9 in the second embodiment. The hardware configuration of the diagnostic support device 900 is the same as that of FIG. 2 in the first embodiment. That is, when the CPU 1001 executes the program stored in the main memory 1002 and the magnetic disk 1003, the functions (software) of the diagnostic support device 900 of the present embodiment and the processing in the flowchart are realized. Further, the flowchart for explaining an example of the processing performed by the diagnosis support device 900 is the same as that of any one of FIGS. 3, 10, and 13. In the present embodiment, a case of searching for the similar image of FIG. 10 will be described. Hereinafter, with reference to the flowchart of FIG. 10, the entire processing performed by the diagnostic support device 900 in the present embodiment will be described only with respect to the differences from the first to third embodiments. In this embodiment, a case of acquiring two tomographic images as shown in FIG. 15A and an example of acquiring a three-dimensional tomographic image shown in FIG. 15B will be described. That is, this is an example in which the medical image acquisition unit 102 acquires a plurality of tomographic images having different positions in the eye to be inspected.

最初に、図15(a)のクロススキャンの場合について説明をする。以下では、視神経乳頭と中心窩を通る断層画像をHスキャン像、中心窩を通りHスキャン像に直交する断層画像をVスキャン像と称する。 First, the case of the cross scan of FIG. 15A will be described. Hereinafter, the tomographic image passing through the optic nerve head and the fovea centralis is referred to as an H scan image, and the tomographic image passing through the fovea centralis and orthogonal to the H scan image is referred to as a V scan image.

ステップS3000の処理において、医用画像取得部102は、光干渉断層計200から送信された複数の方向から光を捜査することで撮影された複数の医用画像と、撮影した医用画像の種類に関する情報と医用画像の部位に関する情報とを取得する。すなわち、医用画像取得部102は、被検眼に対して異なる方向に測定光を走査することで得られた複数の断層画像を取得する。本実施形態において異なる方向とは直交する方向である。 In the process of step S3000, the medical image acquisition unit 102 includes a plurality of medical images taken by investigating light from a plurality of directions transmitted from the optical interference tomography meter 200, and information on the types of the taken medical images. Obtain information about the part of the medical image. That is, the medical image acquisition unit 102 acquires a plurality of tomographic images obtained by scanning the measurement light in different directions with respect to the eye to be inspected. In this embodiment, the different directions are orthogonal to each other.

なお、撮影した医用画像の種類に関する情報と医用画像の部位に関する情報とは、複数の医用画像全体に対して一つ取得してもよいし、夫々の医用画像で夫々取得してもよい。以降では、複数の医用画像全体に対して医用画像の種類に関する情報と、医用画像の部位に関する情報とを一つ取得するものとして説明する。 It should be noted that the information regarding the type of the photographed medical image and the information regarding the part of the medical image may be acquired as one for the entire plurality of medical images, or may be acquired for each of the medical images. Hereinafter, it will be described as assuming that information on the type of the medical image and information on the part of the medical image are acquired for the entire plurality of medical images.

ステップS3010の処理は実施形態1における処理と同様であるため説明を省略する。 Since the process of step S3010 is the same as the process in the first embodiment, the description thereof will be omitted.

ステップS3020乃至ステップS3050の処理は、複数の医用画像の夫々に対して処理を行う以外は、実施形態1と同様であるため説明を省略する。 The processing of steps S3020 to S3050 is the same as that of the first embodiment except that the processing is performed on each of the plurality of medical images, and thus the description thereof will be omitted.

ステップS10060において、検索部914は、ステップS3040で該当すると判定した所見の候補を検索キーとして、データベース300から類似画像を取得する。本実施形態では、複数の医用画像のうちの一つの医用画像(すなわち、ある一つの方向から撮影された医用画像)において該当すると判定した所見の候補を検索キーとして、データベース300から類似画像を取得する。本実施形態ではHスキャン像から得られた所見を用いて類似画像を取得するものとする。なお、本実施形態においては検索の対象となる画像は、検索元となる医用画像の撮影された方向と、同一の方向から撮影された医用画像のみとする。すなわち、類似画像取得手段の一例に相当する検索部914は、検出手段により異常部位が検出された断層画像を得る際の測定光の走査方向と同一の方向に測定光を走査することにより得られた断層画像を記憶手段から取得する。 In step S10060, the search unit 914 acquires a similar image from the database 300 using the candidate for the finding determined to be applicable in step S3040 as a search key. In the present embodiment, a similar image is acquired from the database 300 using a candidate for a finding determined to be applicable in one medical image (that is, a medical image taken from a certain direction) among a plurality of medical images as a search key. To do. In this embodiment, a similar image is acquired using the findings obtained from the H scan image. In the present embodiment, the image to be searched is only the medical image taken from the same direction as the direction in which the medical image to be searched is taken. That is, the search unit 914, which corresponds to an example of the similar image acquisition means, is obtained by scanning the measurement light in the same direction as the scanning direction of the measurement light when obtaining the tomographic image in which the abnormal portion is detected by the detection means. The tomographic image is acquired from the storage means.

また、実施形態2と同様に、検索キーが完全に一致するもののみを類似画像として取得するものとする。なお、類似画像に対応する、その類似画像とは異なる方向から撮影された医用画像がある場合には、それらを一つの類似画像としてまとめて取得する。 Further, as in the second embodiment, it is assumed that only the images whose search keys match exactly are acquired as similar images. If there are medical images corresponding to similar images and taken from a direction different from the similar images, they are collectively acquired as one similar image.

ステップS10070において、表示制御部116は、表示部118に表示させる内容を制御する。そして、表示部118は、表示制御部116で制御された表示内容を表示する。具体的には、複数の医用画像のうち少なくとも一つの医用画像を実施形態2と同様の制御を行い表示させる。また、表示制御部116は、実施形態2と同様に、類似する画像とそれに紐づく診断名の情報とを、類似度の高い順に表示させる。 In step S10070, the display control unit 116 controls the content to be displayed on the display unit 118. Then, the display unit 118 displays the display content controlled by the display control unit 116. Specifically, at least one of the plurality of medical images is displayed under the same control as in the second embodiment. Further, the display control unit 116 displays similar images and information on the diagnosis name associated with them in descending order of similarity, as in the second embodiment.

また、本実施形態においても実施形態2と同様に、類似する画像とそれに紐づく診断名の情報とをリストで管理し、リストの情報を表示するとともに、リストの中の一つの症例をステップS3000で取得した複数の医用画像と対比可能な形で表示する。すなわち、類似する画像が異なる方向から撮影された複数の医用画像を有する場合には、そのうちの少なくとも一つの医用画像を対比可能な形で表示する。この時表示する画像は、ステップS3000で取得した複数の医用画像と同一の方向から撮影された画像を表示する。なお、違う方向から撮影された画像を表示してもよい。 Further, also in the present embodiment, as in the second embodiment, similar images and information on the diagnosis name associated therewith are managed in a list, the information in the list is displayed, and one case in the list is displayed in step S3000. Display in a form that can be compared with multiple medical images acquired in. That is, when similar images have a plurality of medical images taken from different directions, at least one of them is displayed in a comparable form. As the image to be displayed at this time, an image taken from the same direction as the plurality of medical images acquired in step S3000 is displayed. Images taken from different directions may be displayed.

本実施形態では、ステップS3000で取得した複数の医用画像、および、対比可能な形で表示一つの症例として決定された類似画像の複数の医用画像のうち、表示する画像はそれぞれ一つとする。ただし、表示する画像は、診断支援装置900またはユーザ入力による選択により決定されるものとする。ユーザ入力による選択は、例えばボタンなどのユーザインターフェースを用いて実現できる。 In the present embodiment, among the plurality of medical images acquired in step S3000 and the plurality of medical images of similar images determined as one case displayed in a comparable form, one image is displayed. However, the image to be displayed shall be determined by the diagnostic support device 900 or selection by user input. Selection by user input can be realized by using a user interface such as a button.

図16は表示部118が表示する表示内容の一例を示したものである。表示部118が表示する表示内容700は、対象となる症例の断層画像710、及び、対象となる症例の断層画像に対応する眼底画像715を有する。 FIG. 16 shows an example of the display contents displayed by the display unit 118. The display content 700 displayed by the display unit 118 includes a tomographic image 710 of the target case and a fundus image 715 corresponding to the tomographic image of the target case.

眼底画像715には断層画像の撮影された方向を示す矢印717が重畳表示されている。水平矢印717はHスキャン像に対応しており、垂直矢印1619はVスキャン像に対応している。また、表示内容700は、類似症例リスト1160を有する。さらに、表示内容700は、対象となる症例と同様に、類似症例リストのうち決定された一つの症例の断層画像1120とその診断名1122、及び、その断層画像に対応する眼底画像1125と水平矢印1127と垂直矢印1639を有する。なお、断層画像710、1120に関する所見の重畳表示、及び、類似症例リストのユーザによる選択の説明は実施形態2と同様なので省略する。 An arrow 717 indicating the direction in which the tomographic image was taken is superimposed and displayed on the fundus image 715. The horizontal arrow 717 corresponds to the H-scan image, and the vertical arrow 1619 corresponds to the V-scan image. In addition, the display content 700 has a similar case list 1160. Further, the display content 700 includes a tomographic image 1120 and its diagnosis name 1122 of one determined case in the similar case list, and a fundus image 1125 and a horizontal arrow corresponding to the tomographic image, as in the case of the target case. It has 1127 and a vertical arrow 1639. It should be noted that the superimposed display of the findings relating to the tomographic images 710 and 1120 and the explanation of the user's selection of the similar case list are the same as those in the second embodiment and will be omitted.

断層画像1120の初期状態(すなわちユーザ入力による選択がなされる前)は、表示制御部116は、ステップS10060で検索に用いた所見を含む断層画像710が撮影された方向の断層画像を表示部118に表示させるものとする。すなわち、断層画像710がHスキャン像の場合には、断層画像1120もHスキャン像とする。本実施形態では前述の通り、ユーザ入力による選択で、複数の医用画像のうちの一つの医用画像を表示可能とする。具体的には、眼底画像715、1125に重畳表示された水平矢印717、1127と垂直矢印1619、1639を例えばマウスのクリックまたはタップなどにより選択する。垂直矢印1619、1639が選択されると、表示制御部116は、クリックした矢印に対応する方向で撮影された医用画像(Vスキャン画像)を、断層画像710、1120として表示部118に表示させる。この場合、現在選択されている矢印と他の矢印を区別するように表示するのが望ましい。図16の例では実線で表示されている矢印が選択されている矢印であることを示し、一点鎖線の矢印は非選択であることを示している。なお、垂直矢印1619、1639のいずれか一方を選択することで、断層画像710、1120の両画像が連動してVスキャン像に変更されることとしてもよい。 In the initial state of the tomographic image 1120 (that is, before the selection is made by user input), the display control unit 116 displays the tomographic image in the direction in which the tomographic image 710 including the findings used for the search in step S10060 was taken. It shall be displayed in. That is, when the tomographic image 710 is an H scan image, the tomographic image 1120 is also an H scan image. In the present embodiment, as described above, one of a plurality of medical images can be displayed by selection by user input. Specifically, the horizontal arrows 717 and 1127 and the vertical arrows 1619 and 1639 superimposed on the fundus images 715 and 1125 are selected by, for example, clicking or tapping the mouse. When the vertical arrows 1619 and 1639 are selected, the display control unit 116 causes the display unit 118 to display the medical image (V-scan image) taken in the direction corresponding to the clicked arrow as the tomographic images 710 and 1120. In this case, it is desirable to display the currently selected arrow so as to distinguish it from other arrows. In the example of FIG. 16, the arrow displayed by the solid line indicates that the arrow is selected, and the arrow of the alternate long and short dash line indicates that it is not selected. By selecting either one of the vertical arrows 1619 and 1639, both the tomographic images 710 and 1120 may be linked and changed to a V-scan image.

なお、Vスキャン像の所見とHスキャン像の所見とのうち共通する所見のみを各断層画像上に表示させることとしてもよい。すなわち、表示制御部116は、複数の断層画像から得られた複数の異常部位に基づいて、前記複数の断層画像に共通する異常部位の所見を表示手段に表示させることとしてもよい。 It should be noted that only the common findings of the V-scan image and the H-scan image may be displayed on each tomographic image. That is, the display control unit 116 may display the findings of the abnormal portion common to the plurality of tomographic images on the display means based on the plurality of abnormal portions obtained from the plurality of tomographic images.

次に、図15(b)に示す3次元スキャンの場合について説明をする。以下、図10のフローチャートを参照して、本実施形態における診断支援装置900が行う処理の一例について、実施形態2との相違部分についてのみ説明する。なお、3次元スキャンにおいては、画像処理部108或いは不図示の位置合わせ手段によって、複数の断層画像間の位置合わせ処理が実施されているものとして、以下の処理を説明する。 Next, the case of the three-dimensional scan shown in FIG. 15B will be described. Hereinafter, with reference to the flowchart of FIG. 10, an example of the processing performed by the diagnostic support device 900 in the present embodiment will be described only with respect to the difference from the second embodiment. In the three-dimensional scan, the following processing will be described assuming that the alignment processing between a plurality of tomographic images is performed by the image processing unit 108 or the alignment means (not shown).

ステップS3010の処理は実施形態1における処理と同様であるため説明を省略する。 Since the process of step S3010 is the same as the process in the first embodiment, the description thereof will be omitted.

ステップS3020において、複数の医用画像の夫々に対して他の実施形態と同様の処理を行うが、第2のテーブル情報に格納されている画像処理のパラメータには空間的なパラメータとしてY方向のパラメータを含んでもよい。例えば、黄斑円孔は黄斑部に発生するため黄斑中心で撮影をした場合にはX、Y軸共に中心付近に黄斑が存在する。そのため、撮影範囲のX:40−60%とY:40−60%の範囲と領域を限定する事が出来、その範囲に含まれる断層画像に対してのみ画像処理パラメータを適用する。 In step S3020, the same processing as in the other embodiments is performed for each of the plurality of medical images, but the image processing parameters stored in the second table information include parameters in the Y direction as spatial parameters. May include. For example, since the macular hole is generated in the macula, when the image is taken at the center of the macula, the macula exists near the center on both the X and Y axes. Therefore, the range and area of X: 40-60% and Y: 40-60% of the imaging range can be limited, and the image processing parameters are applied only to the tomographic images included in the range.

ステップS3030においては、ラスタースキャンにより取得された複数の断層画像に対して構造解析を行うことで前記被検眼の異常部位を検出する。すなわち、他の実施形態で述べた画像処理を複数の断層画像のそれぞれに適用する。 In step S3030, the abnormal portion of the eye to be inspected is detected by performing structural analysis on a plurality of tomographic images acquired by raster scan. That is, the image processing described in the other embodiment is applied to each of the plurality of tomographic images.

ステップS3030において、3次元的に画像処理を行うようにしてもよい。輝度正規化は、複数の断層画像のそれぞれで行うのではなく、複数の断層画像全体でヒストグラム調整を行う。また、画像処理に用いる各種フィルタは3次元で定義してもよい。 In step S3030, image processing may be performed three-dimensionally. Luminance normalization is performed not for each of a plurality of tomographic images, but for histogram adjustment for the entire plurality of tomographic images. Further, various filters used for image processing may be defined in three dimensions.

ステップS3040も同様に、所見の判定を3次元的に行う。例えば、判定自体は複数の断層画像それぞれに対して行った後に、隣接する断層画像において隣接する所見候補の領域同士で再判定を行うようにしてもよいし、ステップ3030で検出された病変候補に対して、3次元的に連結した領域のサイズ比等によって所見の候補の判定をするようにしてもよい。 Similarly, in step S3040, the finding is determined three-dimensionally. For example, the determination itself may be performed for each of the plurality of tomographic images, and then re-judgment may be performed between the regions of adjacent finding candidates in the adjacent tomographic images, or the lesion candidates detected in step 3030 may be used. On the other hand, the candidate findings may be determined based on the size ratio of the three-dimensionally connected regions and the like.

ステップS3050において、位置取得部112は、ステップS3030で実行した画像処理の結果と、ステップS3040で該当すると判定した所見の候補とに基づいて、所見の医用画像における位置を示す情報を取得する。位置を示す情報は位置が特定できる情報であればどのような情報であってもよいが、本実施形態では、所見が該当すると判定した画像処理領域に隣接する直方体、あるいは立方体の位置を示す情報として取得する。 In step S3050, the position acquisition unit 112 acquires information indicating the position of the finding in the medical image based on the result of the image processing executed in step S3030 and the candidate of the finding determined to be applicable in step S3040. The information indicating the position may be any information as long as the position can be specified, but in the present embodiment, the information indicating the position of a rectangular parallelepiped or a cube adjacent to the image processing area determined to correspond to the findings. Get as.

ステップS10060において、検索部914は、ステップS3040で該当すると判定した所見の候補を検索キーとして、データベース300から類似画像を取得する。本実施形態では、検索部914は、複数の医用画像において該当すると判定した所見の候補を検索キーとして、データベース300から類似画像を取得する。実施形態2と同様に、検索キーが完全に一致するもの、あるいは類似度が高いものを類似画像として取得するものとする。なお、所見特徴や画像特徴が類似する類似画像において、異なる方向で撮影した画像や同じ方向で撮影した複数の画像がある場合には、検索部914は、それらを一つの類似画像としてまとめて取得する。 In step S10060, the search unit 914 acquires a similar image from the database 300 using the candidate for the finding determined to be applicable in step S3040 as a search key. In the present embodiment, the search unit 914 acquires a similar image from the database 300 by using the candidate of the finding determined to be applicable in the plurality of medical images as a search key. Similar to the second embodiment, it is assumed that an image having a completely matching search key or a high degree of similarity is acquired as a similar image. If there are images taken in different directions or a plurality of images taken in the same direction in similar images having similar findings and image features, the search unit 914 collectively acquires them as one similar image. To do.

ステップS10070において、表示制御部116は、表示部118に表示させる内容を制御する。そして、表示部118は、表示制御部116で制御された表示内容を表示する。具体的には、複数の医用画像のうち少なくとも一つの医用画像を実施形態2と同様の制御を行い表示させる。また、表示制御部116は、実施形態2と同様に、類似する画像とそれに紐づく診断名の情報を、類似度の高い順に表示させる。 In step S10070, the display control unit 116 controls the content to be displayed on the display unit 118. Then, the display unit 118 displays the display content controlled by the display control unit 116. Specifically, at least one of the plurality of medical images is displayed under the same control as in the second embodiment. Further, the display control unit 116 displays similar images and information on the diagnosis name associated with them in descending order of similarity, as in the second embodiment.

また、本実施形態においても実施形態2と同様に、類似する画像とそれに紐づく診断名の情報をリストで管理し、リストの情報を表示するとともに、リストの中の一つの症例をステップS3000で取得した複数の医用画像と対比可能な形で表示する。本実施形態では、ステップS3000で取得した複数の医用画像、および、対比可能な形で表示する一つの症例として決定された類似画像の複数の医用画像のうち、表示する画像はそれぞれ一つとする。ただし、表示する画像は、診断支援装置900またはユーザ入力による選択により決定されるものとする。ユーザ入力による選択は、例えばボタンなどのユーザインターフェースを用いて実現できる。 Further, also in the present embodiment, as in the second embodiment, the information of similar images and the diagnosis name associated therewith is managed in a list, the information in the list is displayed, and one case in the list is displayed in step S3000. Display in a form that can be compared with the acquired multiple medical images. In the present embodiment, of the plurality of medical images acquired in step S3000 and the plurality of medical images of similar images determined as one case to be displayed in a comparable form, one image is displayed. However, the image to be displayed shall be determined by the diagnostic support device 900 or selection by user input. Selection by user input can be realized by using a user interface such as a button.

図17は表示部118が表示する表示内容の一例を示したものである。表示部118が表示する表示内容700は、対象となる症例の断層画像710、及び、対象となる症例の断層画像に対応する眼底画像715を有する。眼底画像715は、例えば、医用画像取得部102により取得された複数の断層画像を深さ方向に積算することで生成された積算画像である。医用画像取得部102は積算画像の生成を行うこととしてもよい。眼底画像715は断層画像に基づいて生成された画像であるため、断層画像の所見の位置を眼底画像715上の位置に対応させることが可能である。また、眼底画像715はSLOまたは眼底カメラにより撮影された画像であってもよい。この場合、医用画像取得手段102が不図示のSLOまたは眼底カメラから眼底画像を取得する。すなわち、 医用画像取得部102は、被検眼の眼底画像を取得する。なお、SLOまたは眼底カメラにより得られた眼底画像と断層画像に基づいて生成された積算画像との位置合わせを行うことで、断層画像の所見をSLOまたは眼底カメラにより得られた眼底画像715に対応付けることが可能である。上述のように眼底画像の所見を眼底画像715に対応付けることが可能であるため、表示制御部116は、所見を断層画像715上に表示させることが可能である。すなわち、表示制御手段は、眼底画像を表示手段に更に表示させるとともに、所見を眼底画像上にも表示させることが可能である。 FIG. 17 shows an example of the display content displayed by the display unit 118. The display content 700 displayed by the display unit 118 includes a tomographic image 710 of the target case and a fundus image 715 corresponding to the tomographic image of the target case. The fundus image 715 is, for example, an integrated image generated by integrating a plurality of tomographic images acquired by the medical image acquisition unit 102 in the depth direction. The medical image acquisition unit 102 may generate an integrated image. Since the fundus image 715 is an image generated based on the tomographic image, it is possible to make the position of the findings of the tomographic image correspond to the position on the fundus image 715. Further, the fundus image 715 may be an image taken by SLO or a fundus camera. In this case, the medical image acquisition means 102 acquires a fundus image from an SLO or a fundus camera (not shown). That is, the medical image acquisition unit 102 acquires the fundus image of the eye to be inspected. By aligning the fundus image obtained by the SLO or the fundus camera with the integrated image generated based on the tomographic image, the findings of the tomographic image are associated with the fundus image 715 obtained by the SLO or the fundus camera. It is possible. Since it is possible to associate the findings of the fundus image with the fundus image 715 as described above, the display control unit 116 can display the findings on the tomographic image 715. That is, the display control means can further display the fundus image on the display means and also display the findings on the fundus image.

眼底画像715には表示している断層画像710の眼底における位置を示す矢印717、所見1711およびマーカ1712が重畳表示されている。マーカ1712は、ステップS3050において取得した所見位置の領域を示す直方体、あるいは立方体の重心位置を指し示すように表示する。 On the fundus image 715, an arrow 717, a finding 1711, and a marker 1712 indicating the position of the displayed tomographic image 710 on the fundus are superimposed and displayed. The marker 1712 is displayed so as to indicate the position of the center of gravity of the rectangular parallelepiped or cube indicating the region of the finding position acquired in step S3050.

本実施形態では、各該当された所見に対して、以下の表示規則に従い眼底画像715に重畳表示する位置を決定するものとする。もちろん、表示規則は以下に示す例に限定されない。(1)該当すると判定された他の所見の文字情報の上には重畳表示しない。(2)該当すると判定された所見の位置を示す情報は、所見の位置を示す情報の近傍にマーカ(例えば矢印など)を付与する。(3)同一所見が複数存在する場合、空間的に近い領域では、代表する箇所のものを表示する。(4)同一所見がN数より多く存在する場合、表示する数はN数以下とする。 In the present embodiment, the position to be superimposed and displayed on the fundus image 715 is determined according to the following display rules for each applicable finding. Of course, the display rules are not limited to the examples shown below. (1) Do not superimpose on the character information of other findings judged to be applicable. (2) For the information indicating the position of the finding determined to be applicable, a marker (for example, an arrow) is added in the vicinity of the information indicating the position of the finding. (3) When there are multiple identical findings, the representative location is displayed in the spatially close area. (4) If there are more than N same findings, the number to be displayed shall be N or less.

上述した規則の(3)について、例えば、硬性白斑が近い領域に複数存在する事がある。その場合、空間的に近いものは一つにまとめて表示をする。具体的には、XY平面において直径1mmの円の中に5個の硬性白斑が存在する場合、眼底画像上に所見を5つ表示するのではなく、まとめて1つだけ表示をする。すなわち、表示制御部116は、異なる断層画像それぞれから検出手段により検出された異常部位に対応する所見が同一の所見であり、且つ、異なる断層画像から検出された異常部位間の距離が閾値未満の場合、前記同一の所見を1つの所見として眼底画像上に表示させる。なお、硬性白斑同士の距離が閾値以下の場合に所見をまとめることとしてもよいし、硬性白斑が検出された複数の断層像間の距離が閾値以下の場合に所見をまとめることとしもよい。 Regarding (3) of the above-mentioned rule, for example, a plurality of hard vitiligo may be present in a close region. In that case, items that are spatially close to each other are displayed together. Specifically, when five hard white spots are present in a circle having a diameter of 1 mm on the XY plane, only one finding is displayed together instead of displaying five findings on the fundus image. That is, the display control unit 116 has the same findings corresponding to the abnormal sites detected by the detection means from the different tomographic images, and the distance between the abnormal sites detected from the different tomographic images is less than the threshold value. In this case, the same finding is displayed on the fundus image as one finding. The findings may be summarized when the distance between the hard white spots is less than the threshold value, or the findings may be summarized when the distance between the plurality of tomographic images in which the hard white spots are detected is less than the threshold value.

上述した規則の(4)について、例えば、上述した規則(3)により空間的に近いものをまとめたとしても、広範囲に現れる場合、N数より多く所見が表示される事になる。その場合、同じ所見の表示数はN数以下になるようにする。例えば、Nは3とする。3より多くなる場合、黄斑部中心窩に距離的に近いものを残すようにするか、あるいは、黄斑部中心窩に近いものを1箇所選択し、残りの2箇所は、空間的に離れたものを残すようにしてもよい。例えば、中心を1箇所として、残りの2箇所は上下方向からそれぞれ1箇所ずつ選択する。なお、中心窩に近い所見は視機能に対する影響が他の所見に比べて高いため、医師等にとっては必要な情報である。 Regarding (4) of the above-mentioned rule, for example, even if the ones spatially close to each other according to the above-mentioned rule (3) are put together, if they appear in a wide range, more findings than N numbers will be displayed. In that case, the number of the same findings displayed should be N or less. For example, N is 3. If it is more than 3, leave one that is close to the fovea centralis of the macula, or select one that is close to the fovea centralis of the macula, and the remaining two are spatially separated. You may leave. For example, the center is set as one place, and the remaining two places are selected one by one from the vertical direction. Findings near the fovea have a higher effect on visual function than other findings, and are therefore necessary information for doctors and the like.

眼底画像に重畳表示する所見1711とマーカ1712とは、実施形態1で説明したように、情報表示740のユーザインターフェースによりON/OFF出来るものとする。また、医師による所見、CADによる所見のそれぞれの表示ON/OFFも可能とする。これらの所見表示のON/OFFは、クリックする回数に応じて変えてもよい。例えば、「両方ともON」⇒「断層画像の所見ON、眼底画像の所見OFF」⇒「断層画像の所見OFF、眼底画像の所見ON」⇒「両方ともOFF」等である。あるいは、不図示のユーザインターフェースによりON/OFFする所見の種類を指定するようにしてもよい。なお、コンピュータが出力したCAD所見について確定(承認)を行うこと、あるいはCAD所見を修正することが可能である。これらの処理は、断層画像710に重畳表示されている所見711、眼底画像715に重畳表示されている所見1711のどちらからでも可能とする。そして、所見711および1711のいずれかで確定(または修正)されると、対応する所見も連動して確定(修正)されるものとする。すなわち、CAD所見と医師所見とで所見の文字の色を変えている場合、所見1711の「蓋」を確定させる事により、所見711の「蓋」も確定されたものとして、表示制御部116は両方の所見の文字を変更する。また、3次元で撮影したデータの場合、病変は3次元的な拡がりを持つので、同じ所見が複数の断層画像に表示される。例えば、「蓋」であれば隣接する5枚の断層画像に表示される等である。これにおいても、眼底画像で確定するか、どれか1枚の断層画像で確定した場合には、表示制御部116は同様に他の断層画像においても確定されたという文字色で表示部118に表示させる。 The findings 1711 and the marker 1712 to be superimposed and displayed on the fundus image can be turned ON / OFF by the user interface of the information display 740 as described in the first embodiment. In addition, it is possible to turn on / off the display of the findings by the doctor and the findings by CAD. ON / OFF of these findings display may be changed according to the number of clicks. For example, "both are ON" ⇒ "tomographic image findings ON, fundus image findings OFF" ⇒ "tomographic image findings OFF, fundus image findings ON" ⇒ "both are OFF" and the like. Alternatively, the type of findings to be turned ON / OFF may be specified by a user interface (not shown). It is possible to confirm (approve) the CAD findings output by the computer, or to correct the CAD findings. These processes can be performed from either the findings 711 superimposed on the tomographic image 710 and the findings 1711 superimposed on the fundus image 715. Then, when any of the findings 711 and 1711 is confirmed (or modified), the corresponding findings are also determined (corrected) in conjunction with each other. That is, when the color of the characters of the findings is changed between the CAD findings and the doctor's findings, the display control unit 116 assumes that the "lid" of the findings 711 is also determined by determining the "lid" of the findings 1711. Change the text of both findings. Further, in the case of data taken in three dimensions, since the lesion has a three-dimensional spread, the same findings are displayed in a plurality of tomographic images. For example, if it is a "lid", it will be displayed on five adjacent tomographic images. Even in this case, if the fundus image is confirmed or one of the tomographic images is confirmed, the display control unit 116 displays on the display unit 118 with the character color that the other tomographic images are also confirmed. Let me.

複数の断層画像のスライス位置の変更は、不図示のスライダーバーや矢印717を操作する事で可能である。その他に、所見1711を選択する事で、断層画像の位置を変更するようにしてもよい。すなわち、眼底画像上の所見1711をタップまたはクリックすることで、所見1711が含まれる断層画像が表示される。その場合、選択した所見1711が該当すると判定した画像処理領域に隣接する直方体、あるいは立方体の重心位置に相当する断層画像を表示制御部116は表示部118に表示させる。このようにすれば、眼底画像と所見とに基づいて注目したい断層画像を迅速に表示させることが可能となる。 The slice positions of a plurality of tomographic images can be changed by operating a slider bar (not shown) or an arrow 717. Alternatively, the position of the tomographic image may be changed by selecting the finding 1711. That is, by tapping or clicking the finding 1711 on the fundus image, the tomographic image including the finding 1711 is displayed. In that case, the display control unit 116 causes the display unit 118 to display a tomographic image corresponding to the position of the center of gravity of the rectangular parallelepiped or cube adjacent to the image processing area determined to correspond to the selected finding 1711. In this way, it is possible to quickly display the tomographic image to be noticed based on the fundus image and the findings.

また、表示内容700は、類似症例リスト1160を有する。さらに、対象となる症例と同様に、類似症例リストのうち決定された一つの症例の断層画像1120とその診断名1122、その断層画像に対応する眼底画像1125、断層画像1210の位置を示す矢印1127および所見1721を有する。なお、重畳表示された断層画像710、1120に関する所見の重畳表示、及び、類似症例リストのユーザによる選択の説明は実施形態2と同様なので省略する。 In addition, the display content 700 has a similar case list 1160. Further, as in the case of the target case, the tomographic image 1120 and its diagnosis name 1122 of one determined case in the similar case list, the fundus image 1125 corresponding to the tomographic image, and the arrow 1127 indicating the position of the tomographic image 1210. And has findings 1721. The superimposition display of the findings relating to the superposed tomographic images 710 and 1120 and the explanation of the selection by the user of the similar case list will be omitted because they are the same as those in the second embodiment.

本実施形態では前述の通り、ユーザ入力による選択で、複数の医用画像のうちの一つの医用画像を表示可能とする。 In the present embodiment, as described above, one of a plurality of medical images can be displayed by selection by user input.

本実施形態によれば、医用画像が複数枚の画像からなる場合に、検索対象となっていた方向から撮影された画像だけではなく、他の方向から撮影された画像についても簡易な操作で確認することができる。すなわち、広範囲に拡がる所見を簡易に確認できるため、医師の診断に係る負担を軽減させることができる。 According to the present embodiment, when the medical image consists of a plurality of images, not only the image taken from the direction to be searched but also the image taken from another direction can be confirmed by a simple operation. can do. That is, since the findings that spread over a wide area can be easily confirmed, the burden on the doctor's diagnosis can be reduced.

(変形例1)
実施形態4ではステップS10060において、検索部914が複数の医用画像のうちの一つの医用画像において該当すると判定した所見の候補を検索キーとし、同一方向から撮影された医用画像のみを対象としてデータベース300から類似画像を取得していた。しかし、一つの医用画像において該当すると判定した所見のみを用いなくてもよい。例えば、複数の医用画像うち二つ以上あるいは全ての医用画像夫々において検索キーを作成し、夫々の方向全てで類似する画像を取得するようにしてもよい。例えば、検索元の複数の医用画像がHスキャン像とVスキャン像とである場合を考える。この場合、検索部914は、データベース300に存在する画像のうち、検索元のHスキャン像と類似するHスキャン像を持ち、かつ、検索元のVスキャン像と類似するVスキャン像を持つ医用画像を類似する画像として取得する。
(Modification example 1)
In the fourth embodiment, in step S10060, the search unit 914 uses a search key as a search key for a candidate for a finding that is determined to be applicable to one of the plurality of medical images, and the database 300 targets only the medical images taken from the same direction. A similar image was obtained from. However, it is not necessary to use only the findings determined to be applicable in one medical image. For example, a search key may be created for each of two or more or all medical images among a plurality of medical images, and similar images may be acquired in all directions. For example, consider a case where a plurality of medical images of a search source are an H scan image and a V scan image. In this case, the search unit 914 has an H-scan image similar to the H-scan image of the search source and a V-scan image similar to the V-scan image of the search source among the images existing in the database 300. As a similar image.

また、実施形態4では、検索元となる医用画像の撮影された方向と、同一の方向から撮影された医用画像のみをデータベース300から取得する対象としていたが、他の方向から撮影された医用画像をデータベース300から取得する対象としてもよい。例えば、検索元の画像がHスキャン像である場合に、データベース300に存在するVスキャン像の画像を類似する画像として取得してもよい。さらに、検索部914は、一つの医用画像において該当すると判定した所見のみを用いなくてもよい。複数の医用画像のうち二つ以上あるいは全ての医用画像において該当すると判定した所見のANDやORを取って検索キーとしてもよい。 Further, in the fourth embodiment, only the medical image taken from the same direction as the direction in which the medical image as the search source was taken is targeted for acquisition from the database 300, but the medical image taken from another direction is obtained. May be the target to be acquired from the database 300. For example, when the image of the search source is an H scan image, the image of the V scan image existing in the database 300 may be acquired as a similar image. Further, the search unit 914 does not have to use only the findings determined to be applicable in one medical image. The search key may be obtained by taking AND or OR of findings determined to be applicable to two or more or all medical images out of a plurality of medical images.

<実施形態5>
実施形態4では、複数の方向から撮影された複数の医用画像を取得し、取得した医用画像の画像処理結果を用いて医用画像上にCAD所見等の支援情報を提示していた。本実施形態では、取得した医用画像の画像処理結果を用いて医用画像上に支援情報を提示すると共に、病名(診断名)を推定して提示する事により当該医用画像に関する診断支援を行う。図18を用いて実施形態5における診断支援装置1800の機能構成の一例について説明を行う。診断支援装置1800は、図9に示した機能構成に推定部1811が追加されている。CPU1001がプログラムを実行することで実現される推定部1811は、断層画像から検出された異常部位を用いて病名を推定する。また、診断支援装置1800が行う処理の一例を説明するフローチャートを図19に示す。基本的に実施形態1と同じであるが、処理の一部が実施形態1とは異なっている。具体的には、病名候補の推定を行うステップS19060と、情報の表示を行うステップS19070が実施形態1とは異なっている。以下、図19のフローチャート、図20、図21の表示内容の一例を参照して、本実施形態における診断支援装置1800が行う全体の処理について、実施形態1乃至4との相違部分についてのみ説明する。本実施形態では図15(a)に示すようなクロススキャンの場合について説明を行う。なお、他のスキャンパターンに対しても本実施形態は適用可能である。
<Embodiment 5>
In the fourth embodiment, a plurality of medical images taken from a plurality of directions are acquired, and support information such as CAD findings is presented on the medical image using the image processing result of the acquired medical image. In the present embodiment, support information is presented on the medical image using the image processing result of the acquired medical image, and diagnosis support for the medical image is performed by estimating and presenting the disease name (diagnosis name). An example of the functional configuration of the diagnostic support device 1800 according to the fifth embodiment will be described with reference to FIG. In the diagnosis support device 1800, the estimation unit 1811 is added to the functional configuration shown in FIG. The estimation unit 1811 realized by executing the program by the CPU 1001 estimates the disease name using the abnormal site detected from the tomographic image. Further, FIG. 19 shows a flowchart illustrating an example of processing performed by the diagnosis support device 1800. It is basically the same as the first embodiment, but a part of the treatment is different from the first embodiment. Specifically, step S19060 for estimating a disease name candidate and step S19070 for displaying information are different from the first embodiment. Hereinafter, with reference to an example of the display contents of FIG. 19 and FIGS. 20 and 21, the entire processing performed by the diagnostic support device 1800 in the present embodiment will be described only for the differences from the first to fourth embodiments. .. In this embodiment, the case of the cross scan as shown in FIG. 15A will be described. The present embodiment can be applied to other scan patterns.

ステップS3000乃至ステップS3050の処理は、実施形態4と同じであるであるいため説明を省略する。 Since the processing of steps S3000 to S3050 is the same as that of the fourth embodiment, the description thereof will be omitted.

ステップS19060において、推定部1811は得られた所見に基づいて病名候補の推定を行う。すなわち、推定部181は、所見に基づいて病名を推定する推定手段の一例に相当する。推定部1811では、ステップS3050で取得したHスキャン像とVスキャン像に関して、それぞれの所見の候補の位置を用いて病名候補の推定を行う。すなわち、推定部1811は眼底画像上のどの位置でどの所見が検出されたかを基に病名候補を推定する。眼底画像上における所見の場所の特定について図20を用いて説明をする。図20は、眼底画像に対して領域を分割する複数の例を図20(a)〜(d)に示している。図20(a)、(b)は黄斑部中心窩を基準として耳側、上側、鼻側、下側に眼底画像の領域を分割している例であり、黄斑部中心窩からの距離に応じてセクターを分けている。例えば、セクターの直径は1mm、3mm、10mmとする。なお、数値はこれらの値に限定されるものではない。図20(a)は黄斑部中心窩を基準とした円形領域を分割する例、図20(b)は中心窩から3mmより外の領域全てを分割する例である。 In step S19060, the estimation unit 1811 estimates the disease name candidate based on the obtained findings. That is, the estimation unit 181 corresponds to an example of an estimation means for estimating the disease name based on the findings. The estimation unit 1811 estimates the disease name candidate using the positions of the candidate findings for the H scan image and the V scan image acquired in step S3050. That is, the estimation unit 1811 estimates the disease name candidate based on which finding was detected at which position on the fundus image. The identification of the location of the findings on the fundus image will be described with reference to FIG. FIG. 20 shows a plurality of examples of dividing a region with respect to a fundus image in FIGS. 20A to 20D. 20 (a) and 20 (b) are examples in which the area of the fundus image is divided into the ear side, the upper side, the nasal side, and the lower side with respect to the fovea centralis of the macula, depending on the distance from the fovea centralis of the macula. The sector is divided. For example, the diameter of the sector is 1 mm, 3 mm, and 10 mm. The numerical values are not limited to these values. FIG. 20A is an example of dividing a circular region based on the fovea centralis of the macula, and FIG. 20B is an example of dividing the entire region outside 3 mm from the fovea centralis.

また、図20(c)、(d)は眼底画像の全体をグリッドに分割する例であり、図20(c)は眼底画像の撮影範囲に水平な線および垂直な線によって眼底画像を領域分割した例である。また、図20(d)は視神経乳頭部と黄斑部中心窩とを結んだ直線に対して水平な線および垂直な線によって眼底画像を領域分割した例である。ここで示すように、黄斑部および視神経乳頭部の少なくとも一方を基準として眼底画像を任意の領域に分割をする。 Further, FIGS. 20 (c) and 20 (d) are examples of dividing the entire fundus image into a grid, and FIG. 20 (c) divides the fundus image into regions by horizontal lines and vertical lines in the shooting range of the fundus image. This is an example. Further, FIG. 20D is an example in which the fundus image is divided into regions by horizontal lines and vertical lines with respect to the straight line connecting the optic nerve head and the fovea centralis of the macula. As shown here, the fundus image is divided into arbitrary regions with reference to at least one of the macula and the optic disc.

ここでは、図20(a)のように眼底画像の領域が分割された場合について説明をする。例えば、推定部1811は、Vスキャン像の上側か下側に網膜肥厚が検出され且つ中心には中心窩嚢胞様孔が検出され、Hスキャン像においては中心窩嚢胞様孔が検出された場合、網膜静脈分枝閉塞症という病名候補を推定(検出)する。このように、推定部1811は、Vスキャン像の所見とHスキャン像の所見とに基づいて病名を推定する。すなわち、推定部1811は複数の断層画像それぞれから得られた異常部位の所見に基づいて病名を推定する。 Here, a case where the area of the fundus image is divided as shown in FIG. 20A will be described. For example, in the estimation unit 1811, when retinal thickening is detected on the upper side or the lower side of the V scan image and the foveal cyst-like hole is detected in the center, and the foveal cyst-like hole is detected in the H scan image, Estimate (detect) a candidate for the name of branch retinal vein occlusion. In this way, the estimation unit 1811 estimates the disease name based on the findings of the V-scan image and the findings of the H-scan image. That is, the estimation unit 1811 estimates the disease name based on the findings of the abnormal site obtained from each of the plurality of tomographic images.

なお、推定部1811では、病名候補を推定するためにRandom forestsのような決定木手法を用いてもよいし、SVMのような識別器を用いてもよい。あるいは、推定部1811は、所見または画像特徴による類似症例検索を用いて、眼底画像において所見が現れる空間的な特徴を考慮する検索を行い、検索結果からそれに関連付けられる病名を提示するようにしてもよい。空間的な特徴とは、クロススキャンの場合、中心+上側+下側領域の特徴ベクトルと、中心+鼻側+耳側領域の特徴ベクトルとでそれぞれ類似度を算出する。 The estimation unit 1811 may use a decision tree method such as Random forests or a discriminator such as SVM to estimate the disease name candidate. Alternatively, the estimation unit 1811 may use the similar case search based on the findings or image features to perform a search considering the spatial features in which the findings appear in the fundus image, and present the disease name associated with the search results. Good. In the case of cross scan, the spatial features are calculated by the feature vector of the center + upper + lower region and the feature vector of the center + nasal + ear region, respectively.

ステップS19070において、表示制御部116は、表示部118に表示させる内容を制御する。そして、表示部118は、表示制御部116で制御された表示内容を表示する。具体的には、複数の医用画像のうち少なくとも一つの医用画像を実施形態2と同様の制御を行い表示させる。図21は表示部118が表示する表示内容の一例を示したものである。表示部118が表示する表示内容700は、対象となる症例の眼底画像2110、所見2111とマーカ2112、及び、対象となる症例の眼底画像に対応する眼底画像2115を有する。眼底画像2115には表示している眼底画像2110(Hスキャン像)の位置を示す矢印2117が重畳表示されている。同様に、Vスキャンの方は、断層画像2120、所見2121とマーカ2122、及び、対象となる症例の断層画像に対応する眼底画像2115を有する。眼底画像2115には表示している断層画像2120(Vスキャン像)の位置を示す矢印2119が重畳表示されている。なお、図21に示すように眼底画像2115の下部に広範囲の出血領域2116が見られる。また、表示内容700は、診断名候補モード2134、診断名候補リスト2160を有する。診断名候補モード2134をタップまたはクリックにより診断名候補モードを選択する事により、上述した診断名の候補を表示する処理が実行される。 In step S19070, the display control unit 116 controls the content to be displayed on the display unit 118. Then, the display unit 118 displays the display content controlled by the display control unit 116. Specifically, at least one of the plurality of medical images is displayed under the same control as in the second embodiment. FIG. 21 shows an example of the display contents displayed by the display unit 118. The display content 700 displayed by the display unit 118 includes a fundus image 2110, findings 2111 and a marker 2112 of the target case, and a fundus image 2115 corresponding to the fundus image of the target case. An arrow 2117 indicating the position of the fundus image 2110 (H scan image) displayed on the fundus image 2115 is superimposed and displayed. Similarly, the V-scan has a tomographic image 2120, findings 2121 and markers 2122, and a fundus image 2115 corresponding to the tomographic image of the case of interest. An arrow 2119 indicating the position of the tomographic image 2120 (V-scan image) displayed is superimposed and displayed on the fundus image 2115. As shown in FIG. 21, a wide range of bleeding region 2116 can be seen in the lower part of the fundus image 2115. In addition, the display content 700 has a diagnosis name candidate mode 2134 and a diagnosis name candidate list 2160. By selecting the diagnosis name candidate mode by tapping or clicking the diagnosis name candidate mode 2134, the process of displaying the above-mentioned diagnosis name candidate is executed.

なお、本実施形態ではHスキャン像とVスキャン像とをそれぞれ表示する例を示したがこれに限らない。例えば、複数の断層画像は画面上部の場所(例えば、断層画像2110の場所)に表示をして、不図示のユーザインターフェースにより断層画像を切り替えて表示するようにしてもよい。すなわち、Hスキャン像2110とVスキャン像の一方を表示させ、ユーザインターフェースにより表示させる画像を切換えることとしてもよい。そして、画面下部には、実施形態3で示したように、診断名候補リストに対応する診断のガイドラインを表示するようにしてもよい。なお、診断名候補リストに表示される診断名の選択を切り替える事により、診断のガイドラインも切り替わる。 In this embodiment, an example of displaying an H scan image and a V scan image is shown, but the present invention is not limited to this. For example, a plurality of tomographic images may be displayed at a location at the upper part of the screen (for example, the location of the tomographic image 2110), and the tomographic images may be switched and displayed by a user interface (not shown). That is, one of the H scan image 2110 and the V scan image may be displayed, and the image to be displayed may be switched by the user interface. Then, as shown in the third embodiment, the diagnosis guideline corresponding to the diagnosis name candidate list may be displayed at the lower part of the screen. By switching the selection of the diagnosis name displayed in the diagnosis name candidate list, the diagnosis guideline is also switched.

本実施形態によれば、所見を表示すると共に診断名候補の表示を行う。さらには、それに関する診断のガイドラインも参照する事が出来るため、医師の診断に係る負担を軽減させることができる。また、本実施形態によれば、直交する2つの断層画像の所見に基づいて病名の推定を行うため、より正確な病名の推定を行うことが可能となる。 According to the present embodiment, the findings are displayed and the diagnosis name candidates are displayed. Furthermore, since the guidelines for diagnosis related to it can be referred to, the burden of diagnosis by a doctor can be reduced. Further, according to the present embodiment, since the disease name is estimated based on the findings of the two orthogonal tomographic images, it is possible to estimate the disease name more accurately.

<その他の実施形態>
これらの全ての機能、または、一部の機能はネットワーク上に置かれていてもよい。この場合、表示機能または一部の機能のみをローカル側で動作させる、サーバ・クライアント型の構成となっていてもよい。また、上記に示した各実施形態は独立した実施形態であってもよいし、任意の実施形態を組み合わせることとしてもよい。
<Other Embodiments>
All of these functions, or some of them, may be located on the network. In this case, it may be a server / client type configuration in which only the display function or a part of the functions are operated locally. In addition, each of the above-described embodiments may be an independent embodiment, or any embodiment may be combined.

以上、実施例を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インターフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。 Although the examples have been described in detail above, the present invention can be implemented as, for example, a system, an apparatus, a method, a program, a recording medium (storage medium), or the like. Specifically, it may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or it may be applied to a device composed of one device. good.

また、開示の技術の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施例の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。 Needless to say, the purpose of the disclosed technology is achieved by doing the following. That is, a recording medium (or storage medium) in which a software program code (computer program) that realizes the functions of the above-described embodiment is recorded is supplied to the system or device. Needless to say, the storage medium is a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or device reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the function of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

100 診断支援装置
102 医用画像取得部
104 解析情報取得部
106 記憶部
108 画像処理部
110 判定部
112 位置取得部
116 表示制御部
118 表示部
300 データベース
914 検索部
100 Diagnosis support device 102 Medical image acquisition unit 104 Analysis information acquisition unit 106 Storage unit 108 Image processing unit 110 Judgment unit 112 Position acquisition unit 116 Display control unit 118 Display unit 300 Database 914 Search unit

Claims (18)

被検眼の断層画像に対して解析を行うことで、前記被検眼の異常部位を検出する検出手段と、
前記検出された異常部位の所見に関する所見情報と前記検出された異常部位の位置に関する位置情報とを用いて、前記検出された異常部位の類似症例に関連する類似症例画像を取得する取得手段と、
前記断層画像と前記取得された類似症例画像とを表示手段に表示させる表示制御手段と、
を備えることを特徴とする画像処理装置。
A detection means for detecting an abnormal part of the eye to be inspected by analyzing a tomographic image of the eye to be inspected.
An acquisition means for acquiring a similar case image related to a similar case of the detected abnormal site by using the finding information regarding the findings of the detected abnormal site and the position information regarding the position of the detected abnormal site.
A display control means for displaying the tomographic image and the acquired similar case image on the display means, and
An image processing device characterized by comprising.
前記取得手段は、前記検出された異常部位の所見と一致する所見と、前記検出された異常部位の位置に類似する位置とを有する類似症例を検索することで、前記検索された類似症例に関連する前記類似症例画像を取得することを特徴とする請求項1に記載の画像処理装置。 The acquisition means is related to the searched similar case by searching for a similar case having a finding that matches the finding of the detected abnormal site and a position similar to the position of the detected abnormal site. The image processing apparatus according to claim 1, wherein the similar case image is acquired. 前記表示制御手段は、前記所見情報の少なくとも一部が前記断層画像における前記検出された異常部位を示す領域に重ならない位置に、前記所見情報を重畳させた状態で、前記断層画像を前記表示手段に表示させることを特徴とする請求項1または2に記載の画像処理装置。 The display control means displays the tomographic image on the tomographic image in a state where at least a part of the finding information does not overlap with the region indicating the detected abnormal portion in the tomographic image. The image processing apparatus according to claim 1 or 2, wherein the image processing apparatus is displayed on the image processing apparatus. 被検眼の断層画像に対して解析を行ことで、前記被検眼の異常部位を検出する検出手段と、
前記断層画像に対して解析を行ことで、前記検出された異常部位の類似症例に関連する類似症例画像を取得する取得手段と、
前記取得された類似症例画像を表示手段に表示させ、前記検出された異常部位の所見に関する所見情報の少なくとも一部が前記断層画像における前記検出された異常部位を示す領域に重ならない位置に、前記所見情報を重畳させた状態で、前記断層画像を前記表示手段に表示させる表示制御手段と、
を備えることを特徴とする画像処理装置。
By intends line analysis with respect to the subject's eye tomographic image, a detection unit configured to detect abnormalities of the eye to be examined,
By intends line analysis with respect to the tomographic image obtaining means for obtaining the similar case images relating to the similar case of the detected abnormalities,
The acquired similar case image is displayed on the display means, and at a position where at least a part of the finding information regarding the findings of the detected abnormal site does not overlap with the region indicating the detected abnormal site in the tomographic image. A display control means for displaying the tomographic image on the display means in a state where the finding information is superimposed, and
An image processing device characterized by comprising.
前記断層画像における前記検出された異常部位を示す領域の位置に基づいて、前記断層画像における前記重ならない位置を決定する決定手段を更に備えることを特徴とする請求項3または4に記載の画像処理装置。 The image processing according to claim 3 or 4, further comprising a determining means for determining the non-overlapping position in the tomographic image based on the position of the region indicating the detected abnormal site in the tomographic image. apparatus. 前記断層画像から層境界を抽出する抽出手段を更に備え、
前記検出手段は、前記抽出された層境界により画定される、前記断層画像における第一の領域と第二の領域とに対して異なるアルゴリズムの構造解析を行うことで、前記第一の領域から第一の異常部位を検出し、前記第二の領域から前記第一の異常部位とは異なる第二の異常部位を検出することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
Further provided with an extraction means for extracting the layer boundary from the tomographic image,
The detection means performs structural analysis of different algorithms for the first region and the second region in the tomographic image defined by the extracted layer boundary, thereby performing structural analysis from the first region to the second region. The image according to any one of claims 1 to 5, wherein one abnormal site is detected, and a second abnormal site different from the first abnormal site is detected from the second region. Processing equipment.
前記表示制御手段は、前記断層画像と前記取得された類似症例画像と共に、前記断層画像に対応する眼底画像と前記取得された類似症例画像に対応する眼底画像とを表示させることを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。 The display control means is characterized in that, together with the tomographic image and the acquired similar case image, the fundus image corresponding to the tomographic image and the fundus image corresponding to the acquired similar case image are displayed. Item 6. The image processing apparatus according to any one of Items 1 to 6. 前記表示制御手段は、前記断層画像を得る際の測定光の走査に関する第一の情報を、前記断層画像に対応する前記眼底画像上に表示させ、前記取得された類似症例画像を得る際の測定光の走査に関する第二の情報を、前記取得された類似症例画像に対応する前記眼底画像上に表示させることを特徴とする請求項7に記載の画像処理装置。 The display control means displays the first information regarding scanning of the measurement light when obtaining the tomographic image on the fundus image corresponding to the tomographic image, and measures when obtaining the acquired similar case image. The image processing apparatus according to claim 7, wherein the second information regarding the scanning of light is displayed on the fundus image corresponding to the acquired similar case image. 被検眼の断層画像に対して解析を行うことで、前記被検眼の異常部位の類似症例に関連する類似症例画像を取得する取得手段と、
前記断層画像と前記取得された類似症例画像とを表示手段に表示させる表示制御手段と、を備え、
前記表示制御手段は、前記断層画像と前記取得された類似症例画像と共に、前記断層画像に対応する眼底画像と前記取得された類似症例画像に対応する眼底画像とを表示させ、
前記表示制御手段は、前記断層画像を得る際の測定光の走査に関する第一の情報を、前記断層画像に対応する前記眼底画像上に表示させ、前記取得された類似症例画像を得る際の測定光の走査に関する第二の情報を、前記取得された類似症例画像に対応する前記眼底画像上に表示させることを特徴とする画像処理装置。
By analyzing the tomographic image of the eye to be inspected, an acquisition means for acquiring a similar case image related to a similar case in the abnormal part of the eye to be inspected, and
A display control means for displaying the tomographic image and the acquired similar case image on the display means is provided.
The display control means displays the tomographic image and the acquired similar case image, as well as the fundus image corresponding to the tomographic image and the fundus image corresponding to the acquired similar case image.
The display control means displays the first information regarding scanning of the measurement light when obtaining the tomographic image on the fundus image corresponding to the tomographic image, and measures when obtaining the acquired similar case image. An image processing device characterized in that a second information regarding light scanning is displayed on the fundus image corresponding to the acquired similar case image.
前記第一の情報は、前記断層画像を得る際の測定光の走査位置と走査方向との少なくも一つに関する情報であり、
前記第二の情報は、前記取得された類似症例画像を得る際の測定光の走査位置と走査方向との少なくも一つに関する情報であることを特徴とする請求項8または9に記載の画像処理装置。
The first information is information about at least one of the scanning position and the scanning direction of the measurement light when obtaining the tomographic image.
The image according to claim 8 or 9, wherein the second information is information regarding at least one of the scanning position and the scanning direction of the measurement light when obtaining the acquired similar case image. Processing equipment.
前記取得手段は、前記断層画像を得る際の測定光の走査方向と同一の方向に測定光を走査することにより得られた前記類似症例画像を取得することを特徴とする請求項10に記載の画像処理装置。 10. The acquisition means according to claim 10, wherein the acquisition means acquires the similar case image obtained by scanning the measurement light in the same direction as the scanning direction of the measurement light when obtaining the tomographic image. Image processing device. 前記表示制御手段は、更に前記類似症例の診断名を表示させることを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 11, wherein the display control means further displays a diagnosis name of the similar case. 前記表示制御手段は、前記断層画像と前記取得された類似症例画像とを対比可能に並べて表示させることを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 12, wherein the display control means displays the tomographic image and the acquired similar case image side by side in a contrastable manner. 前記表示制御手段は、前記断層画像に含まれる内境界膜及び神経線維層境界の一方と網膜色素上皮層境界及び視細胞内節外節境界の一方とに挟まれる領域以外の、前記断層画像上の領域に、前記異常部位の所見に関する所見情報を表示させることを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。 The display control means is on the tomographic image other than the region sandwiched between one of the inner limiting membrane and the nerve fiber layer boundary and one of the retinal pigment epithelial layer boundary and the photoreceptor inner segment outer segment boundary included in the tomographic image. The image processing apparatus according to any one of claims 1 to 13, wherein the finding information regarding the finding of the abnormal portion is displayed in the area of. 被検眼の断層画像に対して解析を行うことで、前記被検眼の異常部位を検出する工程と、
前記検出された異常部位の所見に関する所見情報と前記検出された異常部位の位置に関する位置情報とを用いて、前記検出された異常部位の類似症例に関連する類似症例画像を取得する工程と、
前記断層画像と前記取得された類似症例画像とを表示手段に表示させる工程と、
を含むことを特徴とする画像処理方法。
The process of detecting an abnormal part of the eye to be inspected by analyzing the tomographic image of the eye to be inspected, and
A step of acquiring a similar case image related to a similar case of the detected abnormal site by using the finding information regarding the findings of the detected abnormal site and the position information regarding the position of the detected abnormal site, and
A step of displaying the tomographic image and the acquired similar case image on the display means, and
An image processing method characterized by including.
被検眼の断層画像に対して解析を行ことで、前記被検眼の異常部位を検出する工程と、
前記断層画像に対して解析を行ことで、前記検出された異常部位の類似症例に関連する類似症例画像を取得する工程と、
前記取得された類似症例画像を表示手段に表示させ、前記検出された異常部位の所見に関する所見情報の少なくとも一部が前記断層画像における前記検出された異常部位を示す領域に重ならない位置に、前記所見情報を重畳させた状態で、前記断層画像を前記表示手段に表示させる工程と、
を含むことを特徴とする画像処理方法。
By intends line analysis with respect to the subject's eye tomographic image, and detecting abnormalities in the subject's eye,
By intends line analysis with respect to the tomographic image, a step of acquiring a similar case images relating to the similar case of the detected abnormalities,
The acquired similar case image is displayed on the display means, and at a position where at least a part of the finding information regarding the findings of the detected abnormal site does not overlap with the region indicating the detected abnormal site in the tomographic image. A process of displaying the tomographic image on the display means in a state where the finding information is superimposed, and
An image processing method characterized by including.
被検眼の断層画像に対して解析を行うことで、前記被検眼の異常部位の類似症例に関連する類似症例画像を取得する工程と、
前記断層画像と前記取得された類似症例画像と共に、前記断層画像に対応する眼底画像と前記取得された類似症例画像に対応する眼底画像とを表示手段に表示させ、前記断層画像を得る際の測定光の走査に関する第一の情報を、前記断層画像に対応する前記眼底画像上に表示させ、前記取得された類似症例画像を得る際の測定光の走査に関する第二の情報を、前記取得された類似症例画像に対応する前記眼底画像上に表示させる工程と、
を含むことを特徴とする画像処理方法。
A step of acquiring a similar case image related to a similar case of the abnormal part of the eye to be inspected by analyzing the tomographic image of the eye to be inspected.
Measurement when the tomographic image is obtained by displaying the tomographic image, the acquired similar case image, the fundus image corresponding to the tomographic image, and the fundus image corresponding to the acquired similar case image on a display means. The first information regarding the scanning of light is displayed on the fundus image corresponding to the tomographic image, and the second information regarding the scanning of the measured light when obtaining the acquired similar case image is obtained. The process of displaying on the fundus image corresponding to the similar case image, and
An image processing method characterized by including.
請求項15乃至17のいずれか1項に記載の画像処理方法をコンピュータに実行させることを特徴とするプログラム。 A program comprising causing a computer to execute the image processing method according to any one of claims 15 to 17.
JP2019163443A 2019-09-06 2019-09-06 Image processing equipment, image processing methods and programs Expired - Fee Related JP6825058B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019163443A JP6825058B2 (en) 2019-09-06 2019-09-06 Image processing equipment, image processing methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019163443A JP6825058B2 (en) 2019-09-06 2019-09-06 Image processing equipment, image processing methods and programs

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015099470A Division JP6594033B2 (en) 2015-05-14 2015-05-14 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2019202229A JP2019202229A (en) 2019-11-28
JP6825058B2 true JP6825058B2 (en) 2021-02-03

Family

ID=68725652

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019163443A Expired - Fee Related JP6825058B2 (en) 2019-09-06 2019-09-06 Image processing equipment, image processing methods and programs

Country Status (1)

Country Link
JP (1) JP6825058B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7502089B2 (en) 2020-06-03 2024-06-18 キヤノン株式会社 Medical information processing device, medical information processing system, medical information processing method, and program
JP7579889B2 (en) 2021-01-19 2024-11-08 株式会社ニコン IMAGE PROCESSING METHOD, PROGRAM, IMAGE PROCESSING APPARATUS, AND OPHTHALMOLOGY SYSTEM

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3332104B2 (en) * 1993-07-19 2002-10-07 株式会社東芝 Interpretation report creation support device
JP2004005364A (en) * 2002-04-03 2004-01-08 Fuji Photo Film Co Ltd Similar image retrieval system
JP2006149654A (en) * 2004-11-29 2006-06-15 Hitachi Omron Terminal Solutions Corp Support of diagnosis about lesion of eye fundus
US7768652B2 (en) * 2006-03-16 2010-08-03 Carl Zeiss Meditec, Inc. Methods for mapping tissue with optical coherence tomography data
JP2010082001A (en) * 2008-09-29 2010-04-15 Toshiba Corp Image display device
JP5317716B2 (en) * 2009-01-14 2013-10-16 キヤノン株式会社 Information processing apparatus and information processing method
JP5486215B2 (en) * 2009-05-20 2014-05-07 株式会社トプコン Anterior segment observation device
JP5704879B2 (en) * 2009-09-30 2015-04-22 株式会社ニデック Fundus observation device
JP2012011109A (en) * 2010-07-05 2012-01-19 Konica Minolta Medical & Graphic Inc Medical image processor and program

Also Published As

Publication number Publication date
JP2019202229A (en) 2019-11-28

Similar Documents

Publication Publication Date Title
JP6594033B2 (en) Image processing apparatus, image processing method, and program
US10362935B2 (en) User interface for efficiently displaying relevant OCT imaging data
US12040079B2 (en) Medical image processing apparatus, medical image processing method and computer-readable medium
JP4909377B2 (en) Image processing apparatus, control method therefor, and computer program
Niemeijer et al. Retinopathy online challenge: automatic detection of microaneurysms in digital color fundus photographs
US11357398B2 (en) Image processing device and non-transitory computer-readable recording medium
JP6907563B2 (en) Image processing device and image processing program
JP4850927B2 (en) Image processing apparatus, image processing method, and computer program
JP6074455B2 (en) DIAGNOSIS SUPPORT DEVICE, DIAGNOSIS SUPPORT DEVICE CONTROL METHOD, PROGRAM, AND DIAGNOSIS SUPPORT SYSTEM
US20110137157A1 (en) Image processing apparatus and image processing method
JP5631339B2 (en) Image processing apparatus, image processing method, ophthalmic apparatus, ophthalmic system, and computer program
JP6878923B2 (en) Image processing equipment, image processing system, and image processing program
JP6755192B2 (en) How to operate the diagnostic support device and the diagnostic support device
JP6825058B2 (en) Image processing equipment, image processing methods and programs
WO2020138128A1 (en) Image processing device, image processing method, and program
JP5624532B2 (en) Image processing apparatus, image processing method, ophthalmic system, and computer program
Wahab et al. Bright region and vessel density based robust optic disc segmentation
Al-Kanany et al. General Awareness and Knowledge about Glaucoma Cataracts for Diabetic

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210113

R151 Written notification of patent or utility model registration

Ref document number: 6825058

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees