[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2018201629A - Fundus image processing device - Google Patents

Fundus image processing device Download PDF

Info

Publication number
JP2018201629A
JP2018201629A JP2017107304A JP2017107304A JP2018201629A JP 2018201629 A JP2018201629 A JP 2018201629A JP 2017107304 A JP2017107304 A JP 2017107304A JP 2017107304 A JP2017107304 A JP 2017107304A JP 2018201629 A JP2018201629 A JP 2018201629A
Authority
JP
Japan
Prior art keywords
target area
pixel
image
identification image
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017107304A
Other languages
Japanese (ja)
Inventor
茂出木 敏雄
Toshio Modegi
敏雄 茂出木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2017107304A priority Critical patent/JP2018201629A/en
Publication of JP2018201629A publication Critical patent/JP2018201629A/en
Pending legal-status Critical Current

Links

Landscapes

  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)

Abstract

To provide a fundus image processing device capable of accurately specifying an object region by automatically extracting a predetermined object region in a range including an optic nerve head, and correcting an interactive form.SOLUTION: A fundus image processing device includes: gray scale image conversion means 10 for converting a color fundus image to a gray scale image for which a pixel value is set according to the probability of an object region including an optic nerve head; closing processing means 20 for generating a smoothed gray scale image based on a circular structure element; extraction range definition means 30 for defining the lower limit of the pixel value including all pixels included in the object region; object region identification image generation means 40 for generating an object region identification image in which the object region and a non-object region can be identified visually to the pixels of the pixel value equal to or higher than the lower limit for each pixel of the smoothed gray scale image; and object region identification image correction means 50 for correcting the value of the pixels identified as the object region in an indicated region to a value identified as a non-object region.SELECTED DRAWING: Figure 2

Description

本発明は、眼底画像の処理技術に関し、特に、眼底画像において所定の対象領域を特定し、疾患の診断を支援するための技術に関する。   The present invention relates to a fundus image processing technique, and more particularly to a technique for identifying a predetermined target region in a fundus image and supporting a diagnosis of a disease.

視神経の疾患として多い緑内障の診断は眼底検査と視野検査が主に行われ、眼底検査では、眼底画像中の視神経乳頭(Disc, 陥凹Cup, 縁Rim)、PPA(β-PPA, 乳頭周囲網脈絡膜萎縮)、NFLD(網膜視神経線維層欠損)の部位が診断ポイントになる。中でも視神経乳頭のC/D比(Cup/Disc比率:Cup-to-Disc Ratio)やR/D比(Rim-to-Disc Ratio)は、緑内障の進行度を定量的に把握する指標として計測されている。   Diagnosis of glaucoma, which is a common optic nerve disease, is mainly performed by fundus examination and visual field examination. In the fundus examination, the optic disc in the fundus image (Disc, concave cup, rim Rim), PPA (β-PPA, peripapillary network) Choroidal atrophy) and NFLD (retinal optic nerve fiber layer defect) are diagnostic points. Above all, the C / D ratio (Cup / Disc ratio) and R / D ratio (Rim-to-Disc Ratio) of the optic nerve head are measured as indicators to quantitatively grasp the progress of glaucoma. ing.

Cup/Disc比率については、時系列に撮影された複数の眼底画像より各々Cup/Disc比率を算出することにより、緑内障の進行を定量的に把握する方法が提案されている(特許文献1参照)。また、フルカラー眼底画像のR成分よりDisc領域を、G成分よりCup領域を自動抽出する方法も提案されている(特許文献2参照)。   Regarding the Cup / Disc ratio, a method for quantitatively grasping the progression of glaucoma by calculating the Cup / Disc ratio from a plurality of fundus images taken in time series has been proposed (see Patent Document 1). . In addition, a method of automatically extracting the Disc region from the R component of the full-color fundus image and the Cup region from the G component has been proposed (see Patent Document 2).

特許第5701494号公報Japanese Patent No. 5701494 特許第3508112号公報Japanese Patent No. 3508112

しかしながら、特許文献1に記載の技術では、視神経乳頭部のCup・Disc領域を手動で設定する方法をとっており、計測値にユーザのバイアスが入りやすいという問題があった。また、特許文献2に記載の技術では、抽出された乳頭領域の妥当性を検証するため、併せて血管抽出を行っており、縦血管(乳頭部で上下に分岐する血管)を用いて抽出された乳頭領域と一致しない場合、手動で乳頭領域を設定する方法をとっており、同様に計測値にユーザのバイアスが入りやすいという問題があった。更に特許文献2に記載の技術ではNFLD(網膜視神経線維層欠損)の解析もサポートしているが、眼底画像だけでなく視野検査のデータを必要とするという問題があり、PPA(β-PPA, 乳頭周囲網脈絡膜萎縮)の解析についてはサポートしていない。   However, the technique described in Patent Document 1 uses a method of manually setting the Cup / Disc region of the optic nerve head, and there is a problem that a user's bias tends to enter the measurement value. In addition, in the technique described in Patent Document 2, blood vessels are extracted together in order to verify the validity of the extracted nipple region, and extracted using vertical blood vessels (blood vessels that branch up and down in the nipple). When the nipple area does not coincide with the nipple area, a method of manually setting the nipple area is used, and similarly, there is a problem that a user's bias is easily included in the measured value. Furthermore, although the technique described in Patent Document 2 supports the analysis of NFLD (retinal optic nerve fiber layer defect), there is a problem that it requires not only fundus images but also visual field examination data, and PPA (β-PPA, There is no support for analysis of peripapillary choroidal atrophy).

そこで、本発明は、緑内障の診断箇所となる対象領域を自動的に抽出し、対話形式に修正を加えることにより、対象領域を高精度で特定することが可能な眼底画像処理装置を提供することを課題とする。   Therefore, the present invention provides a fundus image processing apparatus capable of specifying a target region with high accuracy by automatically extracting a target region as a glaucoma diagnosis location and modifying the interactive format. Is an issue.

上記課題を解決するため、本発明第1の態様では、
カラー眼底画像に対して、緑内障の診断箇所となる対象領域の画素が高い画素値の範囲に含まれるように設定されたグレースケール画像に変換するグレースケール画像変換手段と、
前記グレースケール画像に対して、所定のサイズの円形構造要素に基づいてクロージング処理を行い平滑化グレースケール画像を作成するクロージング処理手段と、
前記平滑化グレースケール画像の中で少なくとも前記対象領域に含まれる全ての画素を含む画素値の下限値を定義する抽出範囲定義手段と、
前記平滑化グレースケール画像の各画素に対して、前記下限値以上の画素値をもつ画素に対して前記対象領域、当該対象領域以外である非対象領域が視覚的に識別可能な対象領域識別画像を生成する対象領域識別画像生成手段と、
前記対象領域識別画像に対して指示された領域に基づいて、前記指示された領域内の前記対象領域として識別される画素の値を、非対象領域として識別される値に修正して修正対象領域識別画像を作成する対象領域識別画像修正手段と、
を有することを特徴とする眼底画像処理装置を提供する。
In order to solve the above problems, in the first aspect of the present invention,
Gray scale image conversion means for converting a color fundus image into a gray scale image set so that the pixels of the target region serving as a glaucoma diagnosis location are included in a high pixel value range;
Closing processing means for creating a smoothed grayscale image by performing a closing process on the grayscale image based on a circular structuring element of a predetermined size;
Extraction range defining means for defining a lower limit value of a pixel value including at least all pixels included in the target area in the smoothed grayscale image;
For each pixel of the smoothed grayscale image, a target region identification image that can visually identify the target region and a non-target region other than the target region with respect to a pixel having a pixel value equal to or greater than the lower limit value. Target area identification image generating means for generating
Based on the area designated for the target area identification image, the value of the pixel identified as the target area in the designated area is corrected to a value identified as a non-target area, and the correction target area A target area identification image correcting means for creating an identification image;
There is provided a fundus image processing apparatus characterized by comprising:

本発明第1の態様によれば、カラー眼底画像に対して、視神経乳頭部含む範囲における所定の対象領域である確率が高い画素ほど高い値が設定されたグレースケール画像を得て、グレースケール画像に対して、所定のサイズの円形構造要素に基づいてクロージング処理を行って平滑化し、対象領域に含まれる全ての画素を包含する画素値の下限値を定義し、各画素に対して、下限値以上の画素値をもつ画素に対して対象領域、非対象領域が視覚的に識別可能な対象領域識別画像を生成し、対象領域識別画像に対して指示された領域に基づいて、指示された領域内の誤って対象領域の属性が付与されている画素に対して、非対象領域の属性に修正するようにしたので、少ない作業負荷で、個人ごとにバラツキの少ない属性の修正を行うことが可能となる。このため、作業者は修正対象箇所を矩形等の領域で大まかに指示するだけでよく、個人差の少ない属性修正を行うことができる。     According to the first aspect of the present invention, for a color fundus image, a grayscale image in which a higher value is set for a pixel having a higher probability of being a predetermined target region in a range including the optic papilla is obtained, and the grayscale image is obtained. For example, a lower limit value of pixel values including all pixels included in the target region is defined by performing a closing process based on a circular structuring element having a predetermined size. Generate a target area identification image for visually identifying the target area and the non-target area for the pixels having the above pixel values, and specify the specified area based on the specified area for the target area identification image. The pixels that are incorrectly assigned the target area attribute are corrected to the non-target area attributes, so it is possible to correct the attributes with little variation for each individual with a small workload. To become. For this reason, the operator only needs to roughly indicate the correction target portion in an area such as a rectangle, and can perform attribute correction with little individual difference.

また、本発明第1の態様によれば、2種類の属性を有する対象領域識別画像に対して、作業者が誤って対象領域の属性が付与されている画素を含む領域を指示するので、当該領域内の画素が全て非対象領域の属性であると指示された領域情報を教師データとして記録しておくことにより、機械学習手段を用いた領域の自動修正に利用することが可能となる。   Further, according to the first aspect of the present invention, since the operator mistakenly designates a region including a pixel to which the attribute of the target region is given, for the target region identification image having two types of attributes, By recording region information instructed that all the pixels in the region have the attributes of the non-target region as teacher data, it can be used for automatic correction of the region using machine learning means.

また、本発明第2の態様では、前記対象領域として、視神経乳頭部であるDisc、視神経陥凹であるCup、乳頭周囲網脈絡膜萎縮であるPPAの3種類のうち少なくとも1種類に対応する領域を設定し、
各対象領域に対して前記グレースケール画像変換手段、前記クロージング処理手段、前記抽出範囲定義手段、前記対象領域識別画像生成手段、前記対象領域識別画像修正手段を実行し、Disc領域、Cup領域、PPA領域を前記対象領域とした3種類のうち少なくとも1種類の修正対象領域識別画像を作成することを特徴とする。
In the second aspect of the present invention, as the target region, a region corresponding to at least one of the three types of Disc, which is the optic papilla, Cup, which is the optic nerve depression, and PPA, which is the peripapillary choroidal atrophy, is provided. Set,
The gray scale image conversion means, the closing processing means, the extraction range definition means, the target area identification image generation means, and the target area identification image correction means are executed for each target area, and a Disc area, a Cup area, a PPA It is characterized in that at least one type of correction target area identification image is created among the three types having the area as the target area.

また、本発明第3の態様では、前記対象領域として、少なくとも視神経乳頭部であるDisc、視神経陥凹であるCup、乳頭周囲網脈絡膜萎縮であるPPAの複数種類に対応する領域を設定し、各対象領域に対して前記グレースケール画像変換手段、前記クロージング処理手段、前記抽出範囲定義手段、前記対象領域識別画像生成手段、前記対象領域識別画像修正手段を実行し、少なくともDisc領域、Cup領域、PPA領域を前記対象領域とした複数種類の修正対象領域識別画像を作成することを特徴とする。   Further, in the third aspect of the present invention, as the target region, at least regions corresponding to a plurality of types of discs that are the optic papilla, Cup that is the optic nerve recess, and PPA that is the peripapillary choroidal atrophy are set, The gray scale image converting means, the closing processing means, the extraction range defining means, the target area identification image generating means, and the target area identification image correcting means are executed on the target area, and at least the Disc area, Cup area, PPA A plurality of types of correction target region identification images having the region as the target region are created.

また、本発明第4の態様では、前記複数種類の修正対象領域識別画像に対して、各対象領域の属性をもつ画素に前記複数種類別に異なる色で着色し、眼球の解剖学・組織学的に矛盾しないように予め定めれた前記複数種類の対応する領域の置換優先順位に基づき、各々の修正対象領域識別画像に対して異なる種類の他の修正対象領域識別画像の対象領域の画素に対応する画素を前記異なる種類の他の修正対象領域識別画像の対象領域の画素の色で置換することにより、前記複数種類の修正対象領域識別画像を合成した合成対象領域識別画像を作成する識別画像合成手段を更に備えることを特徴とする。   In the fourth aspect of the present invention, for the plurality of types of correction target region identification images, pixels having attributes of each target region are colored with different colors for each of the plurality of types, and the anatomy / histology of the eyeball Corresponding to the pixels of the target area of the different correction target area identification image for each correction target area identification image, based on the replacement priority order of the corresponding types of the plurality of corresponding areas determined in advance so as not to contradict each other. Identification image composition for creating a composition target area identification image by combining the plurality of types of correction target area identification images by replacing the pixel to be replaced with the color of the pixel of the target area of the different correction target area identification image of the different type The apparatus further comprises means.

また、本発明第5の態様では、前記対象領域として、少なくとも視神経乳頭部であるDisc、視神経陥凹であるCup、乳頭周囲網脈絡膜萎縮であるPPAの複数種類に対応する領域を設定し、第1の修正対象領域識別画像は前記Disc領域に対応したものであり、第2の修正対象領域識別画像は前記Cup領域に対応したものであり、第3の修正対象領域識別画像は前記PPA領域に対応したものである場合、前記識別画像合成手段は、前記第1の修正対象領域識別画像に対して第2の修正対象領域識別画像の対象領域の画素に対応する画素を第2の修正対象領域識別画像の対象領域の画素の色で置換する時、前記第1の修正対象領域識別画像の対応する画素が非対象領域の画素の場合は置換しないようにし、前記第1の修正対象領域識別画像に対して第3の修正対象領域識別画像の対象領域の画素に対応する画素を第3の修正対象領域識別画像の対象領域の画素の色で置換する時、前記第1の修正対象領域識別画像の対応する画素が対象領域の画素の場合は置換しないようにしていることを特徴とする。   In the fifth aspect of the present invention, as the target region, at least regions corresponding to a plurality of types of discs that are the optic papilla, Cup that is the optic nerve recess, and PPA that is the peripapillary choroidal atrophy are set. The first correction target area identification image corresponds to the Disc area, the second correction target area identification image corresponds to the Cup area, and the third correction target area identification image corresponds to the PPA area. In the case of corresponding one, the identification image combining means sets a pixel corresponding to a pixel of the target area of the second correction target area identification image to the second correction target area with respect to the first correction target area identification image. When replacing with the color of the pixel in the target area of the identification image, if the corresponding pixel in the first correction target area identification image is a pixel in the non-target area, the replacement is not performed. When replacing the pixel corresponding to the pixel of the target area of the third correction target area identification image with the color of the pixel of the target area of the third correction target area identification image with respect to another image, the first correction target area If the corresponding pixel of the identification image is a pixel in the target area, it is not replaced.

また、本発明第6の態様では、前記合成対象領域識別画像に対して、前記3種類の色で着色された画素数を色別にカウントし、第2の色に対応する画素数を第1の色に対応する画素数で除算した第1の比率と、第3の色に対応する画素数を第1の色に対応する画素数で除算した第2の比率を算出する面積比率算出手段を更に備えることを特徴とする。   In the sixth aspect of the present invention, the number of pixels colored with the three kinds of colors is counted for each color of the composition target region identification image, and the number of pixels corresponding to the second color is set to the first number. Area ratio calculating means for calculating a first ratio obtained by dividing the number of pixels corresponding to the color and a second ratio obtained by dividing the number of pixels corresponding to the third color by the number of pixels corresponding to the first color; It is characterized by providing.

また、本発明第7の態様では、前記対象領域が、視神経乳頭部であるDisc、視神経陥凹であるCup、乳頭周囲網脈絡膜萎縮であるPPAの3種類に対応する領域である場合、前記グレースケール画像変換手段は、前記対象領域がDisc領域の場合、前記カラー眼底画像のR成分を前記グレースケール画像とし、前記対象領域がCup領域の場合、前記カラー眼底画像のG成分を前記グレースケール画像とし、前記対象領域がPPA領域の場合、前記カラー眼底画像のR成分からB成分を減じた値に対して最大値より減算させた値を反映させた画像を前記グレースケール画像に設定するようにしていることを特徴とする。   Further, in the seventh aspect of the present invention, when the target region is a region corresponding to three types of disc, which is an optic papilla, Cup which is a optic nerve recess, and PPA which is a peripapillary choroidal atrophy, the gray The scale image converting means uses the R component of the color fundus image as the gray scale image when the target region is a Disc region, and the G component of the color fundus image as the gray scale image when the target region is a Cup region. When the target area is a PPA area, an image reflecting a value obtained by subtracting the B component from the R component of the color fundus image from the maximum value is set as the grayscale image. It is characterized by.

また、本発明第8の態様では、前記抽出範囲定義手段は、前記対象領域に含まれる全ての画素を含む画素値の上限値を更に定義するようにし、前記対象領域識別画像生成手段は、前記下限値から前記上限値の範囲の画素値をもつ画素に対して前記対象領域、当該対象領域以外である非対象領域が視覚的に識別可能な対象領域識別画像を生成することを特徴とする。   In the eighth aspect of the present invention, the extraction range defining means further defines an upper limit value of pixel values including all pixels included in the target area, and the target area identification image generating means A target area identification image is generated for a pixel having a pixel value within a range from a lower limit value to the upper limit value, so that a target area and a non-target area other than the target area can be visually identified.

また、本発明第9の態様では、前記対象領域識別画像生成手段は、前記平滑化グレースケール画像の各画素に対して、当該画素の画素値が前記下限値以上の範囲に含まれる場合、当該画素の画素値と前記下限値との差分に所定の1以上の係数βを乗じて所定のオフセット値を加えた値をRGBいずれかの色成分として設定し、それ以外の色成分に対しては、当該画素の前記グレースケール画像における画素値に所定の1未満の係数γを乗じた値を設定することにより対象領域の色として設定し、当該画素の画素値が前記下限値未満の場合、当該画素の前記グレースケール画像における画素値をRGB全ての色成分として設定することにより非対象領域の色として設定し、前記対象領域識別画像を生成するようにしていることを特徴とする。   In the ninth aspect of the present invention, the target area identification image generation unit may include, for each pixel of the smoothed grayscale image, when the pixel value of the pixel is included in a range equal to or greater than the lower limit value. A value obtained by multiplying a difference between a pixel value of a pixel and the lower limit value by a predetermined coefficient β of one or more and adding a predetermined offset value is set as one of RGB color components, and for other color components , By setting a value obtained by multiplying the pixel value of the pixel in the grayscale image by a predetermined coefficient γ less than 1 to set the color of the target region, and when the pixel value of the pixel is less than the lower limit value, The pixel value of the pixel in the gray scale image is set as a color of the non-target region by setting all the RGB color components, and the target region identification image is generated.

また、本発明第10の態様では、前記対象領域識別画像生成手段は、前記平滑化グレースケール画像の各画素に対して、当該画素の画素値が前記下限値から前記上限値の範囲に含まれる場合、当該画素の画素値と前記下限値との差分に所定の1以上の係数βを乗じて所定のオフセット値を加えた値をRGBいずれかの色成分に設定し、それ以外の色成分に対しては、当該画素の前記グレースケール画像における画素値に所定の1未満の係数γを乗じた値を設定することにより対象領域の色として設定し、当該画素の画素値が前記下限値未満または前記上限値を超える場合、当該画素の前記グレースケール画像における画素値をRGB全ての色成分として設定することにより非対象領域の色として設定し、前記対象領域識別画像を生成するようにしていることを特徴とする。   In the tenth aspect of the present invention, the target area identification image generation means includes a pixel value of the pixel in the range from the lower limit value to the upper limit value for each pixel of the smoothed grayscale image. In this case, a value obtained by multiplying the difference between the pixel value of the pixel and the lower limit value by a predetermined one or more coefficient β and adding a predetermined offset value is set as one of the RGB color components, and the other color components are set. On the other hand, by setting a value obtained by multiplying the pixel value of the pixel in the grayscale image by a predetermined coefficient γ less than 1 as the color of the target region, the pixel value of the pixel is less than the lower limit value or If the upper limit value is exceeded, the pixel value of the pixel in the grayscale image is set as the color of the non-target region by setting all the RGB color components, and the target region identification image is generated. It is characterized by that.

また、本発明第11の態様では、前記対象領域識別画像修正手段は、前記対象領域識別画像に対して、前記指示された領域内で対象領域が設定された画素に対して、当該画素のRGBいずれかの色成分の最小の値を前記係数γで除算した値をRGB全ての色成分になるように修正することにより当該画素を非対象領域の値に修正するようにしていることを特徴とする。   Further, in the eleventh aspect of the present invention, the target area identification image correcting means is configured to perform RGB of the pixel for the target area identification image with respect to a pixel in which the target area is set in the designated area. The pixel is corrected to the value of the non-target region by correcting a value obtained by dividing the minimum value of any one of the color components by the coefficient γ so as to be all the RGB color components. To do.

また、本発明第12の態様では、前記対象領域識別画像修正手段は、前記修正対象領域識別画像を画面上に表示して修正対象の領域を指示し、指示された領域内の前記対象領域に含まれる画素に対して、非対象領域の値に更に修正し、前記修正対象領域識別画像を更新するようにしていることを特徴とする。   In the twelfth aspect of the present invention, the target area identification image correcting means displays the correction target area identification image on a screen to indicate a correction target area, and the target area identification image correction means displays the correction target area identification image on the target area in the specified area. The included pixels are further corrected to the value of the non-target region, and the correction target region identification image is updated.

また、本発明第13の態様では、前記対象領域識別画像修正手段は、指示された領域に対して所定の画素数の複数の画素ブロックに分割し、前記分割された各画素ブロック内の各画素の画素値を機械学習手段に入力し、前記非対象領域の属性を教師データとして前記機械学習手段に入力し、前記機械学習手段に対して学習処理を行うようにしていることを特徴とする。   In the thirteenth aspect of the present invention, the target region identification image correcting unit divides a designated region into a plurality of pixel blocks having a predetermined number of pixels, and each pixel in each of the divided pixel blocks. These pixel values are input to machine learning means, the attribute of the non-target region is input to the machine learning means as teacher data, and learning processing is performed on the machine learning means.

また、本発明第14の態様では、前記対象領域識別画像修正手段は、前記対象領域識別画像または修正対象領域識別画像に対して、前記所定の画素数の複数の画素ブロックに分割し、前記分割された各画素ブロック内の各画素の画素値を前記機械学習手段に入力し、前記画素ブロック内の当該画素に付与されている属性を、前記機械学習手段より出力される属性に修正することにより、前記修正対象領域識別画像を作成または更新することを特徴とする。   In the fourteenth aspect of the present invention, the target area identification image correcting unit divides the target area identification image or the correction target area identification image into a plurality of pixel blocks having the predetermined number of pixels, and The pixel value of each pixel in each pixel block is input to the machine learning means, and the attribute given to the pixel in the pixel block is corrected to the attribute output from the machine learning means. The correction target area identification image is created or updated.

また、本発明第15の態様では、前記機械学習手段は、入力層に、前記画素ブロックの各画素のRGBいずれか2つの色成分からなり、当該画素が対象領域に含まれる場合、2つの色成分が異なるように選定された2種類の画素値に対応して、前記所定の画素数の2倍の個数のノードを備え、出力層に、対象領域の属性、非対象領域の属性からなる2種類の属性に対応して2個のノードを備え、所定の個数のノードを備えた中間層を少なくとも1つ以上もつ多層ニューラルネットワークで構成されることを特徴とする。   In the fifteenth aspect of the present invention, the machine learning means includes, in the input layer, any two RGB color components of each pixel of the pixel block, and two colors when the pixel is included in the target region. Corresponding to two types of pixel values selected so as to have different components, the node includes twice as many nodes as the predetermined number of pixels, and the output layer includes 2 attributes of a target area and a non-target area. It is characterized by comprising a multilayer neural network having two nodes corresponding to the attributes of the type and having at least one intermediate layer having a predetermined number of nodes.

また、本発明第16の態様では、前記グレースケール画像変換手段と、前記クロージング処理手段と、前記抽出範囲定義手段と、前記対象領域識別画像生成手段と、前記対象領域識別画像修正手段を実現する第1のコンピュータと、前記機械学習手段を有する第2のコンピュータが、ネットワークを介して、接続されていることを特徴とする。   In the sixteenth aspect of the present invention, the gray scale image conversion means, the closing processing means, the extraction range definition means, the target area identification image generation means, and the target area identification image correction means are realized. A first computer and a second computer having the machine learning means are connected via a network.

また、本発明第17の態様では、コンピュータが、カラー眼底画像から緑内障の診断箇所となる対象領域を識別する画像を作成する方法であって、
カラー眼底画像に対して、緑内障の診断箇所となる対象領域の画素が高い画素値の範囲に含まれるように設定されたグレースケール画像に変換する段階と、
前記グレースケール画像に対して、所定のサイズの円形構造要素に基づいてクロージング処理を行い平滑化グレースケール画像を作成する段階と、
前記平滑化グレースケール画像の中で少なくとも前記対象領域に含まれる全ての画素を含む画素値の下限値を定義する段階と、
前記平滑化グレースケール画像の各画素に対して、前記下限値以上の画素値をもつ画素に対して前記対象領域、当該対象領域以外である非対象領域が視覚的に識別可能な対象領域識別画像を生成する段階と、
前記対象領域識別画像に対して指示された領域に基づいて、前記指示された領域内の前記対象領域として識別される画素の値を、非対象領域として識別される値に修正して修正対象領域識別画像を作成する段階と、
を有することを特徴とする画像の作成方法を提供する。
According to a seventeenth aspect of the present invention, there is provided a method in which a computer creates an image for identifying a target region that is a diagnostic site for glaucoma from a color fundus image,
Converting the color fundus image into a grayscale image that is set so that the pixel of the target region that is a glaucoma diagnosis location is included in the range of high pixel values;
The grayscale image is subjected to a closing process based on a circular structuring element of a predetermined size to create a smoothed grayscale image;
Defining a lower limit value of a pixel value including at least all pixels included in the target region in the smoothed grayscale image;
For each pixel of the smoothed grayscale image, a target region identification image that can visually identify the target region and a non-target region other than the target region with respect to a pixel having a pixel value equal to or greater than the lower limit value. Generating
Based on the area designated for the target area identification image, the value of the pixel identified as the target area in the designated area is corrected to a value identified as a non-target area, and the correction target area Creating an identification image;
A method for creating an image is provided.

また、本発明第18の態様では、コンピュータを、前記眼底画像処理装置として機能させるためのプログラムを提供する。   According to an eighteenth aspect of the present invention, there is provided a program for causing a computer to function as the fundus image processing apparatus.

本発明によれば、緑内障の診断箇所となる対象領域を自動的に抽出し、対話形式に修正を加えることにより、対象領域を高精度で特定することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to extract a target area | region used as the glaucoma diagnosis location automatically, and to specify a target area | region with high precision by modifying a dialog format.

本発明の一実施形態に係る眼底画像処理装置100のハードウェア構成図である。1 is a hardware configuration diagram of a fundus image processing apparatus 100 according to an embodiment of the present invention. 本発明の一実施形態に係る眼底画像処理装置の構成を示す機能ブロック図である。1 is a functional block diagram illustrating a configuration of a fundus image processing apparatus according to an embodiment of the present invention. 本発明の一実施形態に係る眼底画像処理装置の処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary of the fundus image processing apparatus according to an embodiment of the present invention. フルカラー眼底画像における各部位の二次元の色分布をR成分、G成分に対応付けて示した図である。It is the figure which showed the two-dimensional color distribution of each site | part in a full-color fundus image corresponding to R component and G component. フルカラー眼底画像における各部位の二次元の色分布をR−B成分、G−B成分に対応付けて示した図である。It is the figure which showed the two-dimensional color distribution of each site | part in a full-color fundus image corresponding to RB component and GB component. クロージング処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of a closing process. クロージング処理で用いる円形構造要素の一例を示す図である。It is a figure which shows an example of the circular structural element used by a closing process. 図8は、対象領域識別画像修正手段50の処理により表示部7の画面上に表示されたフルカラーの対象領域識別画像Pseg(x,y,c)を示す図である。FIG. 8 is a diagram showing a full-color target area identification image Pseg (x, y, c) displayed on the screen of the display unit 7 by the processing of the target area identification image correcting means 50. 合成対象領域識別画像の属性別画素値を示す図である。It is a figure which shows the pixel value according to attribute of a synthetic | combination object area | region identification image. 本実施形態に係る眼底画像処理装置により得られる画像の例である。It is an example of the image obtained by the fundus image processing apparatus according to the present embodiment. 第2の実施形態に係る眼底画像処理装置の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the fundus image processing apparatus according to the second embodiment. 機械学習手段67の詳細を示す図である。It is a figure which shows the detail of the machine learning means 67. FIG. 第2の実施形態に係る眼底画像処理装置の処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary of the fundus image processing apparatus according to the second embodiment. 第2の実施形態における機械学習を説明するための図である。It is a figure for demonstrating the machine learning in 2nd Embodiment.

以下、本発明の好適な実施形態について図面を参照して詳細に説明する。
<1.装置構成>
図1は、本発明第1の実施形態に係る眼底画像処理装置のハードウェア構成図である。本実施形態に係る眼底画像処理装置100は、汎用のコンピュータで実現することができ、図1に示すように、CPU(Central Processing Unit)1と、コンピュータのメインメモリであるRAM(Random Access Memory)2と、CPU1が実行するプログラムやデータを記憶するためのハードディスク、フラッシュメモリ等の大容量の記憶装置3と、キーボード、マウス等の指示入力I/F(インターフェース)4と、データ記憶媒体等の外部装置とデータ通信するためのデータ入出力I/F(インターフェース)5と、表示や機械学習を高速化するためのGPU(Graphical Processing Unit)6と、液晶ディスプレイ等の表示デバイスである表示部7と、を備え、互いにバスを介して接続されている。
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the drawings.
<1. Device configuration>
FIG. 1 is a hardware configuration diagram of a fundus image processing apparatus according to the first embodiment of the present invention. The fundus image processing apparatus 100 according to the present embodiment can be realized by a general-purpose computer. As shown in FIG. 1, a CPU (Central Processing Unit) 1 and a RAM (Random Access Memory) that is a main memory of the computer. 2, a large-capacity storage device 3 such as a hard disk or flash memory for storing programs and data executed by the CPU 1, an instruction input I / F (interface) 4 such as a keyboard and a mouse, and a data storage medium A data input / output I / F (interface) 5 for data communication with an external device, a GPU (Graphical Processing Unit) 6 for speeding up display and machine learning, and a display unit 7 which is a display device such as a liquid crystal display And are connected to each other via a bus.

図2は、本実施形態に係る眼底画像処理装置の構成を示す機能ブロック図である。図2において、10はグレースケール画像変換手段、20はクロージング処理手段、30は抽出範囲定義手段、40は対象領域識別画像生成手段、50は対象領域識別画像修正手段、60は識別画像合成手段、65は面積比率算出手段、70は眼底画像記憶手段、80は処理データ像記憶手段である。   FIG. 2 is a functional block diagram illustrating a configuration of the fundus image processing apparatus according to the present embodiment. In FIG. 2, 10 is a gray scale image conversion means, 20 is a closing processing means, 30 is an extraction range definition means, 40 is a target area identification image generation means, 50 is a target area identification image correction means, 60 is an identification image synthesis means, 65 is an area ratio calculation means, 70 is a fundus image storage means, and 80 is a processing data image storage means.

グレースケール画像変換手段10、クロージング処理手段20、抽出範囲定義手段30、対象領域識別画像生成手段40、対象領域識別画像修正手段50、識別画像合成手段60、面積比率算出手段65は、CPU1が、記憶装置3に記憶されているプログラムを実行することにより実現され、一部の処理においてはGPU6も使用される。眼底画像記憶手段70は、可視光・光源方式の眼底カメラを用いてフルカラーで撮影された、血管領域の抽出対象となるフルカラー眼底画像を記憶した記憶手段であり、記憶装置3により実現される。眼底画像処理装置にフルカラー眼底画像を読み込ませて、そのまま処理を行う場合は、RAM2が眼底画像記憶手段70としての役割を果たす。   The gray scale image conversion means 10, the closing processing means 20, the extraction range definition means 30, the target area identification image generation means 40, the target area identification image correction means 50, the identification image synthesis means 60, and the area ratio calculation means 65 are processed by the CPU 1. This is realized by executing a program stored in the storage device 3, and the GPU 6 is also used in some processes. The fundus image storage unit 70 is a storage unit that stores a full-color fundus image to be extracted from a blood vessel region, which is captured in full color using a visible light / light source type fundus camera, and is realized by the storage device 3. When the full-color fundus image is read by the fundus image processing apparatus and processed as it is, the RAM 2 serves as the fundus image storage unit 70.

フルカラー眼底画像とは、RGBの3成分により記録された画像データであり、被験者の眼底が撮影されたものである。本実施形態では、RGB各色8ビット256階調で記録されたものを用いている。処理データ記憶手段80は、対象領域識別画像生成手段40、対象領域識別画像修正手段50、識別画像合成手段60等により生成または修正された画像や、面積比率算出手段65により算出された面積比率等のデータを記憶する記憶手段であり、記憶装置3により実現される。   A full-color fundus image is image data recorded with three RGB components, and is obtained by photographing the fundus of a subject. In the present embodiment, RGB recorded with 8-bit 256 gradations for each color is used. The processing data storage unit 80 includes an image generated or corrected by the target region identification image generation unit 40, the target region identification image correction unit 50, the identification image synthesis unit 60, the area ratio calculated by the area ratio calculation unit 65, and the like. And is realized by the storage device 3.

図2に示した各構成手段は、現実には図1に示したように、コンピュータおよびその周辺機器等のハードウェアに専用のプログラムを搭載することにより実現される。すなわち、コンピュータが、専用のプログラムに従って各手段の内容を実行することになる。なお、本明細書において、コンピュータとは、CPUとGPU等の演算処理部を有し、データ処理が可能な装置を意味し、パーソナルコンピュータなどの汎用コンピュータだけでなく、GPUを搭載するタブレット等の携帯型端末も含む。   Each component shown in FIG. 2 is actually realized by installing a dedicated program in hardware such as a computer and its peripheral devices as shown in FIG. That is, the computer executes the contents of each means according to a dedicated program. In this specification, a computer means a device that has an arithmetic processing unit such as a CPU and a GPU and can perform data processing. The computer includes not only a general-purpose computer such as a personal computer but also a tablet equipped with a GPU. Includes portable terminals.

図1に示した記憶装置3には、CPU1を動作させ、GPU6を補助的に使用しながら、コンピュータを、眼底画像処理装置として機能させるための専用のプログラムが実装されている。この専用のプログラムを実行することにより、CPU1は、グレースケール画像変換手段10、クロージング処理手段20、抽出範囲定義手段30、対象領域識別画像生成手段40、対象領域識別画像修正手段50、識別画像合成手段60、面積比率算出手段65としての機能を実現することになる。また、記憶装置3は、眼底画像記憶手段70、処理データ記憶手段80として機能するだけでなく、眼底画像処理装置としての処理に必要な様々なデータを記憶する。   The storage device 3 shown in FIG. 1 is mounted with a dedicated program for causing the computer to function as a fundus image processing apparatus while operating the CPU 1 and using the GPU 6 as an auxiliary. By executing this dedicated program, the CPU 1 performs gray scale image conversion means 10, closing processing means 20, extraction range definition means 30, target area identification image generation means 40, target area identification image correction means 50, identification image synthesis. Functions as the means 60 and the area ratio calculation means 65 are realized. The storage device 3 not only functions as the fundus image storage unit 70 and the processing data storage unit 80 but also stores various data necessary for processing as the fundus image processing device.

<2.処理動作>
<2.1.前処理>
まず、処理対象とするフルカラー眼底画像を用意する。フルカラー眼底画像としては、デジタル方式の眼底カメラによりフルカラーで撮影した画像ファイルがあれば、そのまま使用できる。また、アナログ方式の眼底カメラにより写真媒体に記録された古いものであれば、保管されていたアナログのカラーのネガ・ポジフィルム、印画紙、インスタント写真等をスキャナによりフルカラーで読み取る等してデジタルのフルカラー眼底画像ファイルを取得する。一般には、可視光・光源方式の眼底カメラを用いてフルカラーで撮影することによりフルカラー眼底画像が得られる。取得したフルカラー眼底画像は、眼底画像処理装置の眼底画像記憶手段70に記憶させる。本実施形態では、フルカラー眼底画像としてR,G,B各成分8ビット256階調のカラー画像を用意する。
<2. Processing action>
<2.1. Pretreatment>
First, a full-color fundus image to be processed is prepared. As a full-color fundus image, if there is an image file taken in full color by a digital fundus camera, it can be used as it is. In addition, if it is an old one recorded on a photographic medium by an analog fundus camera, the stored digital color negative / positive film, photographic paper, instant photo, etc. are read in full color with a scanner. Obtain a full-color fundus image file. Generally, a full-color fundus image is obtained by photographing in full color using a visible light / light source type fundus camera. The acquired full-color fundus image is stored in the fundus image storage means 70 of the fundus image processing apparatus. In this embodiment, R, G, B component 8-bit color images with 256 gradations are prepared as full-color fundus images.

<2.2.処理概要>
次に、図1、図2に示した眼底画像処理装置の処理動作について、修正対象領域識別画像を作成する画像の作成方法とともに、説明する。図3は、本発明の一実施形態に係る眼底画像処理装置の処理概要を示すフローチャートである。上述のように、処理対象であるフルカラー眼底画像は、RGB各色8ビット256階調の画像データである。したがって、x方向の画素数Xs、y方向の画素数Ysのフルカラー眼底画像は、色成分を示す変数c=0(Red),1(Green),2(Blue)とすると、Image(x,y,c)=0〜255(x=0,・・・,Xs−1;y=0,・・・,Ys−1;c=0,1,2)と定義される。
<2.2. Process Overview>
Next, processing operations of the fundus image processing apparatus shown in FIGS. 1 and 2 will be described together with an image creation method for creating a correction target region identification image. FIG. 3 is a flowchart showing an outline of processing of the fundus image processing apparatus according to the embodiment of the present invention. As described above, the full-color fundus image to be processed is 8-bit 256-gradation image data for each RGB color. Therefore, a full-color fundus image having the number of pixels Xs in the x direction and the number of pixels Ys in the y direction is represented by Image (x, y , C) = 0 to 255 (x = 0,..., Xs-1; y = 0,..., Ys-1; c = 0, 1, 2).

まず、グレースケール画像変換手段10が、フルカラー眼底画像に対して、グレースケール変換を行い、グレースケール画像を得る(ステップS100)。緑内障の診断箇所となる対象領域としては、視神経乳頭部であるDisc領域、視神経陥凹であるCup領域、乳頭周囲網脈絡膜萎縮であるPPA領域を主として、NFLD(網膜障害)、眼底出血(眼底血管障害)、乳頭出血等がある。このうち、本実施形態では、視神経乳頭部であるDisc領域、視神経陥凹であるCup領域、乳頭周囲網脈絡膜萎縮であるPPA領域の3種類の領域を対象領域として抽出する。これらは、いずれも緑内障の診断箇所となる対象領域であり、視神経乳頭部を含む範囲における対象領域である。本実施形態では、グレースケール画像は、抽出目的とする3種類の対象領域の特性に応じて、最適な色成分を利用して作成する。   First, the gray scale image conversion means 10 performs gray scale conversion on the full-color fundus image to obtain a gray scale image (step S100). The target areas to be diagnosed for glaucoma are mainly the Disc area that is the optic papilla, the Cup area that is the optic nerve depression, and the PPA area that is the choroidal atrophy around the nipple. Disorder) and nipple bleeding. Among these, in the present embodiment, three types of regions are extracted as target regions: a Disc region that is an optic nerve head, a Cup region that is a optic nerve recess, and a PPA region that is a peripapillary choroidal atrophy. These are all target regions that are glaucoma diagnosis locations, and are target regions in a range including the optic papilla. In the present embodiment, the grayscale image is created using the optimum color component according to the characteristics of the three types of target areas targeted for extraction.

図4は、フルカラー眼底画像における各部位の二次元の色分布をR成分、G成分に対応付けて示した図である。図4においては、代表的な部位である視神経乳頭のDisc領域、視神経乳頭のCup領域、視神経乳頭部の周辺のPPA領域、動脈血管(Artery)、静脈血管(Vein)、これらの5領域以外の領域(Background)の大まかな分布を示している。図4に示すように、Disc領域とCup領域は、R成分により他の領域との差が明確となり、G成分によりDisc領域とCup領域の相互の差も明確となる。ところが、PPA領域は、R成分では、静脈血管との区別が難しく、G成分では、Backgroundとの区別が難しい。PPA領域については、R成分をネガ反転することで、ある程度抽出可能であるが、精度が良くない。   FIG. 4 is a diagram showing the two-dimensional color distribution of each part in the full-color fundus image in association with the R component and the G component. In FIG. 4, the Disc region of the optic disc, the Cup region of the optic disc, the PPA region around the optic disc, the arterial blood vessel (Artery), the venous blood vessel (Vein), which are representative regions other than these five regions. A rough distribution of the region (Background) is shown. As shown in FIG. 4, in the Disc region and the Cup region, the difference from the other regions is clarified by the R component, and the difference between the Disc region and the Cup region is also clarified by the G component. However, the PPA region is difficult to distinguish from venous blood vessels in the R component, and difficult to distinguish from the background in the G component. The PPA region can be extracted to some extent by negatively inverting the R component, but the accuracy is not good.

図5は、フルカラー眼底画像における各部位の二次元の色分布をR−B成分、G−B成分に対応付けて示した図である。図5においても、図4と同様、代表的な部位である視神経乳頭のDisc領域、視神経乳頭のCup領域、視神経乳頭部の周辺のPPA領域、動脈血管(Artery)、静脈血管(Vein)、これらの5領域以外の領域(Background)の大まかな分布を示している。R−B成分とは、R成分からB成分を減じた成分であり、G−B成分とは、G成分からB成分を減じた成分である。図5に示すように、PPA領域は、R−B成分で、Cup領域とかぶるが、それ以外の領域とは概ね区別でき、G−B成分では5領域以外の領域(Background)に含まれ全く区別できない。   FIG. 5 is a diagram showing the two-dimensional color distribution of each part in the full-color fundus image in association with the RB component and the GB component. In FIG. 5 as well, as in FIG. 4, the disc region of the optic disc, the Cup region of the optic disc, the PPA region around the optic disc, the arterial blood vessel (Artery), the venous blood vessel (Vein), and the like. A rough distribution of regions (Background) other than 5 regions is shown. The RB component is a component obtained by subtracting the B component from the R component, and the GB component is a component obtained by subtracting the B component from the G component. As shown in FIG. 5, the PPA region is covered with the Cup region by the RB component, but is generally distinguishable from other regions, and the GB component is included in the region other than the five regions (Background). I can't distinguish.

図4、図5に示したような対象領域の特性を利用して、グレースケール画像変換手段10は、フルカラー眼底画像Image(x,y,c)に対して、以下の〔数式1〕〜〔数式3〕に従った処理を実行することによりグレースケール変換を行い、3種のグレースケール画像を生成する。   Using the characteristics of the target region as shown in FIGS. 4 and 5, the grayscale image conversion means 10 applies the following [Equation 1] to [Equation 1] to [Fully fundus image Image (x, y, c)]. Grayscale conversion is performed by executing processing according to Equation 3] to generate three types of grayscale images.

〔数式1〕
GrayD(x,y)=Image(x,y,0)
[Formula 1]
GrayD (x, y) = Image (x, y, 0)

上記〔数式1〕において、Image(x,y,0)は、フルカラー眼底画像のうち、R(レッド、赤)の成分を示している。グレースケール画像GrayD(x,y)は、視神経乳頭部の対象領域または視神経乳頭部の周辺の対象領域として、視神経乳頭のDisc領域の画素が高い画素値の範囲に含まれるように設定されたグレースケール画像である。   In the above [Equation 1], Image (x, y, 0) represents an R (red, red) component of the full-color fundus image. The grayscale image GrayD (x, y) is a gray that is set so that the pixel of the disc region of the optic disc is included in the range of high pixel values as the target region of the optic disc or the peripheral region of the optic disc. It is a scale image.

〔数式2〕
GrayC(x,y)=Image(x,y,1)
[Formula 2]
GrayC (x, y) = Image (x, y, 1)

上記〔数式2〕において、Image(x,y,1)は、フルカラー眼底画像のうち、G(グリーン、緑)の成分を示している。グレースケール画像GrayC(x,y)は、視神経乳頭部の対象領域または視神経乳頭部の周辺の対象領域として、視神経乳頭のCup領域の画素が高い画素値の範囲に含まれるように設定されたグレースケール画像である。   In the above [Equation 2], Image (x, y, 1) represents a G (green, green) component of the full-color fundus image. The grayscale image GrayC (x, y) is a gray that is set so that the pixel of the Cup region of the optic disc is included in the high pixel value range as the target region of the optic disc or the peripheral region of the optic disc. It is a scale image.

〔数式3〕
GrayP(x,y)=[255−Image(x,y,0)+Image(x,y,2)]×α
GrayP(x,y)>255の場合、GrayP(x,y)=0
[Formula 3]
GrayP (x, y) = [255−Image (x, y, 0) + Image (x, y, 2)] × α
When GrayP (x, y)> 255, GrayP (x, y) = 0

上記〔数式3〕において、Image(x,y,2)は、フルカラー眼底画像のうち、B(ブルー、青)の成分を示している。また、αは1以上の実数であり、好ましくは、10以下の実数である。グレースケール画像GrayP(x,y)は、視神経乳頭部の対象領域または視神経乳頭部の周辺の対象領域として、PPA領域である画素が比較的高い画素値の範囲に含まれるように設定されたグレースケール画像である。PPA領域の抽出については、R成分(Image(x,y,0))からB成分(Image(x,y,2))を減じたものをネガ反転して画素値を向上させ、PPA領域の画素が高い画素値の範囲に含まれるようにし、眼底領域の背景画素が非対象領域に含まれるように調整を行っている。ネガ反転とは、画素値を最大値(255)から減算させることを意味する。したがって、PPA領域の場合、グレースケール画像GrayP(x,y)は、R成分からB成分を減じた値に対して最大値(255)より減算させた値に所定の1以上の実数値αを乗算させた画像となっている。さらに、GrayP(x,y)>255となる画素のほとんどが眼底領域外に含まれるため、GrayP(x,y)=0に設定し、眼底領域外が非対象領域に含まれるように設定し直している。以下、GrayD(x,y)、GrayC(x,y)、GrayP(x,y)に対しては、対応する対象領域に応じて同様の処理が行われるが、これらに共通して行われる処理に対しては、Gray(x,y)として示すことにする。   In the above [Equation 3], Image (x, y, 2) represents a component of B (blue, blue) in the full-color fundus image. Α is a real number of 1 or more, and preferably a real number of 10 or less. The grayscale image GrayP (x, y) is a gray that is set so that a pixel that is a PPA region is included in a relatively high pixel value range as a target region of the optic papilla or a target region around the optic papilla. It is a scale image. For the extraction of the PPA area, the pixel value is improved by negative inversion of the R component (Image (x, y, 0)) minus the B component (Image (x, y, 2)). Adjustment is performed so that the pixels are included in the range of high pixel values and the background pixels of the fundus region are included in the non-target region. Negative inversion means that the pixel value is subtracted from the maximum value (255). Therefore, in the case of the PPA region, the grayscale image GrayP (x, y) is obtained by subtracting a predetermined real value α of one or more from the value obtained by subtracting the B component from the R component from the maximum value (255). The image is multiplied. Furthermore, since most of the pixels with GrayP (x, y)> 255 are included outside the fundus region, GrayP (x, y) = 0 is set so that the outside of the fundus region is included in the non-target region. It has been fixed. Hereinafter, for GrayD (x, y), GrayC (x, y), and GrayP (x, y), the same processing is performed according to the corresponding target region, but processing performed in common is performed for these. Is shown as Gray (x, y).

グレースケール画像から対象領域を抽出する際、対象領域に交叉する血管部が抽出できず、後述する対象領域の面積計算に支障をきたす。そこで、グレースケール画像変換手段10により得られたグレースケール眼底画像に対して、円形構造要素によるクロージング処理を行う(ステップS200)。一般に、クロージング処理とは、膨張処理および収縮処理の各々を同一回数だけ繰り返し行う処理を意味する。膨張処理とは、注目画素の画素値を注目画素の周辺の最大の画素値に置き換えることにより画素値が高い画素を増大させる処理であり、収縮処理とは、注目画素の画素値を注目画素の周辺の最小の画素値に置き換えることにより画素値が低い画素を増大させる処理である。   When extracting a target region from a gray scale image, a blood vessel portion that intersects the target region cannot be extracted, which hinders the area calculation of the target region described later. Therefore, the gray scale fundus image obtained by the gray scale image conversion means 10 is subjected to a closing process using a circular structuring element (step S200). Generally, the closing process means a process in which each of the expansion process and the contraction process is repeated the same number of times. The expansion process is a process for increasing the pixel value of the target pixel by replacing the pixel value of the target pixel with the maximum pixel value around the target pixel, and the contraction process is a process for increasing the pixel value of the target pixel. This is a process of increasing the number of pixels having a low pixel value by replacing it with the smallest peripheral pixel value.

図6は、円形構造要素によるクロージング処理の詳細を示すフローチャートである。まず、クロージング処理手段20は、指定構造要素を用いて膨張処理を行う(ステップS210)。ステップS210の膨張処理では、指定構造要素として円形構造要素を用いる。円形構造要素は、中心から距離R画素以下を有効とした(2R+1)×(2R+1)のマスク画像である。本実施形態では、グレースケール眼底画像GrayD(x,y)、GrayC(x,y)、GrayP(x,y)がいずれも1024×1024画素であるので、Disc、Cup、PPA抽出のいずれもの場合、原則R=7に設定する。図7は、R=7の場合の円形構造要素の一例を示す図である。図7に示すように、R=7に設定した場合、半径7画素、すなわち中心から距離7画素以下を有効とした15×15のマスク画像の形態である円形構造要素を用いる。図7に示すように、15×15の画素のうち、中心から距離7画素以下の画素値は“1”、その他の中心から距離7を超える画素の画素値は“0”である。図7に示した円形構造要素はM(u,v)={0,1}(u=−R,・・・0,・・・R;v=−R,・・・0,・・・R)と定義することができる。なお、Rは有効とする半径を示しており、図7の例では、R=7である。半径Rとしては適宜設定することができるが、グレースケール眼底画像Gray(x,y)が1024画素×1024画素である場合は、7≦R≦10程度が好ましい。上述のように、本実施形態では、R=7としている。uは図7における横軸、vは図7における縦軸を、それぞれ示す。クロージング処理手段20は、円形構造要素M(u,v)を用いて、上記〔数式1〕〜〔数式3〕に従った処理を実行して得られたグレースケール眼底画像Gray(x,y)に対して、以下の〔数式4〕に従った処理を実行し、膨張画像Dray(x,y)を得る。   FIG. 6 is a flowchart showing details of the closing process by the circular structural element. First, the closing processing means 20 performs an expansion process using the designated structural element (step S210). In the expansion process in step S210, a circular structural element is used as the designated structural element. The circular structuring element is a (2R + 1) × (2R + 1) mask image in which a distance R pixels or less from the center is effective. In the present embodiment, the gray scale fundus images GrayD (x, y), GrayC (x, y), and GrayP (x, y) are all 1024 × 1024 pixels, and thus any case of Disc, Cup, and PPA extraction. In principle, R = 7. FIG. 7 is a diagram illustrating an example of a circular structural element in the case of R = 7. As shown in FIG. 7, when R = 7 is set, a circular structural element in the form of a 15 × 15 mask image in which a radius of 7 pixels, that is, a distance of 7 pixels or less from the center is effective is used. As shown in FIG. 7, among the 15 × 15 pixels, the pixel value at a distance of 7 pixels or less from the center is “1”, and the pixel value of a pixel exceeding the distance 7 from the other center is “0”. The circular structural element shown in FIG. 7 is M (u, v) = {0, 1} (u = −R,... 0,... R; v = −R,. R). Note that R indicates a valid radius, and R = 7 in the example of FIG. The radius R can be set as appropriate. However, when the grayscale fundus image Gray (x, y) is 1024 pixels × 1024 pixels, it is preferably about 7 ≦ R ≦ 10. As described above, in this embodiment, R = 7. u represents the horizontal axis in FIG. 7, and v represents the vertical axis in FIG. The closing processing means 20 uses the circular structuring element M (u, v) to perform the processing according to the above [Equation 1] to [Equation 3] to obtain a grayscale fundus image Gray (x, y). On the other hand, processing according to the following [Equation 4] is executed to obtain an expanded image Dray (x, y).

〔数式4〕
Dray(x,y)=MAXu=-R,R;v=-R,R[M(u,v)×Gray(x+u,y+v)]
[Formula 4]
Dray (x, y) = MAX u = −R, R; v = −R, R [M (u, v) × Gray (x + u, y + v)]

上記〔数式4〕において、MAXは最大値をとることを示しており、MAXの添え字の“u=−R,R;v=−R,R”は、u,vが−RからRの範囲における演算を行うことを示している。すなわち、“x=R,・・・,Xs−R−1;y=R,・・・,Ys−R−1“の各画素Gray(x,y)に対して、“u=−R,R;v=−R,R”の隣接画素内でM(u,v)=1である画素値の最大値に変換を行っている。したがって、図7の例では、円形構造要素の(2R+1)×(2R+1)画素として225画素を用いて演算を行い、その最大値がDray(x,y)として与えられることになる。〔数式4〕におけるグレースケール眼底画像Gray(x,y)として、3種のグレースケール眼底画像GrayD(x,y)、GrayC(x,y)、GrayP(x,y)それぞれを用い、Disc、Cup、 PPAそれぞれに対応した3種の膨張画像Dray(x,y)、DrayC(x,y)、DrayP(x,y)が得られる。   In the above [Equation 4], MAX indicates the maximum value, and the suffix “u = −R, R; v = −R, R” of MAX indicates that u and v are from −R to R. It shows performing an operation on a range. That is, for each pixel Gray (x, y) of “x = R,..., Xs−R−1; y = R,. R: Conversion is performed to the maximum pixel value of M (u, v) = 1 in the adjacent pixels of v = −R, R ″. Therefore, in the example of FIG. 7, the calculation is performed using 225 pixels as the (2R + 1) × (2R + 1) pixels of the circular structure element, and the maximum value is given as Dray (x, y). As the gray scale fundus image Gray (x, y) in [Equation 4], three types of gray scale fundus images Gray D (x, y), Gray C (x, y), and Gray P (x, y) are used, respectively. Three types of expanded images Dray (x, y), Dray C (x, y), and Dray P (x, y) corresponding to Cup and PPA are obtained.

上記〔数式4〕に従った処理を実行して膨張画像Dray(x,y)が得られたら、このDray(x,y)をGray(x,y)に置き換えて、上記〔数式4〕に従った処理を繰り返し実行することもできる。すなわち、ステップS210における膨張処理を繰り返し実行しても良い。繰り返しの回数は、適宜設定することが可能である。ただし画質劣化を抑えるため、通常は1回に設定し繰り返しを行わない。   When the expansion image Dray (x, y) is obtained by executing the processing according to the above [Equation 4], this Dray (x, y) is replaced with Gray (x, y), and the above [Equation 4] is obtained. It is also possible to repeatedly execute the process. That is, the expansion process in step S210 may be repeatedly executed. The number of repetitions can be set as appropriate. However, in order to suppress image quality deterioration, it is normally set to once and not repeated.

膨張処理を繰り返し実行して膨張画像Dray(x,y)が得られたら、次に、クロージング処理手段20は、指定構造要素を用いて収縮処理を行う(ステップS220)。ステップS220の収縮処理では、膨張処理に用いた円形構造要素を指定構造要素として用いる。すなわち、図7に示した円形構造要素を用いる。クロージング処理手段20は、円形構造要素M(u,v)を用いて、膨張画像Dray(x,y)に対して、以下の〔数式5〕に従った処理を実行し、収縮後の画像Fray(x,y)を得る。   After the expansion processing is repeatedly executed and the expansion image Dray (x, y) is obtained, the closing processing means 20 performs the contraction processing using the designated structural element (step S220). In the contraction process in step S220, the circular structural element used for the expansion process is used as the designated structural element. That is, the circular structural element shown in FIG. 7 is used. The closing processing means 20 uses the circular structuring element M (u, v) to execute the processing according to the following [Equation 5] on the expanded image Dray (x, y), and the image Fray after contraction (X, y) is obtained.

〔数式5〕
Fray(x,y)=MINu=-R,R;v=-R,R[(255−M(u,v)×254)×Dray(x+u,y+v)]
[Formula 5]
Fray (x, y) = MIN u = −R, R; v = −R, R [(255−M (u, v) × 254) × Dray (x + u, y + v)]

上記〔数式5〕において、MINは最小値をとることを示しており、MINの添え字の“u=−R,R;v=−R,R”は、u,vが−RからRの範囲における演算を行うことを示している。すなわち、“x=R,・・・,Xs−R−1;y=R,・・・,Ys−R−1“の各画素Dray(x,y)に対して、“u=−R,R;v=−R,R”の隣接画素内でM(u,v)=1である画素値の最小値に変換を行っている。したがって、図7の例では、円形構造要素の(2R+1)×(2R+1)画素として225画素を用いて演算を行い、その最小値がFray(x,y)として与えられることになる。〔数式5〕におけるグレースケール眼底画像Dray(x,y)として、3種の膨張眼底画像DrayD(x,y)、DrayC(x,y)、DrayP(x,y)それぞれを用い、Disc、Cup、 PPAそれぞれに対応した3種の収縮画像Fray(x,y)が得られる。   In the above [Equation 5], MIN indicates that it takes the minimum value, and the subscript “u = −R, R; v = −R, R” of MIN indicates that u and v are from −R to R. It shows performing an operation on a range. That is, for each pixel Ray (x, y) of “x = R,..., Xs−R−1; y = R,. R: Conversion is performed to the minimum pixel value of M (u, v) = 1 in the adjacent pixels of v = −R, R ″. Therefore, in the example of FIG. 7, the calculation is performed using 225 pixels as the (2R + 1) × (2R + 1) pixels of the circular structure element, and the minimum value is given as Ray (x, y). As the gray scale fundus image Dray (x, y) in [Equation 5], three types of dilated fundus images DrayD (x, y), Dray C (x, y), and Dray P (x, y) are used, respectively, and Disc, Cup , Three kinds of contracted images Fray (x, y) corresponding to the respective PPA are obtained.

上記〔数式5〕に従った処理を実行して収縮後の画像Fray(x,y)が得られたら、このFray(x,y)をDray(x,y)に置き換えて、上記〔数式5〕に従った処理を繰り返し実行することもできる。すなわち、ステップS220における収縮処理を繰り返し実行しても良い。繰り返しの回数は、ステップS210の膨張処理の繰り返しの回数と同じ回数に設定する必要があり、通常は膨張処理とも1回に設定し、繰り返しは行わない。収縮後の画像Fray(x,y)は、平滑化グレースケール画像である。クロージング処理の結果、平滑化グレースケール画像Fray(x,y)においては、血管交叉部分による対象領域の欠落が補間される。したがって、フルカラー眼底画像において対象領域に血管が交叉している場合、その血管を除去して対象領域のみが明確に視認可能となる。   When the processing according to the above [Equation 5] is executed to obtain a contracted image Fray (x, y), this Fray (x, y) is replaced with Dray (x, y), and the above [Equation 5 ] Can be repeatedly executed. That is, the contraction process in step S220 may be repeatedly executed. The number of repetitions needs to be set to the same number as the number of repetitions of the expansion process in step S210. Normally, both expansion processes are set to one and no repetition is performed. The image Fray (x, y) after contraction is a smoothed gray scale image. As a result of the closing process, in the smoothed grayscale image Fray (x, y), the lack of the target region due to the blood vessel crossing portion is interpolated. Therefore, when a blood vessel crosses the target region in the full-color fundus image, only the target region can be clearly visually recognized by removing the blood vessel.

平滑化グレースケール画像Fray(x,y)が得られたら、次に、抽出範囲定義手段30が、抽出範囲を定義する(ステップS300)。具体的には、抽出範囲の上限値と下限値を求めることにより抽出範囲を定義する。下限値は必須であるが、上限値は必須ではない。まず、0〜2L−1の値をもつグレースケールの平滑化グレースケール画像Fray(x,y)(x=0,・・・,Xs−1;y=0,・・・,Ys−1)に対して、Fray(x,y)>0を満たす(x,y)について濃度ヒストグラムHist(va)(va=0,・・・,2L−1)を算出する。典型的には、平滑化グレースケール画像Fray(x,y)は、各画素8ビット256階調であり、L=128である。そして、Tlが0≦Tl≦Vmax(DiscまたはCupの場合Vmax=254(=2(L−1))、 PPAの場合Vmax=128(=L)に設定)の範囲に存在するとして、ヒストグラムを2分割する境界(しきい値)をs(s=1,・・・,Vmax)とし、以下の〔数式6〕に従った処理を実行し、判別値D(s)を算出する。   If the smoothed grayscale image Fray (x, y) is obtained, then the extraction range defining means 30 defines the extraction range (step S300). Specifically, the extraction range is defined by obtaining an upper limit value and a lower limit value of the extraction range. The lower limit is essential, but the upper limit is not essential. First, a grayscale smoothed grayscale image Fray (x, y) (x = 0,..., Xs-1; y = 0,..., Ys-1) having a value of 0 to 2L-1. On the other hand, the density histogram Hist (va) (va = 0,..., 2L−1) is calculated for (x, y) that satisfies Fray (x, y)> 0. Typically, the smoothed grayscale image Fray (x, y) has 8 bits 256 gray levels for each pixel, and L = 128. Then, assuming that Tl is within the range of 0 ≦ Tl ≦ Vmax (Vmax = 254 (= 2 (L−1)) for Disc or Cup, Vmax = 128 (= L) for PPA), the histogram is The boundary (threshold value) to be divided into two is s (s = 1,..., Vmax), the process according to the following [Equation 6] is executed, and the discriminant value D (s) is calculated.

〔数式6〕
Sum1(s)=Σva=1,s-1Hist(va)va
Sum2(s)=Σva=s,VmaxHist(va)va
N1(s)=Σva=1,s-1Hist(va)
N2(s)=Σva=s,VmaxHist(va)
W(s)=(Sum1(s)/N1(s)−Sum2(s)/N2(s))×(N1(s)+N2(s))/(Sum1(s)+Sum2(s))
D(s)=N1(s)N2(s)W(s)2(N1(s)+N2(s))2
[Formula 6]
Sum1 (s) = Σ va = 1, s-1 Hist (va) va
Sum2 (s) = Σ va = s, Vmax Hist (va) va
N1 (s) = Σ va = 1, s-1 Hist (va)
N2 (s) = Σ va = s, Vmax Hist (va)
W (s) = (Sum1 (s) / N1 (s) −Sum2 (s) / N2 (s)) × (N1 (s) + N2 (s)) / (Sum1 (s) + Sum2 (s))
D (s) = N1 (s) N2 (s) W (s) 2 (N1 (s) + N2 (s)) 2

上記〔数式6〕の第1式において、Σの添え字の“va=1,s−1”は、vaが1からs−1までの総和を求めることを示している。同様に、第2式〜第4式においても添え字の範囲で総和を求める。また、上記〔数式6〕において、N1(s)は階調値(画素値)sより低階調側の画素個数、N2(s)は階調値(画素値)sより高階調側の画素個数である。例えば、L=256の場合、va=1〜254の範囲を用いて判別分析法の処理を実行していることになる。上記〔数式6〕の最後の式である判別式に従ってD(s)を算出し、判別値D(s)を最大とするsを抽出範囲の下限しきい値Tlに選定する。ステップS300における、しきい値Tlを特定する処理は、公知の判別分析法と実質的に同じものとなっている。   In the first formula of the above [Formula 6], the subscript “va = 1, s−1” of Σ indicates that the sum of va from 1 to s−1 is obtained. Similarly, in the second to fourth formulas, the sum is obtained within the range of subscripts. In the above [Expression 6], N1 (s) is the number of pixels on the lower gradation side than the gradation value (pixel value) s, and N2 (s) is a pixel on the higher gradation side than the gradation value (pixel value) s. It is a number. For example, when L = 256, the discriminant analysis process is executed using the range of va = 1 to 254. D (s) is calculated according to the discriminant that is the last equation of [Formula 6], and s that maximizes the discriminant value D (s) is selected as the lower limit threshold value Tl of the extraction range. The process of specifying the threshold value Tl in step S300 is substantially the same as a known discriminant analysis method.

PPA抽出時は抽出範囲の上限しきい値Thも選定する。なお、DiscまたはCup抽出時は常にTh=2L−1に設定する。ThがTl<Th<2L−1の範囲に存在するとして、ヒストグラムを2分割する境界(しきい値)をs(s=Tl+1,・・・,2(L−1))とし、以下の〔数式7〕に従った処理を実行し、判別値D(s)を算出する。   When extracting PPA, an upper limit threshold Th of the extraction range is also selected. Note that Th = 2L-1 is always set when the Disc or Cup is extracted. Assuming that Th is in the range of Tl <Th <2L-1, the boundary (threshold value) for dividing the histogram into two is s (s = Tl + 1,..., 2 (L-1)), and the following [ Processing according to Equation 7] is executed to calculate the discriminant value D (s).

〔数式7〕
Sum3(s)=Σvb=1,s-1Hist(vb)vb
Sum4(s)=Σvb=s,2(L-1)Hist(vb)vb
N3(s)=Σvb=1,s-1Hist(vb)
N4(s)=Σvb=s,2(L-1)Hist(vb)
W2(s)=(Sum3(s)/N3(s)−Sum4(s)/N4(s))×(N3(s)+N4(s))/(Sum3(s)+Sum4(s))
D3(s)=N3(s)N4(s)W2(s)2(N3(s)+N4(s))2
[Formula 7]
Sum3 (s) = Σvb = 1, s-1 Hist (vb) vb
Sum4 (s) = Σvb = s, 2 (L-1) Hist (vb) vb
N3 (s) = Σ vb = 1, s-1 Hist (vb)
N4 (s) = Σvb = s, 2 (L-1) Hist (vb)
W2 (s) = (Sum3 (s) / N3 (s) −Sum4 (s) / N4 (s)) × (N3 (s) + N4 (s)) / (Sum3 (s) + Sum4 (s))
D3 (s) = N3 (s) N4 (s) W2 (s) 2 (N3 (s) + N4 (s)) 2

上記〔数式7〕の第1式において、Σの添え字の“vb=1,s−1”は、vbが1からs−1までの総和を求めることを示している。同様に、第2式〜第4式においても添え字の範囲で総和を求める。また、上記〔数式7〕において、N3(s)は階調値(画素値)sより低階調側の画素個数、N4(s)は階調値(画素値)sより高階調側の画素個数である。例えば、L=128の場合、vb=1〜254の範囲を用いて判別分析法の処理を実行していることになる。   In the first equation of [Expression 7], the subscript “vb = 1, s−1” of Σ indicates that the sum of vb from 1 to s−1 is obtained. Similarly, in the second to fourth formulas, the sum is obtained within the range of subscripts. In the above [Expression 7], N3 (s) is the number of pixels on the lower gradation side than the gradation value (pixel value) s, and N4 (s) is a pixel on the higher gradation side than the gradation value (pixel value) s. It is a number. For example, when L = 128, the discriminant analysis process is executed using the range of vb = 1 to 254.

上記〔数式7〕の最後の式である判別式に従ってD2(s)を算出し、判別値D2(s)を最大とするsを抽出範囲の上限しきい値Thに選定する。ステップS300における、しきい値Thを特定する処理は、公知の判別分析法と実質的に同じものとなっている。この結果、抽出範囲は、下限値Tl〜上限値Thであると定義される。   D2 (s) is calculated according to the discriminant that is the last equation of the above [Formula 7], and s that maximizes the discriminant value D2 (s) is selected as the upper limit threshold Th of the extraction range. The process of specifying the threshold value Th in step S300 is substantially the same as a known discriminant analysis method. As a result, the extraction range is defined as the lower limit value Tl to the upper limit value Th.

しきい値Tl、Thが得られ、抽出範囲が定義されたら、次に、対象領域識別画像生成手段40が、対象領域識別画像を生成する。そのために、まず、対象領域識別画像生成手段40は、コントラスト補正を行う(ステップS400)。具体的には、しきい値TlからThの範囲を対象領域として抽出し、Tl (0≦Tl<2L−1)からTh(Tl<Th≦2L−1)の範囲をL階調に拡大する処理を行う。上述のように、Tl、Thの値は抽出対象領域(Disc、Cup、PPA)ごとに異なる値を設定する。またTm (Tl<Tm≦2L−1)という調整パラメータを追加し、通常はTm=Thであるが、コントラスト補正後の画像が暗い場合、Tmの値を小さくし、コントラスト補正後の画像が明るく飽和している場合、Tmの値を大きくする。そして、以下の〔数式8〕に従った処理を実行することにより、L=128の場合、−128〜127の正負の画素値をもつコントラスト補正後の階調補正画像Cray(x,y)を算出する。   When the threshold values Tl and Th are obtained and the extraction range is defined, the target area identification image generation unit 40 generates a target area identification image. For this purpose, first, the target area identification image generating means 40 performs contrast correction (step S400). Specifically, the range from the threshold value Tl to Th is extracted as the target region, and the range from Tl (0 ≦ Tl <2L−1) to Th (Tl <Th ≦ 2L−1) is expanded to L gradation. Process. As described above, different values for Tl and Th are set for each extraction target area (Disc, Cup, PPA). Also, an adjustment parameter of Tm (Tl <Tm ≦ 2L-1) is added. Usually, Tm = Th, but when the image after contrast correction is dark, the value of Tm is decreased and the image after contrast correction becomes brighter. If saturated, increase the value of Tm. Then, by executing the processing according to the following [Equation 8], when L = 128, a gradation corrected image Cray (x, y) after contrast correction having positive and negative pixel values of −128 to 127 is obtained. calculate.

〔数式8〕
Fray(x,y)=Thでない場合、
Cray(x,y)=[Fray(x,y)−Tl] [Th−Fray(x,y)]×(L−1)/[(Tm−Tl)|Th−Fray(x,y)|]
Fray(x,y)=Thの場合、
Cray(x,y)=[Fray(x,y)−Tl]×(L−1)/(Tm−Tl)
ただし、Cray(x,y)>L−1の場合、Cray(x,y)=L−1とし、Cray(x,y)<−Lの場合、Cray(x,y)=−Lとする。
[Formula 8]
If Fray (x, y) = Th is not
Cray (x, y) = [Fray (x, y) −Tl] [Th-Fray (x, y)] × (L−1) / [(Tm−Tl) | Th-Fray (x, y) | ]
If Fray (x, y) = Th,
Cray (x, y) = [Fray (x, y) −Tl] × (L−1) / (Tm−Tl)
However, when Cray (x, y)> L−1, Cray (x, y) = L−1, and when Cray (x, y) <− L, Cray (x, y) = − L. .

次に、対象領域識別画像生成手段40は、疑似カラー着色を行って対象領域識別画像を生成する(ステップS500)。疑似カラーとは、対象領域の実際の色とは異なるが、対象領域を特徴付ける擬似的な色を意味する。疑似カラーで対象領域を着色することにより、対象領域識別画像において対象領域と非対象領域が視覚的に識別可能となる。具体的には、以下の〔数式9〕に従った処理を実行することにより、RGB256(=2L)階調の対象領域識別画像の各画素値Pseg(x,y,c)を算出する。〔数式9〕の処理に先立ちCr=0、Cg=2L−1、Cb=0に設定する。この設定は、以降の他の〔数式〕においても同様である。Cr=0、Cg=2L−1、Cb=0に設定することにより、対象領域をG成分で特徴付けることができる。すなわち、本実施形態では、疑似カラーとしてG成分で着色が行われることになる。   Next, the target area identification image generation means 40 performs pseudo color coloring to generate a target area identification image (step S500). The pseudo color means a pseudo color that characterizes the target area, although it is different from the actual color of the target area. By coloring the target area with the pseudo color, the target area and the non-target area can be visually identified in the target area identification image. Specifically, each pixel value Pseg (x, y, c) of the target area identification image of RGB 256 (= 2L) gradation is calculated by executing processing according to the following [Equation 9]. Prior to the processing of [Formula 9], Cr = 0, Cg = 2L-1, and Cb = 0 are set. This setting is the same for the other [mathematical formulas] described below. By setting Cr = 0, Cg = 2L-1, and Cb = 0, the target region can be characterized by the G component. That is, in this embodiment, coloring is performed with the G component as a pseudo color.

〔数式9〕
Cray(x,y)≧0の場合(対象領域)
Cr>0のとき、Pseg(x,y,0)=Cray(x,y)×β+L
Cr=0のとき、Pseg(x,y,0)=Gray(x,y)×γ
Cg>0のとき、Pseg(x,y,1)=Cray(x,y)×β+L
Cg=0のとき、Pseg(x,y,1)=Gray(x,y)×γ
Cb>0のとき、Pseg(x,y,2)=Cray(x,y)×β+L
Cb=0のとき、Pseg(x,y,2)=Gray(x,y)×γ
Cray(x,y)<0の場合(非対象領域)
Pseg(x,y,0)=Pseg(x,y,1)=Pseg(x,y,2)=Gray(x,y)
[Formula 9]
When Cray (x, y) ≧ 0 (target area)
When Cr> 0, Pseg (x, y, 0) = Cray (x, y) × β + L
When Cr = 0, Pseg (x, y, 0) = Gray (x, y) × γ
When Cg> 0, Pseg (x, y, 1) = Cray (x, y) × β + L
When Cg = 0, Pseg (x, y, 1) = Gray (x, y) × γ
When Cb> 0, Pseg (x, y, 2) = Cray (x, y) × β + L
When Cb = 0, Pseg (x, y, 2) = Gray (x, y) × γ
When Cray (x, y) <0 (non-target area)
Pseg (x, y, 0) = Pseg (x, y, 1) = Pseg (x, y, 2) = Gray (x, y)

〔数式9〕において、Lはオフセット値であり、256階調の場合L=128であり、Cg=255となる。〔数式9〕において、βは1以上の値をとる係数であり、本実施形態ではβ=1.0である。〔数式9〕において、γは1未満の値をとる係数であり、本実施形態ではγ=1/2である。対象領域識別画像Pseg(x,y,c)は、平滑化グレースケール画像Fray(x,y)における下限値Tl以上の画素値をもつ画素に対して対象領域の属性を付与し、その他の画素に対しては非対象領域の属性を付与し、付与された2種類の属性が視覚的に識別可能な対象領域識別画像である。ここで、平滑化グレースケール画像Fray(x,y)における下限値Tl以上の画素値をもつ画素は、階調補正画像Cray(x,y)において0以上の値をとる画素と同じである。Cray(x,y)は、平滑化グレースケール画像Fray(x,y)の各画素に対して、画素の画素値が下限値Tlから上限値Thの範囲に含まれる場合、その画素の画素値と下限値Tlとの差分である。このCray(x,y)に1以上の係数βを乗じて所定のオフセット値Lを加えた値を対象領域の色としてRGBいずれかの色成分に設定することにより、対象領域識別画像における対象領域の画素値が得られる。また、属性の付与とは、属性を示す特別な値がその画素に付与されているわけではなく、所定の色成分の画素値が所定の条件を満たしていることを示している。例えば、〔数式9〕の例では、対象領域識別画像Pseg(x,y,c)のG成分は、階調補正画像Cray(x,y)の値にβ(=1.0)を乗じ、Lだけ加算された値であるため、必ずL以上の値になるのに対し、Pseg(x,y,c)のRおよびB成分は、グレースケール画像Gray(x,y)の値にγ(=1/2)を乗じた値であるため、必ずL未満の値になることから、G成分の値がRおよびB成分の値に比べ大きい場合に、対象領域の属性が付与されていることになる。一方、対象領域識別画像Pseg(x,y,c)のR、G、B各成分全ての値が同一である場合には、非対象領域の属性が付与されていることになる。   In [Equation 9], L is an offset value, and in the case of 256 gradations, L = 128 and Cg = 255. In [Formula 9], β is a coefficient having a value of 1 or more, and in this embodiment, β = 1.0. In [Equation 9], γ is a coefficient having a value less than 1, and in this embodiment, γ = ½. The target area identification image Pseg (x, y, c) gives the attribute of the target area to pixels having a pixel value equal to or higher than the lower limit value Tl in the smoothed grayscale image Fray (x, y), and other pixels. Is a target region identification image in which the attribute of the non-target region is given and the two kinds of assigned attributes can be visually identified. Here, a pixel having a pixel value greater than or equal to the lower limit value Tl in the smoothed grayscale image Ray (x, y) is the same as a pixel having a value greater than or equal to 0 in the gradation correction image Cray (x, y). Cray (x, y) is the pixel value of a pixel when the pixel value of the pixel is included in the range from the lower limit value Tl to the upper limit value Th for each pixel of the smoothed grayscale image Ray (x, y). And the lower limit value Tl. By multiplying this Cray (x, y) by one or more coefficient β and adding a predetermined offset value L, the color of the target region is set as one of the RGB color components, so that the target region in the target region identification image Is obtained. In addition, the attribute assignment does not mean that a special value indicating the attribute is assigned to the pixel, but indicates that the pixel value of a predetermined color component satisfies a predetermined condition. For example, in the example of [Equation 9], the G component of the target area identification image Pseg (x, y, c) is multiplied by β (= 1.0) to the value of the gradation corrected image Cray (x, y), Since it is a value added by L, it always becomes a value greater than or equal to L, whereas the R and B components of Pseg (x, y, c) are γ () in the value of the grayscale image Gray (x, y). Since the value is always less than L, the attribute of the target area is given when the value of the G component is larger than the values of the R and B components. become. On the other hand, when the values of all the R, G, and B components of the target area identification image Pseg (x, y, c) are the same, the attribute of the non-target area is given.

〔数式9〕においては、Cgに限らずCrまたはCbに大きな値を設定することにより、対象領域に対してR成分やB成分で特徴付けることもできる。Pseg(x,y,c)としては、Disc領域に対応したPsegD(x,y,c)、Cup領域に対応したPsegC(x,y,c)、PPA領域に対応したPsegP(x,y,c)の3種類がある。以下、単にPseg(x,y,c)と示した場合は、PsegD(x,y,c)、PsegC(x,y,c)、PsegP(x,y,c)を代表しているものとする。   In [Expression 9], not only Cg but also a large value can be set for Cr or Cb, so that the target region can be characterized by an R component or a B component. As Pseg (x, y, c), Pseg D (x, y, c) corresponding to the Disc region, Pseg C (x, y, c) corresponding to the Cup region, Pseg P (x, y, c) corresponding to the PPA region There are three types of c). Hereinafter, when simply indicated as Pseg (x, y, c), Pseg D (x, y, c), Pseg C (x, y, c), and Pseg P (x, y, c) are representative. To do.

対象領域識別画像Pseg(x,y,c)が得られたら、次に、対象領域識別画像修正手段50が、過剰抽出領域(本来は非対象領域であるのに対象領域に設定されている画素の領域)の削除を行うことにより対象領域識別画像を修正する(ステップS600)。具体的には、まず、対象領域識別画像Pseg(x,y,c)を表示部7に表示する。そして、対象領域識別画像修正手段50は、表示された対象領域識別画像Pseg(x,y,c)に重ねて指定領域の指示を促す。指定領域の形状は、任意の形状とすることができ、円形、楕円形や多角形とすることもできるが、本実施形態では、矩形としている。この矩形状の指定領域は、マウスやタッチパネル等から指示入力I/F4を介して、指示入力を行うことにより、位置、傾き、大きさを変更することが可能になっている。   Once the target area identification image Pseg (x, y, c) is obtained, the target area identification image correcting means 50 then performs an overextraction area (originally a non-target area but a pixel set as the target area) The target area identification image is corrected by deleting the area (step S600). Specifically, first, the target area identification image Pseg (x, y, c) is displayed on the display unit 7. Then, the target area identification image correcting means 50 prompts the designated area to be superimposed on the displayed target area identification image Pseg (x, y, c). The shape of the designated region can be any shape, and can be a circle, an ellipse, or a polygon, but in the present embodiment, it is a rectangle. The rectangular designation area can be changed in position, inclination, and size by inputting an instruction from the mouse or touch panel via the instruction input I / F 4.

利用者は、対象領域識別画像Pseg(x,y,c)において、修正すべきである、すなわち対象領域として過剰に抽出された、と思われる箇所を含むように任意の位置、傾き、大きさで指定領域を指示する。この時、指定領域内に非対象領域が含まれていても良い。すると、対象領域識別画像修正手段50は、対象領域識別画像Pseg(x,y,c)に指定領域を特定する外枠を表示する。本実施形態では、指定領域を特定する外枠として、矩形状の枠を用いている。図8は、対象領域識別画像修正手段50の処理により表示部7の画面上に表示されたフルカラーの対象領域識別画像Pseg(x,y,c)を示す図である。図8(a)は修正前、図8(b)は修正後を示している。そして、利用者は、指示された指定領域内の血管を見て、マウスやタッチパネル等から指示入力I/F4を介して、非対象領域の属性への修正を指示する。修正指示が行われた場合、指示された指定領域内の各修正対象画素は、対象領域識別画像修正手段50が、以下の〔数式10〕〔数式11〕に従った処理を実行することにより、修正される。まず、対象領域識別画像修正手段50は、〔数式10〕に従った処理を実行することにより、背景画素値Vgを算出する。   The user should correct in the target area identification image Pseg (x, y, c), that is, an arbitrary position, inclination, and size so as to include a portion that seems to be excessively extracted as the target area. Specify the designated area with. At this time, a non-target area may be included in the designated area. Then, the target area identification image correcting means 50 displays an outer frame for specifying the designated area on the target area identification image Pseg (x, y, c). In the present embodiment, a rectangular frame is used as the outer frame for specifying the designated area. FIG. 8 is a diagram showing a full-color target area identification image Pseg (x, y, c) displayed on the screen of the display unit 7 by the processing of the target area identification image correcting means 50. FIG. 8A shows before correction, and FIG. 8B shows after correction. Then, the user looks at the blood vessel in the designated area, and gives an instruction to correct the attribute of the non-target area from the mouse, the touch panel, or the like via the instruction input I / F 4. When a correction instruction is issued, each correction target pixel in the specified area is processed by the target area identification image correction means 50 according to the following [Formula 10] and [Formula 11]. Will be corrected. First, the target area identification image correcting unit 50 calculates the background pixel value Vg by executing the process according to [Formula 10].

〔数式10〕
Pseg(x,y,1)>Pseg(x,y,0)の場合、Vg=Pseg(x,y,0)/γ
上記以外(Pseg(x,y,0)=Pseg(x,y,1)=Pseg(x,y,2))の場合、Vg=Pseg(x,y,0)
[Formula 10]
When Pseg (x, y, 1)> Pseg (x, y, 0), Vg = Pseg (x, y, 0) / γ
Other than the above (Pseg (x, y, 0) = Pseg (x, y, 1) = Pseg (x, y, 2)), Vg = Pseg (x, y, 0)

上記〔数式10〕により算出された背景画素値Vgを用いて、以下の〔数式11〕に従った処理を実行することにより、対象領域識別画像Pseg(x,y,c)を修正し、修正対象領域識別画像Qseg(x,y,c)を得る。   Using the background pixel value Vg calculated by the above [Equation 10], the target area identification image Pseg (x, y, c) is corrected by executing processing according to the following [Equation 11], A target area identification image Qseg (x, y, c) is obtained.

〔数式11〕
Qseg(x,y,0)=Qseg(x,y,1)=Qseg(x,y,2)=Vg
[Formula 11]
Qseg (x, y, 0) = Qseg (x, y, 1) = Qseg (x, y, 2) = Vg

〔数式10〕〔数式11〕の処理を実行することにより、対象領域識別画像修正手段50は、対象領域識別画像に対して、指示された指定領域内で対象領域が設定された画素に対して、当該画素のRGBいずれかの色成分の最小の値を係数γで除算した値をRGB全ての色成分になるように修正することにより当該画素を非対象領域の値に修正し、修正対象領域識別画像を作成している。〔数式10〕〔数式11〕に従った処理を実行することにより、修正対象領域識別画像Qseg(x,y,c)としては、Disc領域に対応したQsegD(x,y,c)、Cup領域に対応したQsegC(x,y,c)、PPA領域に対応したQsegP(x,y,c)の3種類の修正対象領域識別画像が得られる。なお、各数式において、単に“Qseg(x,y,c)”と示した場合は、QsegD(x,y,c)、QsegC(x,y,c)、QsegP(x,y,c)に共通に行われる処理を示す。Qseg(x,y,c)は、Pseg(x,y,c)と同じ形式であり、RGB各8ビット256階調である。   By executing the processing of [Equation 10] and [Equation 11], the target area identification image correcting means 50 applies to the target area identification image with respect to the pixels in which the target area is set in the designated area. The pixel is corrected to the value of the non-target region by correcting the value obtained by dividing the minimum value of any one of the RGB color components of the pixel by the coefficient γ so that all the RGB color components are obtained. An identification image is created. By executing the processing according to [Equation 10] and [Equation 11], the correction target region identification image Qseg (x, y, c) has QsegD (x, y, c), Cup region corresponding to the Disc region. Three types of correction target area identification images QsegC (x, y, c) corresponding to, and QsegP (x, y, c) corresponding to the PPA area are obtained. In each equation, when “Qseg (x, y, c)” is simply indicated, QsegD (x, y, c), QsegC (x, y, c), and QsegP (x, y, c) are used. The process performed in common is shown. Qseg (x, y, c) has the same format as Pseg (x, y, c), and each RGB has 8 bits and 256 gradations.

〔数式10〕〔数式11〕に従った処理を実行することにより、図8(a)に示したような対象領域識別画像は、図8(b)に示すように修正される。図8(a)と図8(b)を比較すると明らかなように、生成された対象領域識別画像においては過剰抽出された対象領域が、修正対象領域識別画像では、きれいに削除されている。   By executing the processing according to [Equation 10] and [Equation 11], the target area identification image as shown in FIG. 8A is corrected as shown in FIG. 8B. As is clear from a comparison between FIG. 8A and FIG. 8B, the target region that is excessively extracted in the generated target region identification image is clearly deleted in the correction target region identification image.

次に、識別画像合成手段60が、修正後の3種類の修正対象領域識別画像を合成する(ステップS700)。具体的には、合成はPPA、 Disc、Cupの順に重ね、PPAとDiscが重複する領域はDiscに置換し、CupはDiscと重複する領域のみDiscに重ね、PPAとCupが重複する領域はPPAに置換し、Cup単独領域は削除する。より詳細には、まず、Disc領域に対応した修正対象領域識別画像QsegD(x,y,c)(x=0,・・・,Xs−1;y=0,・・・,Ys−1)に対して、以下の〔数式12〕に従った処理を実行し、基準値Vdと背景画素値Vgを算出する。なお、〔数式12〕以下においても、Cr=0、Cg=2L−1、Cb=0に設定され、対象領域をG成分で特徴付ける場合を前提としている。他の色成分で特徴付ける場合は、異なった設定となる。   Next, the identification image synthesizing unit 60 synthesizes three types of correction target area identification images after correction (step S700). Specifically, the synthesis is performed in the order of PPA, Disc, and Cup, the region where PPA and Disc overlap is replaced with Disc, and only the region where Cup overlaps with Disc is overlapped with Disc, and the region where PPA and Cup overlap is PPA. And the Cup single region is deleted. More specifically, first, the correction target region identification image QsegD (x, y, c) corresponding to the Disc region (x = 0,..., Xs-1; y = 0,..., Ys-1). On the other hand, processing according to the following [Equation 12] is executed to calculate the reference value Vd and the background pixel value Vg. In the following [Equation 12], it is assumed that Cr = 0, Cg = 2L-1, and Cb = 0 are set and the target region is characterized by the G component. When characterizing with other color components, the setting is different.

〔数式12〕
QsegD(x,y,1)>QsegD(x,y,0)の場合、Vd=QsegD(x,y,1)、Vg=2QsegD(x,y,0)
上記以外(QsegD(x,y,0)=QsegD(x,y,1)=QsegD(x,y,2))の場合、Vd=0、Vg=QsegD(x,y,0)
[Formula 12]
When QsegD (x, y, 1)> QsegD (x, y, 0), Vd = QsegD (x, y, 1), Vg = 2 QsegD (x, y, 0)
Other than the above (QsegD (x, y, 0) = QsegD (x, y, 1) = QsegD (x, y, 2)), Vd = 0, Vg = QsegD (x, y, 0)

次に、Cup領域に対応した修正対象領域識別画像QsegC(x,y,c)(x=0,・・・,Xs−1;y=0,・・・,Ys−1)に対して、以下の〔数式13〕に従った処理を実行し、基準値Vcを算出する。   Next, for the correction target region identification image QsegC (x, y, c) (x = 0,..., Xs-1; y = 0,..., Ys-1) corresponding to the Cup region, The process according to the following [Formula 13] is executed to calculate the reference value Vc.

〔数式13〕
QsegC(x,y,1)>QsegC(x,y,0)の場合、Vc=QsegC(x,y,1)
上記以外(QsegC(x,y,0)=QsegC(x,y,1)=QsegC(x,y,2))の場合、Vc=0
[Formula 13]
When QsegC (x, y, 1)> QsegC (x, y, 0), Vc = QsegC (x, y, 1)
Other than the above (QsegC (x, y, 0) = QsegC (x, y, 1) = QsegC (x, y, 2)), Vc = 0

さらに、PPA領域に対応した修正対象領域識別画像QsegP(x,y,c)(x=0,・・・,Xs−1;y=0,・・・,Ys−1)に対して、以下の〔数式14〕に従った処理を実行し、基準値Vpを算出する。   Further, for the correction target area identification image QsegP (x, y, c) (x = 0,..., Xs−1; y = 0,..., Ys−1) corresponding to the PPA area, The process according to [Formula 14] is executed to calculate the reference value Vp.

〔数式14〕
QsegP(x,y,1)>QsegP(x,y,0)の場合、Vp=QsegP(x,y,1)
上記以外(QsegP(x,y,0)=QsegP(x,y,1)=QsegP(x,y,2))の場合、Vp=0
[Formula 14]
When QsegP (x, y, 1)> QsegP (x, y, 0), Vp = QsegP (x, y, 1)
Other than the above (QsegP (x, y, 0) = QsegP (x, y, 1) = QsegP (x, y, 2)), Vp = 0

Disc領域をGreen(Vg/2,Vd,Vg/2)、Cup領域をYellow(Vc,Vd,Vg/2)、PPA領域をBlue(Vg/2,Vg/2,Vp)、背景領域をGray(Vg,Vg,Vg)で色分けすると、基準値Vd>0の場合(Vpの値は問わない)、以下の〔数式15〕に従った処理を実行し、疑似カラーで着色された合成対象領域識別画像Rseg(x,y,c)(x=0,・・・,Xs−1;y=0,・・・,Ys−1)を算出する。   Disc area is Green (Vg / 2, Vd, Vg / 2), Cup area is Yellow (Vc, Vd, Vg / 2), PPA area is Blue (Vg / 2, Vg / 2, Vp), and background area is Gray. When the colors are classified by (Vg, Vg, Vg), if the reference value Vd> 0 (the value of Vp is not limited), the processing according to the following [Equation 15] is executed, and the composition target region colored in pseudo color The identification image Rseg (x, y, c) (x = 0,..., Xs−1; y = 0,..., Ys−1) is calculated.

〔数式15〕
Vc>0の場合、Rseg(x,y,0)=Vc、Rseg(x,y,1)=Vd、Rseg(x,y,2)=Vg/2
Vc=0の場合、Rseg(x,y,0)=Vg/2、Rseg(x,y,1)=Vd、Rseg(x,y,2)=Vg/2
[Formula 15]
When Vc> 0, Rseg (x, y, 0) = Vc, Rseg (x, y, 1) = Vd, Rseg (x, y, 2) = Vg / 2
When Vc = 0, Rseg (x, y, 0) = Vg / 2, Rseg (x, y, 1) = Vd, Rseg (x, y, 2) = Vg / 2

また、基準値Vd=0の場合(Vcの値は問わない)、以下の〔数式16〕に従った処理を実行し、疑似カラーで着色された合成対象領域識別画像Rseg(x,y,c)(x=0,・・・,Xs−1;y=0,・・・,Ys−1)を算出する。   When the reference value Vd = 0 (the value of Vc does not matter), processing according to the following [Equation 16] is executed, and the composition target region identification image Rseg (x, y, c) colored with pseudo color is executed. ) (X = 0,..., Xs-1; y = 0,..., Ys-1).

〔数式16〕
Vp>0の場合、Rseg(x,y,0)=Vg/2、Rseg(x,y,1)=Vg/2、Rseg(x,y,2)=Vp
Vp=0の場合、Rseg(x,y,0)=Rseg(x,y,1)=Rseg(x,y,2)=Vg
[Formula 16]
When Vp> 0, Rseg (x, y, 0) = Vg / 2, Rseg (x, y, 1) = Vg / 2, Rseg (x, y, 2) = Vp
When Vp = 0, Rseg (x, y, 0) = Rseg (x, y, 1) = Rseg (x, y, 2) = Vg

〔数式15〕、〔数式16〕に従った処理を実行した結果、得られる合成対象領域識別画像Rseg(x,y,c)においては、Disc領域、Cup領域、PPA領域、その他の4属性は、図9に示す値として設定される。算出された基準値Vd、Vc、Vp、および背景画素値Vgの値から、Disc領域はGreen、Cup領域はYellow、PPA領域はBlue、その他の領域性はGrayの各色(疑似カラー)で表示される。すなわち、合成対象領域識別画像Rseg(x,y,c)においては、各対象領域は、実際の色とは異なるが、各対象領域を特徴付ける擬似的な色で表現される。属性変更にあたって、RGB成分間で入れ替えを行い、属性修正後もVd、Vc、Vp、Vgの値は変更せずに保持するようにする。Rseg(x,y,c)は、Pseg(x,y,c)、Qseg(x,y,c)と同じ形式であり、RGB各8ビット256階調である。   As a result of executing the processing according to [Equation 15] and [Equation 16], in the synthesis target region identification image Rseg (x, y, c) obtained, the Disc region, Cup region, PPA region, and other four attributes are as follows: Are set as values shown in FIG. Based on the calculated reference values Vd, Vc, Vp, and background pixel value Vg, the Disc area is displayed in Green, the Cup area is Yellow, the PPA area is Blue, and other areas are displayed in gray (pseudo color). The That is, in the synthesis target region identification image Rseg (x, y, c), each target region is expressed by a pseudo color that characterizes each target region, although it is different from the actual color. When changing the attribute, the RGB components are exchanged, and the values of Vd, Vc, Vp, and Vg are retained without being changed even after the attribute correction. Rseg (x, y, c) has the same format as Pseg (x, y, c) and Qseg (x, y, c), and each RGB has 8 bits and 256 gradations.

結局、〔数式12〕〜〔数式15〕の処理を実行することにより、識別画像合成手段60は、複数種類別に異なる色で着色し、眼球の解剖学・組織学的に矛盾しないように予め定められた複数種類の対応する領域の置換優先順位に基づき、各々の修正対象領域識別画像に対して異なる種類の他の修正対象領域識別画像の対象領域の画素に対応する画素を異なる種類の他の修正対象領域識別画像の対象領域の画素の色で置換することにより、複数種類の修正対象領域識別画像を合成した合成対象領域識別画像を作成している。より具体的には、識別画像合成手段60は、3種類の修正対象領域識別画像に対して、各対象領域の属性をもつ画素に3種類の色で着色し、第1の修正対象領域識別画像に対して第2の修正対象領域識別画像の対象領域の画素に対応する画素を第2の修正対象領域識別画像の対象領域の画素の色で置換し、置換された第1の修正対象領域識別画像に対して第3の修正対象領域識別画像の対象領域の画素に対応する画素を第3の修正対象領域識別画像の対象領域の画素の色で置換して、第1の修正対象領域識別画像に対して第2の修正対象領域識別画像および第3の修正対象領域識別画像を用いて改変を加えることにより、3種類の修正対象領域識別画像を合成した合成対象領域識別画像を作成している。   Eventually, by executing the processing of [Equation 12] to [Equation 15], the identification image synthesizing means 60 is preliminarily determined so as to be colored in different colors for a plurality of types and consistent with the anatomy / histology of the eyeball. Based on the replacement priority order of the plurality of types of corresponding areas, the pixels corresponding to the pixels of the target area of the different correction target area identification image are different from each other. By substituting with the color of the pixel of the target area of the correction target area identification image, a composite target area identification image is created by combining a plurality of types of correction target area identification images. More specifically, the identification image synthesizing unit 60 colors the pixels having the attributes of each target region with three types of colors with respect to the three types of correction target region identification images, thereby obtaining the first correction target region identification image. The pixel corresponding to the pixel of the target region of the second correction target region identification image is replaced with the color of the pixel of the target region of the second correction target region identification image, and the replaced first correction target region identification The pixel corresponding to the pixel of the target area of the third correction target area identification image is replaced with the color of the pixel of the target area of the third correction target area identification image with respect to the image, and the first correction target area identification image By adding a modification to the image using the second correction target region identification image and the third correction target region identification image, a composite target region identification image is created by combining the three types of correction target region identification images. .

本実施形態では、第1の修正対象領域識別画像はDisc領域に対応したQsegD(x,y,c)であり、第2の修正対象領域識別画像はCup領域に対応したQsegC(x,y,c)であり、第3の修正対象領域識別画像はPPA領域に対応したQsegP(x,y,c)であり、識別画像合成手段60は、第1の修正対象領域識別画像に対して第2の修正対象領域識別画像の対象領域の画素に対応する画素を第2の修正対象領域識別画像の対象領域の画素の色で置換する時、第1の修正対象領域識別画像の対応する画素が非対象領域の画素の場合は置換しないようにし、置換された第1の修正対象領域識別画像に対して第3の修正対象領域識別画像の対象領域の画素に対応する画素を第3の修正対象領域識別画像の対象領域の画素の色で置換する時、置換された第1の修正対象領域識別画像の対応する画素が対象領域の画素の場合は置換しないようにしている。   In the present embodiment, the first correction target area identification image is QsegD (x, y, c) corresponding to the Disc area, and the second correction target area identification image is QsegC (x, y, c) corresponding to the Cup area. c), and the third correction target area identification image is QsegP (x, y, c) corresponding to the PPA area, and the identification image synthesis means 60 performs the second correction on the first correction target area identification image. When the pixel corresponding to the pixel of the target area of the second correction target area identification image is replaced with the color of the pixel of the target area of the second correction target area identification image, the corresponding pixel of the first correction target area identification image is not In the case of a pixel in the target area, the pixel corresponding to the pixel in the target area of the third correction target area identification image is replaced with the third correction target area with respect to the replaced first correction target area identification image. Of the target area of the identification image In case of replacing the corresponding pixel of the first correction target region identification image that is substituted in the case of pixels in the target region so that no substitution.

本実施形態のように、第1の修正対象領域識別画像をDisc領域、第2の修正対象領域識別画像をCup領域、第3の修正対象領域識別画像をPPA領域に対応させて、上記のように処理を行うと、Disc領域内にのみCup領域が表示された状態となり、Disc領域内にPPA領域が存在するなど組織学的に矛盾する形態にならない合成時における優先順位の根拠は眼球の解剖学・組織学的な知見に基づくものである。、Cup領域はDisc領域と同一の視神経組織で、部分的に陥凹した領域であるため、Disc領域内に存在する。従って、Cup領域はDisc領域とオーバーラップし、Disc領域より優先順位が高くなる。PPA領域はDisc領域とは異なる網膜組織で部分的に萎縮(細胞が死んで受光機能を失った状態)した領域で、Disc領域の外側に位置する。従って、PPA領域とDisc領域がオーバーラップすることはなく、オーバーラップする場合はPPA領域の誤検出と判断し、Disc領域の方を優先する。PPA領域はDisc領域に比べ顕著にコントラストが低いため、誤検出されやすいこともありDisc領域の方を優先する。以上のことから、3つの優先順位は、PPA<Disc<Cupとなり、これに基づいて合成対象領域識別画像を作成する。   As in the present embodiment, the first correction target area identification image corresponds to the Disc area, the second correction target area identification image corresponds to the Cup area, and the third correction target area identification image corresponds to the PPA area, as described above. When the process is performed, the Cup area is displayed only in the Disc area, and the basis of the priority at the time of synthesis that does not result in a histologically contradictory form such as the presence of the PPA area in the Disc area is the anatomy of the eyeball. Based on academic and histological findings. The Cup region is the same optic nerve tissue as the Disc region and is a partially depressed region, and therefore exists in the Disc region. Therefore, the Cup region overlaps with the Disc region and has a higher priority than the Disc region. The PPA region is a region that is partially atrophied in a retinal tissue different from that of the Disc region (a state in which cells have died and have lost the light receiving function), and is located outside the Disc region. Accordingly, the PPA area and the Disc area do not overlap. If they overlap, it is determined that the PPA area is erroneously detected, and the Disc area is given priority. Since the PPA area has a significantly lower contrast than the Disc area, the Disc area is given priority because it may be erroneously detected. From the above, the three priorities are PPA <Disc <Cup, and based on this, a composition target area identification image is created.

合成対象領域識別画像が作成されたら、次に、面積比率算出手段65が、合成対象領域識別画像に対して、3種類の色で着色された画素数を色別にカウントし、第2の色に対応する画素数を第1の色に対応する画素数で除算した第1の比率と、第3の色に対応する画素数を第1の色に対応する画素数で除算した第2の比率を算出する(ステップS800)。第1の比率、第2の比率は、画素数の比率であるため、画像上における面積比率に相当する。ここで、第1の色、第2の色、第3の色は、それぞれ3種類の各対象領域の色に対応する。ステップS800においては、以下の〔数式17〕に従った処理を実行し、第1の比率であるCup−to−Disc面積比率と、第2の比率であるPPA−to−Disc面積比率を算出する。   After the compositing target area identification image is created, the area ratio calculating unit 65 then counts the number of pixels colored with three kinds of colors for the compositing target area identification image for each color to obtain the second color. A first ratio obtained by dividing the number of corresponding pixels by the number of pixels corresponding to the first color, and a second ratio obtained by dividing the number of pixels corresponding to the third color by the number of pixels corresponding to the first color. Calculate (step S800). Since the first ratio and the second ratio are the ratio of the number of pixels, they correspond to the area ratio on the image. Here, the first color, the second color, and the third color respectively correspond to the three types of colors of the target regions. In step S800, processing according to the following [Equation 17] is executed to calculate a Cup-to-Disc area ratio that is a first ratio and a PPA-to-Disc area ratio that is a second ratio. .

〔数式17〕
Cup−to−Disc面積比率=
{ΣRseg(x,y,0)>(L-1)(Rseg(x,y,0)−L)/(L−1)}/{ΣRseg(x,y,1)>(L-1)(Rseg(x,y,1)−L)/(L−1)}
PPA−to−Disc面積比率=
{ΣRseg(x,y,2)>(L-1)(Rseg(x,y,2)−L)/(L−1)}/{ΣRseg(x,y,1)>(L-1)(Rseg(x,y,1)−L)/(L−1)}
[Formula 17]
Cup-to-Disc area ratio =
{ ΣRseg (x, y, 0)> (L-1) (Rseg (x, y, 0) −L) / (L−1)} / { ΣRseg (x, y, 1)> (L− 1) (Rseg (x, y, 1) -L) / (L-1)}
PPA-to-Disc area ratio =
{ ΣRseg (x, y, 2)> (L-1) (Rseg (x, y, 2) −L) / (L−1)} / { ΣRseg (x, y, 1)> (L− 1) (Rseg (x, y, 1) -L) / (L-1)}

図10は、本実施形態に係る眼底画像処理装置により得られる画像の例である。このうち、図10(a)は、撮像により得られたフルカラー眼底画像を示している。また、図10(b)(c)(d)は、対象領域識別画像修正手段50により、ステップS600の過剰抽出領域の削除処理が行われた後の、Disc領域を対象領域とする対象領域識別画像、Cup領域を対象領域とする対象領域識別画像、PPA領域を対象領域とする対象領域識別画像を示している。図10(e)は、識別画像合成手段60により、ステップS700の疑似カラー画像の合成処理が行われた後の、合成対象領域識別画像を示している。   FIG. 10 is an example of an image obtained by the fundus image processing apparatus according to the present embodiment. Among these, FIG. 10A shows a full-color fundus image obtained by imaging. FIGS. 10B, 10C, and 10D show the target area identification with the Disc area as the target area after the target area identification image correcting unit 50 performs the deletion process of the excessive extraction area in step S600. An image, a target area identification image having a Cup area as a target area, and a target area identification image having a PPA area as a target area are shown. FIG. 10E shows a synthesis target area identification image after the pseudo color image synthesis process of step S700 is performed by the identification image synthesis means 60.

図10(b)に示すように、Disc領域を対象領域とする対象領域識別画像においては、2種類の属性である、対象領域であるDisc領域と非対象領域が、互いに視覚的に識別可能に表示されている。図10(c)に示すように、Cup領域を対象領域とする対象領域識別画像においては、2種類の属性である、対象領域であるCup領域と非対象領域が、互いに視覚的に識別可能なように表示されている。図10(d)に示すように、PPA領域を対象領域とする対象領域識別画像においては、2種類の属性である、対象領域であるPPA領域と非対象領域が、互いに視覚的に識別可能なように表示されている。図10(e)に示すように、合成対象領域識別画像においては、3つの対象領域であるDisc領域、Cup領域、PPA領域と非対象領域が、互いに視覚的に識別可能な色で表示されている。   As shown in FIG. 10B, in the target area identification image in which the Disc area is the target area, the Disc area that is the target area and the non-target area that are two types of attributes can be visually distinguished from each other. It is displayed. As shown in FIG. 10 (c), in the target area identification image with the Cup area as the target area, the two types of attributes, that is, the Cup area that is the target area and the non-target area, can be visually distinguished from each other. Is displayed. As shown in FIG. 10D, in the target area identification image with the PPA area as the target area, two types of attributes, the PPA area that is the target area and the non-target area, can be visually identified from each other. Is displayed. As shown in FIG. 10E, in the synthesis target area identification image, the three target areas, the Disc area, the Cup area, the PPA area, and the non-target area are displayed in colors that are visually identifiable. Yes.

図10(e)に示した合成対象領域識別画像に対して、面積比率算出手段65が、ステップS800の進行度算出処理を行った結果、Cup−to−Disc面積比率は0.43であり(図中C/D=43と表記)、PPA−to−Disc面積比率は0.15であった(図中P/D=15と表記)。   As a result of the area ratio calculation means 65 performing the degree of progress calculation process of step S800 on the composition target region identification image shown in FIG. 10E, the Cup-to-Disc area ratio is 0.43 ( The PPA-to-Disc area ratio was 0.15 (denoted as P / D = 15 in the figure).

<3.第2の実施形態>
次に、第2の実施形態について説明する。図11は、第2の実施形態に係る眼底画像処理装置の構成を示す機能ブロック図である。図11において、図2と同様の手段については、同一符号を付して説明を省略する。図11において、67は機械学習手段である。
<3. Second Embodiment>
Next, a second embodiment will be described. FIG. 11 is a functional block diagram illustrating a configuration of a fundus image processing apparatus according to the second embodiment. In FIG. 11, the same means as those in FIG. In FIG. 11, 67 is a machine learning means.

機械学習手段67は、CPU1が、記憶装置3に記憶されているプログラムの一部をGPU6にロードさせ、一連の学習処理と判定処理はGPU6で主に実行させることにより実現される。また、機械学習手段67は、記憶装置3およびGPU6の所定の領域を確保し、所定の情報を記憶する機能を有する。   The machine learning means 67 is realized by causing the CPU 1 to load a part of the program stored in the storage device 3 into the GPU 6 and causing the GPU 6 to mainly execute a series of learning processing and determination processing. The machine learning means 67 has a function of securing predetermined areas of the storage device 3 and the GPU 6 and storing predetermined information.

図12は、機械学習手段67を公知の多層ニューラルネット(図12では4層)で実現した事例を示す図である。機械学習手段67の多層ニューラルネットワークは、入力層67a、2層の中間層67bと67c、出力層67dを備えている。入力層67aは、画素ブロックの各画素に対応して、画素ブロックの画素数の2倍の個数のノードNaを備えている。これは、画素ブロックの各画素のRGBいずれか2つの色成分からなり、当該画素が対象領域に含まれる場合、2つの色成分が異なるように選定された2種類の画素値に対応させるためである。尚、RGB3つの色成分のうち、残りの1つの色成分は選定された2つの色成分のいずれかと同一の値になるため、多層ニューラルネットワークへの入力を行わない(3つの色成分をそのまま入力すると入力層のノード数が増えて処理負荷が増大するとともに、機械学習の精度も低下するため)。画素ブロックのサイズが8×8画素である場合、128個のノードNaを備えることになる。中間層は少なくとも1層以上必要であるが通常複数層で構成され、図12では67bおよび67cの2層で構成されている。各中間層67bおよび67cには所定の個数のノードNbおよびNcを備えている。出力層67dは、対象領域、非対象領域からなる2種類の属性に対応して2個のノードNdを備えている。入力層67aのノードNaの個数や出力層67dのノードNdの個数は、前述の通り入出力仕様に基づいて必然的に決定されるが、中間層の層の数、および各中間層のノードの個数は、決定するにあたって原理的な根拠は無く、機械学習の精度を評価しながら試行錯誤的に調整される。一般に、中間層67bおよび中間層67cの各層には出力層67dのノードNdの個数より多く、入力層67aのノードNaの個数より少ない個数のノードNbおよびノードNcを与えることが多く、更に、ノードNbとノードNcの個数は異なるように設定することが多い。   FIG. 12 is a diagram showing an example in which the machine learning means 67 is realized by a known multilayer neural network (four layers in FIG. 12). The multilayer neural network of the machine learning means 67 includes an input layer 67a, two intermediate layers 67b and 67c, and an output layer 67d. The input layer 67a includes as many nodes Na corresponding to each pixel of the pixel block as twice the number of pixels of the pixel block. This is because it consists of two color components of RGB of each pixel of the pixel block, and when the pixel is included in the target area, it corresponds to two types of pixel values selected so that the two color components are different. is there. Of the three color components of RGB, the remaining one color component has the same value as one of the two selected color components, so input to the multilayer neural network is not performed (input the three color components as they are). This increases the number of nodes in the input layer, increasing the processing load and reducing the accuracy of machine learning). When the size of the pixel block is 8 × 8 pixels, 128 nodes Na are provided. Although at least one intermediate layer is required, it is usually composed of a plurality of layers. In FIG. 12, it is composed of two layers 67b and 67c. Each intermediate layer 67b and 67c includes a predetermined number of nodes Nb and Nc. The output layer 67d includes two nodes Nd corresponding to two types of attributes including a target area and a non-target area. The number of nodes Na in the input layer 67a and the number of nodes Nd in the output layer 67d are inevitably determined based on the input / output specifications as described above, but the number of intermediate layers and the number of nodes in each intermediate layer are determined. The number has no fundamental basis for determination, and is adjusted by trial and error while evaluating the accuracy of machine learning. In general, each of the intermediate layer 67b and the intermediate layer 67c is provided with a larger number of nodes Nb and Nc than the number of nodes Nd in the output layer 67d and smaller than the number of nodes Na in the input layer 67a. The number of Nb and node Nc is often set to be different.

図12の例では、ノードNbの個数を32個、ノードNcの個数を4個に設定している。入力層67aのノードNaの個数をNi(=128)、第1の中間層67bのノードNbの個数をNj(=32)、第2の中間層67cのノードNcの個数をNk(=4)、出力層67dのノードNdの個数をNl(=2)とする。入力層67aの各ノードNaと第1の中間層67bの各ノードNbの間にはNi×Nj個のリンクLabが張られており、第1の中間層67bの各ノードNbと第2の中間層67cの各ノードNcの間にはNj×Nk個のリンクLbcが張られており、第2の中間層67cの各ノードNcと出力層67dの各ノードNdの間にはNk×Nl個のリンクLbcが張られている。i番目(i=1,...,Ni)のノードNa(i)とj番目(j=1,...,Nj)のノードNb(j)とのリンクLabをLab(i,j)とし、j番目のノードNb(j)とk番目(k=1,...,Nk)のノードNc(k)とのリンクLbcをLbc(j,k)とし、k番目のノードNcとl番目(l=1,...,Nl)のノードNd(l)とのリンクLcdをLcd(k,l)とすると、Lab(i,j)、Lbc(j,k),Lcd(k,l)には各々独立した正負符号をもつ実数値の重みWab(i,j)、Wbc(j,k),Wcd(k,l)が設定されており、後述する学習処理によりGPU6を用いて全ての重みが自動的に算出設定される(現在主流のバックプロパゲーション・アルゴリズムでは重みは0〜1の正の実数値に限定される)。これらの重みWab(i,j)、Wbc(j,k),Wcd(k,l)が、記憶装置3およびGPU6の所定の領域に記録される。上記では、リンクLab(i,j)と重みWab(i,j)を区別して説明したが、ニューラルネットワーク理論で、機械学習や機械判定の計算に実際に使用されるのは、重みWab(i,j)であるため、「リンク」という表現は使わず、「ノード間の重み」という表現で説明されることが多い。   In the example of FIG. 12, the number of nodes Nb is set to 32, and the number of nodes Nc is set to 4. The number of nodes Na in the input layer 67a is Ni (= 128), the number of nodes Nb in the first intermediate layer 67b is Nj (= 32), and the number of nodes Nc in the second intermediate layer 67c is Nk (= 4). The number of nodes Nd in the output layer 67d is Nl (= 2). Between each node Na of the input layer 67a and each node Nb of the first intermediate layer 67b, Ni × Nj links Lab are extended, and each node Nb of the first intermediate layer 67b is connected to the second intermediate layer 67b. Nj × Nk links Lbc are extended between the nodes Nc of the layer 67c, and Nk × Nl links between the nodes Nc of the second intermediate layer 67c and the nodes Nd of the output layer 67d. A link Lbc is stretched. The link Lab between the i-th (i = 1,..., Ni) node Na (i) and the j-th (j = 1,..., Nj) node Nb (j) And the link Lbc between the j-th node Nb (j) and the k-th (k = 1,..., Nk) node Nc (k) is Lbc (j, k), and the k-th node Nc and l Assuming that the link Lcd with the node Nd (l) of the th (l = 1,..., Nl) is Lcd (k, l), Lab (i, j), Lbc (j, k), Lcd (k, In 1), real-valued weights Wab (i, j), Wbc (j, k), and Wcd (k, l) each having an independent positive / negative sign are set, and the GPU 6 is used by a learning process described later. All weights are automatically calculated and set (in the current mainstream backpropagation algorithm, the weights are 0-1 And it is limited to the real value of). These weights Wab (i, j), Wbc (j, k), Wcd (k, l) are recorded in predetermined areas of the storage device 3 and the GPU 6. In the above description, the link Lab (i, j) and the weight Wab (i, j) are distinguished from each other. However, in the neural network theory, the weight Wab (i) is actually used for machine learning and machine judgment calculation. , J), the expression “link” is not used and the expression “weight between nodes” is often used.

第2の実施形態においては、機械学習手段67を備え、対象領域識別画像修正手段50により修正された情報を基に機械学習を行うことにより、必ずしも修正指示を必要とせずに、視神経乳頭部またはその周辺の属性の設定を行うことができるようになる点が、第1の実施形態と異なっている。図13は、第2の実施形態に係る眼底画像処理装置の処理概要を示すフローチャートである。ステップS100〜ステップS500までは、第1の実施形態と同様に処理が行われ、対象領域識別画像Pseg(x,y,c)が生成される。   In the second embodiment, machine learning means 67 is provided, and machine learning is performed based on the information corrected by the target region identification image correction means 50, so that the correction instruction is not necessarily required, and the optic nerve head or This is different from the first embodiment in that peripheral attributes can be set. FIG. 13 is a flowchart illustrating a processing outline of the fundus image processing apparatus according to the second embodiment. From step S100 to step S500, processing is performed in the same manner as in the first embodiment, and a target area identification image Pseg (x, y, c) is generated.

対象領域識別画像Pseg(x,y,c)が生成されたら、機械判定を利用するか否かを決定する(ステップS650)。機械判定を利用するか否かについては、事前の設定に従う態様、機械学習の実施回数に基づく態様など、様々な態様を用いることができる。機械判定を利用する場合でも、自動的に修正された対象領域識別画像に対して修正を加えることもできる。   When the target area identification image Pseg (x, y, c) is generated, it is determined whether or not to use machine determination (step S650). As for whether to use machine determination, various modes such as a mode according to a preset setting and a mode based on the number of executions of machine learning can be used. Even when the machine determination is used, correction can be made to the automatically corrected target area identification image.

ステップS650において、機械判定を利用しないと決定された場合は、第1の実施形態と同様、利用者からの指示に基づき、過剰抽出領域の削除による対象領域識別画像の修正を行う(ステップS600)。対象領域識別画像の修正が行われたら、修正情報を記憶する(ステップS900)。具体的には、ステップS600における対象領域識別画像の修正の際、利用者に指定された領域から、所定のサイズの画素ブロックを設定し、各画素ブロックに含まれる画素の情報である画素ブロック情報と、画素ブロックごとの修正後の属性を対応付けて記憶し、機械学習に使用する。実際には、修正後の属性は非対象領域に限定されるため、画素ブロックの位置情報だけ記憶すれば良い。図14(a)は、対象領域識別画像の修正に伴う機械学習の様子を示す図である。ステップS600において対象領域識別画像の修正が行われた際、ステップS900において、所定のサイズの画素ブロックを設定する。画素ブロックのサイズは適宜設定することができるが、例えば、8×8画素のサイズに設定することができる。そして、各画素ブロックに含まれる画素の情報である画素ブロック情報と、画素ブロックごとの修正後の属性を対応付けて記憶する。   If it is determined in step S650 that the machine determination is not used, the target region identification image is corrected by deleting the excessively extracted region based on an instruction from the user as in the first embodiment (step S600). . When the target area identification image is corrected, the correction information is stored (step S900). Specifically, when the target area identification image is corrected in step S600, a pixel block of a predetermined size is set from the area specified by the user, and pixel block information that is information on the pixels included in each pixel block And the corrected attribute for each pixel block are stored in association with each other and used for machine learning. Actually, since the corrected attribute is limited to the non-target region, only the position information of the pixel block may be stored. FIG. 14A is a diagram illustrating a state of machine learning accompanying correction of a target area identification image. When the target area identification image is corrected in step S600, a pixel block having a predetermined size is set in step S900. The size of the pixel block can be set as appropriate, but can be set to a size of 8 × 8 pixels, for example. Then, the pixel block information, which is information on the pixels included in each pixel block, and the corrected attribute for each pixel block are stored in association with each other.

ステップS900と並行して、第1の実施形態と同様、後処理を行う(ステップS800)。機械学習手段は、ステップS700の処理が行われる度に、画素ブロック情報と、その画素ブロックの修正後の属性に基づいて学習させていく。即ち、どのような画素ブロックがどのような属性に修正されたかを機械学習における教師データとみなし、教師あり学習をさせる。具体的には、機械学習手段は、当該画素ブロックの各画素の画素値を入力層67aの対応するノードNaに与え、当該画素ブロックに修正指示された属性に対応する出力層67dのノードNdに最大重み値+1.0を与え、それ以外の出力層67dのノードNdには0を与え、公知のバックプロパゲーション法(誤差逆伝搬法)に基づく学習アルゴリズムをGPU6で実行させる。そうすると、当該画素ブロックの各画素の画素値を入力層67aの対応するノードNaに入力すると、当該画素ブロックの修正された属性に対応する出力層67dのノードNdが最大出力を出すように、図12に示す各層のノード間を結ぶ全てのリンクの重みが自動的に設定変更される。即ち、当該画素ブロックの各画素のパターンを入力層に与えると、出力層において算出される当該画素ブロックに指示された属性の重みが高くなるように自動的に学習される。画素ブロックと当該画素ブロックの属性との対応関係が学習・記憶される訳ではないため、学習が進むと、同一の画素ブロックを入力層に与えても出力層で算出される当該画素ブロックに指示された属性の重みは変化し、場合によりもう一方の属性より小さくなり、学習させた時と異なった結果が算出されることもあり得る。このような問題が多発する場合は、ニューラルネットの構成が不適切であるため、中間層のノード数や階層数の見直しを行う。機械学習手段は、ステップS700における指示に基づく対象領域画像の修正が行われる度に、画素ブロックの画素値の特徴と当該画素ブロックに指示された属性との対応関係に基づいて、図12に示す各層のノード間を結ぶ全てのリンクの重みWab(i,j)、Wbc(j,k),Wcd(k,l)を算出し、更新していく。すなわち、ステップS900の処理が繰り返されることにより、機械学習手段67は、修正前の対象領域識別画像の画素ブロックと、修正後の属性の対応関係に基づいて全てのリンクの重みWab(i,j)、Wbc(j,k),Wcd(k,l)を最適な値に近づけるように学習を進めていくことになる。   In parallel with step S900, post-processing is performed as in the first embodiment (step S800). Each time the process of step S700 is performed, the machine learning means learns based on the pixel block information and the corrected attribute of the pixel block. That is, what kind of pixel block is modified to what attribute is regarded as teacher data in machine learning, and supervised learning is performed. Specifically, the machine learning means gives the pixel value of each pixel of the pixel block to the corresponding node Na of the input layer 67a, and supplies it to the node Nd of the output layer 67d corresponding to the attribute instructed to correct the pixel block. The maximum weight value +1.0 is given, and 0 is given to the other nodes Nd of the output layer 67d, and a learning algorithm based on a known back propagation method (error back propagation method) is executed by the GPU 6. Then, when the pixel value of each pixel of the pixel block is input to the corresponding node Na of the input layer 67a, the node Nd of the output layer 67d corresponding to the modified attribute of the pixel block outputs the maximum output. The weights of all the links connecting the nodes of each layer shown in 12 are automatically changed. That is, when the pattern of each pixel of the pixel block is given to the input layer, learning is automatically performed so that the attribute weight instructed to the pixel block calculated in the output layer is increased. Since the correspondence between the pixel block and the attribute of the pixel block is not learned / stored, when the learning progresses, even if the same pixel block is given to the input layer, the pixel block calculated in the output layer is instructed. The weight of the attribute that has been changed may be smaller than the other attribute in some cases, and a result different from that in the learning may be calculated. When such a problem occurs frequently, the configuration of the neural network is inappropriate, so the number of nodes and the number of layers in the intermediate layer are reviewed. Each time the target region image is corrected based on the instruction in step S700, the machine learning means is shown in FIG. 12 based on the correspondence relationship between the pixel value feature of the pixel block and the attribute instructed to the pixel block. The weights Wab (i, j), Wbc (j, k), and Wcd (k, l) of all links connecting the nodes of each layer are calculated and updated. That is, by repeating the process of step S900, the machine learning means 67 causes all link weights Wab (i, j) based on the correspondence relationship between the pixel block of the target area identification image before correction and the attribute after correction. ), Learning proceeds so that Wbc (j, k) and Wcd (k, l) are close to optimum values.

一方、ステップS650において、機械判定を利用すると決定された場合は、機械判定に基づき対象領域識別画像の修正を行う(ステップS950)。図14(b)は、機械判定の結果を用いて属性修正を自動化した様子を示す図である。ステップS950においては、ステップS600で生成された対象領域識別画像に対して画素ブロックを設定する。例えば、対象領域識別画像全体を分割するように画素ブロックを設定する。画素ブロックのサイズは適宜設定することができるが、機械学習の際と同一のサイズに設定する必要がある。対象領域識別画像全体に画素ブロックを設定したら、画素ブロックを1つずつ抽出し、当該画素ブロックの各画素の画素値を機械学習手段67の入力層67aに対応するノードNaに入力する。機械学習手段は、既に記憶されている各層のノード間を結ぶ全てのリンクの重みWab(i,j)、Wbc(j,k),Wcd(k,l)に基づいて、多層ニューラルネットワークをGPU6で実行させる。そして、出力層67dのノードNdの中で最大出力を出したノードNdに対応する属性になるように、対象領域識別画像内の画素ブロックの各画素の属性を修正する。このように、機械学習手段67が学習した後は、人間が介在することなく、機械判定により自動的に対象領域識別画像内の各画素に属性を設定することが可能となる。自動的に設定された対象領域識別画像に対して、利用者が画面上で目視で確認し、不適切な設定がなされている箇所が1箇所でも存在する場合は、第1の実施形態と同様、利用者からの指示に基づき、過剰抽出領域の削除による対象領域識別画像の修正を行い(ステップS600)、修正情報が記憶され(ステップS900)、再度機械学習に使用される。このような操作を種々のカラー眼底画像に対して繰り返すことにより、利用者による対象領域識別画像の修正が殆ど不要になる。   On the other hand, if it is determined in step S650 that the machine determination is to be used, the target area identification image is corrected based on the machine determination (step S950). FIG. 14B is a diagram illustrating a state in which attribute correction is automated using the result of machine determination. In step S950, a pixel block is set for the target area identification image generated in step S600. For example, the pixel block is set so as to divide the entire target area identification image. The size of the pixel block can be set as appropriate, but needs to be set to the same size as in machine learning. When a pixel block is set for the entire target area identification image, the pixel block is extracted one by one, and the pixel value of each pixel of the pixel block is input to the node Na corresponding to the input layer 67a of the machine learning means 67. The machine learning means converts the multi-layer neural network to the GPU 6 based on the weights Wab (i, j), Wbc (j, k), and Wcd (k, l) of all the links connecting the nodes of each layer that are already stored. To run. Then, the attribute of each pixel of the pixel block in the target area identification image is modified so that the attribute corresponds to the node Nd that has output the maximum output among the nodes Nd of the output layer 67d. As described above, after the machine learning means 67 has learned, it is possible to automatically set an attribute for each pixel in the target region identification image by machine determination without human intervention. When the target area identification image set automatically is visually confirmed on the screen by the user and there is at least one place where inappropriate setting is made, the same as in the first embodiment Based on the instruction from the user, the target area identification image is corrected by deleting the overextracted area (step S600), the correction information is stored (step S900), and used again for machine learning. By repeating such an operation for various color fundus images, it is almost unnecessary for the user to correct the target area identification image.

<5.変形例等>
以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限定されず、種々の変形が可能である。例えば、上記実施形態では、撮影により得られたカラー眼底画像としてRGB各8ビットのフルカラー画像を用いたが、これに限定されず、様々な態様のカラー画像を用いることができる。例えば、近年業務用のデジタルカメラの階調は10ビット以上に拡大しており、各色1024階調等のフルカラー画像を取得することも可能になっており、より階調数の多いカラー画像を用いてもよい。また、より少ない階調数のカラー画像を用いてもよい。
<5. Modified example>
The preferred embodiments of the present invention have been described above. However, the present invention is not limited to the above embodiments, and various modifications can be made. For example, in the above embodiment, a full color image of 8 bits for each RGB is used as a color fundus image obtained by photographing. However, the present invention is not limited to this, and various color images can be used. For example, in recent years, the gradation of commercial digital cameras has been expanded to 10 bits or more, and it has become possible to acquire full-color images such as 1024 gradations for each color, using color images with a larger number of gradations. May be. A color image having a smaller number of gradations may be used.

機械学習手段は、コンピュータのネットワーク等の通信媒体を介してデータを共有または交換するのが好ましい。機械学習手段は、クラウドサーバ上に存在してもよい。上記構成とすることで学習効率を向上させることができる。例えば、図11に示した機械学習手段67をクラウドサーバ上に装備した場合、対象領域識別画像生成手段40、対象領域識別画像修正手段50等の他の手段は、クラウドサーバとネットワークを介して接続された利用者が直接操作可能な1台または複数台のコンピュータに装備される。すなわち、グレースケール画像変換手段10と、クロージング処理手段20と、抽出範囲定義手段30と、対象領域識別画像生成手段40と、対象領域識別画像修正手段50を実現する第1のコンピュータと、機械学習手段67を有する第2のコンピュータが、ネットワークを介して、接続されていることになる。   The machine learning means preferably shares or exchanges data via a communication medium such as a computer network. The machine learning means may exist on the cloud server. Learning efficiency can be improved by setting it as the said structure. For example, when the machine learning means 67 shown in FIG. 11 is installed on the cloud server, other means such as the target area identification image generation means 40 and the target area identification image correction means 50 are connected to the cloud server via the network. Installed on one or more computers that can be directly operated by a user. That is, the gray scale image conversion means 10, the closing processing means 20, the extraction range definition means 30, the target area identification image generation means 40, the first computer that realizes the target area identification image correction means 50, machine learning The second computer having the means 67 is connected via the network.

また、上記実施形態では、視神経乳頭部の対象領域または視神経乳頭部の周辺の対象領域として、視神経乳頭部であるDisc領域、視神経陥凹であるCup領域、乳頭周囲網脈絡膜萎縮であるPPA領域の3種類を設定するようにしたが、これらの全てを対象領域とする必要なく、少なくとも1種類以上を対象領域とすればよい。少なくとも1種類以上を対象領域とすることにより、少なくとも1種類の修正対象領域識別画像を作成することができる。また、この3種類以外を設定するようにしてもよい。   In the above embodiment, the target region of the optic papilla or the target region around the optic papilla is a disc region that is the optic papilla, a cup region that is a optic nerve recess, or a PPA region that is a reticulochoroidal atrophy around the nipple. Although three types are set, it is not necessary to set all of them as target regions, and at least one type may be set as target regions. By setting at least one type as a target region, at least one type of correction target region identification image can be created. Moreover, you may make it set other than these three types.

1・・・CPU(Central Processing Unit)
2・・・RAM(Random Access Memory)
3・・・記憶装置
4・・・指示入力I/F
5・・・データ入出力I/F
6・・・GPU(Graphical Processing Unit)
7・・・表示部
10・・・グレースケール画像変換手段
20・・・クロージング処理手段
30・・・抽出範囲定義手段
40・・・対象領域識別画像生成手段
50・・・対象領域識別画像修正手段
60・・・識別画像合成手段
65・・・面積比率算出手段
67・・・機械学習手段
70・・・眼底画像記憶手段
80・・・処理データ記憶手段
100・・・眼底画像処理装置
1 ... CPU (Central Processing Unit)
2 ... RAM (Random Access Memory)
3 ... Storage device 4 ... Instruction input I / F
5. Data input / output I / F
6 ... GPU (Graphical Processing Unit)
DESCRIPTION OF SYMBOLS 7 ... Display part 10 ... Gray scale image conversion means 20 ... Closing processing means 30 ... Extraction range definition means 40 ... Target area identification image generation means 50 ... Target area identification image correction means 60: Identification image composition means 65 ... Area ratio calculation means 67 ... Machine learning means 70 ... Fundus image storage means 80 ... Processing data storage means 100 ... Fundus image processing apparatus

Claims (18)

カラー眼底画像に対して、緑内障の診断箇所となる対象領域の画素が高い画素値の範囲に含まれるように設定されたグレースケール画像に変換するグレースケール画像変換手段と、
前記グレースケール画像に対して、所定のサイズの円形構造要素に基づいてクロージング処理を行い平滑化グレースケール画像を作成するクロージング処理手段と、
前記平滑化グレースケール画像の中で少なくとも前記対象領域に含まれる全ての画素を含む画素値の下限値を定義する抽出範囲定義手段と、
前記平滑化グレースケール画像の各画素に対して、前記下限値以上の画素値をもつ画素に対して前記対象領域、当該対象領域以外である非対象領域が視覚的に識別可能な対象領域識別画像を生成する対象領域識別画像生成手段と、
前記対象領域識別画像に対して指示された領域に基づいて、前記指示された領域内の前記対象領域として識別される画素の値を、非対象領域として識別される値に修正して修正対象領域識別画像を作成する対象領域識別画像修正手段と、
を有することを特徴とする眼底画像処理装置。
Gray scale image conversion means for converting a color fundus image into a gray scale image set so that the pixels of the target region serving as a glaucoma diagnosis location are included in a high pixel value range;
Closing processing means for creating a smoothed grayscale image by performing a closing process on the grayscale image based on a circular structuring element of a predetermined size;
Extraction range defining means for defining a lower limit value of a pixel value including at least all pixels included in the target area in the smoothed grayscale image;
For each pixel of the smoothed grayscale image, a target region identification image that can visually identify the target region and a non-target region other than the target region with respect to a pixel having a pixel value equal to or greater than the lower limit value. Target area identification image generating means for generating
Based on the area designated for the target area identification image, the value of the pixel identified as the target area in the designated area is corrected to a value identified as a non-target area, and the correction target area A target area identification image correcting means for creating an identification image;
A fundus image processing apparatus comprising:
前記対象領域として、視神経乳頭部であるDisc、視神経陥凹であるCup、乳頭周囲網脈絡膜萎縮であるPPAの3種類のうち少なくとも1種類に対応する領域を設定し、
各対象領域に対して前記グレースケール画像変換手段、前記クロージング処理手段、前記抽出範囲定義手段、前記対象領域識別画像生成手段、前記対象領域識別画像修正手段を実行し、Disc領域、Cup領域、PPA領域を前記対象領域とした3種類のうち少なくとも1種類の修正対象領域識別画像を作成することを特徴とする請求項1に記載の眼底画像処理装置。
As the target region, a region corresponding to at least one of the three types of Disc, which is the optic disc, Cup, which is the optic nerve depression, and PPA, which is the perinipple reticulochoroidal atrophy,
The gray scale image conversion means, the closing processing means, the extraction range definition means, the target area identification image generation means, and the target area identification image correction means are executed for each target area, and a Disc area, a Cup area, a PPA The fundus image processing apparatus according to claim 1, wherein at least one type of correction target region identification image is created among three types in which the region is the target region.
前記対象領域として、少なくとも視神経乳頭部であるDisc、視神経陥凹であるCup、乳頭周囲網脈絡膜萎縮であるPPAの複数種類に対応する領域を設定し、
各対象領域に対して前記グレースケール画像変換手段、前記クロージング処理手段、前記抽出範囲定義手段、前記対象領域識別画像生成手段、前記対象領域識別画像修正手段を実行し、少なくともDisc領域、Cup領域、PPA領域を前記対象領域とした複数種類の修正対象領域識別画像を作成することを特徴とする請求項1または請求項2に記載の眼底画像処理装置。
As the target region, at least a disc corresponding to the optic nerve head, a cup corresponding to the optic nerve depression, a region corresponding to a plurality of types of PPA that is a choroidal atrophy of the nipple,
The gray scale image conversion means, the closing processing means, the extraction range definition means, the target area identification image generation means, and the target area identification image correction means are executed for each target area, and at least a Disc area, a Cup area, The fundus image processing apparatus according to claim 1, wherein a plurality of types of correction target area identification images having a PPA area as the target area are created.
前記複数種類の修正対象領域識別画像に対して、各対象領域の属性をもつ画素に前記複数種類別に異なる色で着色し、眼球の解剖学・組織学的に矛盾しないように予め定められた前記複数種類の対応する領域の置換優先順位に基づき、各々の修正対象領域識別画像に対して異なる種類の他の修正対象領域識別画像の対象領域の画素に対応する画素を前記異なる種類の他の修正対象領域識別画像の対象領域の画素の色で置換することにより、前記複数種類の修正対象領域識別画像を合成した合成対象領域識別画像を作成する識別画像合成手段を更に備えることを特徴とする請求項3に記載の眼底画像処理装置。   For the plurality of types of correction target region identification images, the pixels having the attributes of each target region are colored with different colors for each of the plurality of types, and are determined in advance so as not to contradict the anatomy / histology of the eyeball Based on the replacement priority order of a plurality of types of corresponding regions, the pixels corresponding to the pixels of the target region of different types of other correction target region identification images for each correction target region identification image are changed to the other types of other corrections. The apparatus further comprises identification image synthesis means for creating a synthesis target area identification image obtained by synthesizing the plurality of types of correction target area identification images by replacing with a pixel color of the target area of the target area identification image. Item 4. A fundus image processing apparatus according to Item 3. 前記対象領域として、少なくとも視神経乳頭部であるDisc、視神経陥凹であるCup、乳頭周囲網脈絡膜萎縮であるPPAの3種類に対応する領域を設定し、第1の修正対象領域識別画像は前記Disc領域に対応したものであり、第2の修正対象領域識別画像は前記Cup領域に対応したものであり、第3の修正対象領域識別画像は前記PPA領域に対応したものである場合、
前記識別画像合成手段は、
前記第1の修正対象領域識別画像に対して第2の修正対象領域識別画像の対象領域の画素に対応する画素を第2の修正対象領域識別画像の対象領域の画素の色で置換する時、前記第1の修正対象領域識別画像の対応する画素が非対象領域の画素の場合は置換しないようにし、
前記第1の修正対象領域識別画像に対して第3の修正対象領域識別画像の対象領域の画素に対応する画素を第3の修正対象領域識別画像の対象領域の画素の色で置換する時、前記第1の修正対象領域識別画像の対応する画素が対象領域の画素の場合は置換しないようにしていることを特徴とする請求項4に記載の眼底画像処理装置。
As the target area, at least three areas corresponding to Disc that is the optic nerve head, Cup that is the optic nerve depression, and PPA that is the peripapillary choroidal atrophy are set, and the first correction target area identification image is the Disc. When the second correction target area identification image corresponds to the Cup area, and the third correction target area identification image corresponds to the PPA area,
The identification image synthesis means includes
When replacing the pixel corresponding to the pixel of the target area of the second correction target area identification image with the color of the pixel of the target area of the second correction target area identification image with respect to the first correction target area identification image, If the corresponding pixel of the first correction target region identification image is a non-target region pixel, do not replace it,
When replacing the pixel corresponding to the pixel of the target area of the third correction target area identification image with the color of the pixel of the target area of the third correction target area identification image with respect to the first correction target area identification image, The fundus image processing apparatus according to claim 4, wherein when the corresponding pixel of the first correction target region identification image is a pixel of the target region, the fundus image processing device is not replaced.
前記合成対象領域識別画像に対して、前記3種類の色で着色された画素数を色別にカウントし、第2の色に対応する画素数を第1の色に対応する画素数で除算した第1の比率と、第3の色に対応する画素数を第1の色に対応する画素数で除算した第2の比率を算出する面積比率算出手段を更に備えることを特徴とする請求項5に記載の眼底画像処理装置。   The number of pixels colored with the three kinds of colors is counted by color for the composition target region identification image, and the number of pixels corresponding to the second color is divided by the number of pixels corresponding to the first color. 6. The apparatus according to claim 5, further comprising an area ratio calculating means for calculating a ratio of 1 and a second ratio obtained by dividing the number of pixels corresponding to the third color by the number of pixels corresponding to the first color. The fundus image processing apparatus described. 前記対象領域が、視神経乳頭部であるDisc、視神経陥凹であるCup、乳頭周囲網脈絡膜萎縮であるPPAの3種類に対応する領域である場合、
前記グレースケール画像変換手段は、前記対象領域がDisc領域の場合、前記カラー眼底画像のR成分を前記グレースケール画像とし、前記対象領域がCup領域の場合、前記カラー眼底画像のG成分を前記グレースケール画像とし、前記対象領域がPPA領域の場合、前記カラー眼底画像のR成分からB成分を減じた値に対して最大値より減算させた値を反映させた画像を前記グレースケール画像に設定するようにしていることを特徴とする請求項1から請求項6のいずれか一項に記載の眼底画像処理装置。
When the target area is an area corresponding to three types of disc, which is the optic nerve head, Cup which is the optic nerve depression, and PPA which is the periapapillary choroidal atrophy,
The gray scale image conversion means uses the R component of the color fundus image as the gray scale image when the target region is a Disc region, and converts the G component of the color fundus image as the gray region when the target region is a Cup region. When a scale image is used and the target area is a PPA area, an image reflecting a value obtained by subtracting the maximum value from the value obtained by subtracting the B component from the R component of the color fundus image is set as the gray scale image. The fundus image processing apparatus according to any one of claims 1 to 6, wherein the fundus image processing apparatus is configured as described above.
前記抽出範囲定義手段は、前記対象領域に含まれる全ての画素を含む画素値の上限値を更に定義するようにし、
前記対象領域識別画像生成手段は、前記下限値から前記上限値の範囲の画素値をもつ画素に対して前記対象領域、当該対象領域以外である非対象領域が視覚的に識別可能な対象領域識別画像を生成することを特徴とする請求項1から請求項7のいずれか一項に記載の眼底画像処理装置。
The extraction range defining means further defines an upper limit value of pixel values including all pixels included in the target region;
The target area identification image generating means is a target area identification that allows visually identifying a target area and a non-target area other than the target area with respect to a pixel having a pixel value in a range from the lower limit value to the upper limit value. The fundus image processing apparatus according to any one of claims 1 to 7, wherein an image is generated.
前記対象領域識別画像生成手段は、
前記平滑化グレースケール画像の各画素に対して、当該画素の画素値が前記下限値以上の範囲に含まれる場合、当該画素の画素値と前記下限値との差分に所定の1以上の係数βを乗じて所定のオフセット値を加えた値をRGBいずれかの色成分として設定し、それ以外の色成分に対しては、当該画素の前記グレースケール画像における画素値に所定の1未満の係数γを乗じた値を設定することにより対象領域の色として設定し、当該画素の画素値が前記下限値未満の場合、当該画素の前記グレースケール画像における画素値をRGB全ての色成分として設定することにより非対象領域の色として設定し、前記対象領域識別画像を生成するようにしていることを特徴とする請求項1から請求項8のいずれか一項に記載の眼底画像処理装置。
The target area identification image generating means
For each pixel of the smoothed grayscale image, when the pixel value of the pixel is included in the range equal to or higher than the lower limit value, a difference between the pixel value of the pixel and the lower limit value is a predetermined one or more coefficient β A value obtained by multiplying by a predetermined offset value is set as one of RGB color components, and for the other color components, the pixel value of the pixel in the grayscale image is less than a predetermined coefficient γ Is set as the color of the target area by setting a value multiplied by, and when the pixel value of the pixel is less than the lower limit value, the pixel value in the grayscale image of the pixel is set as all RGB color components The fundus image processing apparatus according to claim 1, wherein the fundus image processing apparatus is configured to generate the target area identification image by setting the color of the non-target area by using the method.
前記対象領域識別画像生成手段は、
前記平滑化グレースケール画像の各画素に対して、当該画素の画素値が前記下限値から前記上限値の範囲に含まれる場合、当該画素の画素値と前記下限値との差分に所定の1以上の係数βを乗じて所定のオフセット値を加えた値をRGBいずれかの色成分に設定し、それ以外の色成分に対しては、当該画素の前記グレースケール画像における画素値に所定の1未満の係数γを乗じた値を設定することにより対象領域の色として設定し、当該画素の画素値が前記下限値未満または前記上限値を超える場合、当該画素の前記グレースケール画像における画素値をRGB全ての色成分として設定することにより非対象領域の色として設定し、前記対象領域識別画像を生成するようにしていることを特徴とする請求項8に記載の眼底画像処理装置。
The target area identification image generating means
For each pixel of the smoothed grayscale image, when the pixel value of the pixel falls within the range from the lower limit value to the upper limit value, the difference between the pixel value of the pixel and the lower limit value is a predetermined one or more A value obtained by multiplying the coefficient β by a predetermined offset value is set as one of the RGB color components, and for the other color components, the pixel value of the pixel in the grayscale image is less than the predetermined 1 If the pixel value of the pixel is less than the lower limit value or exceeds the upper limit value, the pixel value of the pixel in the grayscale image is set to RGB. The fundus image processing apparatus according to claim 8, wherein the fundus image processing apparatus is configured to generate the target area identification image by setting the color of the non-target area by setting all the color components.
前記対象領域識別画像修正手段は、
前記対象領域識別画像に対して、前記指示された領域内で対象領域が設定された画素に対して、当該画素のRGBいずれかの色成分の最小の値を前記係数γで除算した値をRGB全ての色成分になるように修正することにより当該画素を非対象領域の値に修正するようにしていることを特徴とする請求項9または請求項10に記載の眼底画像処理装置。
The target area identification image correction means includes
For the target area identification image, for a pixel in which the target area is set in the designated area, a value obtained by dividing the minimum value of any color component of RGB of the pixel by the coefficient γ is RGB The fundus image processing apparatus according to claim 9 or 10, wherein the pixel is corrected to a value of a non-target region by correcting to be all color components.
前記対象領域識別画像修正手段は、
前記修正対象領域識別画像を画面上に表示して修正対象の領域を指示し、指示された領域内の前記対象領域に含まれる画素に対して、非対象領域の値に更に修正し、前記修正対象領域識別画像を更新するようにしていることを特徴とする請求項1から請求項11のいずれか一項に記載の眼底画像処理装置。
The target area identification image correction means includes
The correction target area identification image is displayed on the screen to indicate the correction target area, and the pixels included in the target area in the specified area are further corrected to the value of the non-target area, and the correction The fundus image processing apparatus according to any one of claims 1 to 11, wherein the target area identification image is updated.
前記対象領域識別画像修正手段は、
指示された領域に対して所定の画素数の複数の画素ブロックに分割し、前記分割された各画素ブロック内の各画素の画素値を機械学習手段に入力し、前記非対象領域の属性を教師データとして前記機械学習手段に入力し、前記機械学習手段に対して学習処理を行うようにしていることを特徴とする請求項1から請求項12のいずれか一項に記載の眼底画像処理装置。
The target area identification image correction means includes
The designated area is divided into a plurality of pixel blocks having a predetermined number of pixels, the pixel values of the pixels in the divided pixel blocks are input to machine learning means, and the attribute of the non-target area is instructed. The fundus image processing apparatus according to any one of claims 1 to 12, wherein the fundus image processing apparatus inputs data as data to the machine learning means and performs learning processing on the machine learning means.
前記対象領域識別画像修正手段は、
前記対象領域識別画像または修正対象領域識別画像に対して、前記所定の画素数の複数の画素ブロックに分割し、前記分割された各画素ブロック内の各画素の画素値を前記機械学習手段に入力し、前記画素ブロック内の当該画素に付与されている属性を、前記機械学習手段より出力される属性に修正することにより、前記修正対象領域識別画像を作成または更新することを特徴とする請求項13に記載の眼底画像処理装置。
The target area identification image correction means includes
The target area identification image or the correction target area identification image is divided into a plurality of pixel blocks having the predetermined number of pixels, and pixel values of the pixels in the divided pixel blocks are input to the machine learning unit. The correction target region identification image is created or updated by correcting an attribute given to the pixel in the pixel block to an attribute output from the machine learning means. The fundus image processing apparatus according to 13.
前記機械学習手段は、
入力層に、前記画素ブロックの各画素のRGBいずれか2つの色成分からなり、当該画素が対象領域に含まれる場合、2つの色成分が異なるように選定された2種類の画素値に対応して、前記所定の画素数の2倍の個数のノードを備え、
出力層に、対象領域の属性、非対象領域の属性からなる2種類の属性に対応して2個のノードを備え、
所定の個数のノードを備えた中間層を少なくとも1つ以上もつ多層ニューラルネットワークで構成されることを特徴とする請求項13または請求項14に記載の眼底画像処理装置。
The machine learning means includes
When the input layer is composed of any two color components of RGB of each pixel of the pixel block, and the pixel is included in the target region, it corresponds to two types of pixel values selected so that the two color components are different. And having twice as many nodes as the predetermined number of pixels,
The output layer is provided with two nodes corresponding to two types of attributes consisting of attributes of the target area and attributes of the non-target area,
15. The fundus image processing apparatus according to claim 13, wherein the fundus image processing apparatus is configured by a multi-layer neural network having at least one intermediate layer having a predetermined number of nodes.
前記グレースケール画像変換手段と、前記クロージング処理手段と、前記抽出範囲定義手段と、前記対象領域識別画像生成手段と、前記対象領域識別画像修正手段を実現する第1のコンピュータと、前記機械学習手段を有する第2のコンピュータが、ネットワークを介して、接続されていることを特徴とする請求項13から請求項15のいずれか一項に記載の眼底画像処理装置。   A first computer for realizing the gray scale image converting means, the closing processing means, the extraction range defining means, the target area identification image generating means, and the target area identification image correcting means; and the machine learning means. The fundus image processing apparatus according to any one of claims 13 to 15, wherein the second computer including the second computer is connected via a network. コンピュータが、カラー眼底画像から緑内障の診断箇所となる対象領域を識別する画像を作成する方法であって、
カラー眼底画像に対して、緑内障の診断箇所となる対象領域の画素が高い画素値の範囲に含まれるように設定されたグレースケール画像に変換する段階と、
前記グレースケール画像に対して、所定のサイズの円形構造要素に基づいてクロージング処理を行い平滑化グレースケール画像を作成する段階と、
前記平滑化グレースケール画像の中で少なくとも前記対象領域に含まれる全ての画素を含む画素値の下限値を定義する段階と、
前記平滑化グレースケール画像の各画素に対して、前記下限値以上の画素値をもつ画素に対して前記対象領域、当該対象領域以外である非対象領域が視覚的に識別可能な対象領域識別画像を生成する段階と、
前記対象領域識別画像に対して指示された領域に基づいて、前記指示された領域内の前記対象領域として識別される画素の値を、非対象領域として識別される値に修正して修正対象領域識別画像を作成する段階と、
を有することを特徴とする画像の作成方法。
A method in which a computer creates an image that identifies a target region that is a diagnostic site for glaucoma from a color fundus image,
Converting the color fundus image into a grayscale image that is set so that the pixel of the target region that is a glaucoma diagnosis location is included in the range of high pixel values;
The grayscale image is subjected to a closing process based on a circular structuring element of a predetermined size to create a smoothed grayscale image;
Defining a lower limit value of a pixel value including at least all pixels included in the target region in the smoothed grayscale image;
For each pixel of the smoothed grayscale image, a target region identification image that can visually identify the target region and a non-target region other than the target region with respect to a pixel having a pixel value equal to or greater than the lower limit value. Generating
Based on the area designated for the target area identification image, the value of the pixel identified as the target area in the designated area is corrected to a value identified as a non-target area, and the correction target area Creating an identification image;
A method of creating an image characterized by comprising:
コンピュータを、請求項1から請求項16のいずれか一項に記載の眼底画像処理装置として機能させるためのプログラム。   A program for causing a computer to function as the fundus image processing apparatus according to any one of claims 1 to 16.
JP2017107304A 2017-05-31 2017-05-31 Fundus image processing device Pending JP2018201629A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017107304A JP2018201629A (en) 2017-05-31 2017-05-31 Fundus image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017107304A JP2018201629A (en) 2017-05-31 2017-05-31 Fundus image processing device

Publications (1)

Publication Number Publication Date
JP2018201629A true JP2018201629A (en) 2018-12-27

Family

ID=64954298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017107304A Pending JP2018201629A (en) 2017-05-31 2017-05-31 Fundus image processing device

Country Status (1)

Country Link
JP (1) JP2018201629A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020137678A1 (en) * 2018-12-27 2020-07-02 キヤノン株式会社 Image processing device, image processing method, and program
KR20210086065A (en) * 2019-12-31 2021-07-08 동아대학교 산학협력단 The method for diabetic retinopathy diagnosis using image processing algorithm
CN113283318A (en) * 2021-05-13 2021-08-20 Oppo广东移动通信有限公司 Image processing method, image processing device, electronic equipment and storage medium
KR20230080955A (en) * 2021-11-30 2023-06-07 동서대학교 산학협력단 Diabetic retinopathy diagnosis device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020137678A1 (en) * 2018-12-27 2020-07-02 キヤノン株式会社 Image processing device, image processing method, and program
KR20210086065A (en) * 2019-12-31 2021-07-08 동아대학교 산학협력단 The method for diabetic retinopathy diagnosis using image processing algorithm
KR102363603B1 (en) * 2019-12-31 2022-02-16 동아대학교 산학협력단 Diabetic retinopathy diagnosis device using image processing algorithm
CN113283318A (en) * 2021-05-13 2021-08-20 Oppo广东移动通信有限公司 Image processing method, image processing device, electronic equipment and storage medium
CN113283318B (en) * 2021-05-13 2024-07-16 Oppo广东移动通信有限公司 Image processing method, device, electronic equipment and storage medium
KR20230080955A (en) * 2021-11-30 2023-06-07 동서대학교 산학협력단 Diabetic retinopathy diagnosis device
KR102694044B1 (en) * 2021-11-30 2024-08-08 동서대학교 산학협력단 Diabetic retinopathy diagnosis device

Similar Documents

Publication Publication Date Title
JP2018171177A (en) Fundus image processing device
CN111815574B (en) Fundus retina blood vessel image segmentation method based on rough set neural network
US20210390696A1 (en) Medical image processing apparatus, medical image processing method and computer-readable storage medium
JP3810776B2 (en) A method for detecting and correcting red eyes in digital images.
Sinthanayothin Image analysis for automatic diagnosis of diabetic retinopathy
CN109816666B (en) Symmetrical full convolution neural network model construction method, fundus image blood vessel segmentation device, computer equipment and storage medium
WO2020022027A1 (en) Learning device and learning method
CN108021916A (en) Deep learning diabetic retinopathy sorting technique based on notice mechanism
JP2018201629A (en) Fundus image processing device
CN106920227A (en) Based on the Segmentation Method of Retinal Blood Vessels that deep learning is combined with conventional method
CN108564578A (en) Pathological diagnosis householder method, apparatus and system
JP2019192215A (en) 3d quantitative analysis of retinal layers with deep learning
CN112884729A (en) Auxiliary diagnosis method and device for fundus diseases based on bimodal deep learning
JP2013103023A (en) Image diagnostic support device and image diagnostic support method
JP2018114031A (en) Fundus image processing device
JP2018163444A (en) Information processing apparatus, information processing method and program
JP2018102586A (en) Fundus image processing device
JP2023003763A (en) Learning apparatus, image processing apparatus, learning processing method, and program
JP6090505B1 (en) Fundus image analysis system and its program
CN112288697A (en) Method and device for quantifying degree of abnormality, electronic equipment and readable storage medium
JP5954846B2 (en) Shape data generation program, shape data generation method, and shape data generation apparatus
JP6737491B1 (en) Diagnostic device, diagnostic system and program using AI
González-López et al. A web-based framework for anatomical assessment of the retina using OCT
JP6481432B2 (en) Fundus image processing device
Sheikh Diabetic reinopathy classification using deep learning