[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2016168134A - Fundus image processing device - Google Patents

Fundus image processing device Download PDF

Info

Publication number
JP2016168134A
JP2016168134A JP2015048873A JP2015048873A JP2016168134A JP 2016168134 A JP2016168134 A JP 2016168134A JP 2015048873 A JP2015048873 A JP 2015048873A JP 2015048873 A JP2015048873 A JP 2015048873A JP 2016168134 A JP2016168134 A JP 2016168134A
Authority
JP
Japan
Prior art keywords
image
blood vessel
fundus
pixels
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015048873A
Other languages
Japanese (ja)
Other versions
JP6481432B2 (en
Inventor
茂出木 敏雄
Toshio Modegi
敏雄 茂出木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2015048873A priority Critical patent/JP6481432B2/en
Publication of JP2016168134A publication Critical patent/JP2016168134A/en
Application granted granted Critical
Publication of JP6481432B2 publication Critical patent/JP6481432B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a fundus image processing device capable of performing accurate matching processing of a fundus image.SOLUTION: A fundus image processing device includes: blood vessel highlighting image conversion means 30 for highlighting a blood vessel candidate area after converting each of a plurality of fundus images to a gray scale format, and creating blood vessel highlighting images; blood vessel highlighting image matching means 40 for setting one of a plurality of the blood vessel highlighting images to a reference blood vessel highlighting image, setting each of the blood vessel highlighting images other than the reference blood vessel highlighting image to a calibration blood vessel highlighting image, and performing calibration to match a magnification ratio, an angle, and a position of each calibration blood vessel highlighting image with those of the reference blood vessel highlighting image; and matching index calculation means 50 for calculating a matching index between each of the calibration blood vessel highlighting images after the calibration by the blood vessel highlighting image matching means, and the reference blood vessel highlighting image.SELECTED DRAWING: Figure 2

Description

本発明は、眼底画像の処理技術に関し、特に、過去に撮影された複数の眼底画像の整合性を得るための技術に関する。   The present invention relates to a fundus image processing technique, and more particularly to a technique for obtaining consistency of a plurality of fundus images taken in the past.

眼科疾患でポピュラーな近視の中に、眼球後極の組織が変性して眼軸が伸び、強度な近視の症状を呈し、場合により失明に至る重篤な疾患「強度近視」が知られている。本疾患は20年以上の長期に渡るタイムスパンで病態が徐々に進行するため、長期経過の観察が重要である。しかし、眼科分野で20年以上前に撮影された医用画像としては眼底写真しかなく、仮に眼底写真が残っていたとしても、現在のようなデジタル方式の眼底カメラではなく、フィルムやポラロイド(登録商標)写真などのアナログ記録媒体であるため、撮影条件が全く異なり、比較照合が困難であった。   Popular myopia in ophthalmological diseases is known as severe myopia, a severe illness that causes posterior polar tissue degeneration, eye axis elongation, strong myopia, and sometimes blindness. . Since this disease gradually progresses over a long time span of 20 years or more, it is important to observe a long-term course. However, medical images taken in the ophthalmology field more than 20 years ago include only fundus photographs. Even if fundus photographs remain, they are not digital digital fundus cameras, but films and polaroids (registered trademarks). ) Since the recording medium is an analog recording medium such as a photograph, the photographing conditions are completely different, and comparison and matching are difficult.

これに対して、同一患者で撮影年代が数10年程度の開きがある複数の眼底画像どうしを整合させ、各種眼底部位の寸法比較等を可能にする技術が開発されている(特許文献1参照)。整合するにあたっては、種々の眼科疾患を患っても、ヒトの網膜の主要血管の走行形態は一生涯変化しないという前提のもと、視神経乳頭(以下、単に「乳頭」という)の中心と血管を基準に倍率・角度・位置の補正を行っている。しかし、照合対象の2種の眼底画像に対してグレースケール変換して擬似カラーでオーバーレイ画像を画面上で観察しながら、倍率・角度・位置を調整する方法をとっていたため、眼底画像によっては、整合作業には困難を伴うことがあった。特に出血を伴う眼底写真では、たとえコントラスト補正を加えても、血管が不鮮明で、血管を基準に整合させることが難しい場合があった。   On the other hand, a technique has been developed that enables alignment of a plurality of fundus images having an opening of about several tens of years in the same patient and enables comparison of dimensions of various fundus sites (see Patent Document 1). ). For alignment, the center of the optic nerve head (hereinafter simply referred to as “papillae”) and blood vessels are assumed on the premise that the running form of the main blood vessels of the human retina will not change throughout life even if various ophthalmic diseases occur. The magnification, angle, and position are corrected based on the standard. However, since the method of adjusting the magnification, angle, and position while observing the overlay image in a pseudo color on the screen by performing gray scale conversion on the two types of fundus images to be collated, depending on the fundus image, Alignment work can be difficult. Especially in fundus photographs with bleeding, even if contrast correction is applied, the blood vessels are unclear and it may be difficult to align the blood vessels with the reference.

また、強度近視疾患など眼球形状の3次元的な変形に伴い、一部の血管走行が変化したり、病気の進行に伴い新生血管が出現したりすることもあり、血管走行の適合性を評価するにあたり、擬似カラーのオーバーレイ画像では、見た目の定性的な評価しか行えず、定量解析が困難であった。   In addition, with the three-dimensional deformation of the eyeball shape such as severe myopia, some blood vessels may change, or new blood vessels may appear as the disease progresses. In this case, the pseudo-color overlay image can only be qualitatively evaluated, and quantitative analysis is difficult.

眼底血管の走行変化を正確に解析する方法として、患者に蛍光剤を投与し赤外線で血管を蛍光させて血管像を描出し、血管像で比較する手法が考えられる(特許文献2参照)。しかし、新規撮影単独で解析する場合であればともかく、過去にこのような方法で撮影された眼底画像が基本的に存在しないため、本願が目的とする過去画像との比較照合には、用いることができない。  As a method for accurately analyzing changes in fundus blood vessels, a method is conceivable in which a fluorescent agent is administered to a patient, blood vessels are fluorescent with infrared rays, blood vessel images are drawn, and blood vessel images are compared (see Patent Document 2). However, in the case of analyzing a new image alone, there is basically no fundus image captured in this way in the past. I can't.

特開2013−85583号公報JP 2013-85583 A 特開2001−137192号公報JP 2001-137192 A

そこで、本発明は、精度の高い眼底画像の整合処理を行い、整合処理後の整合度合いを定量的に提示することが可能な眼底画像処理装置を提供することを課題とする。   Therefore, an object of the present invention is to provide a fundus image processing apparatus capable of performing a highly accurate fundus image alignment process and quantitatively presenting the degree of alignment after the alignment process.

上記課題を解決するため、本発明第1の態様では、
複数の眼底画像の各々を、グレースケール形式に変換した後、血管候補領域を強調し、血管強調画像を作成する血管強調画像変換手段と、
前記複数の血管強調画像の中で1つを基準血管強調画像に設定し、前記基準血管強調画像以外の血管強調画像の各々を補正血管強調画像に設定し、各補正血管強調画像について、前記基準血管強調画像と倍率、角度および位置を整合させる補正を行う血管強調画像整合手段と、
前記血管強調画像整合手段による補正後の各補正血管強調画像と、前記基準血管強調画像との整合性指標を算出する整合性指標算出手段と、
を有することを特徴とする眼底画像処理装置を提供する。
In order to solve the above problems, in the first aspect of the present invention,
A blood vessel-enhanced image conversion means for emphasizing a blood vessel candidate region and creating a blood vessel-enhanced image after converting each of a plurality of fundus images into a grayscale format;
One of the plurality of blood vessel emphasized images is set as a reference blood vessel emphasized image, and each of the blood vessel emphasized images other than the reference blood vessel emphasized image is set as a corrected blood vessel emphasized image. A blood vessel-enhanced image matching means for performing correction for matching the blood vessel-enhanced image with the magnification, angle and position;
Consistency index calculation means for calculating a consistency index between each corrected blood vessel emphasized image after correction by the blood vessel emphasized image matching means and the reference blood vessel emphasized image;
There is provided a fundus image processing apparatus characterized by comprising:

本発明第1の態様によれば、複数の眼底画像の各々を、グレースケール形式に変換し、血管候補領域を強調して血管強調画像を作成し、複数の血管強調画の中で1つを基準血管強調画像に設定し、基準血管強調画像以外の血管強調画像の各々を補正血管強調画像に設定し、各補正血管強調画像について、前記基準血管強調画像と倍率、角度および位置を整合させる補正を行い、補正後の各補正血管強調画像と、基準血管強調画像との整合性指標を算出するようにしたので、精度の高い整合処理を行うことが可能となる。整合処理後、撮影時期の異なる複数の画像を比較することにより、血管走行変化の定量解析を実現することができる。   According to the first aspect of the present invention, each of a plurality of fundus images is converted to a gray scale format, a blood vessel candidate image is created by emphasizing a blood vessel candidate region, and one of the plurality of blood vessel emphasized images is selected. Correction is set to the reference blood vessel enhancement image, each of the blood vessel enhancement images other than the reference blood vessel enhancement image is set to the correction blood vessel enhancement image, and the correction, blood vessel enhancement image, magnification, angle, and position of each correction blood vessel enhancement image are matched. Thus, the consistency index between each corrected blood vessel emphasized image after correction and the reference blood vessel emphasized image is calculated, so that highly accurate matching processing can be performed. After matching processing, quantitative analysis of changes in blood vessel running can be realized by comparing a plurality of images with different imaging timings.

また、本発明第2の態様では、
複数の眼底画像のうち写真記録媒体で記録されている眼底画像をデジタル化する画像デジタル化手段と、
前記デジタル化された眼底画像に対して、眼底に対応する領域である眼底領域を抽出し、所定の画素数になるように縦横同一倍率で変倍処理を施し、眼底領域以外の画素を削除または付加しながら、画素数が統一された眼底画像に変換する眼底画像前処理手段と、をさらに有し、
前記画素数が統一された後の眼底画像に対して、前記血管強調画像変換手段が処理を行うことを特徴とする。
In the second aspect of the present invention,
Image digitizing means for digitizing a fundus image recorded on a photographic recording medium among a plurality of fundus images;
A fundus region corresponding to the fundus is extracted from the digitized fundus image and subjected to a scaling process at the same vertical and horizontal magnification so as to have a predetermined number of pixels, and pixels other than the fundus region are deleted or Fundus image pre-processing means for converting into a fundus image with a uniform number of pixels while adding,
The blood vessel emphasized image conversion means performs processing on the fundus image after the number of pixels is unified.

本発明第2の態様によれば、複数の眼底画像のうち写真記録媒体(ポジ/ネガフィルム、印画紙など、学会発表用の35mmスライドやポラロイド(登録商標)などのインスタントプリントの形態で保管されている場合が多い)で記録されている眼底画像をデジタル化し、デジタル化された眼底画像に対して、眼底に対応する領域である眼底領域を抽出し、所定の画素数になるように縦横同一倍率で変倍処理を施し、眼底領域以外の画素を削除または付加しながら、画素数が統一された眼底画像に変換するようにしたので、様々な形態の画像を、比較に適した最適な形態に統一することが可能となる。   According to the second aspect of the present invention, a photographic recording medium (positive / negative film, photographic paper, etc.) among a plurality of fundus images is stored in the form of an instant print such as a 35 mm slide for presentation at a conference or Polaroid (registered trademark). Digitized fundus images are extracted, and the fundus region corresponding to the fundus is extracted from the digitized fundus image, and the vertical and horizontal directions are the same so that the predetermined number of pixels is obtained. Since scaling processing is performed at a magnification, pixels other than the fundus area are deleted or added, and converted to a fundus image with a uniform number of pixels, so that various forms of images are optimally suited for comparison. It becomes possible to unify.

また、本発明第3の態様では、前記眼底画像前処理手段は、前記眼底領域内で、輝度が所定値より大きい領域である乳頭領域を認識し、前記乳頭領域が前記眼底領域内の上方または下方に位置する場合、前記眼底画像が左眼に対応する場合は左方に、前記眼底画像が右眼に対応する場合は右方に位置するように、前記眼底画像に対して所定の角度単位(例えば90度)で回転させるようにしていることを特徴とする。   In the third aspect of the present invention, the fundus image pre-processing unit recognizes a nipple region whose luminance is larger than a predetermined value in the fundus region, and the nipple region is located above the fundus region or A predetermined angle unit with respect to the fundus image so that the fundus image is positioned leftward when the fundus image corresponds to the left eye and is positioned rightward when the fundus image corresponds to the right eye. It is characterized by being rotated at (for example, 90 degrees).

本発明第3の態様によれば、前処理の際、眼底領域内で、輝度が所定値より大きい領域である乳頭領域を認識し、乳頭領域が眼底領域内の上方または下方に位置する場合、眼底画像が左眼に対応する場合は左方に、眼底画像が右眼に対応する場合は右方に位置するように、眼底画像に対して所定の角度単位(例えば90度)で回転させるようにしたので、撮影アングルやデジタル化のスキャン方向がまちまちであっても、眼底画像の方向をヒトの左右の眼球内を対面から観察した方向に揃えることができ、比較の際に大きな影響を与える乳頭を基準に、的確に画像の位置を整えることが可能となる。   According to the third aspect of the present invention, in the pre-processing, when recognizing a papilla region whose luminance is larger than a predetermined value in the fundus region and the papilla region is located above or below the fundus region, When the fundus image corresponds to the left eye, it is rotated to the left, and when the fundus image corresponds to the right eye, it is rotated by a predetermined angle unit (for example, 90 degrees) so as to be positioned to the right. Therefore, even if the shooting angle and digitization scan direction vary, the direction of the fundus image can be aligned to the direction observed from the opposite side of the human right and left eyeballs, which has a big impact on comparison The position of the image can be accurately adjusted based on the nipple.

また、本発明第4の態様では、前記眼底画像前処理手段は、前記眼底領域に外接する矩形領域の高さ方向の画素数Hが所定の画素数Syになるようにするとともに、前記矩形領域の幅方向の画素数Wに対してW×Sy/Hになるように変倍処理を施し、変倍処理後の前記矩形領域の幅W’が所定の画素数Sxに対して、W’<Sxの場合、前記矩形領域の幅がSxになるように、前記矩形領域の両端に背景画素を付加し、W’>Sxの場合、前記矩形領域の幅がSxになるように、前記矩形領域の両端より背景画素を削除するようにしていることを特徴とする。   In the fourth aspect of the present invention, the fundus image pre-processing unit makes the rectangular area circumscribing the fundus area have a predetermined number of pixels Sy in the height direction of the rectangular area. Is subjected to scaling processing so that W × Sy / H, and the width W ′ of the rectangular area after scaling processing is W ′ < In the case of Sx, background pixels are added to both ends of the rectangular area so that the width of the rectangular area is Sx, and in the case of W ′> Sx, the rectangular area is set so that the width of the rectangular area is Sx. The background pixels are deleted from both ends of the.

本発明第4の態様によれば、前処理の際、眼底領域に外接する矩形領域の高さ方向の画素数Hが所定の画素数Syになるようにするとともに、矩形領域の幅方向の画素数Wに対してW×Sy/Hになるように変倍処理を施し、変倍処理後の矩形領域の幅W’が所定の画素数Sxに対して、W’<Sxの場合、矩形領域の幅がSxになるように、矩形領域の両端に背景画素を付加し、W’>Sxの場合、矩形領域の幅がSxになるように、矩形領域の両端より背景画素を削除するようにしたので、前記補正血管強調画像について前記基準血管強調画像と主として倍率を整合させる補正を容易かつ高精度にすることが可能となる。   According to the fourth aspect of the present invention, during the preprocessing, the number of pixels H in the height direction of the rectangular region circumscribing the fundus region is set to the predetermined number of pixels Sy, and the pixels in the width direction of the rectangular region If the magnification W is applied to the number W so that W × Sy / H, and the width W ′ of the rectangular area after the magnification processing is W ′ <Sx with respect to the predetermined number of pixels Sx, the rectangular area A background pixel is added to both ends of the rectangular area so that the width of the rectangular area becomes Sx. When W ′> Sx, background pixels are deleted from both ends of the rectangular area so that the width of the rectangular area becomes Sx. Therefore, it is possible to easily and highly accurately correct the corrected blood vessel emphasized image so that the magnification is mainly matched with the reference blood vessel emphasized image.

また、本発明第5の態様では、前記血管強調画像変換手段は、
カラー形式の眼底画像に対し、各色成分に所定の演算を施し、第1の色成分が大きい程、画素値が小さくなるように変換してグレースケール形式に変換するグレースケール変換手段と、
前記グレースケール形式の変換された眼底画像に対して、所定の構造要素を用いてオープニング処理を行い血管候補領域の輝度を一定以上に揃えた線状成分強調画像を作成する線状成分強調手段と、
前記線状成分強調画像において、所定の条件を満たす画素値を、変換後の血管強調画像の階調の最小値付近になるように置き換え、前記所定の条件を満たす画素値以上となる前記線状成分強調画像の画素値が、階調の最小値付近の値から最大値の範囲になるように画素の階調を補正し、血管強調画像を作成する画素階調変換手段と、
を有することを特徴とする。
In the fifth aspect of the present invention, the blood vessel emphasized image conversion means includes
A gray scale conversion unit that performs a predetermined calculation on each color component for a fundus image in a color format and converts the pixel value to be smaller as the first color component is larger and converts the pixel value to a gray scale format;
Linear component enhancement means for performing an opening process on the converted fundus image in the gray scale format using a predetermined structural element to create a linear component enhanced image in which the luminance of the blood vessel candidate region is equal to or higher than a certain level; ,
In the linear component emphasized image, the pixel value satisfying the predetermined condition is replaced so as to be near the minimum value of the gradation of the converted blood vessel emphasized image, and the linear value that is equal to or greater than the pixel value satisfying the predetermined condition Pixel gradation conversion means for correcting the gradation of the pixel so that the pixel value of the component-enhanced image is in the range from the value near the minimum value of the gradation to the maximum value, and creating a blood vessel-enhanced image;
It is characterized by having.

本発明第5の態様によれば、血管強調画像への変換の際、カラー形式の眼底画像に対し、各色成分に所定の演算を施し、第1の色成分が大きい程、画素値が小さくなるように変換してグレースケール形式に変換し、グレースケール形式の変換された眼底画像に対して、所定の構造要素を用いてオープニング処理を行い血管候補領域の輝度を一定以上に揃えた線状成分強調画像を作成し、線状成分強調画像において、所定の条件を満たす画素値を、変換後の血管強調画像の階調の最小値付近になるように置き換え、前記所定の条件を満たす画素値以上となる前記線状成分強調画像の画素値が、階調の最小値付近の値から最大値の範囲になるように画素の階調を補正し、血管強調画像を作成するようにしたので、血管領域が抽出された画像として血管強調画像が得られ、眼底画像から血管径などの血管微細形状を維持したまま血管領域を自動的に抽出することが可能となる。   According to the fifth aspect of the present invention, when the color image fundus image is converted into the blood vessel emphasized image, predetermined calculation is performed on each color component, and the larger the first color component, the smaller the pixel value. A linear component in which the luminance of the blood vessel candidate region is set to a certain level or more by performing an opening process on the converted fundus image in the gray scale format using a predetermined structural element. Create an emphasized image, replace the pixel value satisfying the predetermined condition in the linear component emphasized image so that it is close to the minimum value of the gradation of the converted blood vessel emphasized image, and more than the pixel value satisfying the predetermined condition Since the pixel gradation of the linear component enhanced image is corrected so that the pixel gradation is within the range from the value near the minimum gradation value to the maximum value, the blood vessel enhanced image is created. As an image with extracted regions Tube emphasized image is obtained, it is possible to automatically extract the vessel regions while maintaining the vessel fine shape such as a blood vessel diameter from the fundus image.

また、本発明第6の態様では、前記血管強調画像整合手段は、RGBの3つの色成分の中でいずれかの色成分を前記基準血管強調画像に割り当て、前記基準血管強調画像に割り当てた色成分と異なる色成分を前記補正血管強調画像に割り当て、各々の色成分で擬似的に着色された前記基準血管強調画像と前記補正血管強調画像を合成してカラー合成画像を作成することを特徴とする。   In the sixth aspect of the present invention, the blood vessel emphasized image matching unit assigns one of the three color components of RGB to the reference blood vessel emphasized image, and assigns the color assigned to the reference blood vessel emphasized image. A color component different from a component is assigned to the corrected blood vessel enhancement image, and the reference blood vessel enhancement image pseudo-colored with each color component and the correction blood vessel enhancement image are synthesized to create a color composite image. To do.

本発明第6の態様によれば、血管強調画像の整合の際、RGBの3つの色成分の中でいずれかの色成分を前記基準血管強調画像に割り当て、基準血管強調画像に割り当てた色成分と異なる色成分を補正血管強調画像に割り当て、各々の色成分で擬似的に着色された基準血管強調画像と補正血管強調画像を合成してカラー合成画像を作成するようにしたので、比較対象の両画像の血管候補領域を明確に区別しながら両者の整合性度合い表示することが可能となる。   According to the sixth aspect of the present invention, when matching the blood vessel emphasized image, any one of the three color components of RGB is assigned to the reference blood vessel emphasized image, and the color component assigned to the reference blood vessel emphasized image Different color components are assigned to the corrected blood vessel emphasizing image, and the reference blood vessel emphasizing image and the corrected blood vessel emphasizing image that are artificially colored with each color component are synthesized to create a color composite image. It is possible to display the degree of consistency between the images while clearly distinguishing the blood vessel candidate regions of both images.

また、本発明第7の態様では、前記整合性指標算出手段は、前記基準血管強調画像と前記補正血管強調画像において所定のしきい値を超える画素値をもつ画素の画素値の総和をC1、C2とし、前記基準血管強調画像と前記補正血管強調画像の双方において同一位置で前記しきい値を超える画素値をもつ画素の各々の画素値の相乗平均値の総和をC3とするとき、C1≦C2ならばC3/C1に比例する値を、C1>C2ならばC3/C2に比例する値を、整合性指標として算出することを特徴とする。   Further, in the seventh aspect of the present invention, the consistency index calculation means calculates a sum of pixel values of pixels having pixel values exceeding a predetermined threshold in the reference blood vessel emphasized image and the corrected blood vessel emphasized image as C1, When C2 is set and C3 is the sum of geometric mean values of the pixel values of the pixels having pixel values exceeding the threshold at the same position in both the reference blood vessel emphasized image and the corrected blood vessel emphasized image, C1 ≦ If C2, a value proportional to C3 / C1 is calculated as a consistency index, and if C1> C2, a value proportional to C3 / C2 is calculated as a consistency index.

本発明第7の態様によれば、整合性指標の算出の際、基準血管強調画像と補正血管強調画像において所定のしきい値を超える画素値をもつ画素の画素値の総和をC1、C2とし、基準血管強調画像と補正血管強調画像の双方において同一位置でしきい値を超える画素値をもつ画素の各々の画素値の相乗平均値の総和をC3とするとき、C1≦C2ならばC3/C1に比例する値を、C1>C2ならばC3/C2に比例する値を、整合性指標として算出することを特徴とするようにしたので、たとえ画素値総和が大きい方の血管強調画像において血管以外の領域の画素が過剰に抽出されていても整合性指標に影響を与えずに、定量的に精度の高い整合性指標を得ることが可能となる。   According to the seventh aspect of the present invention, when the consistency index is calculated, the sum of pixel values of pixels having pixel values exceeding a predetermined threshold in the reference blood vessel emphasized image and the corrected blood vessel emphasized image is set as C1 and C2. When the sum of the geometric mean values of the pixel values having the pixel values exceeding the threshold value at the same position in both the reference blood vessel emphasized image and the corrected blood vessel emphasized image is C3, if C1 ≦ C2, C3 / Since a value proportional to C1 is calculated as a consistency index, a value proportional to C3 / C2 if C1> C2 is calculated as a consistency index. Even if pixels in other regions are excessively extracted, it is possible to quantitatively obtain a highly accurate consistency index without affecting the consistency index.

また、本発明第8の態様では、前記整合性指標算出手段は、前記基準血管強調画像と前記補正血管強調画像において所定のしきい値を超える画素値をもつ画素の数をC1’、C2’とし、前記基準血管強調画像と前記補正血管強調画像の双方において同一位置で前記しきい値を超える画素値をもつ画素の数をC3’とするとき、C1’≦C2’ならばC3’ /C1’に比例する値を、C1’>C2’ならばC3’/C2’に比例する値を、整合性指標として算出することを特徴とする。   In the eighth aspect of the present invention, the consistency index calculating means calculates the number of pixels having pixel values exceeding a predetermined threshold in the reference blood vessel emphasized image and the corrected blood vessel emphasized image as C1 ′ and C2 ′. When the number of pixels having the pixel value exceeding the threshold at the same position in both the reference blood vessel enhanced image and the corrected blood vessel enhanced image is C3 ′, C3 ′ / C1 if C1 ′ ≦ C2 ′. A value proportional to 'is calculated as a consistency index if C1'> C2 ', and a value proportional to C3' / C2 'is calculated.

本発明第8の態様によれば、整合性指標の算出の際、基準血管強調画像と補正血管強調画像において所定のしきい値を超える画素値をもつ画素の数をC1’、C2’とし、基準血管強調画像と補正血管強調画像の双方において同一位置でしきい値を超える画素値をもつ画素の数をC3’とするとき、C1’≦C2’ならばC3’/C1’に比例する値を、C1’>C2’ならばC3’/C2’に比例する値を、整合性指標として算出するようにしたので、たとえ画素値総和が大きい方の血管強調画像において血管以外の領域の画素が過剰に抽出されていても整合性指標に影響を与えずに、定量的に精度の高い整合性指標を得ることが可能となる。   According to the eighth aspect of the present invention, when calculating the consistency index, the number of pixels having a pixel value exceeding a predetermined threshold in the reference blood vessel emphasized image and the corrected blood vessel emphasized image is C1 ′, C2 ′, A value proportional to C3 ′ / C1 ′ if C1 ′ ≦ C2 ′, where C3 ′ is the number of pixels having pixel values exceeding the threshold value at the same position in both the reference blood vessel enhanced image and the corrected blood vessel enhanced image. If C1 ′> C2 ′, a value proportional to C3 ′ / C2 ′ is calculated as the consistency index. Therefore, even if the pixel in the region other than the blood vessel is present in the blood vessel emphasized image having the larger pixel value sum, Even if it is extracted excessively, it is possible to obtain a consistent index with high accuracy quantitatively without affecting the consistency index.

また、本発明第9の態様では、前記整合性指標算出手段は、前記基準血管強調画像と前記補正血管強調画像において所定のしきい値を超える画素値をもつ画素の数をC1a、C2aとするとき、C1a≦C2aならば、前記基準血管強調画像において前記しきい値を超える画素値をもつC1a個の画素群と対応する前記補正血管強調画像におけるC1a個の画素群どうしの相関係数を整合性指標として算出し、C1a>C2aならば、前記補正血管強調画像において前記しきい値を超える画素値をもつC2a個の画素群と対応する前記基準血管強調画像におけるC2a個の画素群どうしの相関係数を整合性指標として算出することを特徴とする。   In the ninth aspect of the present invention, the consistency index calculating means sets C1a and C2a as the number of pixels having pixel values exceeding a predetermined threshold in the reference blood vessel emphasized image and the corrected blood vessel emphasized image. If C1a ≦ C2a, the correlation coefficient between the C1a pixel group in the corrected blood vessel enhancement image corresponding to the C1a pixel group having a pixel value exceeding the threshold in the reference blood vessel enhancement image is matched. If C1a> C2a is calculated as a sex index, the C2a pixel group having a pixel value exceeding the threshold value in the corrected blood vessel emphasized image and the C2a pixel group in the reference blood vessel emphasized image corresponding to each other The number of relationships is calculated as a consistency index.

本発明第9の態様によれば、前記基準血管強調画像と前記補正血管強調画像において所定のしきい値を超える画素値をもつ画素の数をC1a、C2aとするとき、C1a≦C2aならば、前記基準血管強調画像において前記しきい値を超える画素値をもつC1a個の画素群と対応する前記補正血管強調画像におけるC1a個の画素群どうしの相関係数を整合性指標として算出し、C1a>C2aならば、前記補正血管強調画像において前記しきい値を超える画素値をもつC2a個の画素群と対応する前記基準血管強調画像におけるC2a個の画素群どうしの相関係数を整合性指標として算出するようにしたので、たとえ画素値総和が大きい方の血管強調画像において血管以外の領域の画素が過剰に抽出されていても整合性指標に影響を与えずに、定量的に精度の高い整合性指標を得ることが可能となる。   According to the ninth aspect of the present invention, when C1a and C2a are the numbers of pixels having pixel values exceeding a predetermined threshold in the reference blood vessel emphasized image and the corrected blood vessel emphasized image, if C1a ≦ C2a, A correlation coefficient between C1a pixel groups having pixel values exceeding the threshold value in the reference blood vessel enhanced image and C1a pixel groups corresponding to the corrected blood vessel enhanced image is calculated as a consistency index, and C1a> In the case of C2a, the correlation coefficient between the C2a pixel group in the reference blood vessel emphasized image corresponding to the C2a pixel group having a pixel value exceeding the threshold in the corrected blood vessel emphasized image is calculated as a consistency index. As a result, even if pixels in regions other than blood vessels are extracted excessively in the blood vessel-enhanced image with the larger sum of pixel values, the consistency index is not affected. , It is possible to obtain high integrity indicator of quantitative accuracy.

本発明によれば、精度の高い眼底画像の整合処理を行うことが可能となる。   According to the present invention, it is possible to perform fundus image alignment processing with high accuracy.

本発明の一実施形態に係る眼底画像処理装置100のハードウェア構成図である。1 is a hardware configuration diagram of a fundus image processing apparatus 100 according to an embodiment of the present invention. 本発明の一実施形態に係る眼底画像処理装置の構成を示す機能ブロック図である。1 is a functional block diagram illustrating a configuration of a fundus image processing apparatus according to an embodiment of the present invention. 本発明の一実施形態に係る眼底画像処理装置の処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary of the fundus image processing apparatus according to an embodiment of the present invention. 前処理によるカラー眼底画像の変化の様子を示す図である。It is a figure which shows the mode of the change of the color fundus image by pre-processing. 基準血管強調画像と補正血管強調画像の整合処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the matching process of a reference blood vessel emphasis image and a correction blood vessel emphasis image. 整合処理による補正血管強調画像の変化の様子を示す図である。It is a figure which shows the mode of a change of the correction | amendment blood vessel emphasis image by a matching process. 基準血管強調画像と補正血管強調画像のオーバーレイ表示の一例を示す図である。It is a figure which shows an example of the overlay display of a reference blood vessel emphasis image and a correction blood vessel emphasis image. 血管強調画像変換手段30の詳細な構成を示す機能ブロック図である。3 is a functional block diagram showing a detailed configuration of a blood vessel emphasized image conversion means 30. FIG. 血管強調画像変換手段30の処理概要を示すフローチャートである。4 is a flowchart showing an outline of processing of a blood vessel emphasized image conversion means 30. ステップS700の線状成分強調処理の第1の手法の詳細を示すフローチャートである。It is a flowchart which shows the detail of the 1st method of the linear component emphasis process of step S700. ステップS710の円形構造要素によるオープニング処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the opening process by the circular structure element of step S710. 線状成分強調処理の第1の手法で用いる円形構造要素の一例を示す図である。It is a figure which shows an example of the circular structure element used with the 1st method of a linear component emphasis process. ステップS700の線状成分強調処理の第2の手法の詳細を示すフローチャートである。It is a flowchart which shows the detail of the 2nd method of the linear component emphasis process of step S700. ステップS750の線形構造要素によるオープニング処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the opening process by the linear structure element of step S750. 線状成分強調処理の第2の手法で用いる線形構造要素の一例を示す図である。It is a figure which shows an example of the linear structure element used with the 2nd method of linear component emphasis processing. 方向d=1の場合の線形構造要素の具体的な画素値を示す図である。It is a figure which shows the specific pixel value of the linear structure element in the case of direction d = 1. 方向d=2の場合の線形構造要素の具体的な画素値を示す図である。It is a figure which shows the specific pixel value of the linear structure element in the direction of d = 2. 第1の手法の線状成分強調を用いた画像変換事例を示す図である。It is a figure which shows the image conversion example using the linear component emphasis of the 1st method. 第2の手法の線状成分強調を用いた画像変換事例を示す図である。It is a figure which shows the image conversion example using the linear component emphasis of the 2nd method. 従来技術による整合処理前の例を示す図である。It is a figure which shows the example before the matching process by a prior art. 従来技術による整合処理後の例を示す図である。It is a figure which shows the example after the matching process by a prior art. 本発明による整合処理前の例を示す図である。It is a figure which shows the example before the alignment process by this invention. 本発明による整合処理後の例を示す図である。It is a figure which shows the example after the alignment process by this invention.

以下、本発明の好適な実施形態について図面を参照して詳細に説明する。
<1.装置構成>
図1は、本発明の一実施形態に係る眼底画像処理装置のハードウェア構成図である。本実施形態に係る眼底画像処理装置100は、汎用のコンピュータで実現することができ、図1に示すように、CPU(Central Processing Unit)1と、コンピュータのメインメモリであるRAM(Random Access Memory)2と、CPU1が実行するプログラムやデータを記憶するためのハードディスク、フラッシュメモリ等の大容量の記憶装置3と、キーボード、マウス等のキー入力I/F(インターフェース)4と、3Dプリンタやデータ記憶媒体等の外部装置とデータ通信するためのデータ入出力I/F(インターフェース)5と、液晶ディスプレイ等の表示デバイスである表示部6と、を備え、互いにバスを介して接続されている。
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the drawings.
<1. Device configuration>
FIG. 1 is a hardware configuration diagram of a fundus image processing apparatus according to an embodiment of the present invention. The fundus image processing apparatus 100 according to the present embodiment can be realized by a general-purpose computer. As shown in FIG. 1, a CPU (Central Processing Unit) 1 and a RAM (Random Access Memory) that is a main memory of the computer. 2, a large-capacity storage device 3 such as a hard disk or flash memory for storing programs and data executed by the CPU 1, a key input I / F (interface) 4 such as a keyboard and a mouse, a 3D printer and data storage A data input / output I / F (interface) 5 for data communication with an external device such as a medium and a display unit 6 which is a display device such as a liquid crystal display are provided and are connected to each other via a bus.

イメージスキャナ7は、汎用のイメージスキャナであり、フィルム、印画紙、インスタント写真等から記録された画像を読み取り、デジタルの画像データとして取得するデジタル化装置である。イメージスキャナ7は、データ入出力I/F5に接続されており、イメージスキャナ7が出力する画像データを、データ入出力I/F5から入力するようになっている。イメージスキャナ7としては、フラットベッド型、35mmスライド専用、その他放射線診断用フィルムに特化した形態のもの等様々な形態のものを用いることができる。   The image scanner 7 is a general-purpose image scanner, and is a digitizing device that reads an image recorded from a film, a photographic paper, an instant photograph, or the like and acquires it as digital image data. The image scanner 7 is connected to the data input / output I / F 5, and the image data output from the image scanner 7 is input from the data input / output I / F 5. As the image scanner 7, various types such as a flat bed type, a 35 mm slide only, and other types specialized for radiation diagnostic films can be used.

図2は、本実施形態に係る眼底画像処理装置の構成を示す機能ブロック図である。図2において、10は画像デジタル化手段、20は眼底画像前処理手段、30は血管強調画像変換手段、40は血管強調画像整合手段、50は整合性指標算出手段である。   FIG. 2 is a functional block diagram illustrating a configuration of the fundus image processing apparatus according to the present embodiment. In FIG. 2, 10 is an image digitizing means, 20 is a fundus image preprocessing means, 30 is a blood vessel emphasized image converting means, 40 is a blood vessel emphasized image matching means, and 50 is a consistency index calculating means.

画像デジタル化手段10は、複数の眼底画像の中でフィルム等の写真記録媒体で記録されている眼底画像をデジタル化し、カラーのデジタル画像データを作成する処理を行う。眼底画像前処理手段20は、デジタル化された眼底画像に対して、眼底に対応する領域である眼底領域を含む範囲を抽出し、所定の画素数になるように縦横同一倍率で変倍処理を施し、眼底領域以外の画素を削除または付加しながら、画素数が統一された眼底画像に変換する処理を行う。血管強調画像変換手段30は、変換された複数の眼底画像データの各々を、グレースケール形式に変換した後、血管候補領域を強調し、血管強調画像を作成する処理を行う。血管強調画像整合手段40は、同一患者に対して異なる時期に撮影された複数の血管強調画像の中で1つを基準血管強調画像に設定し、基準血管強調画像以外の血管強調画像の各々を補正血管強調画像に設定し、各補正血管強調画像について、前記基準血管強調画像と倍率、角度および位置を整合させる補正を行う。この時、基準血管強調画像として、通常は最近にデジタルカメラで撮影された眼底画像に基づく血管強調画像を設定する。理由は過去に撮影された画像は撮影条件が不明なものが多く、特にアナログカメラで撮影された場合は、縦横スケールが等倍とは限らないためである。整合性指標算出手段50は、血管強調画像整合手段40による補正後の各補正血管強調画像と、前記基準血管強調画像との整合性指標を算出する処理を行う。   The image digitizing means 10 performs a process of digitizing a fundus image recorded on a photographic recording medium such as a film among a plurality of fundus images and creating color digital image data. The fundus image pre-processing means 20 extracts a range including the fundus area corresponding to the fundus from the digitized fundus image, and performs scaling processing at the same vertical and horizontal magnifications so as to obtain a predetermined number of pixels. Then, a process of converting to a fundus image with a uniform number of pixels is performed while deleting or adding pixels other than the fundus region. The blood vessel emphasized image conversion means 30 performs processing for emphasizing a blood vessel candidate region and creating a blood vessel emphasized image after converting each of the converted plurality of fundus image data into a gray scale format. The blood vessel emphasized image matching unit 40 sets one of a plurality of blood vessel emphasized images taken for the same patient at different times as a reference blood vessel emphasized image, and sets each of the blood vessel emphasized images other than the reference blood vessel emphasized image. The corrected blood vessel emphasized image is set, and correction is performed for each corrected blood vessel emphasized image so that the reference blood vessel emphasized image and the magnification, angle, and position are matched. At this time, a blood vessel emphasized image based on a fundus image recently taken with a digital camera is set as the reference blood vessel emphasized image. The reason is that many of the images taken in the past have unknown shooting conditions, and especially when taken with an analog camera, the vertical and horizontal scales are not always equal. The consistency index calculating unit 50 performs a process of calculating a consistency index between each corrected blood vessel emphasized image corrected by the blood vessel emphasized image matching unit 40 and the reference blood vessel emphasized image.

画像デジタル化手段10、眼底画像前処理手段20、血管強調画像変換手段30、血管強調画像整合手段40、整合性指標算出手段50は、CPU1が、記憶装置3に記憶されているプログラムを実行することにより実現される。   In the image digitizing means 10, fundus image preprocessing means 20, blood vessel emphasized image converting means 30, blood vessel emphasized image matching means 40, and consistency index calculating means 50, the CPU 1 executes a program stored in the storage device 3. Is realized.

図2に示した各構成手段は、現実には図1に示したように、コンピュータおよびその周辺機器等のハードウェアに専用のプログラムを搭載することにより実現される。すなわち、コンピュータが、専用のプログラムに従って各手段の内容を実行することになる。なお、本明細書において、コンピュータとは、CPU等の演算処理部を有し、データ処理が可能な装置を意味し、パーソナルコンピュータなどの汎用コンピュータだけでなく、タブレット等の携帯型端末も含む。   Each component shown in FIG. 2 is actually realized by installing a dedicated program in hardware such as a computer and its peripheral devices as shown in FIG. That is, the computer executes the contents of each means according to a dedicated program. Note that in this specification, a computer means an apparatus having an arithmetic processing unit such as a CPU and capable of data processing, and includes not only a general-purpose computer such as a personal computer but also a portable terminal such as a tablet.

図1に示した記憶装置3には、CPU1を動作させ、コンピュータを、眼底画像処理装置として機能させるための専用のプログラムが実装されている。この専用のプログラムを実行することにより、CPU1は、画像デジタル化手段10、眼底画像前処理手段20、血管強調画像変換手段30、血管強調画像整合手段40、整合性指標算出手段50としての機能を実現することになる。また、記憶装置3は、眼底画像処理装置としての処理に必要な様々なデータを記憶する。   A dedicated program for operating the CPU 1 and causing the computer to function as a fundus image processing apparatus is installed in the storage device 3 illustrated in FIG. By executing this dedicated program, the CPU 1 functions as the image digitizing means 10, fundus image preprocessing means 20, blood vessel emphasized image converting means 30, blood vessel emphasized image matching means 40, and consistency index calculating means 50. Will be realized. The storage device 3 stores various data necessary for processing as a fundus image processing device.

<2.処理概要>
次に、図1、図2に示した眼底画像処理装置の処理動作について説明する。図3は、本発明の一実施形態に係る眼底画像処理装置の処理概要を示すフローチャートである。まず、画像デジタル化手段10が、撮影により得られた眼底画像のデジタル化を行って、デジタルのカラー眼底画像を得る(ステップS100)。カラー眼底画像としては、必ずしもフルカラーでなくてもよいが、フルカラーであることが好ましい。
<2. Process Overview>
Next, the processing operation of the fundus image processing apparatus shown in FIGS. 1 and 2 will be described. FIG. 3 is a flowchart showing an outline of processing of the fundus image processing apparatus according to the embodiment of the present invention. First, the image digitizing means 10 digitizes the fundus image obtained by photographing to obtain a digital color fundus image (step S100). The color fundus image is not necessarily full color, but is preferably full color.

具体的には、フィルムの形態で存在する眼底画像については、スキャナ等で読み取り、画像デジタル化手段10が、デジタル化を行う。本実施形態では、カラー眼底画像としてR,G,B各成分8ビット256階調のフルカラー画像を用意する。可視光・光源方式の眼底カメラを用いてフルカラーで撮影することにより得られたデジタルのカラー眼底画像については、デジタル化と並行して読み込みが行われる。すなわち、データ入出力I/F5を介して、画像データであるカラー眼底画像を入力し、記憶装置3に記憶する。   Specifically, a fundus image existing in the form of a film is read by a scanner or the like, and the image digitizing means 10 digitizes it. In the present embodiment, a full-color image having 8 bits and 256 gradations for each of R, G, and B components is prepared as a color fundus image. Digital color fundus images obtained by photographing in full color using a visible / light source fundus camera are read in parallel with digitization. That is, a color fundus image, which is image data, is input via the data input / output I / F 5 and stored in the storage device 3.

次に、眼底画像前処理手段20が、カラー眼底画像に対する前処理を行う(ステップS200)。具体的には、デジタル画像として得られたカラー眼底画像に対して、眼底に対応する領域である眼底領域を抽出し、所定の画素数で構成されるカラー眼底画像になるよう縦横同一倍率で変倍処理を施し、背景画素を削除または付加しながら、サイズ(=縦および横の画素数)が統一されたカラー眼底画像に変換する処理を行う。   Next, the fundus image preprocessing unit 20 performs preprocessing on the color fundus image (step S200). Specifically, a fundus region corresponding to the fundus is extracted from the color fundus image obtained as a digital image, and is changed at the same vertical and horizontal magnification so that a color fundus image having a predetermined number of pixels is obtained. A double process is performed to perform conversion to a color fundus image with a uniform size (= number of vertical and horizontal pixels) while deleting or adding background pixels.

図4は、前処理によるカラー眼底画像の変化の様子を示す図である。図4(a)は、スキャニング等によるデジタル化後のカラー眼底画像を示している。図4(a)の例では、画像のサイズが横5905画素、縦4032画素となっている。眼底画像前処理手段20は、まず、略円形の眼底領域内において、さらに明るい略楕円形の乳頭を特定する。現実には、眼底領域は、背景の黒い部分との画素値の差が大きいため明確であるが、眼底領域内における乳頭とその他の部分との画素値の差は、健常者では比較的明確であるが、炎症や出血を伴う病態を抱えている場合にはそれほど大きくない。そのため、事前に試験を行い、想定されるしきい値を設定しておく。そして、眼底画像前処理手段20は、事前に設定されたしきい値より画素値が大きい画素の集合部分を乳頭として特定する。図4(a)の上方における黒円で囲まれた部分が、乳頭として特定される部分である。   FIG. 4 is a diagram illustrating a change in the color fundus image due to the preprocessing. FIG. 4A shows a color fundus image after digitization by scanning or the like. In the example of FIG. 4A, the image size is 5905 pixels wide and 4032 pixels high. The fundus image pre-processing unit 20 first identifies a brighter, substantially elliptical nipple within a substantially circular fundus region. In reality, the fundus area is clear because of the large difference in pixel value from the black part of the background, but the difference in pixel value between the nipple and other parts in the fundus area is relatively clear in healthy subjects. Yes, but not so much if you have a condition with inflammation or bleeding. Therefore, a test is performed in advance and an assumed threshold value is set. Then, the fundus oculi image preprocessing means 20 identifies a set portion of pixels having a pixel value larger than a preset threshold value as a nipple. A portion surrounded by a black circle in the upper part of FIG. 4A is a portion specified as a teat.

眼底画像前処理手段20は、特定された乳頭の眼底領域における相対的位置を特定する。相対的位置を特定する手法としては、様々な手法を用いることができるが、例えば、乳頭の中心となる座標が、眼底領域を上方、右方、下方、左方の4領域に区分した際の、どの位置に属するかを求めることにより特定することができる。まれに、乳頭中心アングルで撮影される場合があり、その場合は中央付近に位置するため、乳頭の位置だけで上記4領域のいずれかに区分するかは判定できず、乳頭から出ている主要血管の方向も考慮する必要がある。即ち、主要血管が出ている方向が下方、左方、上方、右方であれば、各々、乳頭位置が上方、右方、下方、左方の4領域にあると特定できる。   The fundus image preprocessing means 20 identifies the relative position of the identified nipple in the fundus area. Various methods can be used as a method for specifying the relative position. For example, when the coordinates of the center of the nipple divide the fundus region into four regions, upper, right, lower, and left. It can be specified by determining which position it belongs to. In rare cases, the image is taken at the center angle of the nipple. In this case, since it is located near the center, it cannot be determined whether it is classified into any of the above four areas only by the position of the nipple. It is also necessary to consider the direction of the blood vessels. That is, if the direction in which the main blood vessel is protruding is downward, leftward, upward, and rightward, it can be specified that the nipple position is in four regions, that is, upward, rightward, downward, and leftward, respectively.

乳頭の位置が、眼底領域における上方または下方に属する場合、眼底画像前処理手段20は、カラー眼底画像を(90度回転する。この際、事前にそのカラー眼底画像が右眼を撮影したものであるか、左眼を撮影したものであるかの情報もともに記録されているため、右眼に対応したものである場合は、乳頭が右方に位置するように、左眼に対応したものである場合は、乳頭が左方に位置するように、90度回転する。即ち、乳頭の位置が上方で左眼の場合、90度回転(反時計回り)させ、乳頭の位置が上方で右眼の場合、−90度回転(時計回り)させ、乳頭の位置が下方で左眼の場合、−90度回転させ、乳頭の位置が下方で右眼の場合、90度回転させる。図4の例は、右眼のカラー眼底画像であり、図4(a)に示すように乳頭が眼底領域の上方に位置しているため、右方向(時計回り)に90度回転する。この結果、図4(b)に示すように、乳頭が右方に位置するカラー眼底画像が得られる。回転を行っただけであるため、回転後のカラー眼底画像のサイズは横4032画素、縦5905画素となっている。   When the position of the nipple belongs above or below the fundus region, the fundus image preprocessing means 20 rotates the color fundus image (by 90 degrees. At this time, the color fundus image is obtained by photographing the right eye in advance. Information on whether there is a left eye or a photograph of the left eye is also recorded, so if it corresponds to the right eye, it corresponds to the left eye so that the nipple is located on the right side. In some cases, the nipple is rotated 90 degrees so that the nipple is positioned to the left, that is, when the nipple is at the upper left eye, it is rotated 90 degrees (counterclockwise) and the nipple position is at the upper right eye. 4 is rotated by -90 degrees (clockwise), is rotated by -90 degrees when the position of the nipple is the lower eye and the left eye, and is rotated by 90 degrees when the position of the nipple is the lower eye and the right eye. Is a color fundus image of the right eye, and the nipple is in the eye as shown in FIG. Since it is located above the bottom area, it is rotated 90 degrees rightward (clockwise), resulting in a color fundus image in which the nipple is located to the right as shown in FIG. Since only the rotation is performed, the size of the color fundus image after the rotation is 4032 pixels wide and 5905 pixels long.

乳頭の位置が左端または右端に寄っていて各々左眼または右眼である場合は、回転を行う必要はない。すなわち、デジタル化後、カラー眼底画像が、図4(b)のような状態で得られる場合があるので、その場合は回転を行わない。   If the position of the nipple is close to the left end or right end and is the left eye or right eye, respectively, there is no need to rotate. That is, after digitization, a color fundus image may be obtained in a state as shown in FIG. 4B, and in this case, rotation is not performed.

次に、眼底画像前処理手段20は、カラー眼底画像のトリミングを行う。具体的には、画像全体が、眼底領域を全て含む最小の矩形状となるように、背景領域の画素を削除する。眼底領域の画素値は高く、背景領域の画素値は原則“0”に近い低い値であるので、しきい値を容易に設定することができる。したがって、眼底画像前処理手段20は、眼底領域と背景領域を明確に特定し、眼底領域を全て含む最小の矩形状となるように、背景領域の画素を削除する。トリミングの結果、図4(c)に示すようなカラー眼底画像が得られる。背景領域の画素が削除されたため、トリミング後のカラー眼底画像のサイズ(横の画素数W×縦の画素数H)は、横3545画素、縦3789画素となっている。インスタント写真をスキャンした場合、背景のエッジ部にプリントの支持体(通常白色)の一部が映り込んでいたり、フィルムのエッジ部の患者IDなどのメモ書きが映り込んだりする場合があり、背景領域に眼底領域の画素値より高い画素が混入することがある。このような場合、事前に、手作業で眼底領域の画素値より高い画素が存在する背景領域を部分的に削除しておく。   Next, the fundus image preprocessing unit 20 performs trimming of the color fundus image. Specifically, the pixels in the background area are deleted so that the entire image has a minimum rectangular shape including the entire fundus area. Since the pixel value of the fundus region is high and the pixel value of the background region is a low value close to “0” in principle, the threshold value can be easily set. Therefore, the fundus image preprocessing unit 20 clearly specifies the fundus region and the background region, and deletes the pixels in the background region so as to have a minimum rectangular shape including all the fundus regions. As a result of the trimming, a color fundus image as shown in FIG. 4C is obtained. Since the pixels in the background region are deleted, the size of the color fundus image after trimming (the number of horizontal pixels W × the number of vertical pixels H) is 3545 pixels wide and 3789 pixels long. When scanning an instant photo, a portion of the print support (usually white) may appear on the edge of the background, or a note such as the patient ID on the edge of the film may appear on the background. Pixels higher than the pixel value of the fundus region may be mixed into the region. In such a case, the background area in which pixels higher than the pixel value of the fundus area exist manually is partially deleted beforehand.

次に、眼底画像前処理手段20は、カラー眼底画像の縦方向の画素数が所定値になるように画像の拡大または縮小を行う。カラー眼底画像としては、フィルムをスキャニングしてデジタル化したものや、様々な機種により撮像されて得られたものが存在する。そのため、ここでは、カラー眼底画像のサイズを統一するため、横Sx×縦Syの所定画素数になるように拡大または縮小を行うのである。横の画素数Sx、縦の画素数Syとしては、適宜設定することが可能であるが、本実施形態では、Sx=1280、Sy=1024としている。Sy=1024にした理由は、最近の眼底用デジタルカメラの走査線数が1024〜1600に設定されることが多いためで、Sx=1280のように横長にした理由は次の通りである。眼底像は通常円形であるため、眼底画像は基本的に正方形で良いが、血管が乳頭を起点に左右方向に分布していて、眼底の上端または下端は診断上重要でないため、上下をカットして横長にアップで撮影される場合が少なくない。また、後述するように2つの血管強調画像のカラー合成を行う際、横方向にずらしてオーバーラップさせることが多く、正方形であると左右が切れてしまう。このような経験から若干横長の画素構成に設定した。カラー眼底画像を拡大する場合は、画素を補間する処理を行い、画像を縮小する場合には、画素を間引く処理を行う。図4の例では、図4(c)に示した画像の縦方向の画素数が3789画素、設定された縦方向の画素数がSy=1024画素であるので、眼底画像前処理手段20は、カラー眼底画像の縮小を行う。当然のことながら、画像の縦横の比率は維持したまま、縮小する。カラー眼底画像の縮小の結果、図4(d)に示すようなカラー眼底画像が得られる。カラー眼底画像の縮小が行われたため、縮小後のカラー眼底画像のサイズは横958(W’=W×Sy/H)画素、縦1024(Sy)画素となっている。   Next, the fundus image preprocessing unit 20 enlarges or reduces the image so that the number of pixels in the vertical direction of the color fundus image becomes a predetermined value. Color fundus images include those obtained by scanning a film and digitizing it, and those obtained by taking images with various models. Therefore, here, in order to unify the size of the color fundus image, enlargement or reduction is performed so that a predetermined number of pixels of horizontal Sx × vertical Sy is obtained. The horizontal pixel number Sx and the vertical pixel number Sy can be set as appropriate, but in this embodiment, Sx = 1280 and Sy = 1024. The reason for setting Sy = 1024 is that the number of scanning lines of recent digital cameras for the fundus is often set to 1024 to 1600, and the reason why it is horizontally long as Sx = 1280 is as follows. Since the fundus image is usually circular, the fundus image can be basically square, but the upper and lower ends of the fundus are not important for diagnosis because the blood vessels are distributed in the left and right directions starting from the nipple. In many cases, the photo is taken horizontally up. Also, as will be described later, when performing color synthesis of two blood vessel emphasized images, they are often shifted in the horizontal direction and overlapped. From such experience, the pixel configuration was set to be slightly horizontally long. When enlarging a color fundus image, a process of interpolating pixels is performed, and when reducing an image, a process of thinning out pixels is performed. In the example of FIG. 4, the number of pixels in the vertical direction of the image shown in FIG. 4C is 3789 pixels, and the set number of vertical pixels is Sy = 1024 pixels. Reduces the color fundus image. Naturally, the image is reduced while maintaining the aspect ratio of the image. As a result of the reduction of the color fundus image, a color fundus image as shown in FIG. 4D is obtained. Since the color fundus image is reduced, the size of the color fundus image after reduction is 958 (W ′ = W × Sy / H) pixels and 1024 (Sy) pixels.

図4(d)に示したように、画像の縦方向の画素数は、所定値Syに変更されたため、次に横方向の画素数も所定値Sxになるように変更する。このため、眼底画像前処理手段20は、カラー眼底画像の横方向の画素数が所定値Sxになるように、背景の画素を追加する。背景の画素としては、既に存在する背景の画素値と同一値とすると容易に処理を行うことができる。背景の追加の結果、図4(e)に示すようなカラー眼底画像が得られる。背景の追加が行われたため、処理後のカラー眼底画像のサイズは横1280(Sx)画素、縦1024(Sy)画素となっている。図4(e)の例では、W’<Sxであるため、背景画素を追加する処理を行ったが、W’>Sxの場合、カラー眼底画像の横方向の画素数がSxになるように、カラー眼底画像の両端より背景画素を削除する。   As shown in FIG. 4D, since the number of pixels in the vertical direction of the image has been changed to the predetermined value Sy, the number of pixels in the horizontal direction is also changed to the predetermined value Sx. For this reason, the fundus image pre-processing unit 20 adds background pixels so that the number of pixels in the horizontal direction of the color fundus image becomes the predetermined value Sx. If the background pixel value is the same as the existing background pixel value, the processing can be easily performed. As a result of the addition of the background, a color fundus image as shown in FIG. 4E is obtained. Since the background is added, the size of the color fundus image after processing is 1280 (Sx) pixels in the horizontal direction and 1024 (Sy) pixels in the vertical direction. In the example of FIG. 4E, since W ′ <Sx, the background pixel is added. However, when W ′> Sx, the number of pixels in the horizontal direction of the color fundus image is Sx. The background pixels are deleted from both ends of the color fundus image.

眼底画像前処理手段20によるステップS200の前処理を終えたら、次に、血管強調画像変換手段30が、カラー眼底画像を血管強調画像に変換する(ステップS300)。血管強調画像への変換処理の詳細については、後述する。   When the preprocessing of step S200 by the fundus image preprocessing unit 20 is completed, the blood vessel emphasized image conversion unit 30 then converts the color fundus image into a blood vessel emphasized image (step S300). Details of the conversion process into the blood vessel emphasized image will be described later.

血管強調画像変換手段30によるステップS300の血管強調画像変換処理により、血管強調画像が得られたら、次に、血管強調画像整合手段40が、血管強調画像の整合を行う(ステップS400)。血管強調画像の整合とは、1つを基準の画像として、他の画像を基準の画像に合うように倍率・角度・位置の変更を行う処理である。異なる条件で撮影された画像を整合させることにより、経年変化を診断することが容易になる。   If a blood vessel emphasized image is obtained by the blood vessel emphasized image conversion processing of step S300 by the blood vessel emphasized image converting means 30, then the blood vessel emphasized image matching means 40 performs alignment of the blood vessel emphasized image (step S400). The alignment of the blood vessel emphasized image is a process of changing the magnification, the angle, and the position so that one image is a reference image and the other image is matched with the reference image. By matching images taken under different conditions, it becomes easy to diagnose secular changes.

まず、血管強調画像整合手段40は、血管強調画像変換手段30により得られた血管強調画像のうち、1つを基準血管強調画像として設定し、その他を補正血管強調画像として設定する。基準血管強調画像の決定の手法としては、様々な手法を用いることができる。例えば、画像が撮影された日時が最新のものを基準血管強調画像とすることができる。そして、基準血管強調画像と複数の各補正血管強調画像の整合を行う。図5は、基準血管強調画像と補正血管強調画像の整合処理の詳細を示すフローチャートである。   First, the blood vessel emphasized image matching unit 40 sets one of the blood vessel emphasized images obtained by the blood vessel emphasized image conversion unit 30 as a reference blood vessel emphasized image and the other as a corrected blood vessel emphasized image. Various methods can be used as a method for determining the reference blood vessel emphasized image. For example, the reference image enhanced image having the latest date and time when the image was taken can be used. Then, the reference blood vessel enhanced image and the plurality of corrected blood vessel enhanced images are matched. FIG. 5 is a flowchart showing details of the matching process between the reference blood vessel enhanced image and the corrected blood vessel enhanced image.

基準血管強調画像に、補正血管強調画像を合わせるため、まず、血管強調画像整合手段40は、補正血管強調画像の倍率補正を行う(ステップS401)。倍率補正の具体的な手法としては、様々なものがあるが、特許文献1に示した手法を用いることができる。倍率補正は基本的にX方向とY方向とで異なる倍率補正パラメータを設定して倍率補正を行う。理由は、撮影時に眼球とカメラの光軸が傾いていると(強度近視では自然な状態でも左右に傾いていることが多い)、画像が縦長(左右に傾いている場合)または横長に記録されてしまうためで、過去にアナログカメラで撮影された画像の画素のアスペクト比率は最近のデジタルカメラで撮影された画像のように必ずしも1対1ではないという可能性もある。すなわち、自動的な手法として、まず、基準血管強調画像、補正血管強調画像それぞれの血管領域の横方向の画素数、縦方向の画素数を求め、両画像の比率をX方向およびY方向の倍率補正パラメータとして求める。そして、X方向およびY方向の倍率補正パラメータに従って補正血管強調画像の倍率を補正する。ただし、この方法は、基準血管強調画像と補正血管強調画像とで血管領域の抽出割合に顕著な差があったり、基準血管強調画像と補正血管強調画像との間に顕著な角度差がある場合には適正な倍率補正パラメータを得ることができず高精度な補正を行えない。そこで、補正血管強調画像と補正血管強調画像を表示部6に並べて表示し、利用者がキー入力I/F4を用いて指示を行うことにより、対話的に行ってもよい。対話的に行う手法としては、特許文献1に示した手法を用いることができる。   In order to match the corrected blood vessel emphasized image with the reference blood vessel emphasized image, first, the blood vessel emphasized image matching unit 40 performs magnification correction of the corrected blood vessel emphasized image (step S401). There are various specific methods for magnification correction, and the method shown in Patent Document 1 can be used. The magnification correction is basically performed by setting different magnification correction parameters in the X direction and the Y direction. The reason is that if the optical axis of the eyeball and camera is tilted during shooting (in many cases, it is tilted to the left or right even in a natural state with high myopia), the image is recorded vertically (when tilted to the left or right) or landscape Therefore, there is a possibility that the aspect ratio of the pixels of an image taken with an analog camera in the past is not necessarily one-to-one like an image taken with a recent digital camera. That is, as an automatic method, first, the number of pixels in the horizontal direction and the number of pixels in the vertical direction of the blood vessel region of each of the reference blood vessel emphasized image and the corrected blood vessel emphasized image are obtained, and the ratio of both images is determined as the magnification in the X direction and the Y direction. Obtained as a correction parameter. Then, the magnification of the corrected blood vessel emphasized image is corrected according to the magnification correction parameters in the X direction and the Y direction. However, in this method, there is a significant difference in the extraction ratio of the blood vessel region between the reference blood vessel enhanced image and the corrected blood vessel enhanced image, or there is a significant angular difference between the reference blood vessel enhanced image and the corrected blood vessel enhanced image. Therefore, an appropriate magnification correction parameter cannot be obtained, and high-accuracy correction cannot be performed. Therefore, the corrected blood vessel emphasized image and the corrected blood vessel emphasized image may be displayed side by side on the display unit 6 and interactively performed by the user giving an instruction using the key input I / F 4. As an interactive method, the method shown in Patent Document 1 can be used.

次に、血管強調画像整合手段40は、補正血管強調画像の角度補正を行う(ステップS402)。角度補正の具体的な手法としては、様々なものがあるが、特許文献1に示した手法を用いることができる。具体的には、血管強調画像整合手段40が、基準血管強調画像と倍率補正後の補正血管強調画像の血管領域の長尺をそれぞれ求め、両画像の長尺の方向が一致するための角度を角度補正パラメータとして求める。そして、角度補正パラメータに従って補正血管強調画像の角度を補正する。ただし、この方法は、基準血管強調画像と補正血管強調画像とで血管領域の抽出割合に顕著な差がある場合には適正な角度補正パラメータを得ることができず高精度な補正を行えない。そこで、基準血管強調画像と補正血管強調画像を表示部6に並べて表示し、利用者がキー入力I/F4を用いて指示を行うことにより、対話的に行ってもよい。対話的に行う手法としては、特許文献1に示した手法を用いることができる。   Next, the blood vessel emphasized image matching unit 40 performs angle correction of the corrected blood vessel emphasized image (step S402). Although there are various specific methods for angle correction, the method shown in Patent Document 1 can be used. Specifically, the blood vessel emphasized image matching means 40 obtains the length of the blood vessel region of the reference blood vessel emphasized image and the corrected blood vessel emphasized image after the magnification correction, respectively, and determines the angle for matching the length directions of both images. Obtained as an angle correction parameter. Then, the angle of the corrected blood vessel emphasized image is corrected according to the angle correction parameter. However, in this method, when there is a significant difference in the extraction ratio of the blood vessel region between the reference blood vessel emphasized image and the corrected blood vessel emphasized image, an appropriate angle correction parameter cannot be obtained and high accuracy correction cannot be performed. Therefore, the reference blood vessel emphasized image and the corrected blood vessel emphasized image may be displayed side by side on the display unit 6 and interactively performed by the user giving an instruction using the key input I / F 4. As an interactive method, the method shown in Patent Document 1 can be used.

次に、血管強調画像整合手段40は、基準血管強調画像の特徴点を特定する(ステップS403)。特徴点を特定する手法としても、様々な手法を用いることができる。例えば、自動的に行う場合には、血管強調画像整合手段40が、所定の値以上となる画素による領域を乳頭と認識し、その乳頭の重心を特徴点として特定する。乳頭の重心は、例えば、乳頭領域の画素のx座標値およびy座標値の平均値となる座標に決定することができる。ただし、乳頭領域は血管等に比べ真円から楕円になるなど病態進行に伴って変形が顕著なため、乳頭領域の中心(座標値の最小値から最大値の中央をとる方法)は経時的にずれてしまい、重心もずれる場合が多い。そこで、次に述べるように、乳頭領域の変形による影響を受けにくい、乳頭領域内の血管の分岐部、交叉部、曲がり部などを特徴点に使用する方法を用いることができる。   Next, the blood vessel emphasized image matching unit 40 identifies feature points of the reference blood vessel emphasized image (step S403). Various techniques can be used as a technique for specifying the feature points. For example, when performing automatically, the blood vessel emphasizing image matching unit 40 recognizes an area formed by pixels that are equal to or greater than a predetermined value as a nipple, and specifies the center of gravity of the nipple as a feature point. The center of gravity of the nipple can be determined, for example, as a coordinate that is an average value of the x coordinate value and the y coordinate value of the pixels in the nipple region. However, since the nipple area changes from a perfect circle to an ellipse compared to blood vessels, etc., as the disease progresses, the center of the nipple area (the method of taking the center of the maximum value from the minimum coordinate value) over time It often shifts and the center of gravity shifts. Therefore, as described below, it is possible to use a method that uses a branching portion, a crossing portion, a bending portion, or the like of a blood vessel in the nipple region as a feature point that is not easily affected by the deformation of the nipple region.

基準血管強調画像を表示部6に表示し、利用者がキー入力I/F4を用いて指示を行うことにより、対話的に行える。この場合、血管強調画像整合手段40は、基準血管強調画像を表示部6に表示して、乳頭内の比較的暗い血管の特徴的な1点(分岐部、交叉部、曲がり部など)を特徴点として指示するよう、メッセージを表示して利用者に指示を促し、利用者に指定された1点を特徴点として特定する。   The reference blood vessel emphasized image is displayed on the display unit 6, and the user can perform an interactive operation by giving an instruction using the key input I / F 4. In this case, the blood vessel emphasized image matching means 40 displays the reference blood vessel emphasized image on the display unit 6 and features one characteristic point (branch portion, crossover portion, bent portion, etc.) of a relatively dark blood vessel in the nipple. A message is displayed to instruct the user to instruct as a point, and the user is instructed to specify one point designated by the user as a feature point.

次に、血管強調画像整合手段40は、補正血管強調画像の特徴点を特定する(ステップS404)。これは、ステップS403における基準血管強調画像に対する処理と同様にして、行うことができる。対話的に行う場合、基準血管強調画像と補正血管強調画像を同時に、表示部6に表示し、それぞれについて特徴点(乳頭領域内の血管の特徴的な1点(分岐部、交叉部、曲がり部など))を指定させるようにしてもよい。   Next, the blood vessel emphasized image matching unit 40 identifies feature points of the corrected blood vessel emphasized image (step S404). This can be performed in the same manner as the processing for the reference blood vessel emphasized image in step S403. When interactively performing, the reference blood vessel emphasized image and the corrected blood vessel emphasized image are simultaneously displayed on the display unit 6, and feature points (characteristic points of blood vessels in the nipple region (branch portion, crossover portion, bent portion) are displayed for each. Etc.)) may be specified.

基準血管強調画像、補正血管強調画像それぞれの特徴点が特定されたら、次に、血管強調画像整合手段40は、双方の特徴点に基づいて、補正血管強調画像の位置補正を行う(ステップS405)。具体的には、血管強調画像整合手段40が、基準血管強調画像の特徴点の同画像内における相対座標と、補正血管強調画像の特徴点の同画像内における相対座標の差分を算出し、位置補正パラメータとして求める。そして、位置補正パラメータに従って、補正血管強調画像の全体を元のSx×Syの補正血管強調画像の領域内で移動させる処理を行う。例えば、X軸方向にdx画素だけ右に移動させ、Y軸方向にdy画素だけ上に移動させる場合、右端にはみ出すdx×Sy画素の領域は削除され、代わりに左端のdx×Sy画素の領域は空白になるため背景画素を埋め、上端にはみ出すSx×dy画素の領域は削除され、代わりに下端のSx×dy画素の領域は空白になるため背景画素を埋める。   After the feature points of the reference blood vessel emphasized image and the corrected blood vessel emphasized image are specified, the blood vessel emphasized image matching unit 40 next performs position correction of the corrected blood vessel emphasized image based on both feature points (step S405). . Specifically, the blood vessel enhancement image matching unit 40 calculates the difference between the relative coordinates in the same image of the feature points of the reference blood vessel enhancement image and the relative coordinates in the same image of the feature points of the corrected blood vessel enhancement image, Obtained as a correction parameter. Then, according to the position correction parameter, a process of moving the entire corrected blood vessel emphasized image within the region of the original corrected blood vessel emphasized image of Sx × Sy is performed. For example, when moving to the right by dx pixels in the X-axis direction and moving upward by dy pixels in the Y-axis direction, the dx × Sy pixel region that protrudes to the right end is deleted, and instead the left dx × Sy pixel region Since it becomes blank, the background pixel is filled, and the area of the Sx × dy pixel that protrudes to the upper end is deleted. Instead, the area of the lower Sx × dy pixel becomes blank, and the background pixel is filled.

図6は、整合処理による補正血管強調画像の変化の様子を示す図である。図6は、図5におけるステップS401〜S405までの処理の結果を示している。図6上段に示すように、基準血管強調画像については、変化はないが、図6下段に示すように、補正血管強調画像については、倍率・角度・位置の補正が行われる。   FIG. 6 is a diagram illustrating a change in the corrected blood vessel emphasized image by the matching process. FIG. 6 shows the results of the processing from steps S401 to S405 in FIG. As shown in the upper part of FIG. 6, there is no change in the reference blood vessel emphasized image, but as shown in the lower part of FIG. 6, magnification, angle, and position are corrected for the corrected blood vessel emphasized image.

補正血管強調画像の位置補正が行われたら、次に、血管強調画像整合手段40は、基準血管強調画像と補正血管強調画像を重ねた状態で表示する(ステップS406)。すなわち、基準血管強調画像と補正血管強調画像をオーバーレイ表示する。具体的には、グレースケール画像である基準血管強調画像、補正血管強調画像それぞれにRGB3原色のいずれかのプレーン(いずれかの1または複数成分)を割り当て、擬似的にカラー変換を行って1つのカラー合成画像を作成し、このカラー合成画像をオーバーレイ画像として表示部6に表示する。このカラー合成画像は、本来の眼底画像や血管強調画像が備えている自然なカラーとは異なり、表示識別の都合上、人工的に着色された擬似カラーである。ここでは、基準血管強調画像をR(赤)成分、補正血管強調画像をG(緑)成分に割り当てている。   After the correction of the corrected blood vessel emphasized image, the blood vessel emphasized image matching unit 40 displays the reference blood vessel emphasized image and the corrected blood vessel emphasized image in a superimposed state (step S406). That is, the reference blood vessel emphasized image and the corrected blood vessel emphasized image are displayed in an overlay manner. Specifically, one of the RGB primary colors (any one or a plurality of components) is assigned to each of the reference blood vessel enhancement image and the corrected blood vessel enhancement image, which are grayscale images, and pseudo color conversion is performed to perform one color conversion. A color composite image is created, and this color composite image is displayed on the display unit 6 as an overlay image. Unlike the natural colors provided in the original fundus image and blood vessel enhancement image, this color composite image is an artificially colored pseudo color for the convenience of display identification. Here, the reference blood vessel emphasized image is assigned to the R (red) component, and the corrected blood vessel emphasized image is assigned to the G (green) component.

グレースケール画像である基準血管強調画像、補正血管強調画像をそれぞれUray1(x,y)、Uray2(x,y)(x=0,・・・,Xs−1,y=0,・・・,Ys−1)とし、フルカラー画像であるカラー合成画像をImageS(x,y,c)(c=0,1,2)として、血管強調画像整合手段40は、以下の〔数式1〕に従った処理を実行することによりカラー合成画像ImageS(x,y,c)を算出する。   The reference blood vessel enhanced image and the corrected blood vessel enhanced image, which are gray scale images, are assigned to Uray1 (x, y), Uray2 (x, y) (x = 0,..., Xs-1, y = 0,. Ys-1), and the color composite image, which is a full-color image, is ImageS (x, y, c) (c = 0, 1, 2), and the blood vessel emphasized image matching unit 40 follows the following [Equation 1]. By executing the process, a color composite image ImageS (x, y, c) is calculated.

〔数式1〕
ImageS(x,y,0)=r1×Uray1(x,y)+r2×Uray2(x,y)
ImageS(x,y,1)=g1×Uray1(x,y)+g2×Uray2(x,y)
ImageS(x,y,2)=b1×Uray1(x,y)+b2×Uray2(x,y)
ただし、0≦r1,g1,b1,r2,g2,b2≦1であり、r1+r2≦1、g1+g2≦1、b1+b2≦1
[Formula 1]
ImageS (x, y, 0) = r1 × Uray1 (x, y) + r2 × Uray2 (x, y)
ImageS (x, y, 1) = g1 × Uray1 (x, y) + g2 × Uray2 (x, y)
ImageS (x, y, 2) = b1 × Uray1 (x, y) + b2 × Uray2 (x, y)
However, 0 ≦ r1, g1, b1, r2, g2, b2 ≦ 1, r1 + r2 ≦ 1, g1 + g2 ≦ 1, b1 + b2 ≦ 1

上記〔数式1〕における係数r1,g1,b1,r2,g2,b2は、いずれも事前に設定された実数である。前述の例では、r1=1.0、g1=0.0、b1=0.0、r2=0.0、g2=1.0、b2=0.0であるが、r1+r2≦1、g1+g2≦1、b1+b2≦1の条件を満たせば、r1=1.0、g1=1.0、b1=0.0、r2=0.0、g2=0.0、b2=1.0のように一方の画像にRGBの2成分を割り当てても良く、r1=0.9、g1=0.5、b1=0.1、r2=0.1、g2=0.5、b2=0.9のように双方の画像にRGBの3成分を割り当てても良い。   The coefficients r1, g1, b1, r2, g2, and b2 in the above [Equation 1] are all real numbers set in advance. In the above example, r1 = 1.0, g1 = 0.0, b1 = 0.0, r2 = 0.0, g2 = 1.0, b2 = 0.0, but r1 + r2 ≦ 1, g1 + g2 ≦ 1, b1 + b2 ≦ 1, if r1 = 1.0, g1 = 1.0, b1 = 0.0, r2 = 0.0, g2 = 0.0, b2 = 1.0 2 components of RGB may be assigned to the image, such as r1 = 0.9, g1 = 0.5, b1 = 0.1, r2 = 0.1, g2 = 0.5, b2 = 0.9 Alternatively, RGB three components may be assigned to both images.

血管強調画像整合手段40により作成されたカラー合成画像は、表示部6に表示される。図7は、カラー合成画像によるオーバーレイ表示の一例を示す図である。図面左側に示す基準血管強調画像、補正血管強調画像を用いて、ステップS400の整合処理を行うことにより、図面左側に示すようなカラー合成画像が表示される。上述のように、基準血管強調画像がR(赤)、補正血管強調画像がG(緑)に割り当てられているので、フルカラー画像であるカラー合成画像においては、基準血管強調画像の血管候補領域が赤、補正血管強調画像の血管候補領域が緑で表示される。図7においては、カラー合成画像においては、赤い部分を濃い網掛けで、緑の部分を薄い網掛けで示している。   The color composite image created by the blood vessel emphasized image matching means 40 is displayed on the display unit 6. FIG. 7 is a diagram illustrating an example of overlay display using a color composite image. By using the reference blood vessel emphasized image and the corrected blood vessel emphasized image shown on the left side of the drawing, the color composite image shown on the left side of the drawing is displayed by performing the matching process in step S400. As described above, since the reference blood vessel emphasized image is assigned to R (red) and the corrected blood vessel emphasized image is assigned to G (green), the blood vessel candidate region of the reference blood vessel emphasized image is the color composite image that is a full color image. Red, the blood vessel candidate region of the corrected blood vessel enhancement image is displayed in green. In FIG. 7, in the color composite image, the red portion is indicated by dark shading and the green portion is indicated by light shading.

次に、整合性が合格(OK)か否かの判定を行う。具体的には、表示の結果、利用者が確認し、整合性が高いと判断すれば、キー入力I/F4を用いて合格である旨の指示を行う。合格である旨の指示が行われたら、血管強調画像整合手段40は、このときの補正血管強調画像の倍率補正パラメータ、角度補正パラメータ、位置補正パラメータを出力する。逆に、合格でない旨の指示が行われたら、血管強調画像整合手段40は、ステップS401に戻って、補正血管強調画像に対する処理を繰り返す。   Next, it is determined whether or not the consistency is acceptable (OK). Specifically, as a result of the display, if the user confirms and determines that the consistency is high, the key input I / F 4 is used to give an instruction to pass. When an instruction to pass is given, the blood vessel enhancement image matching unit 40 outputs the magnification correction parameter, the angle correction parameter, and the position correction parameter of the corrected blood vessel enhancement image at this time. On the other hand, if an instruction indicating that it is not passed is given, the blood vessel emphasized image matching unit 40 returns to step S401 and repeats the process for the corrected blood vessel emphasized image.

全ての補正血管強調画像に対して、図5に示した整合処理を実行し、各補正血管強調画像について、倍率補正パラメータ、角度補正パラメータ、位置補正パラメータを取得し、各補正血管強調画像と対応付けて、RAM2または記憶装置3に記憶させておく。   The matching processing shown in FIG. 5 is executed for all the corrected blood vessel emphasized images, and the magnification correction parameter, the angle correction parameter, and the position correction parameter are acquired for each corrected blood vessel emphasized image and correspond to each corrected blood vessel emphasized image. In addition, it is stored in the RAM 2 or the storage device 3.

血管強調画像整合手段40によるステップS400の血管強調画像の整合処理により、倍率補正パラメータ、角度補正パラメータ、位置補正パラメータが得られたら、次に、整合性指標算出手段50が、整合性指標の算出を行う(ステップS500)。整合性指標としては、画素値適合比率、画素適合比率、相関係数を算出することにより行う。整合性指標の算出は、各補正血管強調画像について、倍率補正パラメータ、角度補正パラメータ、位置補正パラメータを用いて補正を行った状態で行う。   When the magnification correction parameter, the angle correction parameter, and the position correction parameter are obtained by the blood vessel emphasized image matching process in step S400 by the blood vessel emphasized image matching means 40, the consistency index calculating means 50 next calculates the consistency index. (Step S500). As the consistency index, a pixel value matching ratio, a pixel matching ratio, and a correlation coefficient are calculated. The calculation of the consistency index is performed in a state where each corrected blood vessel enhanced image is corrected using the magnification correction parameter, the angle correction parameter, and the position correction parameter.

まず、画素値適合比率を算出する。上記〔数式1〕と同様、基準血管強調画像、補正血管強調画像をそれぞれUray1(x,y)、Uray2(x,y)(x=0,・・・,Xs−1,y=0,・・・,Ys−1)と定義し、整合性指標算出手段50が、以下の〔数式2〕に従った処理を実行することにより、基準血管強調画像、補正血管強調画像それぞれにおける血管候補領域の画素値総和C1、C2を算出する。   First, the pixel value matching ratio is calculated. As in the above [Equation 1], the reference blood vessel emphasized image and the corrected blood vessel emphasized image are respectively represented as Uray1 (x, y), Uray2 (x, y) (x = 0,..., Xs-1, y = 0,. .., Ys-1), and the consistency index calculation means 50 executes processing according to the following [Equation 2], so that the blood vessel candidate regions in the reference blood vessel enhanced image and the corrected blood vessel enhanced image are respectively Pixel value sums C1 and C2 are calculated.

〔数式2〕
C1=ΣUray1(x,y)>SAUray1(x,y)/255
C2=ΣUray2(x,y)>SAUray2(x,y)/255
[Formula 2]
C1 = Σ Uray1 (x, y)> SA Uray1 (x, y) / 255
C2 = ΣUray2 (x, y)> SA Uray2 (x, y) / 255

上記〔数式2〕において、Σの添え字の“Uray1(x,y)>SA”、“Uray2(x,y)>SA”は、基準血管強調画像、補正血管強調画像における画素値がしきい値SAを超える画素全てについて、画素値(画素値を0から1の実数値に正規化した値)の総和を求めることを示している。上記〔数式2〕において、SAは、基準血管強調画像、補正血管強調画像に共通のしきい値であり、このしきい値より値の大きい画素を血管候補領域として、画素値総和C1、C2を算出している。   In the above [Equation 2], the subscripts “Uray1 (x, y)> SA” and “Uray2 (x, y)> SA” of Σ are the threshold values of the reference blood vessel emphasized image and the corrected blood vessel emphasized image. It shows that the sum of pixel values (values obtained by normalizing pixel values from 0 to 1) is obtained for all pixels exceeding the value SA. In the above [Equation 2], SA is a threshold value common to the reference blood vessel emphasized image and the corrected blood vessel emphasized image. Pixels having a value larger than this threshold value are designated as blood vessel candidate regions, and pixel value sums C1 and C2 are calculated. Calculated.

続いて、整合性指標算出手段50が、血管候補領域の画素値総和C1またはC2、基準血管強調画像Uray1(x,y)または補正血管強調画像Uray2(x,y)を用いて、以下の〔数式3〕に従った処理を実行することにより、画素値適合比率R1を算出する。   Subsequently, the consistency index calculating unit 50 uses the pixel value sum C1 or C2 of the blood vessel candidate region, the reference blood vessel emphasized image Uray1 (x, y), or the corrected blood vessel emphasized image Uray2 (x, y) as follows: The pixel value matching ratio R1 is calculated by executing the processing according to Equation 3].

〔数式3〕
C1≦C2である場合
R1={ΣUray1(x,y)>SA;Uray2(x,y)>SA{Uray1(x,y)×Uray2(x,y)}1/2/255}×100/C1
C1>C2である場合
R1={ΣUray1(x,y)>SA;Uray2(x,y)>SA{Uray1(x,y)×Uray2(x,y)}1/2/255}×100/C2
[Formula 3]
When C1 ≦ C2 R1 = { ΣUray1 (x, y)>SA; Uray2 (x, y)> SA {Uray1 (x, y) × Uray2 (x, y)} 1/2 / 255} × 100 / C1
When C1> C2 R1 = { ΣUray1 (x, y)>SA; Uray2 (x, y)> SA {Uray1 (x, y) × Uray2 (x, y)} 1/2 / 255} × 100 / C2

上記〔数式3〕に従った処理を実行することにより、x=0,・・・,Xs−1,y=0,・・・,Ys−1の範囲で、Uray1(x,y)>SAかつUray2(x,y)>SAを満たす画素値の相乗平均値の総和の、血管候補領域が小さい方の画素値総和C1またはC2に対する比率として、画素値適合比率R1が算出される。上記〔数式3〕において、“ΣUray1(x,y)>SA;Uray2(x,y)>SAUray1(x,y)”、“ΣUray1(x,y)>SA;Uray2(x,y)>SAUray2(x,y)”は、基準血管強調画像と補正血管強調画像の双方においてしきい値SAを超える画素値をもつ画素と同一位置における画素値の相乗平均値の総和C3を示している。この場合、画素値適合比率R1は、C3/C1またはC3/C2に比例する値となる。 By executing the processing according to the above [Equation 3], Uray1 (x, y)> SA in the range of x = 0,..., Xs-1, y = 0,. The pixel value matching ratio R1 is calculated as the ratio of the sum of the geometric mean values of the pixel values satisfying Uray2 (x, y)> SA to the pixel value sum C1 or C2 of the smaller blood vessel candidate region. In the above [Equation 3], “ ΣUray1 (x, y)>SA; Uray2 (x, y)> SA Uray1 (x, y)”, “ ΣUray1 (x, y)>SA; Uray2 (x, y )> SA Uray2 (x, y) ”indicates the sum C3 of the geometric mean values of the pixel values at the same position as the pixel having the pixel value exceeding the threshold value SA in both the reference blood vessel enhanced image and the corrected blood vessel enhanced image. ing. In this case, the pixel value matching ratio R1 is a value proportional to C3 / C1 or C3 / C2.

上記〔数式2〕〔数式3〕に従った処理では、画素値総和C1、C2を用いているが、画素値総和C1、C2に代えて画素数C1'、C2'を用いるようにして、以下の〔数式4〕に従った処理を実行することにより、画素適合比率R1'を算出する。   In the processing according to the above [Equation 2] and [Equation 3], the pixel value sums C1 and C2 are used, but instead of the pixel value sums C1 and C2, the number of pixels C1 ′ and C2 ′ is used. The pixel matching ratio R1 ′ is calculated by executing the process according to [Formula 4].

〔数式4〕
C1'≦C2'である場合
R1'={ΣUray1(x,y)>SA;Uray2(x,y)>SA1}×100/C1'
C1'>C2'である場合
R1'={ΣUray1(x,y)>SA;Uray2(x,y)>SA1}×100/C2'
[Formula 4]
When C1 ′ ≦ C2 ′ R1 ′ = { ΣUray1 (x, y)>SA; Uray2 (x, y)> SA1 } × 100 / C1 ′
When C1 ′> C2 ′ R1 ′ = { ΣUray1 (x, y)>SA; Uray2 (x, y)> SA1 } × 100 / C2 ′

上記〔数式4〕において、画素数C1'、C2'は、それぞれ基準血管強調画像、補正血管強調画像の血管候補領域の面積に相当する。この場合、“ΣUray1(x,y)>SA;Uray2(x,y)>SA1”は、基準血管強調画像と補正血管強調画像の双方においてしきい値SAを超える画素値をもつ画素と同一位置における画素数C3'を示す。この際、画素適合比率R1'は、C3'/C1' またはC3'/C2'に比例する値となる。画素値適合比率R1と画素適合比率R1'のどちらか一方だけでなく、画素値適合比率R1と画素適合比率R1'の双方を算出するようにすることも可能である。 In the above [Equation 4], the pixel numbers C1 ′ and C2 ′ correspond to the areas of the blood vessel candidate regions of the reference blood vessel enhanced image and the corrected blood vessel enhanced image, respectively. In this case, “ ΣUray1 (x, y)>SA; Uray2 (x, y)> SA1 ” is a pixel having a pixel value exceeding the threshold value SA in both the reference blood vessel enhanced image and the corrected blood vessel enhanced image. The number of pixels C3 ′ at the same position is shown. At this time, the pixel matching ratio R1 ′ is a value proportional to C3 ′ / C1 ′ or C3 ′ / C2 ′. It is also possible to calculate not only one of the pixel value matching ratio R1 and the pixel matching ratio R1 ′ but also both the pixel value matching ratio R1 and the pixel matching ratio R1 ′.

画素値適合比率R1が算出されたら、次に、整合性指標算出手段50は、相関係数を算出する。相関係数とは、二つの配列要素の関連性の強弱を示す指標である。ここでは、血管候補領域における基準血管強調画像と補正血管強調画像の類似性の強弱を判定するために用いる。まず、以下の〔数式5〕に従った処理を実行することにより、基準血管強調画像、補正血管強調画像における血管候補領域の面積に相当する画素数C1a、C2aを算出する。   After the pixel value matching ratio R1 is calculated, the consistency index calculating unit 50 calculates a correlation coefficient. The correlation coefficient is an index indicating the strength of the relationship between two array elements. Here, it is used to determine the strength of similarity between the reference blood vessel emphasized image and the corrected blood vessel emphasized image in the blood vessel candidate region. First, the number of pixels C1a and C2a corresponding to the area of the blood vessel candidate region in the reference blood vessel emphasized image and the corrected blood vessel emphasized image is calculated by executing processing according to the following [Equation 5].

〔数式5〕
C1a=ΣUray1(x,y)>SA
C2a=ΣUray2(x,y)>SA
[Formula 5]
C1a = Σ Uray1 (x, y)> SA 1
C2a = Σ Uray2 (x, y)> SA 1

上記〔数式5〕に示すように、画素数C1aおよびC2aは、単純に、各々“Uray1(x,y)>SA”および “Uray2(x,y)>SA”を満たす画素の数を計数したものである。次に、整合性指標算出手段50は、以下の〔数式6〕に従った処理を実行することにより、基準血管強調画像、補正血管強調画像それぞれにおける血管候補領域の画素値平均A1、A2を算出する。   As shown in the above [Formula 5], the pixel numbers C1a and C2a simply counted the number of pixels satisfying “Uray1 (x, y)> SA” and “Uray2 (x, y)> SA”, respectively. Is. Next, the consistency index calculation unit 50 calculates the pixel value averages A1 and A2 of the blood vessel candidate regions in the reference blood vessel emphasized image and the corrected blood vessel emphasized image by executing processing according to the following [Equation 6]. To do.

〔数式6〕
C1a≦C2aである場合
A1=ΣUray1(x,y)>SAUray1(x,y)/C1a
A2=ΣUray1(x,y)>SAUray2(x,y)/C1a
C1a>C2aである場合
A1=ΣUray2(x,y)>SAUray1(x,y)/C2a
A2=ΣUray2(x,y)>SAUray2(x,y)/C2a
[Formula 6]
When C1a ≦ C2a A1 = Σ Uray1 (x, y)> SA Uray1 (x, y) / C1a
A2 = ΣUray1 (x, y)> SA Uray2 (x, y) / C1a
When C1a> C2a A1 = Σ Uray2 (x, y)> SA Uray1 (x, y) / C2a
A2 = ΣUray2 (x, y)> SA Uray2 (x, y) / C2a

上記〔数式6〕に従った処理により算出される画素値平均A1は、基準血管強調画像における血管候補領域についてのものであるが、画素値平均A2は、基準血管強調画像の血管候補領域と同一位置となる補正血管強調画像の領域についてのものとなる。そして、整合性指標算出手段50が、画素値平均A1、A2を用いて、以下の〔数式7〕に従った処理を実行することにより、相関係数R2を算出する。   The pixel value average A1 calculated by the processing according to [Formula 6] is for the blood vessel candidate region in the reference blood vessel emphasized image, but the pixel value average A2 is the same as the blood vessel candidate region in the reference blood vessel emphasized image. This is for the region of the corrected blood vessel enhancement image that is the position. Then, the consistency index calculating means 50 calculates the correlation coefficient R2 by executing processing according to the following [Equation 7] using the pixel value averages A1 and A2.

〔数式7〕
R2={ΣUray1(x,y)>SA(Uray1(x,y)−A1)×(Uray2(x,y)−A2)}×100/[{ΣUray1(x,y)>SA(Uray1(x,y)−A1)21/2×{ΣUray1(x,y)>SA(Uray2(x,y)−A2)21/2
[Formula 7]
R2 = { ΣUray1 (x, y)> SA (Uray1 (x, y) −A1) × (Uray2 (x, y) −A2)} × 100 / [{ ΣUray1 (x, y)> SA (Uray1 (X, y) -A1 ) 2 } 1/2 * {[Sigma] Uray1 (x, y)> SA (Uray2 (x, y) -A2) 2 } 1/2 ]

上記〔数式7〕に従った処理の結果、基準血管強調画像における血管候補領域における、基準血管強調画像の画素群と、補正血管強調画像の画素群の相関係数が、相関係数R2として得られる。相関係数R2の値が大きければ大きい程、基準血管強調画像と補正血管強調画像の整合性が高いことになる。   As a result of the processing according to [Equation 7], the correlation coefficient between the pixel group of the reference blood vessel emphasized image and the pixel group of the corrected blood vessel emphasized image in the blood vessel candidate region in the reference blood vessel emphasized image is obtained as the correlation coefficient R2. It is done. The larger the value of the correlation coefficient R2, the higher the consistency between the reference blood vessel enhanced image and the corrected blood vessel enhanced image.

上記〔数式7〕において、Σの添え字の“Uray1(x,y)>SA”は、基準血管強調画像における画素値がしきい値SAを超える画素全てについて、総和を求めることを示している。相関係数R2は、血管候補領域における基準血管強調画像の画素群Uray1(x,y)、Uray2(x,y)の共分散を、それぞれの標準偏差で除したものとなっている。上記〔数式7〕の演算のように、分母の平方根の除算を2回行うのは一般に処理負荷が高い。このため、画像処理の分野においては、分子の積和演算だけで済ますものを「相関係数」と呼び、上記〔数式7〕に示したR2を「正規化相関係数」と呼ぶ習慣もある。   In the above [Equation 7], the subscript “Uray1 (x, y)> SA” of Σ indicates that the sum is obtained for all pixels in the reference blood vessel emphasized image whose pixel value exceeds the threshold value SA. . The correlation coefficient R2 is obtained by dividing the covariance of the pixel groups Uray1 (x, y) and Uray2 (x, y) of the reference blood vessel enhanced image in the blood vessel candidate region by the respective standard deviations. In general, the processing load is high when dividing the square root of the denominator twice as in the calculation of [Expression 7]. For this reason, in the field of image processing, there is a habit of calling only a numerator product-sum operation as a “correlation coefficient” and R2 shown in the above [Equation 7] as a “normalized correlation coefficient”. .

整合性の判定としては、画素値適合比率R1、画素適合比率R1'、相関係数R2の整合性指標のうち、1つ以上3つ以下の整合性指標を組み合わせて条件を設定することができる。各整合性指標に所定のしきい値を設定しておき、所定の条件を満たす場合に、基準血管強調画像と補正血管強調画像が整合すると判定するようにすることができる。例えば、いずれか1つの整合性指標が条件を満たしている場合に、整合していると判定してもよいし、3つの整合性指標全てが条件を満たしている場合に、整合していると判定してもよい。   As the determination of consistency, conditions can be set by combining one or more and three or less consistency indices among the consistency indices of the pixel value matching ratio R1, the pixel matching ratio R1 ′, and the correlation coefficient R2. . A predetermined threshold value is set for each consistency index, and when a predetermined condition is satisfied, it can be determined that the reference blood vessel enhanced image and the corrected blood vessel enhanced image are matched. For example, if any one consistency index satisfies the condition, it may be determined that the condition is consistent, or if all three consistency indices satisfy the condition, You may judge.

<3.ステップS300の血管強調画像への変換処理の詳細>
次に、ステップS300の血管強調画像への変換処理の詳細について説明する。 図8は、血管強調画像変換手段30の詳細な構成を示す機能ブロック図である。図8において、31はグレースケール変換手段、32は線状成分強調手段、33は画素階調変換手段である。
<3. Details of Conversion to Blood Vessel-Enhanced Image in Step S300>
Next, details of the conversion process into the blood vessel emphasized image in step S300 will be described. FIG. 8 is a functional block diagram showing a detailed configuration of the blood vessel emphasized image converting means 30. In FIG. 8, 31 is a gray scale conversion means, 32 is a linear component enhancement means, and 33 is a pixel gradation conversion means.

グレースケール変換手段31は、カラー眼底画像に対し、RGB3原色成分に所定の演算を施し、血管候補領域が高い輝度になるようにネガポジ反転させたグレースケール眼底画像に変換する処理を行う。線状成分強調手段32は、グレースケール眼底画像に対して、所定の構造要素を用いてオープニング処理を行い全ての血管候補領域の輝度を一定以上に揃えた線状成分強調画像を作成する処理を行う。画素階調変換手段33は、線状成分強調画像において、所定の条件を満たす画素値を、変換後の血管強調画像の階調の最小値付近の値になるように置き換え、所定の条件を満たす画素値以上となる前記線状成分強調画像の画素値が、階調の最小値付近の値から最大値の範囲になるように画素の階調を補正し、血管強調画像(Uray)を作成する処理を行う。   The gray scale conversion means 31 performs a process for converting the color fundus image into a gray scale fundus image obtained by performing a predetermined calculation on the RGB three primary color components and performing negative / positive inversion so that the blood vessel candidate region has high luminance. The linear component enhancement means 32 performs an opening process on the grayscale fundus image using a predetermined structural element to create a linear component enhanced image in which the luminance of all the blood vessel candidate regions is equal to or higher than a certain level. Do. The pixel gradation conversion means 33 replaces a pixel value satisfying a predetermined condition in the linear component emphasized image so as to become a value near the minimum gradation value of the converted blood vessel emphasized image, and satisfies the predetermined condition. A blood vessel emphasized image (Uray) is created by correcting the pixel gradation so that the pixel value of the linear component enhanced image that is equal to or greater than the pixel value is in the range from the value near the minimum gradation value to the maximum value. Process.

次に、血管強調画像変換手段30によるステップS300の血管強調画像への変換処理の詳細について説明する。図9は、血管強調画像変換手段30の処理概要を示すフローチャートである。まず、グレースケール変換手段31が、カラー眼底画像に対して、グレースケール変換を行い、グレースケール眼底画像を得る(ステップS600)。   Next, details of the conversion process into the blood vessel emphasized image in step S300 by the blood vessel emphasized image converting means 30 will be described. FIG. 9 is a flowchart showing a processing outline of the blood vessel emphasized image converting means 30. First, the gray scale conversion means 31 performs gray scale conversion on the color fundus image to obtain a gray scale fundus image (step S600).

上述のように、処理対象であるカラー眼底画像は、各色8ビット256階調の画像データである。したがって、x方向の画素数Xs、y方向の画素数Ysの規制画像は、色成分を示す変数c=0(Red),1(Green),2(Blue)とすると、Image(x,y,c)=0〜255(x=0,・・・,Xs−1;y=0,・・・,Ys−1;c=0,1,2)と定義される。   As described above, the color fundus image to be processed is 8-bit, 256-gradation image data for each color. Therefore, the restricted image having the number of pixels in the x direction Xs and the number of pixels in the y direction Ys is assumed to be Image (x, y, c) = 0 to 255 (x = 0,..., Xs-1; y = 0,..., Ys-1; c = 0, 1, 2).

グレースケール画像への変換の際、従来は、カラー眼底画像Image(x,y,c)に対してGreen成分のみを使用する。即ち、Gr(x,y)=Image(x,y,1)により変換する方法が最良であることが知られている(特許文献1参照)。理由は、眼底カメラで使用されている3原色フィルタではGreen成分に比べRedとBlue成分の解像度が低く、これらの分色画像では血管の輪郭が不鮮明になりがちであるためである。しかし、本願発明者は、多くの眼底カメラ画像を分析した結果、Green成分は照明光が十分にあたっている中央付近では鮮明であるが、照明光が弱い周辺部ではGreen成分よりむしろBlue成分の方が鮮明であり、更にBlue成分はGreen成分と異なり、血管部の輝度が周囲に比べて高くなるという反転現象を見出した(眼底画像全般に血管部の輝度は周囲に比べて低くなる)。そこで、本実施形態では、以下の〔数式8〕に従った処理を実行することによりグレースケール変換する手法を提案する。ただし、〔数式8〕は全てのカラー眼底画像に適用になるわけではなく、従来から言われているGr(x,y)=Image(x,y,1)により変換する方法の方が適切な眼底画像も少なからず存在するため、これらは与えられた眼底画像ごとに適宜選択する必要がある。グレースケール変換手段31は、以下の〔数式8〕に従った処理を実行することによりグレースケール変換する。   When converting to a gray scale image, conventionally, only the Green component is used for the color fundus image Image (x, y, c). That is, it is known that the conversion method using Gr (x, y) = Image (x, y, 1) is the best (see Patent Document 1). The reason is that the three primary color filters used in the fundus camera have a lower resolution of the Red and Blue components than the Green component, and the outline of the blood vessel tends to be unclear in these color separation images. However, as a result of analyzing many fundus camera images, the inventor of the present application has found that the Green component is clear near the center where the illumination light is sufficiently hit, but the Blue component is rather than the Green component in the periphery where the illumination light is weak. In contrast to the Green component, the inversion phenomenon was found in which the brightness of the blood vessel part was higher than that of the surroundings (the brightness of the blood vessel part was lower than that of the surroundings in the entire fundus image). Therefore, this embodiment proposes a method of performing gray scale conversion by executing processing according to the following [Equation 8]. However, [Equation 8] is not applied to all color fundus images, and the conventional method of converting by Gr (x, y) = Image (x, y, 1) is more appropriate. Since there are not a few fundus images, it is necessary to select these appropriately for each given fundus image. The gray scale conversion means 31 performs gray scale conversion by executing processing according to the following [Equation 8].

〔数式8〕
Gr(x,y)=[Image(x,y,1)×(255−Image(x,y,2))]1/2
[Formula 8]
Gr (x, y) = [Image (x, y, 1) × (255−Image (x, y, 2))] 1/2

上記〔数式8〕において、Image(x,y,1)は、カラー眼底画像のうち、G(Green、緑)の成分を示し、Image(x,y,2)は、カラー眼底画像のうち、B(Blue、青)の成分を示している。したがって、上記〔数式8〕においては、各画素のG成分と、B成分をネガポジ反転したものの相乗平均値を求め、グレースケール形式の画像Gr(x,y)を得ている。さらに、グレースケール変換手段31は、グレースケール形式の画像Gr(x,y)に対して、以下の〔数式9〕に従った処理を実行することによりネガポジ反転してグレースケール眼底画像Gray(x,y)を得る。   In the above [Equation 8], Image (x, y, 1) represents a component of G (Green, green) in the color fundus image, and Image (x, y, 2) represents in the color fundus image. The component of B (Blue, blue) is shown. Therefore, in the above [Equation 8], the geometrical average value of the negative and positive inversions of the G component and B component of each pixel is obtained to obtain a grayscale image Gr (x, y). Further, the gray scale conversion means 31 performs a process according to the following [Equation 9] on the gray scale image Gr (x, y), thereby performing negative / positive inversion, and gray scale fundus image Gray (x , Y).

〔数式9〕
Gray(x,y)=255−Gr(x,y)
[Formula 9]
Gray (x, y) = 255-Gr (x, y)

上記〔数式9〕に従った処理を実行して、ネガポジ反転することにより、周囲に比べ輝度が低い血管候補領域の画素値が高い状態に変換される。ここで、ネガポジ反転とは、元の画素値の大きいもの程小さい値に変換する処理を意味する。   By executing the processing according to the above [Equation 9] and performing negative / positive inversion, the pixel value of the blood vessel candidate region whose luminance is lower than that of the surrounding is converted to a high state. Here, negative / positive reversal means a process of converting a smaller original pixel value to a smaller value.

グレースケール眼底画像が得られたら、次に、線状成分強調手段32が、グレースケール眼底画像に対して、トップハット変換を用いて線状成分の強調を行い、線状成分強調画像を得る(ステップS700)。ステップS700におけるトップハット変換については、2通りの手法が存在するので、詳細については後述する。   Once the grayscale fundus image is obtained, the linear component enhancement means 32 then performs linear component enhancement on the grayscale fundus image using top hat transformation to obtain a linear component enhanced image ( Step S700). Since there are two methods for the top hat conversion in step S700, the details will be described later.

線状成分強調画像が得られたら、次に、画素階調変換手段33が、線状成分強調画像に対して、階調変換(コントラスト補正)を行い、血管強調画像を得る(ステップS800)。具体的には、まず、画素階調変換手段33は、0〜255の値をもつ、線状成分強調画像Tray(x,y)のXs×Ys個の全画素について、画素値hの度数分布H(h)(h=0,・・・,255)を求める。そして、以下の〔数式10〕に示す条件を満たす最小値hminを求める。   After the linear component enhanced image is obtained, the pixel gradation conversion unit 33 performs gradation conversion (contrast correction) on the linear component enhanced image to obtain a blood vessel enhanced image (step S800). Specifically, first, the pixel gradation converting unit 33 performs frequency distribution of the pixel value h for all Xs × Ys pixels of the linear component emphasized image Tray (x, y) having a value of 0 to 255. H (h) (h = 0,..., 255) is obtained. Then, the minimum value hmin that satisfies the condition shown in the following [Equation 10] is obtained.

〔数式10〕
Σh=0,hminH(h)≧(Xs×Ys)×α
[Formula 10]
Σ h = 0, hmin H (h) ≧ (Xs × Ys) × α

上記〔数式10〕において、Σの添え字の“h=0,hmin”は、hが0からhminまでの総和を求めることを示している。したがって、上記〔数式10〕に示す条件とは、全画素数(Xs×Ys)のうち、およそ比率α×100%の画素が、画素値hmin以下の画素値となることを示している。比率αとしては、眼底画像中に含まれる血管以外の領域の割合を与える必要があり、この比率は取得された眼底画像ごとに変動するが、平均的には0.7〜0.9、典型的な例として0.8と設定することができる。   In the above [Equation 10], the subscript “h = 0, hmin” of Σ indicates that h is the sum of 0 to hmin. Therefore, the condition shown in the above [Expression 10] indicates that, of the total number of pixels (Xs × Ys), pixels with a ratio α × 100% have pixel values equal to or less than the pixel value hmin. As the ratio α, it is necessary to give the ratio of the region other than the blood vessel included in the fundus image, and this ratio varies for each acquired fundus image, but on average 0.7 to 0.9, typically As a typical example, 0.8 can be set.

上記〔数式10〕に示す条件を満たす最小値hminが求められたら、次に、画素階調変換手段33は、x=0,・・・,Xs−1;y=0,・・・,Ys−1の全画素に対して、以下の〔数式11〕に従った処理を実行し、コントラスト補正を行う。   Once the minimum value hmin that satisfies the condition shown in [Equation 10] is obtained, the pixel gradation conversion means 33 then selects x = 0,..., Xs−1; y = 0,. The processing according to the following [Formula 11] is executed for all the pixels of −1 to perform contrast correction.

〔数式11〕
Uray(x,y)={Tray(x,y)−hmin}×255×β/(255−hmin)
[Formula 11]
Uray (x, y) = {Tray (x, y) −hmin} × 255 × β / (255−hmin)

上記〔数式11〕において、βは輝度スケーリング値である。輝度スケーリング値βとしては、設定された比率αに依存し、任意に設定することができるが、α=0.8に設定した場合、好ましくは18.0〜22.0、特に好ましい例として20.0とすることができる。Uray(x,y)においては、階調の最小値である“0”が血管候補領域外を示し、血管候補領域は“1”以上、“255”以下となる。血管候補領域の最小値は、階調の最小値付近の値が設定される。本実施形態では、階調の最小値付近の値として、階調の最小値+1を設定しているが、それ以上であってもよい。もちろん、血管候補領域のコントラストを高くするため、階調の最小値+1であることが好ましい。   In the above [Formula 11], β is a luminance scaling value. The luminance scaling value β depends on the set ratio α and can be arbitrarily set. However, when α = 0.8, it is preferably 18.0 to 22.0, particularly preferably 20 .0. In Uray (x, y), “0”, which is the minimum value of the gradation, indicates the outside of the blood vessel candidate region, and the blood vessel candidate region is “1” or more and “255” or less. As the minimum value of the blood vessel candidate region, a value near the minimum value of the gradation is set. In the present embodiment, the minimum gradation value + 1 is set as the value near the minimum gradation value, but it may be more than that. Of course, in order to increase the contrast of the blood vessel candidate region, it is preferable that the minimum gradation value is +1.

<3.1.線状成分強調>
線状成分強調は、トップハット変換を用いて行う。トップハット変換とは、一般に、オープニング処理により得られたオープニング画像を元画像から減じる処理を意味し、撮影時の光源ムラの均一化などに利用される。次に、ステップS700におけるトップハット変換の2つの各手法について詳細に説明する。
<3.1. Linear component enhancement>
The linear component enhancement is performed using the top hat transformation. The top hat conversion generally means a process of subtracting the opening image obtained by the opening process from the original image, and is used for making light source unevenness uniform at the time of photographing. Next, each of the two top hat conversion methods in step S700 will be described in detail.

<3.1.1.第1の手法>
図10は、ステップS700における線状成分強調の第1の手法の処理動作を示すフローチャートである。まず、線状成分強調手段32は、グレースケール変換手段31により得られたグレースケール眼底画像に対して、円形構造要素によるオープニング処理を行う(ステップS710)。一般に、オープニング処理とは、収縮処理および膨張処理の各々を同一回数だけ繰り返し行う処理を意味する。白と黒の二値画像で白を対象としたとき、収縮処理とは、注目画素の周辺に黒い画素があれば黒に置き換えることにより白い画素を削減する処理であり、膨張処理とは、注目画素の周辺に白い画素があれば白に置き換えることにより白い画素を増大させる処理である。
<3.1.1. First Method>
FIG. 10 is a flowchart showing the processing operation of the first method of linear component enhancement in step S700. First, the linear component emphasizing unit 32 performs an opening process using a circular structuring element on the grayscale fundus image obtained by the grayscale conversion unit 31 (step S710). In general, the opening process means a process in which each of the contraction process and the expansion process is repeated the same number of times. When white is targeted in a binary image of white and black, the shrinking process is a process of reducing white pixels by replacing black if there are black pixels around the pixel of interest. This is a process for increasing white pixels by replacing white pixels if there are white pixels around the pixels.

図11は、円形構造要素によるオープニング処理の詳細を示すフローチャートである。まず、線状成分強調手段32は、指定構造要素を用いて収縮処理を行う(ステップS711)。ステップS711の収縮処理では、指定構造要素として円形構造要素を用いる。   FIG. 11 is a flowchart showing details of the opening process by the circular structural element. First, the linear component emphasizing means 32 performs contraction processing using the designated structural element (step S711). In the contraction process in step S711, a circular structural element is used as the designated structural element.

図12は、第1の手法で用いる円形構造要素の一例を示す図である。図12に示すように、第1の手法では、半径7画素、すなわち中心から距離7画素以下を有効とした15×15のマスク画像の形態である円形構造要素を用いる。図12に示すように、15×15の画素のうち、中心から距離7画素以下の画素値は“1”、その他の中心から距離7を超える画素の画素値は“0”である。   FIG. 12 is a diagram illustrating an example of a circular structural element used in the first method. As shown in FIG. 12, the first method uses a circular structure element in the form of a 15 × 15 mask image in which a radius of 7 pixels, that is, a distance of 7 pixels or less from the center is effective. As shown in FIG. 12, among the 15 × 15 pixels, the pixel value at a distance of 7 pixels or less from the center is “1”, and the pixel value of a pixel exceeding the distance 7 from the other center is “0”.

図12に示した円形構造要素はM(u,v)={0,1}(u=−R,・・・0,・・・R;v=−R,・・・0,・・・R)と定義することができる。なお、Rは有効とする半径を示しており、図12の例では、R=7である。半径Rとしては適宜設定することができるが、グレースケール眼底画像Gray(x,y)が1024画素に対しては、R=7程度が好ましい。また、uは図12における横軸、vは図12における縦軸を、それぞれ示す。線状成分強調手段32は、円形構造要素M(u,v)を用いて、上記〔数式9〕に従った処理を実行して得られたグレースケール眼底画像Gray(x,y)に対して、以下の〔数式12〕に従った処理を実行し、収縮画像Eray(x,y)を得る。   The circular structural elements shown in FIG. 12 are M (u, v) = {0, 1} (u = −R,... 0,... R; v = −R,. R). Note that R indicates a valid radius, and R = 7 in the example of FIG. The radius R can be set as appropriate, but for a gray scale fundus image Gray (x, y) of 1024 pixels, R = 7 is preferable. U represents the horizontal axis in FIG. 12, and v represents the vertical axis in FIG. The linear component emphasizing means 32 uses a circular structuring element M (u, v) and performs grayscale fundus image Gray (x, y) obtained by executing the process according to [Formula 9]. Then, processing according to the following [Equation 12] is executed to obtain a contracted image Eray (x, y).

〔数式12〕
Eray(x,y)=MINu=-R,R;v=-R,R[(255−M(u,v)×254)×(Gray(x+u,y+v)+1)−1]
[Formula 12]
Eray (x, y) = MIN u = −R, R; v = −R, R [(255−M (u, v) × 254) × (Gray (x + u, y + v) +1) −1]

上記〔数式12〕において、MINは最小値をとることを示しており、MINの添え字の“u=−R,R;v=−R,R”は、u,vが−RからRの範囲における演算を行うことを示している。すなわち、“x=R,・・・,Xs−R−1;y=R,・・・,Ys−R−1“の各画素Gray(x,y)に対して、“u=−R,R;v=−R,R”の隣接画素内でM(u,v)=1である画素値の最小値に変換を行っている。したがって、図12の例では、円形構造要素の(2R+1)×(2R+1)画素として225画素を用いて演算を行い、その最小値がEray(x,y)として与えられることになる。   In the above [Equation 12], MIN indicates the minimum value, and the subscript “u = −R, R; v = −R, R” of MIN indicates that u and v are from −R to R. It shows performing an operation on a range. That is, for each pixel Gray (x, y) of “x = R,..., Xs−R−1; y = R,. R: Conversion is performed to the minimum pixel value of M (u, v) = 1 in the adjacent pixels of v = −R, R ″. Therefore, in the example of FIG. 12, the calculation is performed using 225 pixels as the (2R + 1) × (2R + 1) pixels of the circular structure element, and the minimum value is given as Ray (x, y).

上記〔数式12〕に従った処理を実行して収縮画像Eray(x,y)が得られたら、このEray(x,y)をGray(x,y)に置き換えて、上記〔数式12〕に従った処理を繰り返し実行することもできる。すなわち、ステップS711における収縮処理を繰り返し実行しても良い。繰り返しの回数は、適宜設定することが可能である。ただし画質劣化を抑えるため、通常は1回に設定し繰り返しを行わない。   When the contracted image Ray (x, y) is obtained by executing the processing according to the above [Formula 12], the Ray (x, y) is replaced with Gray (x, y), and the above [Formula 12] is obtained. It is also possible to repeatedly execute the process. That is, the contraction process in step S711 may be repeatedly executed. The number of repetitions can be set as appropriate. However, in order to suppress image quality deterioration, it is normally set to once and not repeated.

収縮処理を繰り返し実行して収縮画像Eray(x,y)が得られたら、次に、線状成分強調手段32は、指定構造要素を用いて膨張処理を行う(ステップS712)。ステップS712の膨張処理では、収縮処理に用いた円形構造要素を指定構造要素として用いる。すなわち、図12に示した円形構造要素を用いる。線状成分強調手段32は、円形構造要素M(u,v)を用いて、収縮画像Eray(x,y)に対して、以下の〔数式13〕に従った処理を実行し、膨張後の画像Fray(x,y)を得る。   After the contraction process is repeatedly executed and the contracted image Eray (x, y) is obtained, the linear component emphasizing unit 32 performs the expansion process using the designated structural element (step S712). In the expansion process in step S712, the circular structural element used for the contraction process is used as the designated structural element. That is, the circular structural element shown in FIG. 12 is used. The linear component emphasizing means 32 performs processing according to the following [Equation 13] on the contracted image Eray (x, y) using the circular structural element M (u, v), and after expansion, An image Fray (x, y) is obtained.

〔数式13〕
Fray(x,y)=MAXu=-R,R;v=-R,R[M(u,v)×Eray(x+u,y+v)]
[Formula 13]
Fray (x, y) = MAX u = −R, R; v = −R, R [M (u, v) × Eray (x + u, y + v)]

上記〔数式13〕において、MAXは最大値をとることを示しており、MAXの添え字の“u=−R,R;v=−R,R”は、u,vが−RからRの範囲における演算を行うことを示している。すなわち、“x=R,・・・,Xs−R−1;y=R,・・・,Ys−R−1“の各画素Eray(x,y)に対して、“u=−R,R;v=−R,R”の隣接画素内でM(u,v)=1である画素値の最大値に変換を行っている。したがって、図12の例では、円形構造要素の(2R+1)×(2R+1)画素として225画素を用いて演算を行い、その最大値がFray(x,y)として与えられることになる。   In the above [Equation 13], MAX indicates that it takes the maximum value, and the subscript “u = −R, R; v = −R, R” of MAX indicates that u and v are from −R to R. It shows performing an operation on a range. That is, for each pixel Ray (x, y) of “x = R,..., Xs−R−1; y = R,. R: Conversion is performed to the maximum pixel value of M (u, v) = 1 in the adjacent pixels of v = −R, R ″. Therefore, in the example of FIG. 12, the calculation is performed using 225 pixels as the (2R + 1) × (2R + 1) pixels of the circular structure element, and the maximum value is given as Fray (x, y).

上記〔数式13〕に従った処理を実行して膨張後の画像Fray(x,y)が得られたら、このFray(x,y)をEray(x,y)に置き換えて、上記〔数式13〕に従った処理を繰り返し実行することもできる。すなわち、ステップS712における膨張処理を繰り返し実行しても良い。繰り返しの回数は、ステップS711の収縮処理の繰り返しの回数と同じ回数に設定する必要があり、通常は収縮処理とも1回に設定し、繰り返しは行わない。   When the expanded image Ray (x, y) is obtained by executing the processing according to the above [Formula 13], this Ray (x, y) is replaced with the Ray (x, y), and the above [Formula 13 ] Can be repeatedly executed. That is, the expansion process in step S712 may be repeatedly executed. The number of repetitions needs to be set to the same number as the number of repetitions of the contraction process in step S711. Normally, the contraction process is set to one and no repetition is performed.

収縮処理を所定回数繰り返し実行して得られた膨張後の画像Fray(x,y)は、微細な粒状ノイズが削除され、線状成分などの特徴パターンが強調されたオープニング画像となる。ただし、この段階では光源ムラなどの低周波成分が残留する。このオープニング画像が得られたら、次に、線状成分強調手段32は、グレースケール眼底画像からの減算処理を行う(ステップS720)。これにより、グレースケール眼底画像およびオープニング画像に含まれる光源ムラなどの低周波成分がキャンセルされ、オープニング画像で強調された特徴パターンが主として残留する。具体的には、線状成分強調手段32は、元のグレースケール眼底画像Gray(x,y)、オープニング画像Fray(x,y)を用いて、以下の〔数式14〕に従った処理を実行し、線状成分強調画像Tray(x,y)を得る。   The expanded image Fray (x, y) obtained by repeatedly executing the contraction process a predetermined number of times becomes an opening image in which fine granular noise is deleted and a feature pattern such as a linear component is emphasized. However, low frequency components such as light source unevenness remain at this stage. If this opening image is obtained, then the linear component enhancement unit 32 performs a subtraction process from the grayscale fundus image (step S720). As a result, low-frequency components such as light source unevenness included in the grayscale fundus image and the opening image are canceled, and the feature pattern emphasized in the opening image mainly remains. Specifically, the linear component emphasizing unit 32 executes processing according to the following [Equation 14] using the original grayscale fundus image Gray (x, y) and the opening image Ray (x, y). Then, a linear component emphasized image Ray (x, y) is obtained.

〔数式14〕
Tray(x,y)=Gray(x,y)−Fray(x,y)+128
[Formula 14]
Ray (x, y) = Gray (x, y) −Fray (x, y) +128

上記〔数式14〕に示すように、線状成分強調画像Tray(x,y)は、元のグレースケール眼底画像Gray(x,y)、オープニング画像Fray(x,y)の各画素(x=0,・・・,Xs−1;y=0,・・・,Ys−1)に対して差分演算を行い、128だけオフセットを加えたものである。このオフセット加算する整数値は、画素値が0から255の範囲に収まるように画像の階調値256の1/2の値としている。このオフセット加算は、単に差分演算を行うと、画素値が0近傍に集中し一部の画素は負値になるため、画素値が0から255の範囲に収まるように行っている。   As shown in the above [Equation 14], the linear component-enhanced image Ray (x, y) is the original grayscale fundus image Gray (x, y) and each pixel (x = y) of the opening image Ray (x, y). 0,..., Xs-1; y = 0,..., Ys-1), and a difference calculation is performed, and an offset of 128 is added. The integer value to which the offset is added is set to a half value of the gradation value 256 of the image so that the pixel value falls within the range of 0 to 255. This offset addition is performed so that the pixel value falls within the range of 0 to 255 because the pixel value is concentrated in the vicinity of 0 and a part of the pixels has a negative value when the difference calculation is simply performed.

<3.1.2.第2の手法>
図13は、ステップS700における線状成分強調の第2の手法の処理動作を示すフローチャートである。まず、線状成分強調手段32は、グレースケール変換手段31により得られたグレースケール眼底画像に対して、線形構造要素によるオープニング処理を行う(ステップS750)。
<3.1.2. Second method>
FIG. 13 is a flowchart showing the processing operation of the second method of linear component enhancement in step S700. First, the linear component emphasizing unit 32 performs an opening process using a linear structural element on the grayscale fundus image obtained by the grayscale conversion unit 31 (step S750).

図14は、線形構造要素によるオープニング処理の詳細を示すフローチャートである。まず、線状成分強調手段32は、8種の線形構造要素によるオープニング処理を行う(ステップS751)。ステップS751のオープニング処理では、指定構造要素として8種の線形構造要素を用いる。図15は、第2の手法で用いる線形構造要素の一例を示す図である。図15に示すように、第2の手法では、半径7画素、すなわち中心から距離7画素以下を有効とした15×15のマスク画像の形態である線形構造要素を用いる。   FIG. 14 is a flowchart showing details of the opening process by the linear structure element. First, the linear component emphasizing means 32 performs an opening process using eight types of linear structural elements (step S751). In the opening process in step S751, eight types of linear structural elements are used as designated structural elements. FIG. 15 is a diagram illustrating an example of a linear structural element used in the second method. As shown in FIG. 15, in the second method, a linear structural element in the form of a 15 × 15 mask image in which a radius of 7 pixels, that is, a distance of 7 pixels or less from the center is effective is used.

図15に示す線形構造要素は、マスクとしての役割を果たすものであるため、二値画像である。そのため、図15において、“0”と表記された画素の値は“0”であるが、“0”以外の数値が表記された画素の値は、8種類の各方向dに応じて“1”となり、他の方向のとき“0”である。図15における“0”以外の数字は方向を示している。“1”は水平方向(図面左右方向)であり、以後数字が1増えるに従って22.5度間隔で方向が変化する。“2” “4”“6”“8”については、画素の格子状配置の関係から、同一数字の列が直線上に配列することができないため、近傍の区画に配置されている。“234”や“678”などの3桁の数字は、それぞれ“2” “3”“4”の3方向、“6” “7”“8”の3方向のいずれかの方向の場合に、画素値が“1”となることを示している。なお、“9”は中心となる画素を示しており、中心となる画素の値は常に“1”である。   Since the linear structural element shown in FIG. 15 serves as a mask, it is a binary image. Therefore, in FIG. 15, the value of the pixel indicated as “0” is “0”, but the value of the pixel indicated as a numerical value other than “0” is “1” according to each of the eight types of directions d. ”And“ 0 ”in the other direction. Numbers other than “0” in FIG. 15 indicate directions. “1” is the horizontal direction (the horizontal direction in the drawing), and thereafter the direction changes at intervals of 22.5 degrees as the number increases by one. “2”, “4”, “6”, and “8” are arranged in adjacent sections because columns of the same number cannot be arranged on a straight line because of the lattice arrangement of pixels. Three-digit numbers such as “234” and “678” are respectively in the three directions “2” “3” “4” and “6” “7” “8”. It shows that the pixel value is “1”. Note that “9” indicates the center pixel, and the value of the center pixel is always “1”.

図15に示すように、線形構造要素は、円形構造要素の半径Rの2倍の長さで画素幅が1画素であって、22.5度間隔の直線の少なくとも近傍に配置され、8方向を定義したものとなる。実際には、各方向において画素値“1”が与えられる連続する画素は、直線となることが好ましいが、線形構造要素の全体画素数が少ない場合は、必ずしも直線にならない。そのため、図15の例では、“2” “4”“6”“8”で示す方向については、直線ではなく、画素値“1”となる画素は、22.5度間隔の直線の近傍に配置されることになる。   As shown in FIG. 15, the linear structuring element is twice as long as the radius R of the circular structuring element, has a pixel width of 1 pixel, and is arranged at least in the vicinity of straight lines with an interval of 22.5 degrees, and has eight directions. Is defined. Actually, it is preferable that the continuous pixels to which the pixel value “1” is given in each direction be a straight line, but it is not always a straight line when the total number of pixels of the linear structural element is small. Therefore, in the example of FIG. 15, the direction indicated by “2”, “4”, “6”, and “8” is not a straight line, but the pixel having the pixel value “1” is in the vicinity of a straight line having an interval of 22.5 degrees. Will be placed.

実際に用いる線形構造要素は、中心から半径7画素の条件を追加したものとなる。すなわち、図15に示した線形構造要素と、図16に示した円形構造要素の論理積(AND)をとったものとなる。例えば、方向d=1の場合は、図16に示したような二値のマスク画像が得られる。また、方向d=2の場合は、図17に示したような二値のマスク画像が得られる。   The actually used linear structural element is obtained by adding a condition of a radius of 7 pixels from the center. That is, the logical product (AND) of the linear structural element shown in FIG. 15 and the circular structural element shown in FIG. 16 is obtained. For example, when the direction d = 1, a binary mask image as shown in FIG. 16 is obtained. When the direction d = 2, a binary mask image as shown in FIG. 17 is obtained.

図15に示した線形構造要素はM(d,u,v)={0,1}(d=1,・・・,8;u=−R,・・・,0,・・・,R;v=−R,・・・,0,・・・,R)と定義することができる。なお、Rは有効とする半径を示しており、図15の例では、R=7である。また、uは図15における横軸、vは図15における縦軸を、それぞれ示す。線状成分強調手段32は、線形構造要素M(d,u,v)を用いて、上記〔数式9〕に従った処理を実行して得られたグレースケール眼底画像Gray(x,y)に対して、以下の〔数式15〕に従った処理を実行し、収縮画像Edray(x,y)を得る。   The linear structural elements shown in FIG. 15 are M (d, u, v) = {0, 1} (d = 1,..., 8; u = −R,..., 0,. V = −R,..., 0,. Note that R indicates a valid radius, and R = 7 in the example of FIG. U represents the horizontal axis in FIG. 15, and v represents the vertical axis in FIG. The linear component emphasizing means 32 uses the linear structural element M (d, u, v) to the gray scale fundus image Gray (x, y) obtained by executing the process according to [Formula 9]. On the other hand, processing according to the following [Equation 15] is executed to obtain a contracted image Eray (x, y).

〔数式15〕
Edray(d,x,y)=MINu=-R,R;v=-R,R[(255−M(d,u,v)×254)×(Gray(x+u,y+v)+1)−1]
[Formula 15]
Eray (d, x, y) = MIN u = −R, R; v = −R, R [(255−M (d, u, v) × 254) × (Gray (x + u, y + v) +1) −1] ]

上記〔数式15〕において、MINは最小値をとることを示しており、MINの添え字の“u=−R,R;v=−R,R”は、u,vが−RからRの範囲における演算を行うことを示している。すなわち、“x=R,・・・,Xs−R−1;y=R,・・・,Ys−R−1“の各画素Gray(x,y)に対して、“u=−R,R;v=−R,R”の隣接画素内でM(u,v)=1である画素値の最小値に変換を行っている。したがって、図15の例では、線形構造要素の(2R+1)×(2R+1)画素として225画素を用いて演算を行い、その最小値がEdray(x,y)として与えられることになる。   In the above [Expression 15], MIN indicates the minimum value, and the subscript “u = −R, R; v = −R, R” of MIN indicates that u and v are from −R to R. It shows performing an operation on a range. That is, for each pixel Gray (x, y) of “x = R,..., Xs−R−1; y = R,. R: Conversion is performed to the minimum pixel value of M (u, v) = 1 in the adjacent pixels of v = −R, R ″. Therefore, in the example of FIG. 15, calculation is performed using 225 pixels as the (2R + 1) × (2R + 1) pixels of the linear structure element, and the minimum value is given as Eray (x, y).

上記〔数式15〕に従った処理を実行して収縮画像Edray(d,x,y)が得られたら、このEdray(d,x,y)をGray(x,y)に置き換えて、上記〔数式15〕に従った処理を繰り返し実行することもできる。すなわち、第1の手法のステップS711における収縮処理と同様、繰り返し実行しても良い。繰り返しの回数は、適宜設定することが可能である。ただし、通常は画質劣化を抑えるため、1回に設定し繰り返しは行わない。8つの各方向dについて行うことにより、d=1〜8の8種の収縮画像Edray(d,x,y)が得られる。   When the contracted image Eray (d, x, y) is obtained by executing the processing according to [Equation 15], this Eray (d, x, y) is replaced with Gray (x, y), and the above [ It is also possible to repeatedly execute the processing according to Equation 15]. That is, similar to the contraction process in step S711 of the first method, it may be repeatedly executed. The number of repetitions can be set as appropriate. However, it is normally set once and not repeated in order to suppress image quality deterioration. By performing for each of the eight directions d, eight kinds of contracted images Eray (d, x, y) of d = 1 to 8 are obtained.

収縮処理を繰り返し実行して8種の収縮画像Edray(d,x,y)が得られたら、次に、線状成分強調手段32は、収縮処理に用いた線形構造要素を指定構造要素として用いて膨張処理を行う。具体的には、線形構造要素M(d,u,v)を用いて、収縮画像Edray(d,x,y)に対して、以下の〔数式16〕に従った処理を実行し、膨張後の画像Fdray(d,x,y)を得る。   After the contraction process is repeatedly executed and eight kinds of contracted images Eray (d, x, y) are obtained, the linear component emphasizing means 32 then uses the linear structural element used for the contraction process as the designated structural element. The expansion process is performed. Specifically, using the linear structural element M (d, u, v), the contracted image Eray (d, x, y) is subjected to processing according to the following [Equation 16], and after expansion Image Fdray (d, x, y) is obtained.

〔数式16〕
Fdray(d,x,y)=MAXu=-R,R;v=-R,R[M(d,u,v)×Edray(d,x+u,y+v)]
[Formula 16]
Fdray (d, x, y) = MAX u = −R, R; v = −R, R [M (d, u, v) × Edray (d, x + u, y + v)]

上記〔数式16〕において、MAXは最大値をとることを示しており、MAXの添え字の“u=−R,R;v=−R,R”は、u,vが−RからRの範囲における演算を行うことを示している。すなわち、“x=R,・・・,Xs−R−1;y=R,・・・,Ys−R−1“の各画素Edray(d,x,y)に対して、“u=−R,R;v=−R,R”の隣接画素内でM(d,u,v)=1である画素値の最大値に変換を行っている。したがって、図15の例では、線形構造要素の(2R+1)×(2R+1)画素として225画素を用いて演算を行い、その最大値がFdray(d,x,y)として与えられることになる。   In the above [Expression 16], MAX indicates the maximum value, and the subscript “u = −R, R; v = −R, R” of MAX indicates that u and v are from −R to R. It shows performing an operation on a range. That is, for each pixel Edward (d, x, y) of “x = R,..., Xs−R−1; y = R,. R, R; v = −R, R ″ is converted into the maximum pixel value of M (d, u, v) = 1 in the adjacent pixels. Therefore, in the example of FIG. 15, the calculation is performed using 225 pixels as (2R + 1) × (2R + 1) pixels of the linear structure element, and the maximum value is given as Fdray (d, x, y).

上記〔数式16〕に従った処理を実行して膨張後の画像Fdray(d,x,y)が得られたら、このFdray(d,x,y)をEdray(d,x,y)に置き換えて、上記〔数式16〕に従った処理を繰り返し実行することもできる。すなわち、ステップS712における膨張処理と同様、繰り返し実行しても良い。繰り返しの回数は、収縮処理の繰り返しの回数と同じ回数にする必要があり、通常は収縮処理とも1回に設定し繰り返しは行わない。8つの各方向dについて行うことにより、d=1〜8の8種の膨張後の画像Fdray(d,x,y)が得られる。収縮および膨張を行った結果得られる画像は、線形オープニング画像Fdray(d,x,y)として得られる。   When the expanded image Fdray (d, x, y) is obtained by executing the processing according to the above [Equation 16], this Fdray (d, x, y) is replaced with Edray (d, x, y). Thus, the processing according to the above [Equation 16] can be repeatedly executed. That is, similar to the expansion process in step S712, it may be repeatedly executed. The number of repetitions needs to be the same as the number of repetitions of the contraction process. Normally, the contraction process is set to one and no repetition is performed. By performing for each of the eight directions d, eight types of expanded images Fdray (d, x, y) of d = 1 to 8 are obtained. The image obtained as a result of the contraction and expansion is obtained as a linear opening image Fdray (d, x, y).

次に、線状成分強調手段32は、8種の線形オープニング画像の最大値画像を作成する処理を行う(ステップS752)。具体的には、以下の〔数式17〕に従った処理を実行し、最大値画像Lray(x,y)を得る。   Next, the linear component emphasizing means 32 performs a process of creating a maximum value image of the eight types of linear opening images (step S752). Specifically, processing according to the following [Equation 17] is executed to obtain a maximum value image Lray (x, y).

〔数式17〕
Lray(x,y)=MAXd=1,8Fdray(d,x,y)
[Formula 17]
Lray (x, y) = MAX d = 1,8 Fdray (d, x, y)

上記〔数式17〕において、MAXは最大値をとることを示しており、MAXの添え字の“d=1,8”は、8種の全ての線形オープニング画像Fdray(d,x,y)における演算を行うことを示している。すなわち、各画素(x,y)について、8種の線形オープニング画像Fdray(d,x,y)の最大値を取得する処理を行っている。この結果、最大値の画像である代表線形オープニング画像Lray(x,y)が得られる。   In the above [Equation 17], MAX indicates that it takes the maximum value, and the subscript “d = 1, 8” of MAX is in all eight types of linear opening images Fdray (d, x, y). It shows performing an operation. That is, for each pixel (x, y), a process of acquiring the maximum value of eight types of linear opening images Fdray (d, x, y) is performed. As a result, a representative linear opening image Lray (x, y) that is an image of the maximum value is obtained.

次に、線状成分強調手段32は、ステップS750において得られた代表線形オープニング画像Lray(x,y)に対して、円形構造要素によるオープニング処理を行う(ステップS760)。具体的には、第1の手法におけるステップS710と同様の処理を行う。まず、線状成分強調手段32は、指定構造要素である円形構造要素を用いて収縮処理を行う。ステップS760における収縮処理でも、図12に示した円形構造要素M(u,v)を用いる。線状成分強調手段32は、円形構造要素M(u,v)を用いて、線状成分強調画像Lray(x,y)に対して、以下の〔数式18〕に従った処理を実行し、収縮画像ELray(x,y)を得る。   Next, the linear component emphasizing unit 32 performs an opening process using a circular structuring element on the representative linear opening image Lray (x, y) obtained in step S750 (step S760). Specifically, the same processing as step S710 in the first method is performed. First, the linear component emphasizing unit 32 performs contraction processing using a circular structural element that is a designated structural element. Also in the contraction process in step S760, the circular structural element M (u, v) shown in FIG. 12 is used. The linear component emphasizing means 32 performs processing according to the following [Equation 18] on the linear component emphasized image Lray (x, y) using the circular structural element M (u, v), A contracted image ELray (x, y) is obtained.

〔数式18〕
ELray(x,y)=MINu=-R,R;v=-R,R[(255−M(u,v)×254)×(Lray(x+u,y+v)+1)−1]
[Formula 18]
ELray (x, y) = MIN u = −R, R; v = −R, R [(255−M (u, v) × 254) × (Lray (x + u, y + v) +1) −1]

上記〔数式18〕において、MINは最小値をとることを示しており、MINの添え字の“u=−R,R;v=−R,R”は、u,vが−RからRの範囲における演算を行うことを示している。すなわち、“x=R,・・・,Xs−R−1;y=R,・・・,Ys−R−1“の各画素Lray(x,y)に対して、“u=−R,R;v=−R,R”の隣接画素内でM(u,v)=1である画素値の最小値に変換を行っている。したがって、図12の例では、円形構造要素の(2R+1)×(2R+1)画素として225画素を用いて演算を行い、その最小値がELray(x,y)として与えられることになる。   In the above [Formula 18], MIN indicates that it takes the minimum value, and the subscript “u = −R, R; v = −R, R” of MIN indicates that u and v are from −R to R. It shows performing an operation on a range. That is, for each pixel Lray (x, y) of “x = R,..., Xs−R−1; y = R,. R: Conversion is performed to the minimum pixel value of M (u, v) = 1 in the adjacent pixels of v = −R, R ″. Therefore, in the example of FIG. 12, calculation is performed using 225 pixels as (2R + 1) × (2R + 1) pixels of the circular structure element, and the minimum value is given as ELray (x, y).

上記〔数式18〕に従った処理を実行して収縮画像ELray(x,y)が得られたら、このELray(x,y)をLray(x,y)に置き換えて、上記〔数式18〕に従った処理を繰り返し実行することもできる。すなわち、収縮処理を繰り返し実行しても良い。繰り返しの回数は、適宜設定することが可能である。ただし、通常は画質劣化を抑えるため1回に設定し、繰り返しは行わない。   When the contracted image ELray (x, y) is obtained by executing the processing according to the above [Equation 18], this ELray (x, y) is replaced with Lray (x, y), and the above [Equation 18] is obtained. It is also possible to repeatedly execute the process. That is, the contraction process may be repeatedly executed. The number of repetitions can be set as appropriate. However, in general, it is set to once to suppress image quality deterioration and is not repeated.

収縮処理を繰り返し実行して収縮画像ELray(x,y)が得られたら、次に、線状成分強調手段32は、指定構造要素である円形構造要素を用いて膨張処理を行う。ステップS760における膨張処理でも、収縮処理に用いた図12に示す円形構造要素M(u,v)を用いる。線状成分強調手段32は、円形構造要素M(u,v)を用いて、収縮画像ELray(x,y)に対して、以下の〔数式19〕に従った処理を実行し、膨張後の画像FLray(x,y)を得る。   When the contraction process is repeatedly executed and the contraction image ELray (x, y) is obtained, the linear component emphasizing unit 32 then performs the expansion process using the circular structural element that is the designated structural element. Also in the expansion process in step S760, the circular structural element M (u, v) shown in FIG. 12 used for the contraction process is used. The linear component emphasizing means 32 performs processing according to the following [Equation 19] on the contracted image ELray (x, y) using the circular structural element M (u, v), and after expansion, An image FLray (x, y) is obtained.

〔数式19〕
FLray(x,y)=MAXu=-R,R;v=-R,R[M(u,v)×ELray(x+u,y+v)]
[Formula 19]
FLray (x, y) = MAX u = −R, R; v = −R, R [M (u, v) × ELray (x + u, y + v)]

上記〔数式19〕において、MAXは最大値をとることを示しており、MAXの添え字の“u=−R,R;v=−R,R”は、u,vが−RからRの範囲における演算を行うことを示している。すなわち、“x=R,・・・,Xs−R−1;y=R,・・・,Ys−R−1“の各画素ELray(x,y)に対して、“u=−R,R;v=−R,R”の隣接画素内でM(u,v)=1である画素値の最大値に変換を行っている。したがって、図12の例では、円形構造要素の(2R+1)×(2R+1)画素として225画素を用いて演算を行い、その最大値がFray(x,y)として与えられることになる。   In the above [Equation 19], MAX indicates that it takes the maximum value, and the subscript “u = −R, R; v = −R, R” of MAX indicates that u and v are from −R to R. It shows performing an operation on a range. That is, for each pixel ELray (x, y) of “x = R,..., Xs−R−1; y = R,. R: Conversion is performed to the maximum pixel value of M (u, v) = 1 in the adjacent pixels of v = −R, R ″. Therefore, in the example of FIG. 12, the calculation is performed using 225 pixels as the (2R + 1) × (2R + 1) pixels of the circular structure element, and the maximum value is given as Fray (x, y).

上記〔数式19〕に従った処理を実行して膨張後の画像FLray(x,y)が得られたら、このFLray(x,y)をELray(x,y)に置き換えて、上記〔数式19〕に従った処理を繰り返し実行することもできる。すなわち、膨張処理を繰り返し実行しても良い。繰り返しの回数は、収縮処理の繰り返しの回数と同じ回数に設定する必要があるが、通常は収縮処理とも1回に設定し繰り返しは行わない。   When the expanded image FLray (x, y) is obtained by executing the processing according to the above [Equation 19], this FLray (x, y) is replaced with ELray (x, y), and the above [Equation 19 ] Can be repeatedly executed. That is, the expansion process may be repeatedly executed. The number of repetitions needs to be set to the same number as the number of repetitions of the contraction process, but normally the contraction process is set to one and is not repeated.

収縮処理を所定回数繰り返し実行して得られた膨張後の画像FLray(x,y)は、微細な粒状ノイズが削除された円形オープニング画像となる。この円形オープニング画像が得られたら、次に、線状成分強調手段32は、代表線形オープニング画像からの減算処理を行う(ステップS770)。具体的には、線状成分強調手段32は、代表線形オープニング画像Lray(x,y)、円形オープニング画像FLray(x,y)を用いて、以下の〔数式20〕に従った処理を実行し、線状成分強調画像Tray(x,y)を得る。   An expanded image FLray (x, y) obtained by repeatedly executing the contraction process a predetermined number of times becomes a circular opening image from which fine granular noise has been deleted. If this circular opening image is obtained, then the linear component enhancement means 32 performs a subtraction process from the representative linear opening image (step S770). Specifically, the linear component emphasizing unit 32 executes processing according to the following [Equation 20] using the representative linear opening image Lray (x, y) and the circular opening image FLray (x, y). Then, a linear component emphasized image Tray (x, y) is obtained.

〔数式20〕
Tray(x,y)=Lray(x,y)−FLray(x,y)+128
[Formula 20]
Ray (x, y) = Lray (x, y) −FLray (x, y) +128

上記〔数式20〕に示すように、線状成分強調画像Tray(x,y)は、代表線形オープニング画像Lray(x,y)、円形オープニング画像FLray(x,y)の各画素(x=0,・・・,Xs−1;y=0,・・・,Ys−1)に対して差分演算を行い、128を加算したものである。オフセット加算する整数値は、画素値0から255の範囲に収まるように画像の階調値256の1/2の値としている。単に差分演算を行うと、画素値が0近傍に集中し一部の画素が負値になる。したがって、画素値0から255の範囲に収まるようにオフセットを加えている。   As shown in the above [Equation 20], the linear component enhanced image Ray (x, y) is represented by each pixel (x = 0) of the representative linear opening image Lray (x, y) and the circular opening image FLray (x, y). ,..., Xs-1; y = 0,..., Ys-1), a difference calculation is performed, and 128 is added. The integer value to which the offset is added is a half value of the gradation value 256 of the image so that it falls within the pixel value range of 0 to 255. If the difference calculation is simply performed, the pixel values are concentrated in the vicinity of 0, and some pixels become negative values. Therefore, an offset is added so that the pixel value falls within the range of 0 to 255.

第2の手法では、8種類の方向に従って8種の線形オープニング画像に対して処理を行うため、22.5度の均等間隔で変更させた各方向に均等に粒状成分の抽出を抑えることができる。作成する画像の数も方向に応じた8個だけであるため、演算処理の負荷を抑えることができる。   In the second method, since processing is performed on eight types of linear opening images according to eight types of directions, extraction of granular components can be suppressed evenly in each direction changed at an equal interval of 22.5 degrees. . Since the number of images to be created is only eight according to the direction, it is possible to reduce the load of the arithmetic processing.

<3.2.血管強調事例>
図18、図19を用いて血管強調事例について説明する。図18は、血管強調画像変換手段30において、第1の手法の線状成分強調を行った血管強調事例を示す図である。図18(a)は、撮影により得られたカラー眼底画像である。図18(b)は、図18(a)に示したカラー眼底画像を、グレースケール変換手段31により変換して得られたグレースケール眼底画像Grayである。図18(c)は、図18(b)に示したグレースケール眼底画像Grayを、線状成分強調手段32(ステップS710,S720)により変換して得られた線状成分強調画像Trayである。図18(d)は、図18(c)に示した線状成分強調画像Trayを、画素階調変換手段33により変換して得られた血管強調画像Urayである。図18(d)に示した血管強調画像Urayでは、血管が適切に抽出されているが、粒状成分の残留が目立つ。
<3.2. Blood vessel enhancement case>
A blood vessel enhancement example will be described with reference to FIGS. FIG. 18 is a diagram illustrating a blood vessel enhancement example in which the linear component enhancement of the first technique is performed in the blood vessel enhancement image conversion unit 30. FIG. 18A is a color fundus image obtained by photographing. FIG. 18B is a grayscale fundus image Gray obtained by converting the color fundus image shown in FIG. 18A by the grayscale conversion unit 31. FIG. 18C is a linear component enhanced image Ray obtained by converting the grayscale fundus image Gray shown in FIG. 18B by the linear component enhancing means 32 (steps S710 and S720). FIG. 18D is a blood vessel emphasized image Uray obtained by converting the linear component emphasized image Ray shown in FIG. In the blood vessel emphasized image Uray shown in FIG. 18 (d), blood vessels are appropriately extracted, but residual particulate components are conspicuous.

図19は、血管強調画像変換手段30において、第2の手法の線状成分強調を行った血管強調事例を示す図である。図19(a)は、図18(a)と同じものであり、撮影により得られたカラー眼底画像である。図19(b)は、図19(a)に示したカラー眼底画像を、グレースケール変換手段31により変換して得られたグレースケール眼底画像Grayであり、図18(b)と同一である。図19(c)は、図19(b)に示したグレースケール眼底画像Grayを、線状成分強調手段32(ステップS750〜S770)により変換して得られた線状成分強調画像Trayである。図19(d)は、図19(c)に示した線状成分強調画像Trayを、画素階調変換手段33により変換して得られた血管強調画像Urayである。図19(d)に示した血管強調画像Urayでは、血管が適切に抽出されており、図18(d)に比べ残留する粒状成分が低減していることがわかる。   FIG. 19 is a diagram illustrating a blood vessel enhancement example in which the linear component enhancement of the second technique is performed in the blood vessel enhancement image conversion unit 30. FIG. 19A is the same as FIG. 18A and shows a color fundus image obtained by photographing. FIG. 19B is a grayscale fundus image Gray obtained by converting the color fundus image shown in FIG. 19A by the grayscale conversion unit 31, and is the same as FIG. 18B. FIG. 19C is a linear component enhanced image Ray obtained by converting the grayscale fundus image Gray shown in FIG. 19B by the linear component enhancing means 32 (steps S750 to S770). FIG. 19D is a blood vessel emphasized image Uray obtained by converting the linear component emphasized image Ray shown in FIG. In the blood vessel emphasized image Uray shown in FIG. 19D, it can be seen that blood vessels are appropriately extracted, and the remaining granular components are reduced as compared with FIG.

<4.整合処理事例>
図20〜図23を用いて整合処理事例について説明する。図20、図21は、特許文献1として示した従来技術による整合処理の事例を示す図である。図20は、整合処理前、図21は整合処理後を示している。図20、図21のいずれにおいても、左側の画像は、2011年撮影のものであり、右側の画像は、1985年撮影のものである。図20、図21の例では、整合処理、すなわち倍率・角度・位置の補正を行うことにより、図20においてオーバーレイ表示における両画像の血管部の色が赤と緑に明確に分離されていたのに対し、図21では同血管部の殆どが赤と緑の混合色である黄色に変わり、血管部の位置ずれが小さくなっていることがわかる。しかし、図21のオーバーレイ表示の左端部を良く観察すると、赤と緑に分離している血管も部分的に残留している様子が何となく分かるが、全体的にオーバーレイ像が不鮮明なため、どの程度の位置ずれがあるか明確に解析できず、ましては定量的に解析することは難しい。これは、従来の処理では、整合度合いを視覚的に明確に提示できないため、整合処理を精度良く行えないことを示している。
<4. Example of consistent processing>
Examples of matching processing will be described with reference to FIGS. 20 and 21 are diagrams showing examples of matching processing according to the prior art shown as Patent Document 1. FIG. FIG. 20 shows before alignment processing, and FIG. 21 shows after alignment processing. 20 and 21, the left image is taken in 2011, and the right image is taken in 1985. In the example of FIGS. 20 and 21, the color of the blood vessel portion of both images in the overlay display in FIG. 20 is clearly separated into red and green by performing alignment processing, that is, correction of magnification, angle, and position. On the other hand, in FIG. 21, it can be seen that most of the blood vessel portion changes to yellow, which is a mixed color of red and green, and the positional deviation of the blood vessel portion is reduced. However, if the left end portion of the overlay display in FIG. 21 is observed well, it can be seen that the blood vessels separated into red and green partially remain. However, since the overlay image is unclear overall, It is difficult to analyze clearly whether there is a position shift, and it is difficult to analyze quantitatively. This indicates that the matching process cannot be performed with high accuracy because the matching degree cannot be clearly presented visually in the conventional process.

図22、図23は、図20、図21に使用されているのと全く同じ眼底画像を用いて、本発明による整合処理を行った事例を示す図である。図22は、整合処理前、図23は整合処理後を示している。図22、図23のいずれにおいても、図20、図21と同様に、左側の画像は、2011年撮影のものであり、右側の画像は、1985年撮影のものである。本発明では、血管強調処理を行った後、整合処理を行っているため、整合処理前の図22と整合処理後の図23との差が明瞭で、図23に示すように、整合処理を行うことにより、オーバーレイ表示における両画像の血管部が重なった部分の色が赤と緑の混合色である黄色に明確に変わり、顕著に位置ずれが小さくなっていることがわかる。図21では不鮮明であった、オーバーレイ表示の左端部については、赤と緑に分離している血管も明瞭に識別でき、約26年の歳月により部分的に血管走行が変化している様子が明瞭に分かり、描出されている全血管の中で整合している血管領域の割合も定量的に算出可能である。これは、血管候補領域を基準にして整合処理を行うことにより整合の精度が高まるとともに、整合処理後の不整合の度合いを定量的に把握でき、経年により血管走行の変化や新生血管の発生を分析できることを示している。   FIGS. 22 and 23 are diagrams showing an example in which the alignment processing according to the present invention is performed using the same fundus image used in FIGS. 20 and 21. FIG. 22 shows before the alignment process, and FIG. 23 shows after the alignment process. 22 and 23, the left image is taken in 2011, and the right image is taken in 1985, as in FIGS. In the present invention, since the alignment process is performed after the blood vessel emphasis process is performed, the difference between FIG. 22 before the alignment process and FIG. 23 after the alignment process is clear. As shown in FIG. By doing so, it can be seen that the color of the overlapped portion of both images in the overlay display is clearly changed to yellow, which is a mixed color of red and green, and the positional deviation is remarkably reduced. In the left end portion of the overlay display, which is unclear in FIG. 21, the blood vessels separated into red and green can be clearly identified, and the state of the blood vessel running partially changes with the age of about 26 years. It is also possible to quantitatively calculate the proportion of blood vessel regions that are clearly understood and matched among all the blood vessels that are depicted. This improves alignment accuracy by performing matching processing based on the blood vessel candidate region, and quantitatively grasps the degree of inconsistency after the matching processing, and changes in vascular running and generation of new blood vessels over time. It shows that it can be analyzed.

<5.変形例等>
以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限定されず、種々の変形が可能である。例えば、上記実施形態では、線形構造要素においてd=1・・・8として8方向を設定したが、図15に示す線形構造要素を7方向以下に削減するか9方向以上に拡充し、より粗いまたは細かい角度ステップで線形オープニング画像を作成するようにしてもよい。
<5. Modified example>
The preferred embodiments of the present invention have been described above. However, the present invention is not limited to the above embodiments, and various modifications can be made. For example, in the above embodiment, eight directions are set as d = 1... 8 in the linear structural element, but the linear structural element shown in FIG. 15 is reduced to 7 directions or less or expanded to 9 directions or more, and is coarser. Alternatively, a linear opening image may be created with fine angle steps.

また、上記実施形態では、撮影により得られた眼底画像としてフルカラー画像を用いたが、近年業務用のデジタルカメラの階調は10ビット以上に拡大しており、各色1024階調等のフルカラー画像を取得することも可能になっており、より階調数の多いカラー画像を用いてもよい。   In the above embodiment, a full-color image is used as a fundus image obtained by photographing. However, in recent years, the gradation of a commercial digital camera has been expanded to 10 bits or more, and a full-color image such as 1024 gradations for each color is used. It is also possible to obtain a color image having a larger number of gradations.

また、上記実施形態では、血管強調画像整合手段40により、合格と判定された際の補正パラメータを用いて、整合性指標算出手段50により整合性指標を算出するようにしたが、算出した整合性指標が所定の条件を満たした場合に、自動的に合格と判定するようにしてもよい。   In the above-described embodiment, the consistency index is calculated by the consistency index calculation unit 50 using the correction parameter at the time when the blood vessel enhancement image matching unit 40 determines pass, but the calculated consistency is calculated. When the index satisfies a predetermined condition, it may be automatically determined as acceptable.

1・・・CPU(Central Processing Unit)
2・・・RAM(Random Access Memory)
3・・・記憶装置
4・・・キー入力I/F
5・・・データ入出力I/F
6・・・表示部
7・・・イメージスキャナ
10・・・画像デジタル化手段
20・・・眼底画像前処理手段
30・・・血管強調画像変換手段
31・・・グレースケール変換手段
32・・・線状成分強調手段
33・・・画素階調変換手段
40・・・血管強調画像整合手段
50・・・整合性指標算出手段
100・・・眼底画像処理装置
1 ... CPU (Central Processing Unit)
2 ... RAM (Random Access Memory)
3 ... Storage device 4 ... Key input I / F
5. Data input / output I / F
DESCRIPTION OF SYMBOLS 6 ... Display part 7 ... Image scanner 10 ... Image digitization means 20 ... Fundus image pre-processing means 30 ... Blood vessel emphasis image conversion means 31 ... Gray scale conversion means 32 ... Linear component emphasis means 33 ... Pixel gradation conversion means 40 ... Blood vessel emphasis image alignment means 50 ... Consistency index calculation means 100 ... Fundus image processing apparatus

Claims (10)

複数の眼底画像の各々を、グレースケール形式に変換した後、血管候補領域を強調し、血管強調画像を作成する血管強調画像変換手段と、
前記複数の血管強調画像の中で1つを基準血管強調画像に設定し、前記基準血管強調画像以外の血管強調画像の各々を補正血管強調画像に設定し、各補正血管強調画像について、前記基準血管強調画像と倍率、角度および位置を整合させる補正を行う血管強調画像整合手段と、
前記血管強調画像整合手段による補正後の各補正血管強調画像と、前記基準血管強調画像との整合性指標を算出する整合性指標算出手段と、
を有することを特徴とする眼底画像処理装置。
A blood vessel-enhanced image conversion means for emphasizing a blood vessel candidate region and creating a blood vessel-enhanced image after converting each of a plurality of fundus images into a grayscale format;
One of the plurality of blood vessel emphasized images is set as a reference blood vessel emphasized image, and each of the blood vessel emphasized images other than the reference blood vessel emphasized image is set as a corrected blood vessel emphasized image. A blood vessel-enhanced image matching means for performing correction for matching the blood vessel-enhanced image with the magnification, angle and position;
Consistency index calculation means for calculating a consistency index between each corrected blood vessel emphasized image after correction by the blood vessel emphasized image matching means and the reference blood vessel emphasized image;
A fundus image processing apparatus comprising:
複数の眼底画像のうち写真記録媒体で記録されている眼底画像をデジタル化する画像デジタル化手段と、
前記デジタル化された眼底画像に対して、眼底に対応する領域である眼底領域を含む範囲を抽出し、所定の画素数になるように縦横同一倍率で変倍処理を施し、前記眼底領域以外の画素を削除または付加しながら、画素数が統一された眼底画像に変換する眼底画像前処理手段と、をさらに有し、
前記画素数が統一された後の眼底画像に対して、前記血管強調画像変換手段が処理を行うことを特徴とする請求項1に記載の眼底画像処理装置。
Image digitizing means for digitizing a fundus image recorded on a photographic recording medium among a plurality of fundus images;
A range including the fundus area corresponding to the fundus is extracted from the digitized fundus image, and a scaling process is performed at the same vertical and horizontal magnification so as to obtain a predetermined number of pixels. Fundus image preprocessing means for converting into a fundus image with a uniform number of pixels while deleting or adding pixels;
The fundus image processing apparatus according to claim 1, wherein the blood vessel emphasized image conversion unit performs processing on the fundus image after the number of pixels is unified.
前記眼底画像前処理手段は、前記眼底領域内で、輝度が所定値より大きい領域である乳頭領域を認識し、前記乳頭領域が前記眼底領域内の上方または下方に位置する場合、前記眼底画像が左眼に対応する場合は左方に、前記眼底画像が右眼に対応する場合は右方に位置するように、前記眼底画像に対して所定の角度単位で回転させるようにしていることを特徴とする請求項2に記載の眼底画像処理装置。   The fundus image pre-processing means recognizes a nipple region whose luminance is a region larger than a predetermined value in the fundus region, and when the nipple region is located above or below the fundus region, the fundus image is Rotating the fundus image by a predetermined angle unit so that the left eye corresponds to the left eye, and the right eye when the fundus image corresponds to the right eye. The fundus image processing apparatus according to claim 2. 前記眼底画像前処理手段は、前記眼底領域に外接する矩形領域の高さ方向の画素数Hが所定の画素数Syになるようにするとともに、前記矩形領域の幅方向の画素数Wに対してW×Sy/Hになるように変倍処理を施し、変倍処理後の前記矩形領域の幅W’が所定の画素数Sxに対して、W’<Sxの場合、前記矩形領域の幅がSxになるように、前記矩形領域の両端に背景画素を付加し、W’>Sxの場合、前記矩形領域の幅がSxになるように、前記矩形領域の両端より背景画素を削除するようにしていることを特徴とする請求項2または請求項3に記載の眼底画像処理装置。   The fundus image pre-processing means makes the number of pixels H in the height direction of the rectangular region circumscribing the fundus region equal to a predetermined number of pixels Sy, and also with respect to the number of pixels W in the width direction of the rectangular region. When scaling processing is performed so that W × Sy / H, and the width W ′ of the rectangular area after scaling processing is W ′ <Sx with respect to a predetermined number of pixels Sx, the width of the rectangular area is Background pixels are added to both ends of the rectangular area so as to be Sx, and when W ′> Sx, background pixels are deleted from both ends of the rectangular area so that the width of the rectangular area is Sx. The fundus image processing apparatus according to claim 2, wherein the fundus image processing apparatus is provided. 前記血管強調画像変換手段は、
カラー形式の眼底画像に対し、各色成分に所定の演算を施し、第1の色成分が大きい程、画素値が小さくなるように変換してグレースケール形式に変換するグレースケール変換手段と、
前記グレースケール形式の変換された眼底画像に対して、所定の構造要素を用いてオープニング処理を行い血管候補領域の輝度を一定以上に揃えた線状成分強調画像を作成する線状成分強調手段と、
前記線状成分強調画像において、所定の条件を満たす画素値を、変換後の血管強調画像の階調の最小値付近の値になるように置き換え、前記所定の条件を満たす画素値以上となる前記線状成分強調画像の画素値が、階調の最小値付近の値から最大値の範囲になるように画素の階調を補正し、血管強調画像を作成する画素階調変換手段と、
を有することを特徴とする請求項1から請求項4のいずれか一項に記載の眼底画像処理装置。
The blood vessel emphasized image converting means includes
A gray scale conversion unit that performs a predetermined calculation on each color component for a fundus image in a color format and converts the pixel value to be smaller as the first color component is larger and converts the pixel value to a gray scale format;
Linear component enhancement means for performing an opening process on the converted fundus image in the gray scale format using a predetermined structural element to create a linear component enhanced image in which the luminance of the blood vessel candidate region is equal to or higher than a certain level; ,
In the linear component emphasized image, the pixel value satisfying the predetermined condition is replaced with a value near the minimum value of the gradation of the converted blood vessel emphasized image, and the pixel value satisfying the predetermined condition is greater than or equal to the pixel value. Pixel gradation conversion means for correcting the gradation of the pixel so that the pixel value of the linear component enhanced image is in the range from the value near the minimum value of the gradation to the maximum value, and creating a blood vessel enhanced image;
The fundus image processing apparatus according to any one of claims 1 to 4, further comprising:
前記血管強調画像整合手段は、RGBの3つの色成分の中でいずれかの色成分を前記基準血管強調画像に割り当て、前記基準血管強調画像に割り当てた色成分と異なる色成分を前記補正血管強調画像に割り当て、各々の色成分で擬似的に着色された前記基準血管強調画像と前記補正血管強調画像を合成してカラー合成画像を作成することを特徴とする請求項1から請求項5のいずれか一項に記載の眼底画像処理装置。   The blood vessel-enhanced image matching means assigns one of the three color components of RGB to the reference blood vessel-enhanced image, and assigns a color component different from the color component assigned to the reference blood-vessel-enhanced image to the corrected blood vessel enhancement 6. A color composite image is created by combining the reference blood vessel emphasized image assigned to an image and artificially colored with each color component and the corrected blood vessel emphasized image. The fundus image processing apparatus according to claim 1. 前記整合性指標算出手段は、前記基準血管強調画像と前記補正血管強調画像において所定のしきい値を超える画素値をもつ画素の画素値の総和C1、C2とし、前記基準血管強調画像と前記補正血管強調画像の双方において同一位置で前記しきい値を超える画素値をもつ画素の各々の画素値の相乗平均値の総和をC3とするとき、C1≦C2ならばC3/C1に比例する値を、C1>C2ならばC3/C2に比例する値を、整合性指標として算出することを特徴とする請求項1から請求項6のいずれか一項に記載の眼底画像処理装置。   The consistency index calculating means sets a sum C1 and C2 of pixel values of pixels having a pixel value exceeding a predetermined threshold in the reference blood vessel emphasized image and the corrected blood vessel emphasized image, and the reference blood vessel emphasized image and the correction blood vessel are corrected. When the sum of the geometric mean values of the pixel values having the pixel value exceeding the threshold value at the same position in both the blood vessel emphasized images is C3, a value proportional to C3 / C1 is obtained if C1 ≦ C2. The fundus image processing apparatus according to any one of claims 1 to 6, wherein a value proportional to C3 / C2 is calculated as a consistency index if C1> C2. 前記整合性指標算出手段は、前記基準血管強調画像と前記補正血管強調画像において所定のしきい値を超える画素値をもつ画素の数をC1'、C2'とし、前記基準血管強調画像と前記補正血管強調画像の双方において同一位置で前記しきい値を超える画素値をもつ画素の数をC3'とするとき、C1’≦C2’ならばC3'/C1'に比例する値を、C1’>C2’ならばC3’/C2’に比例する値を、整合性指標として算出することを特徴とする請求項1から請求項7のいずれか一項に記載の眼底画像処理装置。   The consistency index calculating means sets C1 ′ and C2 ′ as the number of pixels having pixel values exceeding a predetermined threshold in the reference blood vessel emphasized image and the corrected blood vessel emphasized image, and the reference blood vessel emphasized image and the correction blood vessel correction image. When the number of pixels having a pixel value exceeding the threshold value at the same position in both blood vessel emphasized images is C3 ′, if C1 ′ ≦ C2 ′, a value proportional to C3 ′ / C1 ′ is set as C1 ′> The fundus image processing apparatus according to any one of claims 1 to 7, wherein if C2 ', a value proportional to C3' / C2 'is calculated as a consistency index. 前記整合性指標算出手段は、前記基準血管強調画像と前記補正血管強調画像において所定のしきい値を超える画素値をもつ画素の数をC1a、C2aとするとき、C1a≦C2aならば、前記基準血管強調画像において前記しきい値を超える画素値をもつC1a個の画素群と対応する前記補正血管強調画像におけるC1a個の画素群どうしの相関係数を整合性指標として算出し、C1a>C2aならば、前記補正血管強調画像において前記しきい値を超える画素値をもつC2a個の画素群と対応する前記基準血管強調画像におけるC2a個の画素群どうしの相関係数を整合性指標として算出することを特徴とする請求項1から請求項8のいずれか一項に記載の眼底画像処理装置。   When the number of pixels having a pixel value exceeding a predetermined threshold value is C1a and C2a in the reference blood vessel emphasized image and the corrected blood vessel emphasized image, the consistency index calculation means is the reference blood vessel if C1a ≦ C2a. The correlation coefficient between the C1a pixel group having a pixel value exceeding the threshold in the blood vessel enhanced image and the C1a pixel group in the corrected blood vessel enhanced image is calculated as a consistency index, and if C1a> C2a, For example, a correlation coefficient between C2a pixel groups in the reference blood vessel enhancement image corresponding to C2a pixel groups having a pixel value exceeding the threshold in the corrected blood vessel enhancement image is calculated as a consistency index. The fundus image processing apparatus according to any one of claims 1 to 8, wherein: コンピュータを、請求項1から請求項9のいずれか一項に記載の眼底画像処理装置として機能させるためのプログラム。   A program for causing a computer to function as the fundus image processing apparatus according to any one of claims 1 to 9.
JP2015048873A 2015-03-11 2015-03-11 Fundus image processing device Active JP6481432B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015048873A JP6481432B2 (en) 2015-03-11 2015-03-11 Fundus image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015048873A JP6481432B2 (en) 2015-03-11 2015-03-11 Fundus image processing device

Publications (2)

Publication Number Publication Date
JP2016168134A true JP2016168134A (en) 2016-09-23
JP6481432B2 JP6481432B2 (en) 2019-03-13

Family

ID=56982812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015048873A Active JP6481432B2 (en) 2015-03-11 2015-03-11 Fundus image processing device

Country Status (1)

Country Link
JP (1) JP6481432B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023182622A1 (en) * 2022-03-22 2023-09-28 사회복지법인 삼성생명공익재단 Method and image processing device for standardizing fundus image on basis of artery and vein

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09192106A (en) * 1996-01-19 1997-07-29 Nippon Telegr & Teleph Corp <Ntt> Image overlapping method
WO2009148067A1 (en) * 2008-06-04 2009-12-10 株式会社 網膜情報診断研究所 Retinal information diagnosis system
JP2013085583A (en) * 2011-10-14 2013-05-13 Tokyo Medical & Dental Univ Fundus image analysis device, fundus image analysis method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09192106A (en) * 1996-01-19 1997-07-29 Nippon Telegr & Teleph Corp <Ntt> Image overlapping method
WO2009148067A1 (en) * 2008-06-04 2009-12-10 株式会社 網膜情報診断研究所 Retinal information diagnosis system
JP2013085583A (en) * 2011-10-14 2013-05-13 Tokyo Medical & Dental Univ Fundus image analysis device, fundus image analysis method and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
判幸巧ほか: "眼底画像における経時サブトラクション処理による網膜症の診断支援システムの開発", MEDICAL IMAGING TECHNOLOGY, vol. 第31巻、第4号, JPN6018040904, September 2013 (2013-09-01), pages 225 - 230, ISSN: 0003900216 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023182622A1 (en) * 2022-03-22 2023-09-28 사회복지법인 삼성생명공익재단 Method and image processing device for standardizing fundus image on basis of artery and vein

Also Published As

Publication number Publication date
JP6481432B2 (en) 2019-03-13

Similar Documents

Publication Publication Date Title
US20210390696A1 (en) Medical image processing apparatus, medical image processing method and computer-readable storage medium
US8194936B2 (en) Optimal registration of multiple deformed images using a physical model of the imaging distortion
US7248736B2 (en) Enhancing images superimposed on uneven or partially obscured background
JP6469387B2 (en) Fundus analyzer
JP2020166813A (en) Medical image processing device, medical image processing method, and program
JPH09313447A (en) Analysis device for eyeground disease
JP5073361B2 (en) Image processing apparatus, image processing system, and image processing method
JP6038438B2 (en) Fundus image analysis apparatus, fundus image analysis method and program
JP2018114031A (en) Fundus image processing device
JP5935146B2 (en) Ophthalmic disease image analysis apparatus, ophthalmic image analysis method, and ophthalmic image analysis program
JP3508111B2 (en) Analyzer for fundus disease
JP2018023602A (en) Fundus image processing device
JP2018102586A (en) Fundus image processing device
JP6481432B2 (en) Fundus image processing device
JP6747130B2 (en) Fundus image processor
CN111815617A (en) Hyperspectrum-based eye fundus image detection method
JP3479788B2 (en) Fundus disease analyzer
KR102380560B1 (en) Corneal Ulcer Region Detection Apparatus Using Image Processing and Method Thereof
JP3508112B2 (en) Fundus disease analyzer
JP2017196041A (en) Ocular fundus image analysis device, ocular fundus image analysis method, and program
JP7223308B2 (en) Image creation method and fundus image processing device
JP6439515B2 (en) Fundus image processing device
WO2022018271A1 (en) Method for determining a coronal position of an eye relative to the head
Lee et al. Retinal atlas statistics from color fundus images
JP7334922B1 (en) Image processing device, image processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190128

R150 Certificate of patent or registration of utility model

Ref document number: 6481432

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150