JP6931425B2 - Medical image learning device, medical image learning method, and program - Google Patents
Medical image learning device, medical image learning method, and program Download PDFInfo
- Publication number
- JP6931425B2 JP6931425B2 JP2020530944A JP2020530944A JP6931425B2 JP 6931425 B2 JP6931425 B2 JP 6931425B2 JP 2020530944 A JP2020530944 A JP 2020530944A JP 2020530944 A JP2020530944 A JP 2020530944A JP 6931425 B2 JP6931425 B2 JP 6931425B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- learning
- band
- light
- group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 99
- 238000012545 processing Methods 0.000 claims description 119
- 230000003287 optical effect Effects 0.000 claims description 111
- 238000009826 distribution Methods 0.000 claims description 75
- 230000003595 spectral effect Effects 0.000 claims description 72
- 230000008569 process Effects 0.000 claims description 67
- 230000006870 function Effects 0.000 claims description 43
- 239000006185 dispersion Substances 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 description 20
- 230000003902 lesion Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 17
- 238000005286 illumination Methods 0.000 description 15
- 238000003780 insertion Methods 0.000 description 13
- 230000037431 insertion Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 11
- 230000035945 sensitivity Effects 0.000 description 10
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 8
- 238000013461 design Methods 0.000 description 7
- 239000013307 optical fiber Substances 0.000 description 7
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical compound [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 102000001554 Hemoglobins Human genes 0.000 description 5
- 108010054147 Hemoglobins Proteins 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000011176 pooling Methods 0.000 description 5
- 208000032544 Cicatrix Diseases 0.000 description 4
- 230000009471 action Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 4
- 210000004204 blood vessel Anatomy 0.000 description 4
- 238000009792 diffusion process Methods 0.000 description 4
- 230000001678 irradiating effect Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000001613 neoplastic effect Effects 0.000 description 4
- 231100000241 scar Toxicity 0.000 description 4
- 230000037387 scars Effects 0.000 description 4
- 238000010521 absorption reaction Methods 0.000 description 3
- 238000005452 bending Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000005284 excitation Effects 0.000 description 3
- 239000012530 fluid Substances 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000004611 spectroscopical analysis Methods 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 230000002792 vascular Effects 0.000 description 2
- 206010013530 Diverticula Diseases 0.000 description 1
- 206010013554 Diverticulum Diseases 0.000 description 1
- 238000012323 Endoscopic submucosal dissection Methods 0.000 description 1
- 206010061218 Inflammation Diseases 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 208000037062 Polyps Diseases 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000003705 background correction Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000000740 bleeding effect Effects 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000000701 chemical imaging Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000012326 endoscopic mucosal resection Methods 0.000 description 1
- 238000001839 endoscopy Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000001727 in vivo Methods 0.000 description 1
- 230000004054 inflammatory process Effects 0.000 description 1
- 210000002429 large intestine Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
Landscapes
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radiology & Medical Imaging (AREA)
- Public Health (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Endoscopes (AREA)
- Image Processing (AREA)
Description
本発明は医用画像学習装置、医用画像学習方法、及びプログラムに係り、特に特殊光観察画像の学習に関する。 The present invention relates to a medical image learning device, a medical image learning method, and a program, and particularly relates to learning of a special light observation image.
医療分野において、ディープラーニングと呼ばれる深層学習を適用したAI技術が期待されている。AI技術の一例として、病変の自動検出及び病変の自動鑑別が挙げられる。なお、AIはArtificial Intelligenceの省略語である。 In the medical field, AI technology applying deep learning called deep learning is expected. Examples of AI technology include automatic detection of lesions and automatic discrimination of lesions. AI is an abbreviation for Artificial Intelligence.
特許文献1は、可視光の波長領域を撮像して可視光領域を表すカラー画像である通常画像と、狭帯域分光画像である診断用画像とを生成する電子内視鏡装置が記載されている。同文献には、通常画像に演算処理を適用して、狭帯域バンドパスフィルタを用いて得られた狭帯域画像と同等の画像を取得して、診断用画像を生成することが記載されている。 Patent Document 1 describes an electronic endoscopy device that captures a wavelength region of visible light to generate a normal image that is a color image representing the visible light region and a diagnostic image that is a narrow-band spectroscopic image. .. The document describes that an arithmetic process is applied to a normal image to acquire an image equivalent to a narrowband image obtained by using a narrowband bandpass filter to generate a diagnostic image. ..
特許文献2は、マルチセンサ情報について、人工知能装置の機械学習及び人工知能装置の動作の検証を支援する機械学習支援装置が記載されている。同文献には、分光データの特徴スペクトル部分を保持したまま、その他の波形部分をランダムに変化させるなどして学習用の仮想データを生成することが記載されている。また、同文献には、仮想データセットを使用して人工知能装置を予め学習させることが記載されている。 Patent Document 2 describes a machine learning support device that supports machine learning of an artificial intelligence device and verification of operation of the artificial intelligence device for multi-sensor information. The document describes that virtual data for learning is generated by randomly changing other waveform parts while retaining the characteristic spectrum part of the spectroscopic data. Further, the document describes that an artificial intelligence device is trained in advance using a virtual data set.
しかしながら、学習モデルの開発には大量の正解データセットを必要とする。なお、ここでいう正解データセットとは、画像及び画像の認識結果の組を意味する。医療分野においては、正解データセットの収集が学習モデルの開発の障壁となる。内視鏡装置を用いた観察には、通常光を用いた観察だけでなく、BLI(Blue LAZER Imaging)等の特殊光を用いた観察が存在する。複数のモードに対応可能なAIの開発は、さらに、大量の正解データセットを収集する必要が生じる。 However, the development of a learning model requires a large amount of correct data sets. The correct data set referred to here means an image and a set of image recognition results. In the medical field, collecting correct data sets is a barrier to the development of learning models. Observation using an endoscope device includes not only observation using normal light but also observation using special light such as BLI (Blue LAZER Imaging). The development of AI that can handle multiple modes will also require the collection of large correct data sets.
ここでいう通常光の一例として白色光が挙げられる。白色光は複数の波長帯域の光を含み得る。また、特殊光の一例として、白色光の波長帯域よりも狭い帯域の光が挙げられる。特殊光は複数の波長帯域の光を含み得る。 White light can be mentioned as an example of the normal light referred to here. White light can include light in multiple wavelength bands. Further, as an example of special light, light in a band narrower than the wavelength band of white light can be mentioned. The special light may include light in a plurality of wavelength bands.
特許文献1には、学習に関する記載はない。また、特許文献1には、輝度の調整等の記載はあるものの、分光分布における帯域成分の違いに注目した処理の切り替えに関する記載はない。 Patent Document 1 does not describe learning. Further, although Patent Document 1 has a description such as adjustment of brightness, there is no description regarding switching of processing focusing on the difference in band components in the spectral distribution.
特許文献2には、分光データのスペクトル成分を保持したまま、その他の波長成分をランダムに変化させて生成される学習用の仮想データセットについて記載されている。一方、特許文献2には、分光分布が異なる複数の画像群において、対応する帯域における帯域成分を学習に利用する旨の記載はない。 Patent Document 2 describes a virtual data set for learning generated by randomly changing other wavelength components while retaining the spectral components of the spectroscopic data. On the other hand, Patent Document 2 does not describe that the band components in the corresponding bands are used for learning in a plurality of image groups having different spectral distributions.
本発明はこのような事情に鑑みてなされたもので、分光分布が異なる画像ごとに大量の正解画像の収集を行うことなく、分光分布が異なる複数の画像に対応した学習を実現し得る、医用画像学習装置、医用画像学習方法、及びプログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and can realize learning corresponding to a plurality of images having different spectral distributions without collecting a large number of correct images for each image having different spectral distributions. It is an object of the present invention to provide an image learning device, a medical image learning method, and a program.
上記目的を達成するために、次の発明態様を提供する。 In order to achieve the above object, the following aspects of the invention are provided.
第1態様に係る医用画像学習装置は、互いに分光分布が異なる第一画像及び第二画像を取得する画像取得部と、第一画像に画像処理を施して第三画像を生成する画像処理部と、複数の第一画像を含む第一画像群、複数の第二画像を含む第二画像群、及び複数の第三画像を含む第三画像群、並びに第一画像群、第二画像群、及び第三画像群のそれぞれの正解データを用いて、自動認識に適用する認識器を学習させる学習部と、を備え、画像処理部は、第一画像の分光分布に含まれる帯域のうち第二画像の対応する帯域と特性が異なる帯域の信号を抑制する画像処理、及び第一画像に含まれる帯域のうち第二画像の対応する帯域と特性が同一の帯域の信号又は類似する帯域の信号を強調する画像処理の少なくともいずれかを施して、第一画像から第三画像を生成する医用画像学習装置である。 The medical image learning device according to the first aspect includes an image acquisition unit that acquires a first image and a second image having different spectral distributions from each other, and an image processing unit that performs image processing on the first image to generate a third image. , A first image group containing a plurality of first images, a second image group containing a plurality of second images, a third image group containing a plurality of third images, and a first image group, a second image group, and A learning unit for learning a recognizer to be applied to automatic recognition using each correct answer data of the third image group is provided, and the image processing unit is a second image in the band included in the spectral distribution of the first image. Image processing that suppresses signals in bands that have different characteristics from the corresponding bands, and emphasizes signals in bands that have the same characteristics as the corresponding bands in the second image or signals in similar bands among the bands included in the first image. This is a medical image learning device that generates a third image from a first image by performing at least one of the image processing to be performed.
第1態様によれば、分光分布が異なる第一画像及び第二画像について、第一画像の分光分布に含まれる帯域のうち、第二画像の対応する帯域との特性が同一の帯域の信号又は類似する帯域の信号を強調するか、又は第二画像の対応する帯域との特性が相違する帯域の信号を抑制して第三画像を生成する。複数の第一画像を含む第一画像群、複数の第二画像を含む第二画像群、及び複数の第三画像を含む第三画像群、並びに各画像群の正解データを用いて、自動認識に適用する分類器を学習させる。これにより、分光分布が異なる画像群ごとに大量の正解画像の収集を行うことなく、分光分布が異なる画像群ごとの学習を実現し得る。 According to the first aspect, for the first image and the second image having different spectral distributions, among the bands included in the spectral distribution of the first image, the signal of the band having the same characteristics as the corresponding band of the second image or A third image is generated by emphasizing signals in a similar band or suppressing signals in a band whose characteristics differ from those of the corresponding band in the second image. Automatic recognition using the first image group including a plurality of first images, the second image group including a plurality of second images, the third image group including a plurality of third images, and the correct answer data of each image group. Learn the classifiers that apply to. As a result, learning for each image group having a different spectral distribution can be realized without collecting a large amount of correct images for each image group having a different spectral distribution.
分光分布が異なる画像の一例として、異なる観察モードが適用された画像が挙げられる。観察モードの一例として、照明光が異なるモードが挙げられる。 An example of an image having a different spectral distribution is an image to which different observation modes are applied. As an example of the observation mode, there is a mode in which the illumination light is different.
第2態様は、第1態様の医用画像学習装置において、画像処理部は、第一画像に対して、輝度分散を変換する処理を施す構成としてもよい。 In the second aspect, in the medical image learning device of the first aspect, the image processing unit may be configured to perform a process of converting the luminance dispersion on the first image.
第2態様によれば、第一画像に輝度分散を変換する処理を適用して、第一画像から第三画像を生成し得る。 According to the second aspect, a process of converting the luminance variance to the first image can be applied to generate a third image from the first image.
第3態様は、第1態様の医用画像学習装置において、画像処理部は、第一画像に対して、輝度を規定の輝度値に変更する処理を施す構成としてもよい。 In the third aspect, in the medical image learning device of the first aspect, the image processing unit may be configured to perform a process of changing the brightness of the first image to a predetermined brightness value.
第3態様によれば、第一画像に輝度を規定の輝度値に変更する処理を適用して、第一画像から第三画像を生成し得る。 According to the third aspect, a process of changing the brightness to a predetermined brightness value can be applied to the first image to generate a third image from the first image.
第4態様は、第1態様の医用画像学習装置において、画像処理部は、第一画像に対して、輝度をランダムな輝度値に変更する処理を施す構成としてもよい。 In the fourth aspect, in the medical image learning device of the first aspect, the image processing unit may be configured to perform a process of changing the brightness of the first image to a random brightness value.
第4態様によれば、第一画像に輝度をランダムな輝度値に変更する処理を適用して、第一画像から第三画像を生成し得る。 According to the fourth aspect, a process of changing the brightness to a random brightness value can be applied to the first image to generate a third image from the first image.
第5態様は、第1態様の医用画像学習装置において、第一画像は通常光を用いて撮像した通常光画像であり、第二画像は通常光よりも狭帯域の特殊光を用いて撮像した特殊光画像である構成としてもよい。 In the fifth aspect, in the medical image learning device of the first aspect, the first image is a normal light image captured by using normal light, and the second image is captured by using special light having a narrower band than the normal light. It may be configured as a special light image.
第5態様によれば、通常光観察モードを適用して第一画像を生成し得る。また、特殊光観察モードを適用して第二画像を生成し得る。 According to the fifth aspect, the normal light observation mode can be applied to generate the first image. In addition, a special light observation mode can be applied to generate a second image.
第6態様は、第5態様の医用画像学習装置において、画像処理部は、通常光画像に対して、Bチャネル成分を抑制する処理を施す構成としてもよい。 A sixth aspect is the medical image learning apparatus of the fifth aspect, in which the image processing unit may be configured to perform a process of suppressing a B channel component on a normal optical image.
第6態様によれば、通常光画像のBチャネル成分を抑制して、第三画像を生成し得る。 According to the sixth aspect, the B channel component of the normal optical image can be suppressed to generate a third image.
第7態様は、第5態様の医用画像学習装置において、画像処理部は、通常光画像に対して、Rチャネル成分及びGチャネル成分の少なくともいずれか一方を強調する処理を施す構成としてもよい。 In the seventh aspect, in the medical image learning device of the fifth aspect, the image processing unit may be configured to perform a process of emphasizing at least one of an R channel component and a G channel component on a normal optical image.
第7態様によれば、通常光画像のRチャネル成分及びGチャネル成分の少なくともいずれか一方を強調して、第三画像を生成し得る。 According to the seventh aspect, at least one of the R channel component and the G channel component of the normal optical image can be emphasized to generate a third image.
第8態様は、第5態様の医用画像学習装置において、画像処理部は、通常光画像に対して、Rチャネル成分を抑制する処理を施す構成としてもよい。 In the eighth aspect, in the medical image learning device of the fifth aspect, the image processing unit may be configured to perform a process of suppressing an R channel component on a normal optical image.
第8態様によれば、通常光画像のRチャネル成分を抑制して、第三画像を生成し得る。 According to the eighth aspect, the R channel component of the normal optical image can be suppressed to generate a third image.
第8態様における特殊光画像の例として、通常光画像のRチャネル成分が欠落した画像が挙げられる。 As an example of the special optical image in the eighth aspect, there is an image in which the R channel component of the normal optical image is missing.
第9態様は、第5態様の医用画像学習装置において、画像処理部は、通常光画像に対して、Bチャネル成分及びGチャネル成分を強調する処理を施す構成としてもよい。 In the ninth aspect, in the medical image learning device of the fifth aspect, the image processing unit may be configured to perform a process of emphasizing the B channel component and the G channel component on the normal optical image.
第9態様によれば、通常光画像のBチャネル成分及びGチャネル成分を強調して、第三画像を生成し得る。 According to the ninth aspect, the B channel component and the G channel component of the normal optical image can be emphasized to generate a third image.
第9態様における特殊光画像の例として、通常光画像のRチャネル成分が欠落した画像が挙げられる。 As an example of the special optical image in the ninth aspect, there is an image in which the R channel component of the normal optical image is missing.
第10態様は、第1態様の医用画像学習装置において、画像処理部は、第一画像の処理対象帯域における空間周波数の規定の周波数成分を抑制する処理、又は第一画像の処理対象帯域における空間周波数の規定の周波数成分を強調する処理を施す構成としてもよい。 A tenth aspect is the medical image learning apparatus of the first aspect, in which the image processing unit suppresses a predetermined frequency component of the spatial frequency in the processing target band of the first image, or the space in the processing target band of the first image. It may be configured to perform a process of emphasizing a specified frequency component of the frequency.
第10態様によれば、第一画像の空間周波数のうち、第二画像と相違する周波数成分を抑制するか、第二画像と同一又は類似する周波数成分を強調して、第一画像から第三画像を生成し得る。 According to the tenth aspect, among the spatial frequencies of the first image, the frequency components different from those of the second image are suppressed, or the frequency components that are the same as or similar to those of the second image are emphasized, from the first image to the third. Images can be generated.
第11態様は、第10態様の医用画像学習装置において、第一画像は通常光を用いて撮像した通常光画像であり、第二画像は通常光よりも狭帯域の特殊光を用いて撮像した特殊光画像であり、画像処理部は、通常光画像のBチャネル成分の高周波成分を強調する処理を施す構成としてもよい。 In the eleventh aspect, in the medical image learning apparatus of the tenth aspect, the first image is a normal light image captured by using normal light, and the second image is captured by using special light having a narrower band than the normal light. It is a special optical image, and the image processing unit may be configured to perform processing for emphasizing the high frequency component of the B channel component of the normal optical image.
第11態様によれば、通常光画像のBチャネル成分における空間周波数のうち高周波成分を強調して、通常光画像から第三画像を生成し得る。 According to the eleventh aspect, the high frequency component of the spatial frequency in the B channel component of the normal light image can be emphasized to generate a third image from the normal light image.
第12態様は、第1態様から第11態様のいずれか一態様の医用画像学習装置において、学習部は、第一画像群の学習と第二画像群の学習との学習方法を切り替える構成としてもよい。 A twelfth aspect is the medical image learning device according to any one of the first to eleventh aspects, wherein the learning unit switches between learning methods of the first image group and learning of the second image group. good.
第12態様によれば、学習の精度が向上し得る。 According to the twelfth aspect, the accuracy of learning can be improved.
第13態様は、第1態様から第11態様のいずれか一態様の医用画像学習装置において、学習部は、前記第二画像群の学習と前記第三画像群の学習との学習方法を切り替える構成としてもよい。 The thirteenth aspect is the medical image learning device according to any one of the first to eleventh aspects, wherein the learning unit switches the learning method between the learning of the second image group and the learning of the third image group. May be.
第13態様によれば、学習の精度が向上し得る。 According to the thirteenth aspect, the accuracy of learning can be improved.
第14態様は、第12態様又は第13態様の医用画像学習装置において、学習部は、学習における第三画像の影響を抑制又は強調する学習方法を適用する構成としてもよい。 A fourteenth aspect may be a configuration in which the medical image learning device of the twelfth aspect or the thirteenth aspect applies a learning method for suppressing or emphasizing the influence of the third image on learning.
第14態様によれば、学習における第三画像の影響を抑制又は強調し得る。これにより、学習の精度が向上し得る。 According to the fourteenth aspect, the influence of the third image on learning can be suppressed or emphasized. This can improve the accuracy of learning.
第15態様は、第12態様又は第13態様の医用画像学習装置において、学習部は、第一画像群、第三画像群、第一画像群の正解データ、及び第三画像群の正解データを用いた学習済の認識器、又は第三画像群及び第三画像群の正解データを用いた学習済の学習器に対して、第二画像群及び第二画像群の正解データを用いた学習を実施する構成としてもよい。 The fifteenth aspect is the medical image learning device of the twelfth aspect or the thirteenth aspect, and the learning unit receives the correct answer data of the first image group, the third image group, the first image group, and the correct answer data of the third image group. For the trained recognizer used or the trained learner using the correct answer data of the third image group and the third image group, learning using the correct answer data of the second image group and the second image group is performed. It may be a configuration to be implemented.
第15態様によれば、少なくとも第三画像群を用いた学習済の認識器に対して、第三画像群よりも信頼性が高い真のデータである第二画像群及び第二画像群の正解データを用いた再学習を実施する。これにより、学習の精度が向上し、認識器の精度が向上し得る。 According to the fifteenth aspect, the correct answers of the second image group and the second image group, which are true data with higher reliability than the third image group, for at least the trained recognizer using the third image group. Perform re-learning using the data. As a result, the accuracy of learning can be improved, and the accuracy of the recognizer can be improved.
第16態様に係る医用画像学習方法は、互いに分光分布が異なる第一画像及び第二画像を取得する画像取得工程と、第一画像に画像処理を施して第三画像を生成する画像処理工程と、複数の第一画像を含む第一画像群、複数の第二画像を含む第二画像群、及び複数の第三画像を含む第三画像群、並びに第一画像群、第二画像群、及び第三画像群のそれぞれの正解データを用いて、自動認識に適用する認識器を学習させる学習工程と、を含み、画像処理工程は、第一画像の分光分布に含まれる帯域のうち第二画像の対応する帯域と特性が異なる帯域の信号を抑制する画像処理、及び第一画像に含まれる帯域のうち第二画像の対応する帯域と特性が同一の帯域の信号又は類似する帯域の信号を強調する画像処理の少なくともいずれかを施して、第一画像から第三画像を生成する医用画像学習方法である。 The medical image learning method according to the 16th aspect includes an image acquisition step of acquiring a first image and a second image having different spectral distributions from each other, and an image processing step of performing image processing on the first image to generate a third image. , A first image group containing a plurality of first images, a second image group containing a plurality of second images, a third image group containing a plurality of third images, and a first image group, a second image group, and The image processing step includes a learning step of learning a recognizer to be applied to automatic recognition using each correct answer data of the third image group, and the image processing step is a second image in the band included in the spectral distribution of the first image. Image processing that suppresses signals in bands that have different characteristics from the corresponding bands, and emphasizes signals in bands that have the same characteristics as the corresponding bands in the second image or signals in similar bands among the bands included in the first image. This is a medical image learning method for generating a third image from a first image by performing at least one of the image processing to be performed.
第16態様によれば、第1態様と同様の効果を得ることができる。 According to the 16th aspect, the same effect as that of the 1st aspect can be obtained.
第16態様において、第2態様から第15態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、医用画像学習装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担う医用画像学習方法の構成要素として把握することができる。 In the 16th aspect, the same items as those specified in the 2nd to 15th aspects can be appropriately combined. In that case, the component responsible for the process or function specified in the medical image learning device can be grasped as the component of the medical image learning method responsible for the corresponding process or function.
第17態様に係るプログラムは、コンピュータに、互いに分光分布が異なる第一画像及び第二画像を取得する画像取得機能、第一画像に画像処理を施して第三画像を生成する画像処理機能、及び複数の第一画像を含む第一画像群、複数の第二画像を含む第二画像群、及び複数の第三画像を含む第三画像群、並びに第一画像群、第二画像群、及び第三画像群のそれぞれの正解データを用いて、自動認識に適用する認識器を学習させる学習機能を実現させるプログラムであって、画像処理機能は、第一画像の分光分布に含まれる帯域のうち第二画像の対応する帯域と特性が異なる帯域の信号を抑制する画像処理、及び第一画像に含まれる帯域のうち第二画像の対応する帯域と特性が同一の帯域の信号又は類似する帯域の信号を強調する画像処理の少なくともいずれかを施して、第一画像から第三画像を生成するプログラムである。 The program according to the seventeenth aspect includes an image acquisition function for acquiring a first image and a second image having different spectral distributions from each other, an image processing function for performing image processing on the first image to generate a third image, and an image processing function. A first image group including a plurality of first images, a second image group including a plurality of second images, a third image group including a plurality of third images, and a first image group, a second image group, and a first image group. It is a program that realizes a learning function that trains a recognizer to be applied to automatic recognition using the correct answer data of each of the three image groups, and the image processing function is the third of the bands included in the spectral distribution of the first image. (2) Image processing that suppresses signals in bands with characteristics different from the corresponding bands of the image, and signals in the same band or similar bands as the corresponding band in the second image among the bands included in the first image. It is a program that generates a third image from a first image by performing at least one of image processing that emphasizes.
第17態様によれば、第1態様と同様の効果を得ることができる。 According to the 17th aspect, the same effect as that of the 1st aspect can be obtained.
第17態様において、第2態様から第15態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、医用画像学習装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担うプログラムの構成要素として把握することができる。 In the 17th aspect, the same items as those specified in the 2nd to 15th aspects can be appropriately combined. In that case, the component responsible for the process or function specified in the medical image learning device can be grasped as the component of the program responsible for the corresponding process or function.
本発明によれば、分光分布が異なる第一画像及び第二画像について、第一画像の分光分布に含まれる帯域のうち、第二画像の対応する帯域との特性が同一の帯域の信号又は類似する帯域の信号を強調するか、又は第二画像の対応する帯域との特性が相違する帯域の信号を抑制して第三画像を生成する。複数の第一画像を含む第一画像群、複数の第二画像を含む第二画像群、及び複数の第三画像を含む第三画像群、並びに各画像群の正解データを用いて、自動認識に適用する分類器を学習する。これにより、分光分布が異なる画像群ごとに大量の正解画像の収集を行うことなく、分光分布が異なる画像群ごとの学習を実現し得る。 According to the present invention, for the first image and the second image having different spectral distributions, among the bands included in the spectral distribution of the first image, signals or similar bands having the same characteristics as the corresponding band of the second image. The signal of the band to be used is emphasized, or the signal of the band having different characteristics from the corresponding band of the second image is suppressed to generate the third image. Automatic recognition using the first image group including a plurality of first images, the second image group including a plurality of second images, the third image group including a plurality of third images, and the correct answer data of each image group. Learn the classifiers that apply to. As a result, learning for each image group having a different spectral distribution can be realized without collecting a large amount of correct images for each image group having a different spectral distribution.
以下、添付図面に従って本発明の好ましい実施の形態について詳説する。本明細書では、同一の構成要素には同一の参照符号を付して、重複する説明は適宜省略することとする。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the present specification, the same components are designated by the same reference numerals, and duplicate description will be omitted as appropriate.
[内視鏡画像学習装置]
本実施形態に示す内視鏡画像学習装置は、異なる観察モードにおいて取得された画像を組み合わせて学習データの数を拡張している。異なる観察モードにおいて取得された画像を学習に利用することにより、特定の観察モードにおいて取得された画像の数が十分でない場合にも、精度の高い学習が実現可能である。これにより、精度の高いAI技術の実現が可能となる。なお、実施形態に示す内視鏡画像学習装置は、医用画像学習装置の一例である。[Endoscopic image learning device]
The endoscopic image learning device shown in the present embodiment expands the number of training data by combining images acquired in different observation modes. By using the images acquired in different observation modes for learning, highly accurate learning can be realized even when the number of images acquired in a specific observation mode is not sufficient. This makes it possible to realize highly accurate AI technology. The endoscopic image learning device shown in the embodiment is an example of a medical image learning device.
本実施形態では、LCI(Linked Color Imaging)を用いた注目領域の自動認識システムに適用される学習を例示する。なお、LCIは特殊光色彩強調機能を意味する。以下の説明において、学習という用語と、機械学習という用語は同義として取り扱うこととする。 In this embodiment, learning applied to an automatic recognition system of a region of interest using LCI (Linked Color Imaging) is illustrated. In addition, LCI means a special light color enhancement function. In the following explanation, the term learning and the term machine learning will be treated as synonymous.
〔内視鏡画像学習装置のハードウェア構成〕
図1は実施形態に係る内視鏡画像学習装置のハードウェア構成の一例を示すブロック図である。内視鏡画像学習装置10は、パーソナルコンピュータ又はワークステーションを適用し得る。[Hardware configuration of endoscopic image learning device]
FIG. 1 is a block diagram showing an example of the hardware configuration of the endoscopic image learning device according to the embodiment. The endoscopic
内視鏡画像学習装置10は、通信部12、第一記憶装置14、第二記憶装置16、第三記憶装置17、操作部18、CPU20、RAM22、ROM24、及び表示部26を備える。なお、CPUはCentral Processing Unitの省略語である。RAMはRandom Access Memoryの省略語である。ROMはRead Only Memoryの省略語である。
The endoscopic
通信部12は、外部装置との通信を処理するインターフェースである。通信部12は、汎用の通信インターフェースを適用し得る。通信部12は、有線又は無線のいずれも適用可能である。
The
第一記憶装置14は、通常光観察モードを適用して撮像された複数の通常光画像を含む通常光画像群及び各通常光画像の正しい画像認識結果を示す正解データからなる第一データセットが記憶される。
The
第二記憶装置16は、特殊光観察モードを適用して複数の特殊光画像を含む特殊光画像群及び各特殊光画像の正しい画像認識結果を示す正解データからなる第二データセットが記憶される。
The
第三記憶装置17は、通常光画像又は特殊光画像に画像処理を施した複数の処理画像を含む処理画像群、及び各処理画像群の正しい画像認識結果を示す正解データからなる第三データセットが記憶される。
The
本実施形態では、通常光画像から処理画像を生成し、学習に使用する例を説明する。処理画像の正しい認識結果を表す正解データは、第一データセットから抽出し得る。なお、特殊光画像から処理画像を生成し、第二データセットから処理画像の正解データを抽出してもよい。 In this embodiment, an example in which a processed image is generated from a normal optical image and used for learning will be described. Correct answer data representing the correct recognition result of the processed image can be extracted from the first dataset. The processed image may be generated from the special light image, and the correct answer data of the processed image may be extracted from the second data set.
第一記憶装置14、第二記憶装置16、及び第三記憶装置17は、大容量のストレージ装置を適用し得る。第一記憶装置14、第二記憶装置16、及び第三記憶装置17は、内視鏡画像学習装置10の外部に配置される記憶装置を適用し得る。第一記憶装置14、第二記憶装置16、及び第三記憶装置17は、ネットワークを介して内視鏡画像学習装置10と通信可能に接続されてもよい。
The
なお、実施形態に示す通常光画像は第一画像の一例である。実施形態に示す通常光画像群は第一画像群の一例である。実施形態に示す特殊光画像は第二画像の一例である。実施形態に示す特殊光画像群は第二画像群の一例である。 The normal light image shown in the embodiment is an example of the first image. The normal light image group shown in the embodiment is an example of the first image group. The special light image shown in the embodiment is an example of the second image. The special optical image group shown in the embodiment is an example of the second image group.
通常光画像は、内視鏡装置を用いた体腔内の観察において、通常光を照射して撮像して得られたカラー画像である。特殊光画像は、内視鏡装置を用いた体腔内の観察において、特殊光を照射して撮像して得られたカラー画像である。 The normal light image is a color image obtained by irradiating normal light and taking an image in the observation of the inside of the body cavity using an endoscope device. The special light image is a color image obtained by irradiating and imaging the inside of the body cavity using a special light.
通常光は、可視光の全ての波長帯域の光がほぼ均等に混ざった光である。通常光画像は、通常観察に使用される。通常光の一例として、白色光が挙げられる。通常光画像群は、比較的多く集めることができる。 Normal light is light in which light in all wavelength bands of visible light is mixed almost evenly. Normal light images are usually used for observation. White light is an example of normal light. A relatively large number of ordinary optical image groups can be collected.
特殊光は、一つの特定の波長帯域の光、又は複数の特定の波長帯域の光の組み合わせた、観察目的に応じた各種の波長帯域の光である。特殊光は、白色の波長帯域よりも狭い帯域を有し、NBI(Narrow band imaging)、LCI、及びFICE(Flexible spectral imaging color enhancement)等に使用される。NBIは狭帯域観察を意味する。 The special light is light in various wavelength bands according to the purpose of observation, which is a combination of light in one specific wavelength band or light in a plurality of specific wavelength bands. The special light has a band narrower than the white wavelength band, and is used for NBI (Narrow band imaging), LCI, FICE (Flexible spectral imaging color enhancement), and the like. NBI means narrow band observation.
特定の波長帯域の第一例は、例えば可視域の青色帯域又は緑色帯域である。第一例の波長帯域は、390ナノメートル以上450ナノメートル以下、又は530ナノメートル以上550ナノメートル以下の波長帯域を含む。第一例の光は、390ナノメートル以上450ナノメートル以下、又は530ナノメートル以上550ナノメートル以下の波長帯域内にピーク波長を有する。 A first example of a particular wavelength band is, for example, the blue or green band in the visible range. The wavelength band of the first example includes a wavelength band of 390 nanometers or more and 450 nanometers or less, or 530 nanometers or more and 550 nanometers or less. The light of the first example has a peak wavelength in the wavelength band of 390 nanometers or more and 450 nanometers or less, or 530 nanometers or more and 550 nanometers or less.
特定の波長帯域の第二例は、例えば可視域の赤色帯域である。第二例の波長帯域は、585ナノメートル以上615ナノメートル以下、又は610ナノメートル以上730ナノメートル以下の波長帯域を含む。第二例の光は、585ナノメートル以上615ナノメートル以下又は610ナノメートル以上730ナノメートル以下の波長帯域内にピーク波長を有する。 A second example of a particular wavelength band is, for example, the red band in the visible range. The wavelength band of the second example includes a wavelength band of 585 nanometers or more and 615 nanometers or less, or 610 nanometers or more and 730 nanometers or less. The light of the second example has a peak wavelength in the wavelength band of 585 nanometers or more and 615 nanometers or less or 610 nanometers or more and 730 nanometers or less.
特定の波長帯域の第三例は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、且つ第三例の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する。第三例の波長帯域は、400±10ナノメートル、440±10ナノメートル、470±10ナノメートル、又は600ナノメートル以上750ナノメートル以下の波長帯域を含む。第三例の光は、400±10ナノメートル、440±10ナノメートル、470±10ナノメートル、又は600ナノメートル以上750ナノメートル以下の波長帯域にピーク波長を有する。 The third example of a specific wavelength band includes a wavelength band in which the absorption coefficient differs between oxidized hemoglobin and reduced hemoglobin, and the light in the third example has a peak wavelength in a wavelength band in which the absorption coefficient differs between oxidized hemoglobin and reduced hemoglobin. Has. The wavelength band of the third example includes a wavelength band of 400 ± 10 nanometers, 440 ± 10 nanometers, 470 ± 10 nanometers, or 600 nanometers or more and 750 nanometers or less. The light of the third example has a peak wavelength in the wavelength band of 400 ± 10 nanometers, 440 ± 10 nanometers, 470 ± 10 nanometers, or 600 nanometers or more and 750 nanometers or less.
特定の波長帯域の第四例は、生体内の蛍光物質が発する蛍光の観察である蛍光観察に用いられる。第四例の波長帯域は、蛍光物質を励起させる励起光の波長帯域であり、例えば390ナノメートルから470ナノメートルまでの波長帯域である。 The fourth example of a specific wavelength band is used for fluorescence observation, which is observation of fluorescence emitted by a fluorescent substance in a living body. The wavelength band of the fourth example is the wavelength band of the excitation light that excites the fluorescent substance, for example, the wavelength band from 390 nanometers to 470 nanometers.
特定の波長帯域の第五例は、赤外光の波長帯域である。第五例の波長帯域は、790ナノメートル以上820ナノメートル以下、又は905ナノメートル以上970ナノメートル以下の波長帯域を含む。第五例の光は、790ナノメートル以上820ナノメートル以下、又は905ナノメートル以上970ナノメートル以下の波長帯域にピーク波長を有する。 The fifth example of a specific wavelength band is the wavelength band of infrared light. The wavelength band of the fifth example includes a wavelength band of 790 nanometers or more and 820 nanometers or less, or 905 nanometers or more and 970 nanometers or less. The light of the fifth example has a peak wavelength in a wavelength band of 790 nanometers or more and 820 nanometers or less, or 905 nanometers or more and 970 nanometers or less.
このような特定の波長帯域を有する特殊光の下で撮像された特殊光画像は、病変の観察目的に応じた見やすい画像を得るためのものであり、例えば、表面構造を観察したい等の観察目的に応じた場合にしか使用されず、データ数が多くない。 The special light image captured under special light having such a specific wavelength band is for obtaining an easy-to-see image according to the purpose of observing the lesion, for example, for the purpose of observing the surface structure. It is used only when it corresponds to, and the number of data is not large.
本実施形態では、第一記憶装置14に記憶されている通常光画像群の第一データセットは、第二記憶装置16に保存されている特殊光画像群の第二データセットよりも多く準備されているものとする。第三データセットは第二データセットの不足を補う数が準備される。
In the present embodiment, the first data set of the normal optical image group stored in the
また、第一記憶装置14、第二記憶装置16、及び第三記憶装置17において、各通常光画像、各特殊光画像、及び各処理画像に関連付けて保存されている正解データの一例として、通常光画像及び特殊光画像内に写っている病変の種類、病変の位置を示したデータ及び症例固有の識別情報などが挙げられる。病変の分類の一例として、腫瘍性、又は非腫瘍性の二分類、若しくはNICE分類などが挙げられる。病変の位置を示すデータは、病変を囲む矩形の情報や、病変を覆い隠すようなマスクデータなどが考えられる。なお、NICEは、NBI International Colorectal Endoscopic Classificationの省略語である。
Further, as an example of correct answer data stored in association with each normal light image, each special light image, and each processed image in the
第一記憶装置14、第二記憶装置16、及び第三記憶装置17は、内視鏡画像学習装置10が備えているが、第一記憶装置14、第二記憶装置16、及び第三記憶装置17は、内視鏡画像学習装置10の外部に配置されてもよい。この場合、通信部12を介して、内視鏡画像学習装置10の外部のデータベースから学習用のデータセットを取得することができる。
The
操作部18は、内視鏡画像学習装置10に適用されるコンピュータに有線接続又は無線接続されるキーボード及びマウス等が用いられる。操作部18は、学習に当たって各種の操作入力を受け付ける。すなわち、操作部18はユーザインターフェースの一部として使用される。
As the
CPU20は、ROM24又は図示しないハードディスク装置等に記憶された各種のプログラムを読み出し、各種の処理を実行する。読み出されるプログラムの一例として、内視鏡画像学習プログラムが挙げられる。
The
RAM22は、CPU20の作業領域として使用される。また、RAM22は、読み出されたプログラムや各種のデータを一時的に記憶する記憶部として用いられる。
The
表示部26は、内視鏡画像学習装置10に適用されるコンピュータに接続可能な液晶モニタ等の各種モニタが用いられる。表示部26は、ユーザインターフェースの一部として使用される。タッチパネル方式のモニタ装置を表示部26に適用して、表示部26及び操作部18を一体に構成してもよい。
As the
内視鏡画像学習装置10は、操作部18から送信される指示信号に基づき、ROM24及びハードディスク装置等に記憶されている内視鏡画像学習プログラムをCPU20が読み出す。CPU20は内視鏡画像学習プログラムを実行する。
In the endoscope
〔内視鏡画像学習装置の機能〕
〈概要〉
図2は実施形態に係る内視鏡画像学習装置の機能ブロック図である。図2は図1に示す内視鏡画像学習装置10の主要な機能を示す機能ブロック図である。内視鏡画像学習装置10は、学習部30及び画像生成部40を備える。[Functions of endoscopic image learning device]
<Overview>
FIG. 2 is a functional block diagram of the endoscopic image learning device according to the embodiment. FIG. 2 is a functional block diagram showing the main functions of the endoscopic
学習部30は、第一記憶装置14に記憶される第一データセット、第二記憶装置16に記憶される第二データセット、及び第三記憶装置17に記憶される第三データセットを用いて学習し、画像認識用の学習モデルを生成する。本実施形態では、学習モデルの一つである畳み込みニューラルネットワークを構築する。以下、CNN(Convolution Neural Network)は畳み込みニューラルネットワークを表すこととする。
The
画像生成部40は、通常光画像から処理画像を生成する。具体的には、通常光画像の分光分布と特殊光画像の分光分布との間の対応する波長帯域について、帯域成分同士が同一又は類似する場合に帯域成分を強調する処理を実施するか、又は帯域成分同士が相違する場合に帯域成分を抑制する処理を実施する。画像生成部40における画像処理の詳細は後述する。なお、学習部30及び画像生成部40は、通常光画像及び特殊光画像を取得する画像取得部の機能を備え得る。
The
〈学習部〉
図3は図2に示す学習部の機能ブロック図である。学習部30は、CNN32、誤差算出部34、及びパラメータ更新部36を備える。<Learning Department>
FIG. 3 is a functional block diagram of the learning unit shown in FIG. The
CNN32は、例えば、内視鏡画像に写っている病変の種類を画像認識する認識器に対応する部分である。CNN32は、複数のレイヤー構造を有し、複数の重みパラメータを保持している。CNN32は、重みパラメータが初期値から最適値に更新されることで、未学習モデルから学習済みモデルに変化し得る。
The
CNN32は、入力層32a、中間層32b及び出力層32cを備える。中間層32bは、畳み込み層32d及びプーリング層32eから構成されたセット32f、全結合層32gを備える。学習部30の各層は、エッジを用いて複数のノードが結ばれる構造を有する。
The
入力層32aは、学習対象である通常光画像14a、特殊光画像16a、及び処理画像17aが入力される。通常光画像14a、特殊光画像16a、及び処理画像17aはCNN32へ送信される。
The normal
中間層32bは、入力層32aを用いて入力した画像から特徴を抽出する部分である。畳み込み層32dは、前の層で近くにあるノードにフィルタ処理を実施し、特徴マップを取得する。フィルタ処理はフィルタを使用した畳み込み演算が適用される。
The
プーリング層32eは、畳み込み層32dから出力された特徴マップを縮小して新たな特徴マップとする。畳み込み層32dは、画像からのエッジ抽出等の特徴抽出の役割を担う。プーリング層32eは抽出された特徴が、平行移動などによる影響を受けないようにロバスト性を与える役割を担う。
The
なお、中間層32bは、畳み込み層32dとプーリング層32eとを一セットとする場合に限定されない。例えば、畳み込み層32dが連続する場合及び図示しない正規化層を含む場合もあり得る。
The
出力層32cは、中間層32bを用いて抽出された特徴に基づき内視鏡画像に写っている病変の種類を分類する認識結果を出力する。学習済みのCNN32は、例えば、内視鏡画像を、腫瘍性、非腫瘍性、及びその他の三つのカテゴリに分類し得る。学習済みのCNN32は、認識結果として、腫瘍性に対応するスコア、非腫瘍性に対応するスコア、及びその他に対応するスコアを出力し得る。なお、三つのスコアの合計は100パーセントとなる。
The
学習前のCNN32の各畳み込み層32dに適用されるフィルタの係数、オフセット値、及び図示しない全結合層における次の層との接続の重みは、任意の初期値がセットされる。
Arbitrary initial values are set for the coefficient of the filter applied to each
誤差算出部34は、CNN32の出力層32cから出力される認識結果、並びに通常光画像14aに対する正解データ14b、及び特殊光画像16aに対する正解データ16bを取得する。なお、処理画像17aに対応する正解データは、通常光画像14aに対する正解データ14bを適用し得る。
The
誤差算出部34は、認識結果と正解データとの間の誤差を算出する。誤差の算出方法の一例として、ソフトマックスクロスエントロピー及びシグモイド等が挙げられる。
The
パラメータ更新部36は、誤差算出部34を用いて算出された誤差を元に、誤差逆伝播法を適用してCNN32の重みパラメータを調整する。CNN32の重みパラメータの調整処理を繰り返し行い、CNN32の出力と正解データとの差が小さくなるまで繰り返し学習を行う。
The
学習部30は、通常光画像群の全てのデータセット、特殊光画像群の全てのデータセット、及び処理画像群の全てのデータセットを使用し、CNN32の各パラメータを最適化する学習を行い、学習済みモデルを生成する。なお、実施形態に示す内視鏡画像は医用画像の一例である。
The
〔内視鏡画像学習方法の手順〕
図4は実施形態に係る内視鏡画像学習方法の手順を示すフローチャートである。図4に示す内視鏡画像学習方法は、通常光画像取得工程S10、特殊光画像取得工程S12、画像処理工程S14、処理画像記憶工程S16、学習工程S18、及び認識器更新工程S20が含まれる。実施形態に示す内視鏡画像学習方法は、医用画像学習方法の一例である。[Procedure of endoscopic image learning method]
FIG. 4 is a flowchart showing the procedure of the endoscopic image learning method according to the embodiment. The endoscopic image learning method shown in FIG. 4 includes a normal optical image acquisition step S10, a special optical image acquisition step S12, an image processing step S14, a processed image storage step S16, a learning step S18, and a recognizer update step S20. .. The endoscopic image learning method shown in the embodiment is an example of a medical image learning method.
通常光画像取得工程S10では、図2に示す学習部30及び画像生成部40は第一記憶装置14から通常光画像14aを読み出す。特殊光画像取得工程S12では、学習部30は第二記憶装置16から特殊光画像16aを読み出す。なお、特殊光画像取得工程S12は学習工程S18までに実施されればよい。
In the normal light image acquisition step S10, the
画像処理工程S14では、画像生成部40は通常光画像14aに画像処理を施して処理画像を生成する。処理画像記憶工程S16では、画像生成部40は処理画像17aを第三記憶装置17へ記憶する。
In the image processing step S14, the
学習工程S18では、学習部30は第三記憶装置17から処理画像17aを読み出し、通常光画像14a、特殊光画像16a、及び処理画像17aを用いて学習を実施する。認識器更新工程S20では、学習部30は認識器を更新する。
In the learning step S18, the
[画像生成部を用いた画像処理の具体例]
次に、図2に示す画像生成部40に適用される画像処理について詳細に説明する。画像生成部40は、通常光画像14aの分光分布における波長帯域の信号を強調する処理、又は抑制する処理を施して処理画像17aを生成する。[Specific example of image processing using the image generator]
Next, the image processing applied to the
画像生成部40は、通常光画像14aと特殊光画像16aとの間で、両者間の対応する波長帯域における帯域成分同士が相違する場合は、通常光画像14aにおける該当する波長帯域の信号を抑制する。
When the band components in the corresponding wavelength bands between the normal
一方、画像生成部40は、通常光画像14aと特殊光画像16aとの間で、両者間の対応する波長帯域における帯域成分同士が同一又は類似する場合は、通常光画像14aにおける該当する波長帯域の信号を強調してもよい。これにより、特殊光画像16aの学習に適用可能な学習データの数を増やすことが可能となる。
On the other hand, when the band components in the corresponding wavelength bands between the normal
画像生成部40は、波長依存とは異なる、観察モード間の処理の違いに起因する画像差について、逆処理を適用した補正等の後処理を実施し得る。学習部30は補正後の画像を学習に適用し得る。観察モード間の処理の一例として、リニアマトリックス及びルックアップテーブルなどが挙げられる。
The
〈第一実施形態〉
図5は撮像素子の分光感度の説明図である。撮像素子は内視鏡画像を取得する内視鏡に具備される。撮像素子は符号328を付して図8に図示する。内視鏡は符号302を付して図8に図示する。<First Embodiment>
FIG. 5 is an explanatory diagram of the spectral sensitivity of the image sensor. The image sensor is provided in the endoscope that acquires the endoscope image. The image sensor is illustrated with
図5に示す分光感度特性100の横軸は波長を表す。分光感度特性100の縦軸は感度を表す。分光感度特性100はBチャネルの波長帯域にBチャネル成分102を有する。分光感度特性100はGチャネルの波長帯域にGチャネル成分104を有する。分光感度特性100はRチャネルの波長帯域にRチャネル成分106を有する。なお、Bは青を表す。Gは緑を表す。Rは赤を表す。
The horizontal axis of the spectral sensitivity characteristic 100 shown in FIG. 5 represents a wavelength. The vertical axis of the spectral sensitivity characteristic 100 represents the sensitivity. The spectral sensitivity characteristic 100 has a
図6は照明光の強度分布と内視鏡画像の分光分布との関係を示す説明図である。図6に示す符号120は通常光の強度分布を表す。符号160はLCIにおける照明光の強度分布を表す。通常光の強度分布120及びLCIにおける照明光の強度分布160の横軸は波長を表す。縦軸は照明光の強度を表す。なお、LCIにおける照明光は特殊光の一例である。
FIG. 6 is an explanatory diagram showing the relationship between the intensity distribution of the illumination light and the spectral distribution of the endoscopic image.
符号140は通常光画像14aの分光分布を示す。通常光画像14aの分光分布140の横軸は波長を表す。縦軸は信号強度を表す。
通常光画像14aの分光分布140は、Bチャネルの波長帯域にBチャネル成分142を有する。通常光画像14aの分光分布140はGチャネルの波長帯域にGチャネル成分144を有する。通常光画像14aの分光分布140はRチャネルの波長帯域にRチャネル成分146を有する。
The
符号180はLCIにおける特殊光画像16aの分光分布を表す。LCIにおける特殊光画像16aの分光分布180の横軸は波長を表す。縦軸は信号強度を表す。LCIにおける特殊光画像16aの分光分布180は、Bチャネルの波長帯域にBチャネル成分182を有する。LCIにおける特殊光画像16aの分光分布180は、Gチャネルの波長帯域にGチャネル成分184を有する。LCIにおける特殊光画像16aの分光分布180は、Rチャネルの波長帯域にRチャネル成分186を有する。
通常光画像14aの分光分布140と、LCIにおける特殊光画像16aの分光分布180とは、Bチャネル成分の特性が相違する。すなわち、通常光画像14aのBチャネル成分及びLCIにおける特殊光画像16aのBチャネル成分は、いずれもの二つのピークが存在する一方、二つのピークにおける感度の大きさが相違している。換言すると、通常光画像14aとLCIにおける特殊光画像16aとは、Bチャネル成分同士が相違している。
The
一方、両者におけるGチャネル成分及びRチャネル成分は絶対値の差を除けば等しい。すなわち、Gチャネル成分及びRチャネル成分のみの画像は、Bチャネル成分のみの画像と比較して、通常光画像14aとLCIにおける特殊光画像16aとの間で差が小さい。換言すると、通常光画像14aとLCIにおける特殊光画像16aとの間において、Gチャネル成分の特性及びRチャネル成分は類似している。
On the other hand, the G channel component and the R channel component in both are equal except for the difference in absolute value. That is, the difference between the normal
このような性質から、通常光画像14aにおけるGチャネル成分の画像情報及び通常光画像14aにおけるRチャネル成分の画像情報は、LCIにおける特殊光画像16aの学習においても有用である。一方、通常光画像14aにおけるBチャネル成分の画像情報は、LCIにおける特殊光画像16aの学習において不必要又は悪影響を与えると考えられる。
Due to these properties, the image information of the G channel component in the normal
そこで、画像生成部40は、通常光画像14aにおけるBチャネル成分の画像情報を抑制する処理を実施して処理画像17aを生成する。学習部30は通常光画像14a及び特殊光画像16aに処理画像17aを加えて、LCIにおける特殊光画像16aの学習を実施する。
Therefore, the
通常光画像14aにおけるBチャネル成分の画像情報を抑制する処理の一例として、通常光画像14aにおける輝度値を1/α倍する処理が挙げられる。なお、αは1を超える任意の定数である。通常光画像14aにおけるBチャネル成分の画像情報を抑制する処理の他の例として、輝度値を規定の値とする処理が挙げられる。規定の値の一例として輝度を最小とする輝度値が挙げられる。Bチャネル成分の画像情報を抑制する処理は、各画素の輝度値をランダムに与える処理を適用してもよい。
As an example of the process of suppressing the image information of the B channel component in the normal
通常光画像14aにおける輝度値を1/α倍する処理と併用して、通常光画像14aにおける輝度値をシフトさせてもよい。なお、実施形態に示す輝度値を1/α倍する処理は、輝度分散を変換する処理の一例である。輝度分散を変換する処理は、通常光画像14aにおける輝度値をシフトさせる処理を含み得る。
The brightness value in the normal
通常光画像14aにおけるBチャネル成分の画像情報を抑制する処理に代わり、通常光画像14aにおけるGチャネル成分の画像情報及びRチャネル成分の画像情報の少なくともいずれかを強調して、相対的にBチャネル成分の画像情報の影響を下げてもよい。
Instead of the process of suppressing the image information of the B channel component in the normal
通常光画像14aにおけるGチャネル成分の画像情報及びRチャネル成分の画像情報を強調する処理の一例として、通常光画像14aにおける輝度値をβ倍する処理が挙げられる。なお、βは1を超える任意の定数である。
As an example of the process of emphasizing the image information of the G channel component and the image information of the R channel component in the normal
通常光画像14aにおける輝度値をβ倍する処理と併用して、通常光画像14aにおける輝度値をシフトさせてもよい。なお、実施形態に示す輝度値をβ倍する処理は、輝度分散を変換する処理の一例である。輝度分散を変換する処理は、通常光画像14aにおける輝度値をシフトさせる処理を含み得る。
The brightness value in the normal
〈作用効果〉
第一実施形態に係る画像処理によれば、通常光画像14aに対して、分光分布におけるBチャネル成分の抑制処理、又はGチャネル成分及びRチャネル成分の少なくともいずれかを強調する処理を施す。これにより、LCIにおける特殊光画像16aの学習に適用可能な学習データの拡充が可能となる。<Action effect>
According to the image processing according to the first embodiment, the normal
〈第二実施形態〉
第二実施形態に係る画像処理は、第一実施形態に係る画像処理と同様に、LCIにおける特殊光画像16aの学習に、通常光画像14aを利用する場合に適用される。第二実施形態では、通常光画像14a及び特殊光画像16aにおけるBチャネル成分同士の違いに着目した画像処理を実施する。<Second Embodiment>
Similar to the image processing according to the first embodiment, the image processing according to the second embodiment is applied to the case where the normal
LCIにおける特殊光画像16aのBチャネル成分は、通常光画像14aのBチャネル成分と比較して短波長成分を多く含む。これにより、LCIにおける特殊光画像16aは、通常光画像14aと比較して高いコントラストで微小な血管構造などを表す性質を持つ。
The B-channel component of the special
微小な血管構造などは、LCIにおける特殊光画像16aの空間周波数の高周波成分に対応する。そこで、画像生成部40は、通常光画像14aのBチャネル成分の画像に対して、空間周波数の高周波成分を強調する処理を施した処理画像17aを生成する。これにより、通常光画像14aのBチャネル成分の画像を特殊光画像16aのBチャネル成分の画像に近づけることが可能となる。よって、LCIにおける特殊光画像16aの学習データの拡充を行うことが可能となる。
The minute blood vessel structure and the like correspond to the high frequency component of the spatial frequency of the special
高周波成分を規定する一例として、高周波成分を多く含む特殊光画像16aを周波数解析し、周波数分布に基づいて強調する周波数又は周波数帯域を規定する例が挙げられる。例えば、基準周波数を算出して、処理対象画像の空間周波数成分のうち、基準周波数以上の周波数成分を高周波成分とし得る。基準周波数は、処理対象画像に含まれる周波数成分のうち、全体に対してある割合以上の周波数成分が含まれる範囲の下限として算出し得る。
As an example of defining the high frequency component, there is an example of frequency analysis of the special
空間周波数の高周波成分を強調する処理の一例として、アンシャープマスクを用いたマスク処理が挙げられる。空間周波数の高周波成分を抑制する処理の一例として、ローパスフィルタを用いたフィルタ処理が挙げられる。実施形態に示す空間周波数の高周波成分は、空間周波数の規定の周波数成分の一例である。実施形態に示すBチャネル成分の画像は、処理対象帯域の一例である。 As an example of the process of emphasizing the high frequency component of the spatial frequency, there is a mask process using an unsharp mask. As an example of the process of suppressing the high frequency component of the spatial frequency, there is a filter process using a low-pass filter. The high frequency component of the spatial frequency shown in the embodiment is an example of a defined frequency component of the spatial frequency. The image of the B channel component shown in the embodiment is an example of the processing target band.
〈作用効果〉
第二実施形態に係る画像処理によれば、通常光画像14aのBチャネル成分の画像に対して、空間周波数の高周波成分を強調する処理を施す。処理画像17aは通常光画像14aと比較して高いコントラストで微小な血管構造などが表される。これにより、LCIにおける特殊光画像16aの学習に適用可能な学習データの拡充が可能となる。<Action effect>
According to the image processing according to the second embodiment, the image of the B channel component of the normal
〈第三実施形態〉
第三実施形態に係る画像処理は、通常光画像14aを用いた注目領域の自動認識システムに適用される学習において、NBIにおける特殊光画像16aを利用する場合に適用される。<Third Embodiment>
The image processing according to the third embodiment is applied when the special
図7は通常光画像の分光分布とNBIにおける特殊光画像の分光分布との関係を示す説明図である。符号200は通常光画像14aの分光分布を示す。通常光画像14aの分光分布200の横軸は波長を表す。縦軸は信号強度を表す。
FIG. 7 is an explanatory diagram showing the relationship between the spectral distribution of the normal optical image and the spectral distribution of the special optical image in NBI.
通常光画像14aの分光分布200は、Bチャネルの波長帯域にBチャネル成分202を有する。通常光画像14aの分光分布200は、Gチャネルの波長帯域にGチャネル成分204を有する。通常光画像14aの分光分布200は、Rチャネルの波長帯域にRチャネル成分206を有する。
The
符号220は、NBIにおける特殊光画像16aの分光分布特性を示す。NBIにおける特殊光画像16aの分光分布220の横軸は波長を表す。縦軸は信号強度を表す。NBIにおける特殊光画像16aは、Bチャネルの波長帯域にBチャネル成分222を有する。NBIにおける特殊光画像16aは、Gチャネルの波長帯域にGチャネル成分224を有する。
一方、NBIにおける特殊光画像16aは、受光の際にRチャネル成分が失われている。図7に示すNBIにおける特殊光画像16aの分光分布220には、一点鎖線を用いて失われているRチャネル成分を示す。すなわち、通常光画像14a及びNBIにおける特殊光画像16aにおいて、Rチャネル成分同士は相違する。
On the other hand, in the special
一方、NBIにおける特殊光画像16aのBチャネル成分222及びGチャネル成分224は、通常光画像14aのBチャネル成分202及びGチャネル成分204と帯域幅が相違するものの、重複する帯域が存在する。
On the other hand, the
通常光画像14a及びNBIにおける特殊光画像16aにおいて、Bチャネル成分及びGチャネル成分同士は、Rチャネル成分同士と比較して近い性質を持っている。すなわち、通常光画像14a及びBIにおける特殊光画像16aにおいて、Bチャネル成分同士及びGチャネル成分同士は類似する。
In the normal
そこで、画像生成部40は、通常光画像14aにおけるRチャネル成分206を抑制する処理を実施し処理画像17aを生成する。学習部30はNBIにおける特殊光画像16aの学習に処理画像を適用し得る。
Therefore, the
画像生成部40は、通常光画像14aのBチャネル成分202及びGチャネル成分204の少なくともいずれかを強調する処理を施して処理画像17aを生成してもよい。学習部30はNBIにおける特殊光画像16aの学習に処理画像17aを適用し得る。通常光画像14aの処理対象の帯域成分を抑制する処理、及び処理対象の帯域成分を強調する処理は第一実施形態と同様である。ここでの説明は省略する。
The
〈作用効果〉
第三実施形態に係る画像処理によれば、通常光画像14aに対して、Rチャネル成分の抑制処理又はGチャネル成分及びBチャネル成分の少なくともいずれかの強調処理を施す。これにより、NBIにおける特殊光画像16aの学習に適用可能な学習データの拡充が可能となる。<Action effect>
According to the image processing according to the third embodiment, the normal
〈第三実施形態の応用例〉
NBIにおける特殊光画像16aのBチャネル成分222又はGチャネル成分224は、通常光画像14aのBチャネル成分222又はGチャネル成分224と比較してヘモグロビンの吸収係数が大きい帯域成分が大きいため、NBIにおける特殊光画像16aは通常光画像14aと比較して高いコントラストで血管構造等を表す性質を持つ。そこで、第二実施形態に係る画像処理と同様に、画像生成部40は、通常光画像14aのBチャネル成分222の画像又はGチャネル成分224の画像について、空間周波数における高周波成分を強調する処理を行い、処理画像17aを生成し得る。処理画像17aは、通常光画像14aと比較して高いコントラストで微小な血管構造などが表される。これにより、NBIにおける特殊光画像16aの学習に適用可能な学習データの拡充が可能となる。<Application example of the third embodiment>
Since the B-
〈第四実施形態〉
第四実施形態に係る画像処理は、互いに異なる観察モードを適用して取得した複数の画像群を適用して学習を行う場合に適用される。第一実施形態から第三実施形態に示す画像処理は、本来とは異なる観察モードを適用して取得した内視鏡画像を、擬似的に本来の観察モードを適用して取得した内視鏡画像に近づける処理である。<Fourth Embodiment>
The image processing according to the fourth embodiment is applied to the case where learning is performed by applying a plurality of image groups acquired by applying different observation modes. The image processing shown in the first to third embodiments is an endoscopic image obtained by applying a pseudo-original observation mode to an endoscopic image acquired by applying an observation mode different from the original one. It is a process that brings it closer to.
そうすると、別の観察モードの影響が大きくなり過ぎると、学習精度の向上が期待を下回る可能性がある。そこで、学習部30に適用される学習方法を工夫して、複数の画像群のバランスの調整を図る。具体的には、通常光画像群の学習と特殊光画像群の学習との学習方法を切り替える。通常光画像群の学習と特殊光画像群の学習との学習方法を切り替えには、通常光画像14aから生成した処理画像17aの学習と特殊光画像16aの学習との学習方法を切り替えが含まれる。以下に、学習方法の切り替えの具体例について説明する。
Then, if the influence of another observation mode becomes too large, the improvement of learning accuracy may be less than expected. Therefore, the learning method applied to the
《重み係数の導入》
CNNを含む学習手法の多くは、特定の目的関数を最小化又は最大化する学習を実施する。そこで、本来の観察モードが適用された画像群のみから計算される目的関数をL_maimとし、本来とは異なる観察モードが適用された画像群のみから計算される目的関数をL_subとする。式1を用いて表される目的関数Lを最小化又は最大化する学習を実施する。<< Introduction of weighting factor >>
Many learning methods, including CNNs, perform learning that minimizes or maximizes a particular objective function. Therefore, the objective function calculated only from the image group to which the original observation mode is applied is L_maim, and the objective function calculated only from the image group to which the observation mode different from the original is applied is L_sub. Learning is performed to minimize or maximize the objective function L expressed by using Equation 1.
L=L_maim+λ×L_sub …式1
なお、式1のλは設計パラメータである。設計パラメータλは1未満の任意の定数が適用される。設計パラメータλの値をより小さくすると、目的関数Lにおいて本来の観察モードの影響を表す第一項に対して、本来とは異なる観察モードの影響を表す第二項の影響がより抑制され得る。L = L_maim + λ × L_sub ... Equation 1
Note that λ in Equation 1 is a design parameter. Any constant less than 1 is applied to the design parameter λ. When the value of the design parameter λ is made smaller, the influence of the second term, which represents the influence of the observation mode different from the original, can be further suppressed with respect to the first term, which represents the influence of the original observation mode in the objective function L.
通常光画像14aの画像群とLCIにおける特殊光画像16aの画像群とを用いて学習を実施する場合は以下のとおりである。特殊光画像16aの画像群のみから計算される目的関数をL_maimとする。通常光画像14aの画像群のみから計算される目的関数をL_subとする。設計パラメータλを適宜設定して、式1の目的関数Lを最小化又は最大化する学習を実施し得る。
When learning is performed using the image group of the normal
図2に示す内視鏡画像学習装置10は、設計パラメータλを設定する設計パラメータ設定部を備え得る。また、内視鏡画像学習装置10は、目的関数Lを記憶する目的関数記憶部を備え得る。学習部30は、目的関数L及び設計パラメータλを読み出し、学習を実施し得る。
The endoscopic
《転移学習》
まず、観察モードが互いに異なる複数の画像群を用いてCNNを学習させる。その後に学習済みパラメータを初期値として、本来の観察モードが適用された画像群のみを用いてCNNを再学習させる。《Transfer learning》
First, CNN is trained using a plurality of image groups having different observation modes. After that, the CNN is retrained using only the image group to which the original observation mode is applied, with the trained parameters as the initial values.
具体的には、通常光画像14a及び処理画像17aを用いた学習済みのCNN、又は処理画像17aを用いた学習済みのCNNに対して、特殊光画像16aを用いて再学習を実施する。
Specifically, the trained CNN using the normal
これにより、本来とは異なる観察モードが適用された画像群の情報を利用した上で、本来の観察モードが適用された画像群に、より近づけることが可能となる。 As a result, it is possible to use the information of the image group to which the observation mode different from the original is applied and to bring the image group closer to the image group to which the original observation mode is applied.
学習部30は、観察モードが互いに異なる複数の画像群を用いてCNNを学習させる第一学習部、及び本来の観察モードが適用された画像群のみを用いてCNNを再学習させる第二学習部を備え得る。
The
〈作用効果〉
第四実施形態に係る画像処理によれば、本来とは異なる観察モードが適用された画像群の情報を利用した上で、本来とは異なる観察モードが適用された画像群の影響が抑制される学習を実施し得る。<Action effect>
According to the image processing according to the fourth embodiment, the influence of the image group to which the observation mode different from the original is applied is suppressed after using the information of the image group to which the observation mode different from the original is applied. Learning can be carried out.
[内視鏡画像を取得する内視鏡システムの全体構成]
図8は内視鏡システムの全体構成図である。図8に示す内視鏡システム300は、内視鏡302、光源装置311、プロセッサ装置312、表示装置313、画像処理装置314、入力装置315、及びモニタ装置316を備える。[Overall configuration of the endoscope system that acquires endoscopic images]
FIG. 8 is an overall configuration diagram of the endoscope system. The
内視鏡302は電子内視鏡である。また、内視鏡302は軟性内視鏡である。内視鏡302は挿入部320、操作部321、及びユニバーサルコード322を備える。挿入部320は被検体内に挿入される。挿入部320は、全体が細径で長尺状に形成されている。
The
挿入部320は、軟性部325、湾曲部326、及び先端部327を備える。挿入部320は、軟性部325、湾曲部326、及び先端部327が連設されて構成される。軟性部325は、挿入部320の基端側から先端側に向けて順に可撓性を有する。湾曲部326は、操作部321が操作された場合に湾曲可能な構造を有する。先端部327は、図示しない撮像光学系及び撮像素子328等が内蔵される。
The
撮像素子328は、CMOS型撮像素子又はCCD型撮像素子が適用される。CMOSは、Complementary Metal Oxide Semiconductorの省略語である。CCDは、Charge Coupled Deviceの省略語である。
A CMOS image sensor or a CCD image sensor is applied to the
先端部327の先端面327aは、図示しない観察窓が配置される。観察窓は、先端部327の先端面327aに形成された開口である。観察窓は図示しないカバーが取り付けられる。観察窓の後方には、図示しない撮像光学系が配置される。撮像素子328の撮像面は、観察窓及び撮像光学系等を介して、被観察部位の像光が入射する。撮像素子328は、撮像素子328の撮像面に入射した被観察部位の像光を撮像して、撮像信号を出力する。ここでいう撮像は、被観察部位からの反射光を電気信号へ変換するという意味が含まれる。
An observation window (not shown) is arranged on the
操作部321は挿入部320の基端側に連設される。操作部321は、術者が操作する各種操作部材を備える。具体的には、操作部321は、二種類の湾曲操作ノブ329を備える。湾曲操作ノブ329は、湾曲部326の湾曲操作の際に用いられる。なお、術者は、医師、操作者、観察者、及びユーザなどと呼ばれることがあり得る。
The
操作部321は、送気送水ボタン330及び吸引ボタン331を備える。送気送水ボタン330は、術者が送気送水操作を行う際に用いられる。吸引ボタン331は、術者が吸引操作を行う際に用いられる。
The
操作部321は、静止画像撮像指示部332及び処置具導入口333を備える。静止画像撮像指示部332は、被観察部位の静止画像を撮像する際に、術者が操作する。処置具導入口333は、挿入部320の内部を挿通している処置具挿通路の内部に処置具を挿入する開口である。なお、処置具挿通路及び処置具の図示は省略する。
The
ユニバーサルコード322は、内視鏡302を光源装置311に接続する接続コードである。ユニバーサルコード322は、挿入部320の内部を挿通しているライトガイド335、信号ケーブル336、及び図示しない流体チューブを内包している。
The
また、ユニバーサルコード322の先端部は、光源装置311に接続されるコネクタ337a、及びコネクタ337aから分岐され、かつプロセッサ装置312に接続されるコネクタ337bを備える。
The tip of the
コネクタ337aを光源装置311に接続すると、ライトガイド335及び図示しない流体チューブが光源装置311に挿入される。これにより、ライトガイド335及び図示しない流体チューブを介して、光源装置311から内視鏡302に対して必要な照明光と水と気体とが供給される。
When the
その結果、先端部327の先端面327aの図示しない照明窓から被観察部位に向けて照明光が照射される。また、送気送水ボタン330の押下操作に応じて、先端部327の先端面327aの図示しない送気送水ノズルから先端面327aの図示しない観察窓に向けて気体又は水が噴射される。
As a result, the illumination light is emitted from the illumination window (not shown) on the
コネクタ337bをプロセッサ装置312に接続すると、信号ケーブル336とプロセッサ装置312とが電気的に接続される。これにより、信号ケーブル336を介して、内視鏡302の撮像素子328からプロセッサ装置312へ被観察部位の撮像信号が出力され、かつプロセッサ装置312から内視鏡302へ制御信号が出力される。
When the
本実施形態では、内視鏡302として軟性内視鏡を例に挙げて説明を行ったが、内視鏡302として、硬性内視鏡等の被観察部位の動画撮像を可能な各種の電子内視鏡を用いてもよい。
In the present embodiment, a flexible endoscope has been described as an example of the
光源装置311は、コネクタ337aを介して、内視鏡302のライトガイド335へ照明光を供給する。照明光は、白色光又は特定の波長帯域の光を適用可能である。照明光は、白色光及び特定の波長帯域の光を組み合わせてもよい。光源装置311は、観察目的に応じた波長帯域の光を、照明光として適宜選択可能に構成される。
The
白色光は、白色の波長帯域の光又は複数の波長帯域の光のいずれでもよい。特定の波長帯域は、白色の波長帯域よりも狭い帯域である。特定の波長帯域の光は、一種類の波長帯域の光を適用してもよいし、複数の波長帯域の光を適用してもよい。特定の波長帯域は、特殊光と呼ばれる場合がある。 The white light may be either light in a white wavelength band or light in a plurality of wavelength bands. The specific wavelength band is narrower than the white wavelength band. As the light of a specific wavelength band, light of one kind of wavelength band may be applied, or light of a plurality of wavelength bands may be applied. A particular wavelength band is sometimes referred to as special light.
プロセッサ装置312は、コネクタ337b及び信号ケーブル336を介して、内視鏡302の動作を制御する。また、プロセッサ装置312は、コネクタ337b及び信号ケーブル336を介して、内視鏡302の撮像素子328から撮像信号を取得する。プロセッサ装置312は規定のフレームレートを適用して内視鏡302から出力された撮像信号を取得する。
The
プロセッサ装置312は、内視鏡302から取得した撮像信号に基づき、被観察部位の観察画像である内視鏡画像を生成する。ここでいう内視鏡画像338には動画像が含まれる。内視鏡画像338は静止画像339が含まれてもよい。
The
プロセッサ装置312は、操作部321の静止画像撮像指示部332が操作された場合、動画像の生成と並行して、撮像素子328から取得した撮像信号に基づき被観察部位の静止画像339を生成する。静止画像339は、動画像の解像度に対して高解像度に生成されていてもよい。
When the still image
内視鏡画像338の生成の際に、プロセッサ装置312はホワイトバランス調整及びシェーディング補正等のデジタル信号処理を適用した画質の補正を行う。プロセッサ装置312はDICOM規格で規定された付帯情報を内視鏡画像338へ付加してもよい。なお、DICOMは、Digital Imaging and Communications in Medicineの省略語である。
When generating the endoscopic image 338, the
内視鏡画像338は、被検体内、すなわち生体内を撮像した生体内画像である。内視鏡画像338が、特定の波長帯域の光を用いて撮像して得られた画像である場合、両者は特殊光画像である。そして、プロセッサ装置312は、生成した内視鏡画像338を表示装置313と画像処理装置314とのそれぞれに出力する。プロセッサ装置312は、DICOM規格に準拠した通信プロトコルに従って、図示しないネットワークを介して内視鏡画像338を、図示しない記憶装置へ出力してもよい。
The endoscopic image 338 is an in-vivo image obtained by imaging the inside of a subject, that is, the inside of a living body. When the endoscopic image 338 is an image obtained by imaging using light in a specific wavelength band, both are special optical images. Then, the
表示装置313は、プロセッサ装置312に接続される。表示装置313は、プロセッサ装置312から送信された内視鏡画像338を表示する。術者は、表示装置313に表示される内視鏡画像338を確認しながら、挿入部320の進退操作等をし得る。術者は、被観察部位に病変等を検出した場合に、静止画像撮像指示部332を操作して被観察部位の静止画を撮像し得る。
The
画像処理装置314は、コンピュータが用いられる。入力装置315はコンピュータに接続可能なキーボード及びマウス等が用いられる。入力装置315とコンピュータとの接続は有線接続、又は無線接続のいずれでもよい。モニタ装置316は、コンピュータに接続可能な各種モニタが用いられる。
A computer is used as the
画像処理装置314として、ワークステーション及びサーバ装置等の診断支援装置を用いてもよい。この場合、入力装置315及びモニタ装置316は、それぞれワークステーション等に接続した複数の端末ごとに設けられる。更に、画像処理装置314として、医療レポート等の作成支援を行う診療業務支援装置を用いてもよい。
As the
画像処理装置314は、内視鏡画像338の取得及び内視鏡画像338の記憶を行う。画像処理装置314は、モニタ装置316の再生制御を行う。図8に示す画像処理装置314は、図1から図7までの各図を用いて説明した内視鏡画像学習装置10の機能を備え得る。また、図8に示す入力装置315は図1に示す操作部18に相当する。図8に示すモニタ装置316は図1に示す表示部26に相当する。
The
なお、本明細書における画像という用語は、画像を表す電気信号及び画像を表す情報等の静止画像339の意味が含まれている。本明細書における画像という用語は、画像自身及び画像データの少なくともいずれかを意味している。 The term "image" in the present specification includes the meaning of a still image 339 such as an electric signal representing an image and information representing an image. The term image in the present specification means at least one of the image itself and the image data.
また、画像の記憶という用語は、画像の保存と読み替えることが可能である。ここでいう画像の記憶は、画像の非一時的記憶を意味する。画像処理装置314は画像を一時記憶する一時記憶用のメモリを備えてもよい。
Also, the term image storage can be read as image storage. Image memory here means non-temporary image storage. The
入力装置315は、画像処理装置314に対する操作指示の入力に用いられる。モニタ装置316は、画像処理装置314の制御の下、内視鏡画像338の表示を行う。モニタ装置316は、画像処理装置314における各種情報の表示部として機能してもよい。
The
画像処理装置314は、図示しないネットワークを介して、図示しない記憶装置と接続され得る。画像の格納形式及びネットワークを経由した各装置間の通信は、DICOM規格及びDICOM規格に準拠したプロトコル等を適用可能である。
The
図示しない記憶装置は、データを非一時的に記憶するストレージ等を適用可能である。記憶装置は、図示しないサーバ装置を用いて管理されてもよい。サーバ装置は、各種データを記憶して管理するコンピュータを適用可能である。 A storage device (not shown) can be applied with a storage or the like that stores data non-temporarily. The storage device may be managed by using a server device (not shown). The server device can be applied to a computer that stores and manages various data.
[内視鏡システムの観察モード]
図9は内視鏡システムの機能ブロック図である。内視鏡システム300は通常光観察モードと特殊光観察モードとの切り替えが可能に構成される。操作者は図示しない観察モード切替ボタンを操作して、通常光観察モードと特殊光観察モードとの切り替えを実施し得る。[Observation mode of endoscopic system]
FIG. 9 is a functional block diagram of the endoscopic system. The
光源装置311は、第一レーザ光源400、第二レーザ光源402、及び光源制御部404を備える。第一レーザ光源400は、中心波長445nmの青色レーザ光源である。第二レーザ光源402は、中心波長405nmの紫色レーザ光源である。第一レーザ光源400及び第二レーザ光源402として、レーザダイオードを用いることができる。第一レーザ光源400及び第二レーザ光源402の発光は、光源制御部404を用いて個別に制御される。第一レーザ光源400と第二レーザ光源402との発光強度比は変更自在になっている。
The
内視鏡302は、第一光ファイバ410、第二光ファイバ412、蛍光体414、拡散部材416、撮像レンズ418、撮像素子328、及びアナログデジタル変換部420を備える。
The
第一レーザ光源400、第二レーザ光源402、第一光ファイバ410、第二光ファイバ412、蛍光体414、及び拡散部材416を用いて照射部が構成される。
The irradiation unit is configured by using the first
第一レーザ光源400から出射されるレーザ光は、第一光ファイバ410を介して内視鏡302の先端部327に配置された蛍光体414に照射される。蛍光体414は、第一レーザ光源400からの青色レーザ光の一部を吸収して緑色から黄色まで範囲に励起発光する複数種の蛍光体を含んで構成される。これにより、蛍光体414から出射する光は、第一レーザ光源400からの青色レーザ光を励起光とする緑色から黄色まで範囲の励起光L11及び蛍光体414に吸収されずに透過した青色のレーザ光L12が合わされて、白色又は疑似白色の光L1となる。The laser light emitted from the first
なお、ここで言う白色光とは、厳密に可視光の全ての波長成分を含むものに限らない。例えば、R、G、及びBなど、特定の波長帯域の光を含むものであればよく、緑色から赤色にかけての波長成分を含む光、又は青色から緑色にかけての波長成分を含む光等も広義に含むものとする。 It should be noted that the white light referred to here is not limited to that strictly includes all wavelength components of visible light. For example, light containing a specific wavelength band such as R, G, and B may be used, and light containing a wavelength component from green to red or light containing a wavelength component from blue to green is also broadly defined. It shall include.
一方、第二レーザ光源402から出射されるレーザ光は、第二光ファイバ412を介して内視鏡302の先端部327に配置された拡散部材416に照射される。拡散部材416は、透光性を有する樹脂材料等を用いることができる。拡散部材416から出射する光は、照射領域内において光量が均一化された狭帯域波長の光L2となる。On the other hand, the laser light emitted from the second
図10は光の強度分布を示すグラフである。光源制御部404は、第一レーザ光源400と第二レーザ光源402との光量比を変更する。これにより、光L1と光L2との光量比が変更され、光L1と光L2との合成光である照射光L0の波長パターンが変更され、観察モードに応じて異なる波長パターンの照射光L0を照射することができる。FIG. 10 is a graph showing the light intensity distribution. The light
図9に示す内視鏡システム300は、撮像レンズ418、撮像素子328、アナログデジタル変換部420を含む撮像部を備える。図8に示すように撮像部は、内視鏡302の先端部327に配置される。
The
図9に示す撮像レンズ418は、入射した光を撮像素子328に結像させる。撮像素子328は、受光した光に応じたアナログ信号を生成する。撮像素子328から出力されるアナログ信号は、アナログデジタル変換部420を用いてデジタル信号に変換され、プロセッサ装置312に入力される。
The
プロセッサ装置312は、撮像制御部440、画像処理部442、画像取得部444、及び画像認識部446を備える。
The
撮像制御部440は、光源装置311の光源制御部404、内視鏡302の撮像素子328及びアナログデジタル変換部420、並びにプロセッサ装置312の画像処理部442を制御し、内視鏡システム300を用いた動画及び静止画の撮像を統括制御する。
The image
画像処理部442は、内視鏡302のアナログデジタル変換部420から入力されたデジタル信号に画像処理を施し画像を生成する。画像処理部442は、撮像時の照射光の波長パターンに応じた画像処理を施す。
The
画像取得部444は、画像処理部442が生成した画像を取得する。すなわち、画像取得部444は、被験者の体腔内を一定のフレームレートを適用して時系列的に撮像した複数の画像を順次取得する。なお、画像取得部444は、入力部447から入力された画像、又は記憶部468に記憶された画像を取得してもよい。また、不図示のネットワークに接続されたサーバ等の外部装置から画像を取得してもよい。これらの場合の画像も、時系列的に撮像した複数の画像であることが好ましい。
The
画像認識部446は、内視鏡画像学習装置10によって学習された学習モデルを用いて、画像取得部444が取得した画像の画像認識を行う。本実施形態では、画像取得部444が取得した画像から病変を認識する。病変とは、病気が原因のものに限定されず、外観上正常な状態とは異なる状態の領域を含んでいる。
The
病変の一例として、ポリープ、癌、大腸憩室、炎症、治療痕、クリップ箇所、出血点、穿孔、及び血管異型性等が挙げられる。治療痕の一例として、EMR瘢痕及びESD瘢痕等が挙げられる。EMRはEndoscopic Mucosal Resectionの省略語である。ESDはEndoscopic Submucosal Dissectionの省略語である。 Examples of lesions include polyps, cancer, diverticula of the large intestine, inflammation, treatment scars, clip sites, bleeding points, perforations, and vascular atypia. Examples of treatment scars include EMR scars and ESD scars. EMR is an abbreviation for Endoscopic Mucosal Resection. ESD is an abbreviation for Endoscopic Submucosal Dissection.
表示制御部450は、画像処理部442を用いて生成された画像を表示装置313に表示させる。表示制御部450は、画像認識部446を用いて認識した病変を認識可能に画像に重畳表示してもよい。
The
記憶制御部452は、画像処理部442を用いて生成された画像を記憶部468に記憶させる。例えば、静止画の取得指示に従って撮像された画像及び画像を撮像した際の照射光L0の波長パターンの情報等を記憶部468に記憶させる。The
記憶部468の一例として、ハードディスク等のストレージ装置が挙げられる。なお、記憶部468は、プロセッサ装置312に内蔵されたものに限定されない。例えば、プロセッサ装置312に接続される不図示の外部記憶装置であってもよい。外部記憶装置は、不図示のネットワークを介して接続されていてもよい。
An example of the
このように構成された内視鏡システム300は、通常は一定のフレームレートで動画撮像を行い、撮像した画像を表示装置313に表示する。また、撮像された動画から、病変を検出し、検出した病変を認識可能に動画に重畳して表示装置313に表示する。
The
内視鏡システム300によれば、内視鏡画像学習装置10によって学習された学習モデルを用いた画像認識部446を適用して内視鏡画像の自動認識を行い、特殊光画像の画像認識を適切に行うことができる。
According to the
図8から図10を用いて説明した内視鏡システム300は、通常光画像14a及び特殊光画像16aを取得し得る。
The
[内視鏡システムの変形例]
〔プロセッサ装置の変形例〕
プロセッサ装置312は、画像処理装置314の機能を有してもよい。すなわち、プロセッサ装置312は、画像処理装置314と一体に構成されてもよい。かかる態様では、表示装置313はモニタ装置316と兼用し得る。プロセッサ装置312は入力装置315を接続させる接続端子を備え得る。[Modification example of endoscopic system]
[Modification example of processor device]
The
〔特徴量画像の生成例〕
医用画像として、白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得る通常画像、並びに特定の波長帯域の光を照射して得る特殊光画像の少なくともいずれかに基づく演算を用いて、特徴量画像を生成し得る。[Example of generating a feature image]
The medical image is based on at least one of a white band light, a normal image obtained by irradiating light in a plurality of wavelength bands as light in the white band, and a special light image obtained by irradiating light in a specific wavelength band. An operation can be used to generate a feature image.
[コンピュータを画像処理装置として機能させるプログラムへの適用例]
上述した内視鏡画像学習方法は、コンピュータを用いて、内視鏡画像学習方法における各工程に対応する機能を実現させるプログラムとして構成可能である。例えば、コンピュータに、互いに分光分布が異なる第一画像及び第二画像を取得する画像取得機能、第一画像に画像処理を施して第三画像を生成する画像処理機能、及び複数の第一画像を含む第一画像群、複数の第二画像を含む第二画像群、及び複数の第三画像を含む第三画像群、並びに第一画像群、第二画像群、及び第三画像群のそれぞれの正しい認識結果である正解データを用いて、自動認識に適用する認識器を学習する学習機能を実現させるプログラムであって、画像処理機能は、第一画像の分光分布に含まれる帯域のうち第二画像の対応する帯域と特性が異なる帯域の信号を抑制する画像処理、及び第一画像に含まれる帯域のうち第二画像の対応する帯域と特性が同一の帯域の信号又は類似する帯域の信号を強調する画像処理の少なくともいずれかを施して、第一画像から第三画像を生成するプログラムを実現し得る。[Example of application to a program that makes a computer function as an image processing device]
The above-mentioned endoscopic image learning method can be configured as a program that realizes a function corresponding to each step in the endoscopic image learning method by using a computer. For example, a computer is provided with an image acquisition function for acquiring a first image and a second image having different spectral distributions, an image processing function for performing image processing on the first image to generate a third image, and a plurality of first images. Each of the first image group including, the second image group including a plurality of second images, the third image group including a plurality of third images, and the first image group, the second image group, and the third image group, respectively. It is a program that realizes a learning function that learns a recognizer to be applied to automatic recognition using correct answer data that is the correct recognition result, and the image processing function is the second of the bands included in the spectral distribution of the first image. Image processing that suppresses signals in a band whose characteristics are different from the corresponding band of the image, and signals in a band that has the same characteristics as the corresponding band in the second image or a signal in a similar band among the bands included in the first image. A program that generates a third image from a first image can be realized by performing at least one of the image processing to be emphasized.
上述した内視鏡画像学習機能をコンピュータに実現させるプログラムを、有体物である非一時的な情報記憶媒体である、コンピュータが読取可能な情報記憶媒体に記憶し、情報記憶媒体を通じてプログラムを提供することが可能である。 To store the program for realizing the above-mentioned endoscopic image learning function in a computer in a computer-readable information storage medium, which is a tangible non-temporary information storage medium, and provide the program through the information storage medium. Is possible.
また、非一時的な情報記憶媒体にプログラムを記憶して提供する態様に代えて、ネットワークを介してプログラム信号を提供する態様も可能である。 Further, instead of the mode in which the program is stored and provided in the non-temporary information storage medium, the mode in which the program signal is provided via the network is also possible.
[実施形態及び変形例等の組み合わせについて]
上述した実施形態で説明した構成要素及び変形例で説明した構成要素は、適宜組み合わせて用いることができ、また、一部の構成要素を置き換えることもできる。[Combination of Embodiments and Modifications]
The components described in the above-described embodiment and the components described in the modified examples can be used in combination as appropriate, or some components can be replaced.
以上説明した本発明の実施形態は、本発明の趣旨を逸脱しない範囲で、適宜構成要件を変更、追加、削除することが可能である。本発明は以上説明した実施形態に限定されるものではなく、本発明の技術的思想内で当該分野の通常の知識を有する者により、多くの変形が可能である。 In the embodiment of the present invention described above, the constituent requirements can be appropriately changed, added, or deleted without departing from the spirit of the present invention. The present invention is not limited to the embodiments described above, and many modifications can be made by a person having ordinary knowledge in the art within the technical idea of the present invention.
10 内視鏡画像学習装置
12 通信部
14 第一記憶装置
14a 通常光画像
16 第二記憶装置
16a 特殊光画像
17 第三記憶装置
17a 処理画像
18 操作部
20 CPU
22 RAM
24 ROM
26 表示部
30 学習部
32 CNN
32a 入力層
32b 中間層
32c 出力層
32d 畳み込み層
32e プーリング層
32f セット
32g 全結合層
34 誤差算出部
36 パラメータ更新部
40 画像生成部
100 分光感度分布
102 Bチャネル成分
104 Gチャネル成分
106 Rチャネル成分
120 通常光の強度分布
140 通常光画像の分光分布特性
142 Bチャネル成分
144 Gチャネル成分
146 Rチャネル成分
160 LCIにおける照明光の強度分布
180 特殊光画像の分光分布特性
182 Bチャネル成分
184 Gチャネル成分
186 Rチャネル成分
200 通常光画像の分光分布特性
202 Bチャネル成分
204 Gチャネル成分
206 Rチャネル成分
220 特殊光画像の分光分布特性
222 Bチャネル成分
224 Gチャネル成分
300 内視鏡システム
302 内視鏡
311 光源装置
312 プロセッサ装置
313 表示装置
314 画像処理装置
315 入力装置
316 モニタ装置
320 挿入部
321 操作部
322 ユニバーサルコード
325 軟性部
326 湾曲部
327 先端部
327a 先端面
328 撮像素子
329 湾曲操作ノブ
330 送気送水ボタン
331 吸引ボタン
332 静止画像撮像指示部
333 処置具導入口
335 ライトガイド
336 信号ケーブル
337a コネクタ
337b コネクタ
338 内視鏡画像
339 静止画像
400 第一レーザ光源
402 第二レーザ光源
404 光源制御部
410 第一光ファイバ
412 第二光ファイバ
414 蛍光体
416 拡散部材
418 撮像レンズ
420 アナログデジタル変換部
442 画像処理部
444 画像取得部
446 画像認識部
447 入力部
450 表示制御部
452 記憶制御部
468 記憶部
S10からS21 内視鏡画像学習方法の各工程10 Endoscopic
22 RAM
24 ROM
26
32a Input layer 32b Intermediate layer 32c Output layer 32d Folding layer 32e Pooling layer 32f Set 32g Fully coupled layer 34 Error calculation unit 36 Parameter update unit 40 Image generation unit 100 Spectral sensitivity distribution 102 B channel component 104 G channel component 106 R channel component 120 Intensity distribution of normal light 140 Spectral distribution characteristic of normal light image 142 B channel component 144 G channel component 146 R channel component 160 Intensity distribution of illumination light in LCI 180 Spectral distribution characteristic of special light image 182 B channel component 184 G channel component 186 R channel component 200 Spectral distribution characteristic of normal light image 202 B channel component 204 G channel component 206 R channel component 220 Spectral distribution characteristic of special light image 222 B channel component 224 G channel component 300 Endoscope system 302 Endoscope 311 Light source Device 312 Processor device 313 Display device 314 Image processing device 315 Input device 316 Monitor device 320 Insertion unit 321 Operation unit 322 Universal cord 325 Flexible part 326 Curved part 327 Tip part 327a Tip surface 328 Image sensor 329 Curved operation knob 330 Air supply / water supply button 331 Suction button 332 Still image imaging instruction unit 333 Treatment tool introduction port 335 Light guide 336 Signal cable 337a Connector 337b Connector 338 Endoscope image 339 Still image 400 First laser light source 402 Second laser light source 404 Light source control unit 410 First light Fiber 412 Second optical fiber 414 Fluorescent material 416 Diffusing member 418 Imaging lens 420 Analog digital conversion unit 442 Image processing unit 444 Image acquisition unit 446 Image recognition unit 447 Input unit 450 Display control unit 452 Storage control unit 468 Storage unit S10 to S21 Each step of the spectroscopic image learning method
Claims (18)
前記第一画像に画像処理を施して第三画像を生成する画像処理部と、
複数の前記第一画像を含む第一画像群、複数の前記第二画像を含む第二画像群、及び複数の前記第三画像を含む第三画像群、並びに前記第一画像群、前記第二画像群、及び前記第三画像群のそれぞれの正解データを用いて、自動認識に適用する認識器を学習させる学習部と、
を備え、
前記画像処理部は、前記第一画像の分光分布に含まれる帯域のうち前記第二画像の対応する帯域と特性が異なる帯域の信号を抑制する画像処理、及び前記第一画像に含まれる帯域のうち前記第二画像の対応する帯域と特性が同一の帯域の信号又は類似する帯域の信号を強調する画像処理の少なくともいずれかを施して、前記第一画像から前記第三画像を生成する医用画像学習装置。An image acquisition unit that acquires the first image and the second image whose spectral distributions are different from each other,
An image processing unit that performs image processing on the first image to generate a third image,
A first image group including the plurality of the first images, a second image group including the plurality of the second images, a third image group including the plurality of the third images, and the first image group and the second image. A learning unit that learns a recognizer to be applied to automatic recognition using the correct answer data of each of the image group and the third image group.
With
The image processing unit suppresses signals in a band having characteristics different from the corresponding band of the second image among the bands included in the spectral distribution of the first image, and the band included in the first image. A medical image that generates the third image from the first image by performing at least one of image processing that emphasizes a signal in a band having the same characteristics as the corresponding band of the second image or a signal in a similar band. Learning device.
前記第二画像は通常光よりも狭帯域の特殊光を用いて撮像した特殊光画像である請求項1に記載の医用画像学習装置。The first image is a normal light image captured by using normal light.
The medical image learning device according to claim 1, wherein the second image is a special light image captured by using special light having a narrower band than normal light.
前記第二画像は通常光よりも狭帯域の特殊光を用いて撮像した特殊光画像であり、
前記画像処理部は、前記通常光画像のBチャネル成分の高周波成分を強調する処理を施す請求項10に記載の医用画像学習装置。The first image is a normal light image captured by using normal light.
The second image is a special light image taken by using special light having a narrower band than normal light.
The medical image learning apparatus according to claim 10, wherein the image processing unit performs a process of emphasizing a high frequency component of a B channel component of the normal optical image.
前記第一画像に画像処理を施して第三画像を生成する画像処理工程と、
複数の前記第一画像を含む第一画像群、複数の前記第二画像を含む第二画像群、及び複数の前記第三画像を含む第三画像群、並びに前記第一画像群、前記第二画像群、及び前記第三画像群のそれぞれの正解データを用いて、自動認識に適用する認識器を学習させる学習工程と、
を含み、
前記画像処理工程は、前記第一画像の分光分布に含まれる帯域のうち前記第二画像の対応する帯域と特性が異なる帯域の信号を抑制する画像処理、及び前記第一画像に含まれる帯域のうち前記第二画像の対応する帯域と特性が同一の帯域の信号又は類似する帯域の信号を強調する画像処理の少なくともいずれかを施して、前記第一画像から前記第三画像を生成する医用画像学習方法。An image acquisition process for acquiring a first image and a second image having different spectral distributions from each other,
An image processing step of performing image processing on the first image to generate a third image, and
A first image group including the plurality of the first images, a second image group including the plurality of the second images, a third image group including the plurality of the third images, and the first image group and the second image. A learning process for learning a recognizer to be applied to automatic recognition using the correct answer data of each of the image group and the third image group.
Including
The image processing step includes image processing that suppresses signals in a band having characteristics different from the corresponding band of the second image among the bands included in the spectral distribution of the first image, and the band included in the first image. A medical image that generates the third image from the first image by performing at least one of image processing that emphasizes a signal in a band having the same characteristics as the corresponding band of the second image or a signal in a similar band. Learning method.
互いに分光分布が異なる第一画像及び第二画像を取得する画像取得機能、
前記第一画像に画像処理を施して第三画像を生成する画像処理機能、及び
複数の前記第一画像を含む第一画像群、複数の前記第二画像を含む第二画像群、及び複数の前記第三画像を含む第三画像群、並びに前記第一画像群、前記第二画像群、及び前記第三画像群のそれぞれの正解データを用いて、自動認識に適用する認識器を学習させる学習機能を実現させるプログラムであって、
前記画像処理機能は、前記第一画像の分光分布に含まれる帯域のうち前記第二画像の対応する帯域と特性が異なる帯域の信号を抑制する画像処理、及び前記第一画像に含まれる帯域のうち前記第二画像の対応する帯域と特性が同一の帯域の信号又は類似する帯域の信号を強調する画像処理の少なくともいずれかを施して、前記第一画像から前記第三画像を生成するプログラム。On the computer
Image acquisition function to acquire the first image and the second image whose spectral distributions are different from each other,
An image processing function that performs image processing on the first image to generate a third image, a first image group including the plurality of the first images, a second image group including the plurality of the second images, and a plurality of. Learning to learn a recognizer to be applied to automatic recognition by using the correct answer data of each of the third image group including the third image, the first image group, the second image group, and the third image group. It is a program that realizes the function
The image processing function includes image processing that suppresses signals in a band having characteristics different from the corresponding band of the second image among the bands included in the spectral distribution of the first image, and a band included in the first image. A program that generates the third image from the first image by performing at least one of image processing that emphasizes a signal in a band having the same characteristics as the corresponding band of the second image or a signal in a similar band.
互いに分光分布が異なる第一画像及び第二画像を取得する画像取得機能と、
前記第一画像に画像処理を施して第三画像を生成する画像処理機能と、
複数の前記第一画像を含む第一画像群、複数の前記第二画像を含む第二画像群、及び複数の前記第三画像を含む第三画像群、並びに前記第一画像群、前記第二画像群、及び前記第三画像群のそれぞれの正解データを用いて、自動認識に適用する認識器を学習させる学習機能と、を含み、
前記画像処理機能は、前記第一画像の分光分布に含まれる帯域のうち前記第二画像の対応する帯域と特性が異なる帯域の信号を抑制する画像処理、及び前記第一画像に含まれる帯域のうち前記第二画像の対応する帯域と特性が同一の帯域の信号又は類似する帯域の信号を強調する画像処理の少なくともいずれかを施して、前記第一画像から前記第三画像を生成する、画像学習機能をコンピュータに実行させる記憶媒体。A non-temporary, computer-readable storage medium when the instructions stored in the storage medium are read by a computer.
An image acquisition function that acquires the first and second images with different spectral distributions from each other,
An image processing function that performs image processing on the first image to generate a third image,
A first image group including the plurality of the first images, a second image group including the plurality of the second images, a third image group including the plurality of the third images, and the first image group and the second image. It includes a learning function for learning a recognizer to be applied to automatic recognition using the correct answer data of each of the image group and the third image group.
The image processing function includes image processing that suppresses signals in a band having characteristics different from the corresponding band of the second image among the bands included in the spectral distribution of the first image, and a band included in the first image. An image in which the third image is generated from the first image by performing at least one of image processing for emphasizing a signal in a band having the same characteristics as the corresponding band of the second image or a signal in a similar band. A storage medium that causes a computer to perform learning functions.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018136922 | 2018-07-20 | ||
JP2018136922 | 2018-07-20 | ||
PCT/JP2019/023882 WO2020017211A1 (en) | 2018-07-20 | 2019-06-17 | Medical image learning device, medical image learning method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020017211A1 JPWO2020017211A1 (en) | 2021-08-02 |
JP6931425B2 true JP6931425B2 (en) | 2021-09-01 |
Family
ID=69164325
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020530944A Active JP6931425B2 (en) | 2018-07-20 | 2019-06-17 | Medical image learning device, medical image learning method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6931425B2 (en) |
WO (1) | WO2020017211A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023113500A1 (en) * | 2021-12-17 | 2023-06-22 | 가천대학교 산학협력단 | System and method for predicting depth image for medical image |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8903167B2 (en) * | 2011-05-12 | 2014-12-02 | Microsoft Corporation | Synthesizing training samples for object recognition |
WO2016208016A1 (en) * | 2015-06-24 | 2016-12-29 | オリンパス株式会社 | Image-processing device, image-processing method, and image-processing program |
JP6807869B2 (en) * | 2015-12-24 | 2021-01-06 | オリンパス株式会社 | Image processing equipment, image processing methods and programs |
JP6656357B2 (en) * | 2016-04-04 | 2020-03-04 | オリンパス株式会社 | Learning method, image recognition device and program |
-
2019
- 2019-06-17 WO PCT/JP2019/023882 patent/WO2020017211A1/en active Application Filing
- 2019-06-17 JP JP2020530944A patent/JP6931425B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023113500A1 (en) * | 2021-12-17 | 2023-06-22 | 가천대학교 산학협력단 | System and method for predicting depth image for medical image |
Also Published As
Publication number | Publication date |
---|---|
JPWO2020017211A1 (en) | 2021-08-02 |
WO2020017211A1 (en) | 2020-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6890184B2 (en) | Medical image processing equipment and medical image processing program | |
JP7346285B2 (en) | Medical image processing device, endoscope system, operating method and program for medical image processing device | |
WO2013005533A1 (en) | Endoscope system, endoscope system processor and image display method | |
WO2019198637A1 (en) | Image processing device, endoscope system, and image processing method | |
JP7005767B2 (en) | Endoscopic image recognition device, endoscopic image learning device, endoscopic image learning method and program | |
WO2020012872A1 (en) | Medical image processing device, medical image processing system, medical image processing method, and program | |
JP2011217798A (en) | Electronic endoscope system | |
JP7308258B2 (en) | Medical imaging device and method of operating medical imaging device | |
US11948080B2 (en) | Image processing method and image processing apparatus | |
JP7387859B2 (en) | Medical image processing device, processor device, endoscope system, operating method and program for medical image processing device | |
JP7526449B2 (en) | Method for generating trained model, method for training endoscopic images, and program | |
JPWO2020174747A1 (en) | Medical image processing equipment, processor equipment, endoscopic systems, medical image processing methods, and programs | |
WO2021145265A1 (en) | Medical image processing device, endoscope system, diagnosis assistance method, and program | |
WO2020162275A1 (en) | Medical image processing device, endoscope system, and medical image processing method | |
CN111670000A (en) | Imaging device, imaging method, and program | |
CN105007801B (en) | Image processing apparatus and the method for work of endoscopic system | |
CN113453607B (en) | Medical image processing apparatus and method | |
WO2020054255A1 (en) | Endoscope device, endoscope processor, and endoscope device operation method | |
JP6931425B2 (en) | Medical image learning device, medical image learning method, and program | |
WO2019138772A1 (en) | Image processing apparatus, processor apparatus, image processing method, and program | |
CN115245312A (en) | Endoscope multispectral image processing system and processing and training method | |
JP7289241B2 (en) | Filing device, filing method and program | |
CN116234487A (en) | Medical image processing device, medical image processing method, endoscope system, and medical image processing program | |
US20190253675A1 (en) | Image processing apparatus, image processing method, and computer readable recording medium | |
WO2022049901A1 (en) | Learning device, learning method, image processing apparatus, endocope system, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210726 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210813 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6931425 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |