[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6931425B2 - Medical image learning device, medical image learning method, and program - Google Patents

Medical image learning device, medical image learning method, and program Download PDF

Info

Publication number
JP6931425B2
JP6931425B2 JP2020530944A JP2020530944A JP6931425B2 JP 6931425 B2 JP6931425 B2 JP 6931425B2 JP 2020530944 A JP2020530944 A JP 2020530944A JP 2020530944 A JP2020530944 A JP 2020530944A JP 6931425 B2 JP6931425 B2 JP 6931425B2
Authority
JP
Japan
Prior art keywords
image
learning
band
light
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020530944A
Other languages
Japanese (ja)
Other versions
JPWO2020017211A1 (en
Inventor
駿平 加門
駿平 加門
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2020017211A1 publication Critical patent/JPWO2020017211A1/en
Application granted granted Critical
Publication of JP6931425B2 publication Critical patent/JP6931425B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)

Description

本発明は医用画像学習装置、医用画像学習方法、及びプログラムに係り、特に特殊光観察画像の学習に関する。 The present invention relates to a medical image learning device, a medical image learning method, and a program, and particularly relates to learning of a special light observation image.

医療分野において、ディープラーニングと呼ばれる深層学習を適用したAI技術が期待されている。AI技術の一例として、病変の自動検出及び病変の自動鑑別が挙げられる。なお、AIはArtificial Intelligenceの省略語である。 In the medical field, AI technology applying deep learning called deep learning is expected. Examples of AI technology include automatic detection of lesions and automatic discrimination of lesions. AI is an abbreviation for Artificial Intelligence.

特許文献1は、可視光の波長領域を撮像して可視光領域を表すカラー画像である通常画像と、狭帯域分光画像である診断用画像とを生成する電子内視鏡装置が記載されている。同文献には、通常画像に演算処理を適用して、狭帯域バンドパスフィルタを用いて得られた狭帯域画像と同等の画像を取得して、診断用画像を生成することが記載されている。 Patent Document 1 describes an electronic endoscopy device that captures a wavelength region of visible light to generate a normal image that is a color image representing the visible light region and a diagnostic image that is a narrow-band spectroscopic image. .. The document describes that an arithmetic process is applied to a normal image to acquire an image equivalent to a narrowband image obtained by using a narrowband bandpass filter to generate a diagnostic image. ..

特許文献2は、マルチセンサ情報について、人工知能装置の機械学習及び人工知能装置の動作の検証を支援する機械学習支援装置が記載されている。同文献には、分光データの特徴スペクトル部分を保持したまま、その他の波形部分をランダムに変化させるなどして学習用の仮想データを生成することが記載されている。また、同文献には、仮想データセットを使用して人工知能装置を予め学習させることが記載されている。 Patent Document 2 describes a machine learning support device that supports machine learning of an artificial intelligence device and verification of operation of the artificial intelligence device for multi-sensor information. The document describes that virtual data for learning is generated by randomly changing other waveform parts while retaining the characteristic spectrum part of the spectroscopic data. Further, the document describes that an artificial intelligence device is trained in advance using a virtual data set.

特開2010−75368号公報Japanese Unexamined Patent Publication No. 2010-75368 特開2017−102755号公報JP-A-2017-102755

しかしながら、学習モデルの開発には大量の正解データセットを必要とする。なお、ここでいう正解データセットとは、画像及び画像の認識結果の組を意味する。医療分野においては、正解データセットの収集が学習モデルの開発の障壁となる。内視鏡装置を用いた観察には、通常光を用いた観察だけでなく、BLI(Blue LAZER Imaging)等の特殊光を用いた観察が存在する。複数のモードに対応可能なAIの開発は、さらに、大量の正解データセットを収集する必要が生じる。 However, the development of a learning model requires a large amount of correct data sets. The correct data set referred to here means an image and a set of image recognition results. In the medical field, collecting correct data sets is a barrier to the development of learning models. Observation using an endoscope device includes not only observation using normal light but also observation using special light such as BLI (Blue LAZER Imaging). The development of AI that can handle multiple modes will also require the collection of large correct data sets.

ここでいう通常光の一例として白色光が挙げられる。白色光は複数の波長帯域の光を含み得る。また、特殊光の一例として、白色光の波長帯域よりも狭い帯域の光が挙げられる。特殊光は複数の波長帯域の光を含み得る。 White light can be mentioned as an example of the normal light referred to here. White light can include light in multiple wavelength bands. Further, as an example of special light, light in a band narrower than the wavelength band of white light can be mentioned. The special light may include light in a plurality of wavelength bands.

特許文献1には、学習に関する記載はない。また、特許文献1には、輝度の調整等の記載はあるものの、分光分布における帯域成分の違いに注目した処理の切り替えに関する記載はない。 Patent Document 1 does not describe learning. Further, although Patent Document 1 has a description such as adjustment of brightness, there is no description regarding switching of processing focusing on the difference in band components in the spectral distribution.

特許文献2には、分光データのスペクトル成分を保持したまま、その他の波長成分をランダムに変化させて生成される学習用の仮想データセットについて記載されている。一方、特許文献2には、分光分布が異なる複数の画像群において、対応する帯域における帯域成分を学習に利用する旨の記載はない。 Patent Document 2 describes a virtual data set for learning generated by randomly changing other wavelength components while retaining the spectral components of the spectroscopic data. On the other hand, Patent Document 2 does not describe that the band components in the corresponding bands are used for learning in a plurality of image groups having different spectral distributions.

本発明はこのような事情に鑑みてなされたもので、分光分布が異なる画像ごとに大量の正解画像の収集を行うことなく、分光分布が異なる複数の画像に対応した学習を実現し得る、医用画像学習装置、医用画像学習方法、及びプログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and can realize learning corresponding to a plurality of images having different spectral distributions without collecting a large number of correct images for each image having different spectral distributions. It is an object of the present invention to provide an image learning device, a medical image learning method, and a program.

上記目的を達成するために、次の発明態様を提供する。 In order to achieve the above object, the following aspects of the invention are provided.

第1態様に係る医用画像学習装置は、互いに分光分布が異なる第一画像及び第二画像を取得する画像取得部と、第一画像に画像処理を施して第三画像を生成する画像処理部と、複数の第一画像を含む第一画像群、複数の第二画像を含む第二画像群、及び複数の第三画像を含む第三画像群、並びに第一画像群、第二画像群、及び第三画像群のそれぞれの正解データを用いて、自動認識に適用する認識器を学習させる学習部と、を備え、画像処理部は、第一画像の分光分布に含まれる帯域のうち第二画像の対応する帯域と特性が異なる帯域の信号を抑制する画像処理、及び第一画像に含まれる帯域のうち第二画像の対応する帯域と特性が同一の帯域の信号又は類似する帯域の信号を強調する画像処理の少なくともいずれかを施して、第一画像から第三画像を生成する医用画像学習装置である。 The medical image learning device according to the first aspect includes an image acquisition unit that acquires a first image and a second image having different spectral distributions from each other, and an image processing unit that performs image processing on the first image to generate a third image. , A first image group containing a plurality of first images, a second image group containing a plurality of second images, a third image group containing a plurality of third images, and a first image group, a second image group, and A learning unit for learning a recognizer to be applied to automatic recognition using each correct answer data of the third image group is provided, and the image processing unit is a second image in the band included in the spectral distribution of the first image. Image processing that suppresses signals in bands that have different characteristics from the corresponding bands, and emphasizes signals in bands that have the same characteristics as the corresponding bands in the second image or signals in similar bands among the bands included in the first image. This is a medical image learning device that generates a third image from a first image by performing at least one of the image processing to be performed.

第1態様によれば、分光分布が異なる第一画像及び第二画像について、第一画像の分光分布に含まれる帯域のうち、第二画像の対応する帯域との特性が同一の帯域の信号又は類似する帯域の信号を強調するか、又は第二画像の対応する帯域との特性が相違する帯域の信号を抑制して第三画像を生成する。複数の第一画像を含む第一画像群、複数の第二画像を含む第二画像群、及び複数の第三画像を含む第三画像群、並びに各画像群の正解データを用いて、自動認識に適用する分類器を学習させる。これにより、分光分布が異なる画像群ごとに大量の正解画像の収集を行うことなく、分光分布が異なる画像群ごとの学習を実現し得る。 According to the first aspect, for the first image and the second image having different spectral distributions, among the bands included in the spectral distribution of the first image, the signal of the band having the same characteristics as the corresponding band of the second image or A third image is generated by emphasizing signals in a similar band or suppressing signals in a band whose characteristics differ from those of the corresponding band in the second image. Automatic recognition using the first image group including a plurality of first images, the second image group including a plurality of second images, the third image group including a plurality of third images, and the correct answer data of each image group. Learn the classifiers that apply to. As a result, learning for each image group having a different spectral distribution can be realized without collecting a large amount of correct images for each image group having a different spectral distribution.

分光分布が異なる画像の一例として、異なる観察モードが適用された画像が挙げられる。観察モードの一例として、照明光が異なるモードが挙げられる。 An example of an image having a different spectral distribution is an image to which different observation modes are applied. As an example of the observation mode, there is a mode in which the illumination light is different.

第2態様は、第1態様の医用画像学習装置において、画像処理部は、第一画像に対して、輝度分散を変換する処理を施す構成としてもよい。 In the second aspect, in the medical image learning device of the first aspect, the image processing unit may be configured to perform a process of converting the luminance dispersion on the first image.

第2態様によれば、第一画像に輝度分散を変換する処理を適用して、第一画像から第三画像を生成し得る。 According to the second aspect, a process of converting the luminance variance to the first image can be applied to generate a third image from the first image.

第3態様は、第1態様の医用画像学習装置において、画像処理部は、第一画像に対して、輝度を規定の輝度値に変更する処理を施す構成としてもよい。 In the third aspect, in the medical image learning device of the first aspect, the image processing unit may be configured to perform a process of changing the brightness of the first image to a predetermined brightness value.

第3態様によれば、第一画像に輝度を規定の輝度値に変更する処理を適用して、第一画像から第三画像を生成し得る。 According to the third aspect, a process of changing the brightness to a predetermined brightness value can be applied to the first image to generate a third image from the first image.

第4態様は、第1態様の医用画像学習装置において、画像処理部は、第一画像に対して、輝度をランダムな輝度値に変更する処理を施す構成としてもよい。 In the fourth aspect, in the medical image learning device of the first aspect, the image processing unit may be configured to perform a process of changing the brightness of the first image to a random brightness value.

第4態様によれば、第一画像に輝度をランダムな輝度値に変更する処理を適用して、第一画像から第三画像を生成し得る。 According to the fourth aspect, a process of changing the brightness to a random brightness value can be applied to the first image to generate a third image from the first image.

第5態様は、第1態様の医用画像学習装置において、第一画像は通常光を用いて撮像した通常光画像であり、第二画像は通常光よりも狭帯域の特殊光を用いて撮像した特殊光画像である構成としてもよい。 In the fifth aspect, in the medical image learning device of the first aspect, the first image is a normal light image captured by using normal light, and the second image is captured by using special light having a narrower band than the normal light. It may be configured as a special light image.

第5態様によれば、通常光観察モードを適用して第一画像を生成し得る。また、特殊光観察モードを適用して第二画像を生成し得る。 According to the fifth aspect, the normal light observation mode can be applied to generate the first image. In addition, a special light observation mode can be applied to generate a second image.

第6態様は、第5態様の医用画像学習装置において、画像処理部は、通常光画像に対して、Bチャネル成分を抑制する処理を施す構成としてもよい。 A sixth aspect is the medical image learning apparatus of the fifth aspect, in which the image processing unit may be configured to perform a process of suppressing a B channel component on a normal optical image.

第6態様によれば、通常光画像のBチャネル成分を抑制して、第三画像を生成し得る。 According to the sixth aspect, the B channel component of the normal optical image can be suppressed to generate a third image.

第7態様は、第5態様の医用画像学習装置において、画像処理部は、通常光画像に対して、Rチャネル成分及びGチャネル成分の少なくともいずれか一方を強調する処理を施す構成としてもよい。 In the seventh aspect, in the medical image learning device of the fifth aspect, the image processing unit may be configured to perform a process of emphasizing at least one of an R channel component and a G channel component on a normal optical image.

第7態様によれば、通常光画像のRチャネル成分及びGチャネル成分の少なくともいずれか一方を強調して、第三画像を生成し得る。 According to the seventh aspect, at least one of the R channel component and the G channel component of the normal optical image can be emphasized to generate a third image.

第8態様は、第5態様の医用画像学習装置において、画像処理部は、通常光画像に対して、Rチャネル成分を抑制する処理を施す構成としてもよい。 In the eighth aspect, in the medical image learning device of the fifth aspect, the image processing unit may be configured to perform a process of suppressing an R channel component on a normal optical image.

第8態様によれば、通常光画像のRチャネル成分を抑制して、第三画像を生成し得る。 According to the eighth aspect, the R channel component of the normal optical image can be suppressed to generate a third image.

第8態様における特殊光画像の例として、通常光画像のRチャネル成分が欠落した画像が挙げられる。 As an example of the special optical image in the eighth aspect, there is an image in which the R channel component of the normal optical image is missing.

第9態様は、第5態様の医用画像学習装置において、画像処理部は、通常光画像に対して、Bチャネル成分及びGチャネル成分を強調する処理を施す構成としてもよい。 In the ninth aspect, in the medical image learning device of the fifth aspect, the image processing unit may be configured to perform a process of emphasizing the B channel component and the G channel component on the normal optical image.

第9態様によれば、通常光画像のBチャネル成分及びGチャネル成分を強調して、第三画像を生成し得る。 According to the ninth aspect, the B channel component and the G channel component of the normal optical image can be emphasized to generate a third image.

第9態様における特殊光画像の例として、通常光画像のRチャネル成分が欠落した画像が挙げられる。 As an example of the special optical image in the ninth aspect, there is an image in which the R channel component of the normal optical image is missing.

第10態様は、第1態様の医用画像学習装置において、画像処理部は、第一画像の処理対象帯域における空間周波数の規定の周波数成分を抑制する処理、又は第一画像の処理対象帯域における空間周波数の規定の周波数成分を強調する処理を施す構成としてもよい。 A tenth aspect is the medical image learning apparatus of the first aspect, in which the image processing unit suppresses a predetermined frequency component of the spatial frequency in the processing target band of the first image, or the space in the processing target band of the first image. It may be configured to perform a process of emphasizing a specified frequency component of the frequency.

第10態様によれば、第一画像の空間周波数のうち、第二画像と相違する周波数成分を抑制するか、第二画像と同一又は類似する周波数成分を強調して、第一画像から第三画像を生成し得る。 According to the tenth aspect, among the spatial frequencies of the first image, the frequency components different from those of the second image are suppressed, or the frequency components that are the same as or similar to those of the second image are emphasized, from the first image to the third. Images can be generated.

第11態様は、第10態様の医用画像学習装置において、第一画像は通常光を用いて撮像した通常光画像であり、第二画像は通常光よりも狭帯域の特殊光を用いて撮像した特殊光画像であり、画像処理部は、通常光画像のBチャネル成分の高周波成分を強調する処理を施す構成としてもよい。 In the eleventh aspect, in the medical image learning apparatus of the tenth aspect, the first image is a normal light image captured by using normal light, and the second image is captured by using special light having a narrower band than the normal light. It is a special optical image, and the image processing unit may be configured to perform processing for emphasizing the high frequency component of the B channel component of the normal optical image.

第11態様によれば、通常光画像のBチャネル成分における空間周波数のうち高周波成分を強調して、通常光画像から第三画像を生成し得る。 According to the eleventh aspect, the high frequency component of the spatial frequency in the B channel component of the normal light image can be emphasized to generate a third image from the normal light image.

第12態様は、第1態様から第11態様のいずれか一態様の医用画像学習装置において、学習部は、第一画像群の学習と第二画像群の学習との学習方法を切り替える構成としてもよい。 A twelfth aspect is the medical image learning device according to any one of the first to eleventh aspects, wherein the learning unit switches between learning methods of the first image group and learning of the second image group. good.

第12態様によれば、学習の精度が向上し得る。 According to the twelfth aspect, the accuracy of learning can be improved.

第13態様は、第1態様から第11態様のいずれか一態様の医用画像学習装置において、学習部は、前記第二画像群の学習と前記第三画像群の学習との学習方法を切り替える構成としてもよい。 The thirteenth aspect is the medical image learning device according to any one of the first to eleventh aspects, wherein the learning unit switches the learning method between the learning of the second image group and the learning of the third image group. May be.

第13態様によれば、学習の精度が向上し得る。 According to the thirteenth aspect, the accuracy of learning can be improved.

第14態様は、第12態様又は第13態様の医用画像学習装置において、学習部は、学習における第三画像の影響を抑制又は強調する学習方法を適用する構成としてもよい。 A fourteenth aspect may be a configuration in which the medical image learning device of the twelfth aspect or the thirteenth aspect applies a learning method for suppressing or emphasizing the influence of the third image on learning.

第14態様によれば、学習における第三画像の影響を抑制又は強調し得る。これにより、学習の精度が向上し得る。 According to the fourteenth aspect, the influence of the third image on learning can be suppressed or emphasized. This can improve the accuracy of learning.

第15態様は、第12態様又は第13態様の医用画像学習装置において、学習部は、第一画像群、第三画像群、第一画像群の正解データ、及び第三画像群の正解データを用いた学習済の認識器、又は第三画像群及び第三画像群の正解データを用いた学習済の学習器に対して、第二画像群及び第二画像群の正解データを用いた学習を実施する構成としてもよい。 The fifteenth aspect is the medical image learning device of the twelfth aspect or the thirteenth aspect, and the learning unit receives the correct answer data of the first image group, the third image group, the first image group, and the correct answer data of the third image group. For the trained recognizer used or the trained learner using the correct answer data of the third image group and the third image group, learning using the correct answer data of the second image group and the second image group is performed. It may be a configuration to be implemented.

第15態様によれば、少なくとも第三画像群を用いた学習済の認識器に対して、第三画像群よりも信頼性が高い真のデータである第二画像群及び第二画像群の正解データを用いた再学習を実施する。これにより、学習の精度が向上し、認識器の精度が向上し得る。 According to the fifteenth aspect, the correct answers of the second image group and the second image group, which are true data with higher reliability than the third image group, for at least the trained recognizer using the third image group. Perform re-learning using the data. As a result, the accuracy of learning can be improved, and the accuracy of the recognizer can be improved.

第16態様に係る医用画像学習方法は、互いに分光分布が異なる第一画像及び第二画像を取得する画像取得工程と、第一画像に画像処理を施して第三画像を生成する画像処理工程と、複数の第一画像を含む第一画像群、複数の第二画像を含む第二画像群、及び複数の第三画像を含む第三画像群、並びに第一画像群、第二画像群、及び第三画像群のそれぞれの正解データを用いて、自動認識に適用する認識器を学習させる学習工程と、を含み、画像処理工程は、第一画像の分光分布に含まれる帯域のうち第二画像の対応する帯域と特性が異なる帯域の信号を抑制する画像処理、及び第一画像に含まれる帯域のうち第二画像の対応する帯域と特性が同一の帯域の信号又は類似する帯域の信号を強調する画像処理の少なくともいずれかを施して、第一画像から第三画像を生成する医用画像学習方法である。 The medical image learning method according to the 16th aspect includes an image acquisition step of acquiring a first image and a second image having different spectral distributions from each other, and an image processing step of performing image processing on the first image to generate a third image. , A first image group containing a plurality of first images, a second image group containing a plurality of second images, a third image group containing a plurality of third images, and a first image group, a second image group, and The image processing step includes a learning step of learning a recognizer to be applied to automatic recognition using each correct answer data of the third image group, and the image processing step is a second image in the band included in the spectral distribution of the first image. Image processing that suppresses signals in bands that have different characteristics from the corresponding bands, and emphasizes signals in bands that have the same characteristics as the corresponding bands in the second image or signals in similar bands among the bands included in the first image. This is a medical image learning method for generating a third image from a first image by performing at least one of the image processing to be performed.

第16態様によれば、第1態様と同様の効果を得ることができる。 According to the 16th aspect, the same effect as that of the 1st aspect can be obtained.

第16態様において、第2態様から第15態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、医用画像学習装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担う医用画像学習方法の構成要素として把握することができる。 In the 16th aspect, the same items as those specified in the 2nd to 15th aspects can be appropriately combined. In that case, the component responsible for the process or function specified in the medical image learning device can be grasped as the component of the medical image learning method responsible for the corresponding process or function.

第17態様に係るプログラムは、コンピュータに、互いに分光分布が異なる第一画像及び第二画像を取得する画像取得機能、第一画像に画像処理を施して第三画像を生成する画像処理機能、及び複数の第一画像を含む第一画像群、複数の第二画像を含む第二画像群、及び複数の第三画像を含む第三画像群、並びに第一画像群、第二画像群、及び第三画像群のそれぞれの正解データを用いて、自動認識に適用する認識器を学習させる学習機能を実現させるプログラムであって、画像処理機能は、第一画像の分光分布に含まれる帯域のうち第二画像の対応する帯域と特性が異なる帯域の信号を抑制する画像処理、及び第一画像に含まれる帯域のうち第二画像の対応する帯域と特性が同一の帯域の信号又は類似する帯域の信号を強調する画像処理の少なくともいずれかを施して、第一画像から第三画像を生成するプログラムである。 The program according to the seventeenth aspect includes an image acquisition function for acquiring a first image and a second image having different spectral distributions from each other, an image processing function for performing image processing on the first image to generate a third image, and an image processing function. A first image group including a plurality of first images, a second image group including a plurality of second images, a third image group including a plurality of third images, and a first image group, a second image group, and a first image group. It is a program that realizes a learning function that trains a recognizer to be applied to automatic recognition using the correct answer data of each of the three image groups, and the image processing function is the third of the bands included in the spectral distribution of the first image. (2) Image processing that suppresses signals in bands with characteristics different from the corresponding bands of the image, and signals in the same band or similar bands as the corresponding band in the second image among the bands included in the first image. It is a program that generates a third image from a first image by performing at least one of image processing that emphasizes.

第17態様によれば、第1態様と同様の効果を得ることができる。 According to the 17th aspect, the same effect as that of the 1st aspect can be obtained.

第17態様において、第2態様から第15態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、医用画像学習装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担うプログラムの構成要素として把握することができる。 In the 17th aspect, the same items as those specified in the 2nd to 15th aspects can be appropriately combined. In that case, the component responsible for the process or function specified in the medical image learning device can be grasped as the component of the program responsible for the corresponding process or function.

本発明によれば、分光分布が異なる第一画像及び第二画像について、第一画像の分光分布に含まれる帯域のうち、第二画像の対応する帯域との特性が同一の帯域の信号又は類似する帯域の信号を強調するか、又は第二画像の対応する帯域との特性が相違する帯域の信号を抑制して第三画像を生成する。複数の第一画像を含む第一画像群、複数の第二画像を含む第二画像群、及び複数の第三画像を含む第三画像群、並びに各画像群の正解データを用いて、自動認識に適用する分類器を学習する。これにより、分光分布が異なる画像群ごとに大量の正解画像の収集を行うことなく、分光分布が異なる画像群ごとの学習を実現し得る。 According to the present invention, for the first image and the second image having different spectral distributions, among the bands included in the spectral distribution of the first image, signals or similar bands having the same characteristics as the corresponding band of the second image. The signal of the band to be used is emphasized, or the signal of the band having different characteristics from the corresponding band of the second image is suppressed to generate the third image. Automatic recognition using the first image group including a plurality of first images, the second image group including a plurality of second images, the third image group including a plurality of third images, and the correct answer data of each image group. Learn the classifiers that apply to. As a result, learning for each image group having a different spectral distribution can be realized without collecting a large amount of correct images for each image group having a different spectral distribution.

図1は実施形態に係る内視鏡画像学習装置のハードウェア構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of the hardware configuration of the endoscopic image learning device according to the embodiment. 図2は実施形態に係る内視鏡画像学習装置の機能ブロック図である。FIG. 2 is a functional block diagram of the endoscopic image learning device according to the embodiment. 図3は図2に示す学習部の機能ブロック図である。FIG. 3 is a functional block diagram of the learning unit shown in FIG. 図4は実施形態に係る内視鏡画像学習方法の手順を示すフローチャートである。FIG. 4 is a flowchart showing the procedure of the endoscopic image learning method according to the embodiment. 図5は撮像素子の分光感度の説明図である。FIG. 5 is an explanatory diagram of the spectral sensitivity of the image sensor. 図6は照明光の強度分布と内視鏡画像の分光分布との関係を示す説明図である。FIG. 6 is an explanatory diagram showing the relationship between the intensity distribution of the illumination light and the spectral distribution of the endoscopic image. 図7は通常光画像の分光分布とNBIにおける特殊光画像の分光分布との関係を示す説明図である。FIG. 7 is an explanatory diagram showing the relationship between the spectral distribution of the normal optical image and the spectral distribution of the special optical image in NBI. 図8は内視鏡システムの全体構成図である。FIG. 8 is an overall configuration diagram of the endoscope system. 図9は内視鏡システムの機能ブロック図である。FIG. 9 is a functional block diagram of the endoscopic system. 図10は光の強度分布を示すグラフである。FIG. 10 is a graph showing the light intensity distribution.

以下、添付図面に従って本発明の好ましい実施の形態について詳説する。本明細書では、同一の構成要素には同一の参照符号を付して、重複する説明は適宜省略することとする。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the present specification, the same components are designated by the same reference numerals, and duplicate description will be omitted as appropriate.

[内視鏡画像学習装置]
本実施形態に示す内視鏡画像学習装置は、異なる観察モードにおいて取得された画像を組み合わせて学習データの数を拡張している。異なる観察モードにおいて取得された画像を学習に利用することにより、特定の観察モードにおいて取得された画像の数が十分でない場合にも、精度の高い学習が実現可能である。これにより、精度の高いAI技術の実現が可能となる。なお、実施形態に示す内視鏡画像学習装置は、医用画像学習装置の一例である。
[Endoscopic image learning device]
The endoscopic image learning device shown in the present embodiment expands the number of training data by combining images acquired in different observation modes. By using the images acquired in different observation modes for learning, highly accurate learning can be realized even when the number of images acquired in a specific observation mode is not sufficient. This makes it possible to realize highly accurate AI technology. The endoscopic image learning device shown in the embodiment is an example of a medical image learning device.

本実施形態では、LCI(Linked Color Imaging)を用いた注目領域の自動認識システムに適用される学習を例示する。なお、LCIは特殊光色彩強調機能を意味する。以下の説明において、学習という用語と、機械学習という用語は同義として取り扱うこととする。 In this embodiment, learning applied to an automatic recognition system of a region of interest using LCI (Linked Color Imaging) is illustrated. In addition, LCI means a special light color enhancement function. In the following explanation, the term learning and the term machine learning will be treated as synonymous.

〔内視鏡画像学習装置のハードウェア構成〕
図1は実施形態に係る内視鏡画像学習装置のハードウェア構成の一例を示すブロック図である。内視鏡画像学習装置10は、パーソナルコンピュータ又はワークステーションを適用し得る。
[Hardware configuration of endoscopic image learning device]
FIG. 1 is a block diagram showing an example of the hardware configuration of the endoscopic image learning device according to the embodiment. The endoscopic image learning device 10 may apply a personal computer or a workstation.

内視鏡画像学習装置10は、通信部12、第一記憶装置14、第二記憶装置16、第三記憶装置17、操作部18、CPU20、RAM22、ROM24、及び表示部26を備える。なお、CPUはCentral Processing Unitの省略語である。RAMはRandom Access Memoryの省略語である。ROMはRead Only Memoryの省略語である。 The endoscopic image learning device 10 includes a communication unit 12, a first storage device 14, a second storage device 16, a third storage device 17, an operation unit 18, a CPU 20, a RAM 22, a ROM 24, and a display unit 26. CPU is an abbreviation for Central Processing Unit. RAM is an abbreviation for Random Access Memory. ROM is an abbreviation for Read Only Memory.

通信部12は、外部装置との通信を処理するインターフェースである。通信部12は、汎用の通信インターフェースを適用し得る。通信部12は、有線又は無線のいずれも適用可能である。 The communication unit 12 is an interface that processes communication with an external device. The communication unit 12 may apply a general-purpose communication interface. The communication unit 12 can be either wired or wireless.

第一記憶装置14は、通常光観察モードを適用して撮像された複数の通常光画像を含む通常光画像群及び各通常光画像の正しい画像認識結果を示す正解データからなる第一データセットが記憶される。 The first storage device 14 includes a first data set including a normal light image group including a plurality of normal light images captured by applying the normal light observation mode and correct answer data indicating a correct image recognition result of each normal light image. Be remembered.

第二記憶装置16は、特殊光観察モードを適用して複数の特殊光画像を含む特殊光画像群及び各特殊光画像の正しい画像認識結果を示す正解データからなる第二データセットが記憶される。 The second storage device 16 applies a special light observation mode to store a special light image group including a plurality of special light images and a second data set including correct answer data indicating a correct image recognition result of each special light image. ..

第三記憶装置17は、通常光画像又は特殊光画像に画像処理を施した複数の処理画像を含む処理画像群、及び各処理画像群の正しい画像認識結果を示す正解データからなる第三データセットが記憶される。 The third storage device 17 is a third data set including a processed image group including a plurality of processed images obtained by subjecting a normal light image or a special light image to image processing, and correct answer data indicating a correct image recognition result of each processed image group. Is remembered.

本実施形態では、通常光画像から処理画像を生成し、学習に使用する例を説明する。処理画像の正しい認識結果を表す正解データは、第一データセットから抽出し得る。なお、特殊光画像から処理画像を生成し、第二データセットから処理画像の正解データを抽出してもよい。 In this embodiment, an example in which a processed image is generated from a normal optical image and used for learning will be described. Correct answer data representing the correct recognition result of the processed image can be extracted from the first dataset. The processed image may be generated from the special light image, and the correct answer data of the processed image may be extracted from the second data set.

第一記憶装置14、第二記憶装置16、及び第三記憶装置17は、大容量のストレージ装置を適用し得る。第一記憶装置14、第二記憶装置16、及び第三記憶装置17は、内視鏡画像学習装置10の外部に配置される記憶装置を適用し得る。第一記憶装置14、第二記憶装置16、及び第三記憶装置17は、ネットワークを介して内視鏡画像学習装置10と通信可能に接続されてもよい。 The first storage device 14, the second storage device 16, and the third storage device 17 may apply a large-capacity storage device. The first storage device 14, the second storage device 16, and the third storage device 17 may apply a storage device arranged outside the endoscopic image learning device 10. The first storage device 14, the second storage device 16, and the third storage device 17 may be communicably connected to the endoscopic image learning device 10 via a network.

なお、実施形態に示す通常光画像は第一画像の一例である。実施形態に示す通常光画像群は第一画像群の一例である。実施形態に示す特殊光画像は第二画像の一例である。実施形態に示す特殊光画像群は第二画像群の一例である。 The normal light image shown in the embodiment is an example of the first image. The normal light image group shown in the embodiment is an example of the first image group. The special light image shown in the embodiment is an example of the second image. The special optical image group shown in the embodiment is an example of the second image group.

通常光画像は、内視鏡装置を用いた体腔内の観察において、通常光を照射して撮像して得られたカラー画像である。特殊光画像は、内視鏡装置を用いた体腔内の観察において、特殊光を照射して撮像して得られたカラー画像である。 The normal light image is a color image obtained by irradiating normal light and taking an image in the observation of the inside of the body cavity using an endoscope device. The special light image is a color image obtained by irradiating and imaging the inside of the body cavity using a special light.

通常光は、可視光の全ての波長帯域の光がほぼ均等に混ざった光である。通常光画像は、通常観察に使用される。通常光の一例として、白色光が挙げられる。通常光画像群は、比較的多く集めることができる。 Normal light is light in which light in all wavelength bands of visible light is mixed almost evenly. Normal light images are usually used for observation. White light is an example of normal light. A relatively large number of ordinary optical image groups can be collected.

特殊光は、一つの特定の波長帯域の光、又は複数の特定の波長帯域の光の組み合わせた、観察目的に応じた各種の波長帯域の光である。特殊光は、白色の波長帯域よりも狭い帯域を有し、NBI(Narrow band imaging)、LCI、及びFICE(Flexible spectral imaging color enhancement)等に使用される。NBIは狭帯域観察を意味する。 The special light is light in various wavelength bands according to the purpose of observation, which is a combination of light in one specific wavelength band or light in a plurality of specific wavelength bands. The special light has a band narrower than the white wavelength band, and is used for NBI (Narrow band imaging), LCI, FICE (Flexible spectral imaging color enhancement), and the like. NBI means narrow band observation.

特定の波長帯域の第一例は、例えば可視域の青色帯域又は緑色帯域である。第一例の波長帯域は、390ナノメートル以上450ナノメートル以下、又は530ナノメートル以上550ナノメートル以下の波長帯域を含む。第一例の光は、390ナノメートル以上450ナノメートル以下、又は530ナノメートル以上550ナノメートル以下の波長帯域内にピーク波長を有する。 A first example of a particular wavelength band is, for example, the blue or green band in the visible range. The wavelength band of the first example includes a wavelength band of 390 nanometers or more and 450 nanometers or less, or 530 nanometers or more and 550 nanometers or less. The light of the first example has a peak wavelength in the wavelength band of 390 nanometers or more and 450 nanometers or less, or 530 nanometers or more and 550 nanometers or less.

特定の波長帯域の第二例は、例えば可視域の赤色帯域である。第二例の波長帯域は、585ナノメートル以上615ナノメートル以下、又は610ナノメートル以上730ナノメートル以下の波長帯域を含む。第二例の光は、585ナノメートル以上615ナノメートル以下又は610ナノメートル以上730ナノメートル以下の波長帯域内にピーク波長を有する。 A second example of a particular wavelength band is, for example, the red band in the visible range. The wavelength band of the second example includes a wavelength band of 585 nanometers or more and 615 nanometers or less, or 610 nanometers or more and 730 nanometers or less. The light of the second example has a peak wavelength in the wavelength band of 585 nanometers or more and 615 nanometers or less or 610 nanometers or more and 730 nanometers or less.

特定の波長帯域の第三例は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、且つ第三例の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する。第三例の波長帯域は、400±10ナノメートル、440±10ナノメートル、470±10ナノメートル、又は600ナノメートル以上750ナノメートル以下の波長帯域を含む。第三例の光は、400±10ナノメートル、440±10ナノメートル、470±10ナノメートル、又は600ナノメートル以上750ナノメートル以下の波長帯域にピーク波長を有する。 The third example of a specific wavelength band includes a wavelength band in which the absorption coefficient differs between oxidized hemoglobin and reduced hemoglobin, and the light in the third example has a peak wavelength in a wavelength band in which the absorption coefficient differs between oxidized hemoglobin and reduced hemoglobin. Has. The wavelength band of the third example includes a wavelength band of 400 ± 10 nanometers, 440 ± 10 nanometers, 470 ± 10 nanometers, or 600 nanometers or more and 750 nanometers or less. The light of the third example has a peak wavelength in the wavelength band of 400 ± 10 nanometers, 440 ± 10 nanometers, 470 ± 10 nanometers, or 600 nanometers or more and 750 nanometers or less.

特定の波長帯域の第四例は、生体内の蛍光物質が発する蛍光の観察である蛍光観察に用いられる。第四例の波長帯域は、蛍光物質を励起させる励起光の波長帯域であり、例えば390ナノメートルから470ナノメートルまでの波長帯域である。 The fourth example of a specific wavelength band is used for fluorescence observation, which is observation of fluorescence emitted by a fluorescent substance in a living body. The wavelength band of the fourth example is the wavelength band of the excitation light that excites the fluorescent substance, for example, the wavelength band from 390 nanometers to 470 nanometers.

特定の波長帯域の第五例は、赤外光の波長帯域である。第五例の波長帯域は、790ナノメートル以上820ナノメートル以下、又は905ナノメートル以上970ナノメートル以下の波長帯域を含む。第五例の光は、790ナノメートル以上820ナノメートル以下、又は905ナノメートル以上970ナノメートル以下の波長帯域にピーク波長を有する。 The fifth example of a specific wavelength band is the wavelength band of infrared light. The wavelength band of the fifth example includes a wavelength band of 790 nanometers or more and 820 nanometers or less, or 905 nanometers or more and 970 nanometers or less. The light of the fifth example has a peak wavelength in a wavelength band of 790 nanometers or more and 820 nanometers or less, or 905 nanometers or more and 970 nanometers or less.

このような特定の波長帯域を有する特殊光の下で撮像された特殊光画像は、病変の観察目的に応じた見やすい画像を得るためのものであり、例えば、表面構造を観察したい等の観察目的に応じた場合にしか使用されず、データ数が多くない。 The special light image captured under special light having such a specific wavelength band is for obtaining an easy-to-see image according to the purpose of observing the lesion, for example, for the purpose of observing the surface structure. It is used only when it corresponds to, and the number of data is not large.

本実施形態では、第一記憶装置14に記憶されている通常光画像群の第一データセットは、第二記憶装置16に保存されている特殊光画像群の第二データセットよりも多く準備されているものとする。第三データセットは第二データセットの不足を補う数が準備される。 In the present embodiment, the first data set of the normal optical image group stored in the first storage device 14 is prepared more than the second data set of the special optical image group stored in the second storage device 16. It is assumed that A number is prepared for the third data set to make up for the shortage of the second data set.

また、第一記憶装置14、第二記憶装置16、及び第三記憶装置17において、各通常光画像、各特殊光画像、及び各処理画像に関連付けて保存されている正解データの一例として、通常光画像及び特殊光画像内に写っている病変の種類、病変の位置を示したデータ及び症例固有の識別情報などが挙げられる。病変の分類の一例として、腫瘍性、又は非腫瘍性の二分類、若しくはNICE分類などが挙げられる。病変の位置を示すデータは、病変を囲む矩形の情報や、病変を覆い隠すようなマスクデータなどが考えられる。なお、NICEは、NBI International Colorectal Endoscopic Classificationの省略語である。 Further, as an example of correct answer data stored in association with each normal light image, each special light image, and each processed image in the first storage device 14, the second storage device 16, and the third storage device 17, it is usually used. Examples include the type of lesion shown in the optical image and the special optical image, data showing the location of the lesion, and case-specific identification information. As an example of the classification of lesions, there are two classifications, neoplastic or non-neoplastic, or NICE classification. The data indicating the location of the lesion may be rectangular information surrounding the lesion or mask data that covers the lesion. NICE is an abbreviation for NBI International Colorectal Endoscopic Classification.

第一記憶装置14、第二記憶装置16、及び第三記憶装置17は、内視鏡画像学習装置10が備えているが、第一記憶装置14、第二記憶装置16、及び第三記憶装置17は、内視鏡画像学習装置10の外部に配置されてもよい。この場合、通信部12を介して、内視鏡画像学習装置10の外部のデータベースから学習用のデータセットを取得することができる。 The first storage device 14, the second storage device 16, and the third storage device 17 include the endoscopic image learning device 10, but the first storage device 14, the second storage device 16, and the third storage device 17 may be arranged outside the endoscopic image learning device 10. In this case, the data set for learning can be acquired from the database outside the endoscope image learning device 10 via the communication unit 12.

操作部18は、内視鏡画像学習装置10に適用されるコンピュータに有線接続又は無線接続されるキーボード及びマウス等が用いられる。操作部18は、学習に当たって各種の操作入力を受け付ける。すなわち、操作部18はユーザインターフェースの一部として使用される。 As the operation unit 18, a keyboard, a mouse, or the like that is wiredly or wirelessly connected to the computer applied to the endoscopic image learning device 10 is used. The operation unit 18 receives various operation inputs for learning. That is, the operation unit 18 is used as a part of the user interface.

CPU20は、ROM24又は図示しないハードディスク装置等に記憶された各種のプログラムを読み出し、各種の処理を実行する。読み出されるプログラムの一例として、内視鏡画像学習プログラムが挙げられる。 The CPU 20 reads various programs stored in the ROM 24 or a hard disk device (not shown) and executes various processes. As an example of the program to be read, there is an endoscopic image learning program.

RAM22は、CPU20の作業領域として使用される。また、RAM22は、読み出されたプログラムや各種のデータを一時的に記憶する記憶部として用いられる。 The RAM 22 is used as a work area of the CPU 20. Further, the RAM 22 is used as a storage unit for temporarily storing the read program and various data.

表示部26は、内視鏡画像学習装置10に適用されるコンピュータに接続可能な液晶モニタ等の各種モニタが用いられる。表示部26は、ユーザインターフェースの一部として使用される。タッチパネル方式のモニタ装置を表示部26に適用して、表示部26及び操作部18を一体に構成してもよい。 As the display unit 26, various monitors such as a liquid crystal monitor that can be connected to a computer applied to the endoscopic image learning device 10 are used. The display unit 26 is used as a part of the user interface. A touch panel type monitor device may be applied to the display unit 26 to integrally configure the display unit 26 and the operation unit 18.

内視鏡画像学習装置10は、操作部18から送信される指示信号に基づき、ROM24及びハードディスク装置等に記憶されている内視鏡画像学習プログラムをCPU20が読み出す。CPU20は内視鏡画像学習プログラムを実行する。 In the endoscope image learning device 10, the CPU 20 reads out the endoscope image learning program stored in the ROM 24, the hard disk device, and the like based on the instruction signal transmitted from the operation unit 18. The CPU 20 executes an endoscopic image learning program.

〔内視鏡画像学習装置の機能〕
〈概要〉
図2は実施形態に係る内視鏡画像学習装置の機能ブロック図である。図2は図1に示す内視鏡画像学習装置10の主要な機能を示す機能ブロック図である。内視鏡画像学習装置10は、学習部30及び画像生成部40を備える。
[Functions of endoscopic image learning device]
<Overview>
FIG. 2 is a functional block diagram of the endoscopic image learning device according to the embodiment. FIG. 2 is a functional block diagram showing the main functions of the endoscopic image learning device 10 shown in FIG. The endoscopic image learning device 10 includes a learning unit 30 and an image generation unit 40.

学習部30は、第一記憶装置14に記憶される第一データセット、第二記憶装置16に記憶される第二データセット、及び第三記憶装置17に記憶される第三データセットを用いて学習し、画像認識用の学習モデルを生成する。本実施形態では、学習モデルの一つである畳み込みニューラルネットワークを構築する。以下、CNN(Convolution Neural Network)は畳み込みニューラルネットワークを表すこととする。 The learning unit 30 uses the first data set stored in the first storage device 14, the second data set stored in the second storage device 16, and the third data set stored in the third storage device 17. Train and generate a learning model for image recognition. In this embodiment, a convolutional neural network, which is one of the learning models, is constructed. Hereinafter, CNN (Convolution Neural Network) will represent a convolutional neural network.

画像生成部40は、通常光画像から処理画像を生成する。具体的には、通常光画像の分光分布と特殊光画像の分光分布との間の対応する波長帯域について、帯域成分同士が同一又は類似する場合に帯域成分を強調する処理を実施するか、又は帯域成分同士が相違する場合に帯域成分を抑制する処理を実施する。画像生成部40における画像処理の詳細は後述する。なお、学習部30及び画像生成部40は、通常光画像及び特殊光画像を取得する画像取得部の機能を備え得る。 The image generation unit 40 generates a processed image from a normal optical image. Specifically, with respect to the corresponding wavelength band between the spectral distribution of the normal optical image and the spectral distribution of the special optical image, a process of emphasizing the band component is performed when the band components are the same or similar to each other. When the band components are different from each other, a process of suppressing the band components is performed. The details of the image processing in the image generation unit 40 will be described later. The learning unit 30 and the image generation unit 40 may have a function of an image acquisition unit that acquires a normal light image and a special light image.

〈学習部〉
図3は図2に示す学習部の機能ブロック図である。学習部30は、CNN32、誤差算出部34、及びパラメータ更新部36を備える。
<Learning Department>
FIG. 3 is a functional block diagram of the learning unit shown in FIG. The learning unit 30 includes a CNN 32, an error calculation unit 34, and a parameter update unit 36.

CNN32は、例えば、内視鏡画像に写っている病変の種類を画像認識する認識器に対応する部分である。CNN32は、複数のレイヤー構造を有し、複数の重みパラメータを保持している。CNN32は、重みパラメータが初期値から最適値に更新されることで、未学習モデルから学習済みモデルに変化し得る。 The CNN 32 is, for example, a part corresponding to a recognizer that recognizes the type of lesion shown in an endoscopic image. The CNN 32 has a plurality of layer structures and holds a plurality of weight parameters. The CNN 32 can change from an unlearned model to a trained model by updating the weight parameter from the initial value to the optimum value.

CNN32は、入力層32a、中間層32b及び出力層32cを備える。中間層32bは、畳み込み層32d及びプーリング層32eから構成されたセット32f、全結合層32gを備える。学習部30の各層は、エッジを用いて複数のノードが結ばれる構造を有する。 The CNN 32 includes an input layer 32a, an intermediate layer 32b, and an output layer 32c. The intermediate layer 32b includes a set 32f composed of a convolution layer 32d and a pooling layer 32e, and a fully connected layer 32g. Each layer of the learning unit 30 has a structure in which a plurality of nodes are connected by using edges.

入力層32aは、学習対象である通常光画像14a、特殊光画像16a、及び処理画像17aが入力される。通常光画像14a、特殊光画像16a、及び処理画像17aはCNN32へ送信される。 The normal light image 14a, the special light image 16a, and the processed image 17a to be learned are input to the input layer 32a. The normal light image 14a, the special light image 16a, and the processed image 17a are transmitted to the CNN 32.

中間層32bは、入力層32aを用いて入力した画像から特徴を抽出する部分である。畳み込み層32dは、前の層で近くにあるノードにフィルタ処理を実施し、特徴マップを取得する。フィルタ処理はフィルタを使用した畳み込み演算が適用される。 The intermediate layer 32b is a portion for extracting features from an image input using the input layer 32a. The convolution layer 32d filters nearby nodes in the previous layer and acquires a feature map. Convolution operation using a filter is applied to the filtering process.

プーリング層32eは、畳み込み層32dから出力された特徴マップを縮小して新たな特徴マップとする。畳み込み層32dは、画像からのエッジ抽出等の特徴抽出の役割を担う。プーリング層32eは抽出された特徴が、平行移動などによる影響を受けないようにロバスト性を与える役割を担う。 The pooling layer 32e reduces the feature map output from the convolution layer 32d into a new feature map. The convolution layer 32d plays a role of feature extraction such as edge extraction from an image. The pooling layer 32e plays a role of imparting robustness so that the extracted features are not affected by translation or the like.

なお、中間層32bは、畳み込み層32dとプーリング層32eとを一セットとする場合に限定されない。例えば、畳み込み層32dが連続する場合及び図示しない正規化層を含む場合もあり得る。 The intermediate layer 32b is not limited to the case where the convolution layer 32d and the pooling layer 32e are set as one set. For example, the convolutional layer 32d may be continuous or may include a normalized layer (not shown).

出力層32cは、中間層32bを用いて抽出された特徴に基づき内視鏡画像に写っている病変の種類を分類する認識結果を出力する。学習済みのCNN32は、例えば、内視鏡画像を、腫瘍性、非腫瘍性、及びその他の三つのカテゴリに分類し得る。学習済みのCNN32は、認識結果として、腫瘍性に対応するスコア、非腫瘍性に対応するスコア、及びその他に対応するスコアを出力し得る。なお、三つのスコアの合計は100パーセントとなる。 The output layer 32c outputs a recognition result for classifying the types of lesions shown in the endoscopic image based on the features extracted using the intermediate layer 32b. The trained CNN32 can, for example, classify endoscopic images into three categories: neoplastic, non-neoplastic, and others. The trained CNN32 can output a score corresponding to neoplasticity, a score corresponding to non-neoplasticity, and a score corresponding to others as recognition results. The total of the three scores is 100%.

学習前のCNN32の各畳み込み層32dに適用されるフィルタの係数、オフセット値、及び図示しない全結合層における次の層との接続の重みは、任意の初期値がセットされる。 Arbitrary initial values are set for the coefficient of the filter applied to each convolution layer 32d of the CNN 32 before learning, the offset value, and the weight of the connection with the next layer in the fully connected layer (not shown).

誤差算出部34は、CNN32の出力層32cから出力される認識結果、並びに通常光画像14aに対する正解データ14b、及び特殊光画像16aに対する正解データ16bを取得する。なお、処理画像17aに対応する正解データは、通常光画像14aに対する正解データ14bを適用し得る。 The error calculation unit 34 acquires the recognition result output from the output layer 32c of the CNN 32, the correct answer data 14b for the normal optical image 14a, and the correct answer data 16b for the special optical image 16a. As the correct answer data corresponding to the processed image 17a, the correct answer data 14b for the normal optical image 14a can be applied.

誤差算出部34は、認識結果と正解データとの間の誤差を算出する。誤差の算出方法の一例として、ソフトマックスクロスエントロピー及びシグモイド等が挙げられる。 The error calculation unit 34 calculates the error between the recognition result and the correct answer data. Examples of the error calculation method include softmax cross entropy and sigmoid.

パラメータ更新部36は、誤差算出部34を用いて算出された誤差を元に、誤差逆伝播法を適用してCNN32の重みパラメータを調整する。CNN32の重みパラメータの調整処理を繰り返し行い、CNN32の出力と正解データとの差が小さくなるまで繰り返し学習を行う。 The parameter update unit 36 adjusts the weight parameter of the CNN 32 by applying the error backpropagation method based on the error calculated by the error calculation unit 34. The adjustment process of the weight parameter of CNN32 is repeated, and the learning is repeated until the difference between the output of CNN32 and the correct answer data becomes small.

学習部30は、通常光画像群の全てのデータセット、特殊光画像群の全てのデータセット、及び処理画像群の全てのデータセットを使用し、CNN32の各パラメータを最適化する学習を行い、学習済みモデルを生成する。なお、実施形態に示す内視鏡画像は医用画像の一例である。 The learning unit 30 uses all the data sets of the normal optical image group, all the data sets of the special optical image group, and all the data sets of the processed image group, and performs learning to optimize each parameter of the CNN 32. Generate a trained model. The endoscopic image shown in the embodiment is an example of a medical image.

〔内視鏡画像学習方法の手順〕
図4は実施形態に係る内視鏡画像学習方法の手順を示すフローチャートである。図4に示す内視鏡画像学習方法は、通常光画像取得工程S10、特殊光画像取得工程S12、画像処理工程S14、処理画像記憶工程S16、学習工程S18、及び認識器更新工程S20が含まれる。実施形態に示す内視鏡画像学習方法は、医用画像学習方法の一例である。
[Procedure of endoscopic image learning method]
FIG. 4 is a flowchart showing the procedure of the endoscopic image learning method according to the embodiment. The endoscopic image learning method shown in FIG. 4 includes a normal optical image acquisition step S10, a special optical image acquisition step S12, an image processing step S14, a processed image storage step S16, a learning step S18, and a recognizer update step S20. .. The endoscopic image learning method shown in the embodiment is an example of a medical image learning method.

通常光画像取得工程S10では、図2に示す学習部30及び画像生成部40は第一記憶装置14から通常光画像14aを読み出す。特殊光画像取得工程S12では、学習部30は第二記憶装置16から特殊光画像16aを読み出す。なお、特殊光画像取得工程S12は学習工程S18までに実施されればよい。 In the normal light image acquisition step S10, the learning unit 30 and the image generation unit 40 shown in FIG. 2 read the normal light image 14a from the first storage device 14. In the special light image acquisition step S12, the learning unit 30 reads out the special light image 16a from the second storage device 16. The special optical image acquisition step S12 may be performed by the learning step S18.

画像処理工程S14では、画像生成部40は通常光画像14aに画像処理を施して処理画像を生成する。処理画像記憶工程S16では、画像生成部40は処理画像17aを第三記憶装置17へ記憶する。 In the image processing step S14, the image generation unit 40 performs image processing on the normal optical image 14a to generate a processed image. In the processed image storage step S16, the image generation unit 40 stores the processed image 17a in the third storage device 17.

学習工程S18では、学習部30は第三記憶装置17から処理画像17aを読み出し、通常光画像14a、特殊光画像16a、及び処理画像17aを用いて学習を実施する。認識器更新工程S20では、学習部30は認識器を更新する。 In the learning step S18, the learning unit 30 reads the processed image 17a from the third storage device 17, and performs learning using the normal light image 14a, the special light image 16a, and the processed image 17a. In the recognizer update step S20, the learning unit 30 updates the recognizer.

[画像生成部を用いた画像処理の具体例]
次に、図2に示す画像生成部40に適用される画像処理について詳細に説明する。画像生成部40は、通常光画像14aの分光分布における波長帯域の信号を強調する処理、又は抑制する処理を施して処理画像17aを生成する。
[Specific example of image processing using the image generator]
Next, the image processing applied to the image generation unit 40 shown in FIG. 2 will be described in detail. The image generation unit 40 generates a processed image 17a by performing a process of emphasizing or suppressing a signal in the wavelength band in the spectral distribution of the normal optical image 14a.

画像生成部40は、通常光画像14aと特殊光画像16aとの間で、両者間の対応する波長帯域における帯域成分同士が相違する場合は、通常光画像14aにおける該当する波長帯域の信号を抑制する。 When the band components in the corresponding wavelength bands between the normal light image 14a and the special light image 16a are different from each other, the image generation unit 40 suppresses the signal in the corresponding wavelength band in the normal light image 14a. do.

一方、画像生成部40は、通常光画像14aと特殊光画像16aとの間で、両者間の対応する波長帯域における帯域成分同士が同一又は類似する場合は、通常光画像14aにおける該当する波長帯域の信号を強調してもよい。これにより、特殊光画像16aの学習に適用可能な学習データの数を増やすことが可能となる。 On the other hand, when the band components in the corresponding wavelength bands between the normal light image 14a and the special light image 16a are the same or similar, the image generation unit 40 indicates the corresponding wavelength band in the normal light image 14a. The signal of may be emphasized. This makes it possible to increase the number of learning data applicable to the learning of the special light image 16a.

画像生成部40は、波長依存とは異なる、観察モード間の処理の違いに起因する画像差について、逆処理を適用した補正等の後処理を実施し得る。学習部30は補正後の画像を学習に適用し得る。観察モード間の処理の一例として、リニアマトリックス及びルックアップテーブルなどが挙げられる。 The image generation unit 40 can perform post-processing such as correction to which the reverse processing is applied to the image difference caused by the difference in processing between the observation modes, which is different from the wavelength dependence. The learning unit 30 can apply the corrected image to learning. Examples of processing between observation modes include a linear matrix and a look-up table.

〈第一実施形態〉
図5は撮像素子の分光感度の説明図である。撮像素子は内視鏡画像を取得する内視鏡に具備される。撮像素子は符号328を付して図8に図示する。内視鏡は符号302を付して図8に図示する。
<First Embodiment>
FIG. 5 is an explanatory diagram of the spectral sensitivity of the image sensor. The image sensor is provided in the endoscope that acquires the endoscope image. The image sensor is illustrated with reference numeral 328 in FIG. The endoscope is illustrated with reference numeral 302.

図5に示す分光感度特性100の横軸は波長を表す。分光感度特性100の縦軸は感度を表す。分光感度特性100はBチャネルの波長帯域にBチャネル成分102を有する。分光感度特性100はGチャネルの波長帯域にGチャネル成分104を有する。分光感度特性100はRチャネルの波長帯域にRチャネル成分106を有する。なお、Bは青を表す。Gは緑を表す。Rは赤を表す。 The horizontal axis of the spectral sensitivity characteristic 100 shown in FIG. 5 represents a wavelength. The vertical axis of the spectral sensitivity characteristic 100 represents the sensitivity. The spectral sensitivity characteristic 100 has a B channel component 102 in the wavelength band of the B channel. The spectral sensitivity characteristic 100 has a G channel component 104 in the wavelength band of the G channel. The spectral sensitivity characteristic 100 has an R channel component 106 in the wavelength band of the R channel. In addition, B represents blue. G represents green. R represents red.

図6は照明光の強度分布と内視鏡画像の分光分布との関係を示す説明図である。図6に示す符号120は通常光の強度分布を表す。符号160はLCIにおける照明光の強度分布を表す。通常光の強度分布120及びLCIにおける照明光の強度分布160の横軸は波長を表す。縦軸は照明光の強度を表す。なお、LCIにおける照明光は特殊光の一例である。 FIG. 6 is an explanatory diagram showing the relationship between the intensity distribution of the illumination light and the spectral distribution of the endoscopic image. Reference numeral 120 shown in FIG. 6 represents a normal light intensity distribution. Reference numeral 160 represents the intensity distribution of the illumination light in LCI. The horizontal axis of the intensity distribution 120 of normal light and the intensity distribution 160 of illumination light in LCI represents a wavelength. The vertical axis represents the intensity of the illumination light. The illumination light in LCI is an example of special light.

符号140は通常光画像14aの分光分布を示す。通常光画像14aの分光分布140の横軸は波長を表す。縦軸は信号強度を表す。 Reference numeral 140 indicates the spectral distribution of the normal optical image 14a. The horizontal axis of the spectral distribution 140 of the normal optical image 14a represents the wavelength. The vertical axis represents the signal strength.

通常光画像14aの分光分布140は、Bチャネルの波長帯域にBチャネル成分142を有する。通常光画像14aの分光分布140はGチャネルの波長帯域にGチャネル成分144を有する。通常光画像14aの分光分布140はRチャネルの波長帯域にRチャネル成分146を有する。 The spectral distribution 140 of the normal optical image 14a has a B channel component 142 in the wavelength band of the B channel. The spectral distribution 140 of the normal optical image 14a has a G channel component 144 in the wavelength band of the G channel. The spectral distribution 140 of the normal optical image 14a has an R channel component 146 in the wavelength band of the R channel.

符号180はLCIにおける特殊光画像16aの分光分布を表す。LCIにおける特殊光画像16aの分光分布180の横軸は波長を表す。縦軸は信号強度を表す。LCIにおける特殊光画像16aの分光分布180は、Bチャネルの波長帯域にBチャネル成分182を有する。LCIにおける特殊光画像16aの分光分布180は、Gチャネルの波長帯域にGチャネル成分184を有する。LCIにおける特殊光画像16aの分光分布180は、Rチャネルの波長帯域にRチャネル成分186を有する。 Reference numeral 180 represents the spectral distribution of the special optical image 16a in LCI. The horizontal axis of the spectral distribution 180 of the special optical image 16a in LCI represents the wavelength. The vertical axis represents the signal strength. The spectral distribution 180 of the special optical image 16a in the LCI has a B channel component 182 in the wavelength band of the B channel. The spectral distribution 180 of the special optical image 16a in the LCI has a G channel component 184 in the wavelength band of the G channel. The spectral distribution 180 of the special optical image 16a in the LCI has an R channel component 186 in the wavelength band of the R channel.

通常光画像14aの分光分布140と、LCIにおける特殊光画像16aの分光分布180とは、Bチャネル成分の特性が相違する。すなわち、通常光画像14aのBチャネル成分及びLCIにおける特殊光画像16aのBチャネル成分は、いずれもの二つのピークが存在する一方、二つのピークにおける感度の大きさが相違している。換言すると、通常光画像14aとLCIにおける特殊光画像16aとは、Bチャネル成分同士が相違している。 The spectral distribution 140 of the normal optical image 14a and the spectral distribution 180 of the special optical image 16a in the LCI differ in the characteristics of the B channel component. That is, the B-channel component of the normal optical image 14a and the B-channel component of the special optical image 16a in the LCI both have two peaks, but the magnitudes of the sensitivities of the two peaks are different. In other words, the B channel components of the normal optical image 14a and the special optical image 16a in the LCI are different from each other.

一方、両者におけるGチャネル成分及びRチャネル成分は絶対値の差を除けば等しい。すなわち、Gチャネル成分及びRチャネル成分のみの画像は、Bチャネル成分のみの画像と比較して、通常光画像14aとLCIにおける特殊光画像16aとの間で差が小さい。換言すると、通常光画像14aとLCIにおける特殊光画像16aとの間において、Gチャネル成分の特性及びRチャネル成分は類似している。 On the other hand, the G channel component and the R channel component in both are equal except for the difference in absolute value. That is, the difference between the normal optical image 14a and the special optical image 16a in the LCI is smaller in the image containing only the G channel component and the R channel component than in the image containing only the B channel component. In other words, the characteristics of the G-channel component and the R-channel component are similar between the normal light image 14a and the special light image 16a in the LCI.

このような性質から、通常光画像14aにおけるGチャネル成分の画像情報及び通常光画像14aにおけるRチャネル成分の画像情報は、LCIにおける特殊光画像16aの学習においても有用である。一方、通常光画像14aにおけるBチャネル成分の画像情報は、LCIにおける特殊光画像16aの学習において不必要又は悪影響を与えると考えられる。 Due to these properties, the image information of the G channel component in the normal light image 14a and the image information of the R channel component in the normal light image 14a are also useful in learning the special light image 16a in the LCI. On the other hand, the image information of the B channel component in the normal light image 14a is considered to be unnecessary or adversely affect the learning of the special light image 16a in the LCI.

そこで、画像生成部40は、通常光画像14aにおけるBチャネル成分の画像情報を抑制する処理を実施して処理画像17aを生成する。学習部30は通常光画像14a及び特殊光画像16aに処理画像17aを加えて、LCIにおける特殊光画像16aの学習を実施する。 Therefore, the image generation unit 40 generates the processed image 17a by performing a process of suppressing the image information of the B channel component in the normal optical image 14a. The learning unit 30 adds the processed image 17a to the normal light image 14a and the special light image 16a to learn the special light image 16a in the LCI.

通常光画像14aにおけるBチャネル成分の画像情報を抑制する処理の一例として、通常光画像14aにおける輝度値を1/α倍する処理が挙げられる。なお、αは1を超える任意の定数である。通常光画像14aにおけるBチャネル成分の画像情報を抑制する処理の他の例として、輝度値を規定の値とする処理が挙げられる。規定の値の一例として輝度を最小とする輝度値が挙げられる。Bチャネル成分の画像情報を抑制する処理は、各画素の輝度値をランダムに与える処理を適用してもよい。 As an example of the process of suppressing the image information of the B channel component in the normal light image 14a, there is a process of multiplying the brightness value in the normal light image 14a by 1 / α. In addition, α is an arbitrary constant exceeding 1. As another example of the process of suppressing the image information of the B channel component in the normal optical image 14a, there is a process of setting the luminance value to a specified value. As an example of the specified value, there is a brightness value that minimizes the brightness. As the process of suppressing the image information of the B channel component, a process of randomly giving a brightness value of each pixel may be applied.

通常光画像14aにおける輝度値を1/α倍する処理と併用して、通常光画像14aにおける輝度値をシフトさせてもよい。なお、実施形態に示す輝度値を1/α倍する処理は、輝度分散を変換する処理の一例である。輝度分散を変換する処理は、通常光画像14aにおける輝度値をシフトさせる処理を含み得る。 The brightness value in the normal light image 14a may be shifted in combination with the process of multiplying the brightness value in the normal light image 14a by 1 / α. The process of multiplying the luminance value shown in the embodiment by 1 / α is an example of the process of converting the luminance variance. The process of converting the luminance dispersion may include a process of shifting the luminance value in the normal optical image 14a.

通常光画像14aにおけるBチャネル成分の画像情報を抑制する処理に代わり、通常光画像14aにおけるGチャネル成分の画像情報及びRチャネル成分の画像情報の少なくともいずれかを強調して、相対的にBチャネル成分の画像情報の影響を下げてもよい。 Instead of the process of suppressing the image information of the B channel component in the normal light image 14a, at least one of the image information of the G channel component and the image information of the R channel component in the normal light image 14a is emphasized, and the B channel is relatively relative. The influence of the image information of the component may be reduced.

通常光画像14aにおけるGチャネル成分の画像情報及びRチャネル成分の画像情報を強調する処理の一例として、通常光画像14aにおける輝度値をβ倍する処理が挙げられる。なお、βは1を超える任意の定数である。 As an example of the process of emphasizing the image information of the G channel component and the image information of the R channel component in the normal light image 14a, there is a process of multiplying the brightness value of the normal light image 14a by β. Note that β is an arbitrary constant exceeding 1.

通常光画像14aにおける輝度値をβ倍する処理と併用して、通常光画像14aにおける輝度値をシフトさせてもよい。なお、実施形態に示す輝度値をβ倍する処理は、輝度分散を変換する処理の一例である。輝度分散を変換する処理は、通常光画像14aにおける輝度値をシフトさせる処理を含み得る。 The brightness value in the normal light image 14a may be shifted in combination with the process of multiplying the brightness value in the normal light image 14a by β. The process of multiplying the luminance value by β according to the embodiment is an example of the process of converting the luminance variance. The process of converting the luminance dispersion may include a process of shifting the luminance value in the normal optical image 14a.

〈作用効果〉
第一実施形態に係る画像処理によれば、通常光画像14aに対して、分光分布におけるBチャネル成分の抑制処理、又はGチャネル成分及びRチャネル成分の少なくともいずれかを強調する処理を施す。これにより、LCIにおける特殊光画像16aの学習に適用可能な学習データの拡充が可能となる。
<Action effect>
According to the image processing according to the first embodiment, the normal optical image 14a is subjected to a treatment for suppressing the B channel component in the spectral distribution or a treatment for emphasizing at least one of the G channel component and the R channel component. This makes it possible to expand the learning data applicable to the learning of the special optical image 16a in the LCI.

〈第二実施形態〉
第二実施形態に係る画像処理は、第一実施形態に係る画像処理と同様に、LCIにおける特殊光画像16aの学習に、通常光画像14aを利用する場合に適用される。第二実施形態では、通常光画像14a及び特殊光画像16aにおけるBチャネル成分同士の違いに着目した画像処理を実施する。
<Second Embodiment>
Similar to the image processing according to the first embodiment, the image processing according to the second embodiment is applied to the case where the normal light image 14a is used for learning the special light image 16a in the LCI. In the second embodiment, image processing is performed focusing on the difference between the B channel components in the normal light image 14a and the special light image 16a.

LCIにおける特殊光画像16aのBチャネル成分は、通常光画像14aのBチャネル成分と比較して短波長成分を多く含む。これにより、LCIにおける特殊光画像16aは、通常光画像14aと比較して高いコントラストで微小な血管構造などを表す性質を持つ。 The B-channel component of the special optical image 16a in the LCI contains a large amount of short wavelength components as compared with the B-channel component of the normal optical image 14a. As a result, the special optical image 16a in the LCI has a property of expressing a minute blood vessel structure or the like with a higher contrast than the normal optical image 14a.

微小な血管構造などは、LCIにおける特殊光画像16aの空間周波数の高周波成分に対応する。そこで、画像生成部40は、通常光画像14aのBチャネル成分の画像に対して、空間周波数の高周波成分を強調する処理を施した処理画像17aを生成する。これにより、通常光画像14aのBチャネル成分の画像を特殊光画像16aのBチャネル成分の画像に近づけることが可能となる。よって、LCIにおける特殊光画像16aの学習データの拡充を行うことが可能となる。 The minute blood vessel structure and the like correspond to the high frequency component of the spatial frequency of the special optical image 16a in the LCI. Therefore, the image generation unit 40 generates a processed image 17a obtained by subjecting the image of the B channel component of the normal optical image 14a to a process of emphasizing the high frequency component of the spatial frequency. This makes it possible to bring the image of the B channel component of the normal light image 14a closer to the image of the B channel component of the special light image 16a. Therefore, it is possible to expand the learning data of the special optical image 16a in the LCI.

高周波成分を規定する一例として、高周波成分を多く含む特殊光画像16aを周波数解析し、周波数分布に基づいて強調する周波数又は周波数帯域を規定する例が挙げられる。例えば、基準周波数を算出して、処理対象画像の空間周波数成分のうち、基準周波数以上の周波数成分を高周波成分とし得る。基準周波数は、処理対象画像に含まれる周波数成分のうち、全体に対してある割合以上の周波数成分が含まれる範囲の下限として算出し得る。 As an example of defining the high frequency component, there is an example of frequency analysis of the special optical image 16a containing a large amount of the high frequency component and defining the frequency or frequency band to be emphasized based on the frequency distribution. For example, the reference frequency can be calculated, and among the spatial frequency components of the image to be processed, the frequency component above the reference frequency can be used as the high frequency component. The reference frequency can be calculated as the lower limit of the range in which a certain ratio or more of the frequency components included in the image to be processed are included with respect to the whole.

空間周波数の高周波成分を強調する処理の一例として、アンシャープマスクを用いたマスク処理が挙げられる。空間周波数の高周波成分を抑制する処理の一例として、ローパスフィルタを用いたフィルタ処理が挙げられる。実施形態に示す空間周波数の高周波成分は、空間周波数の規定の周波数成分の一例である。実施形態に示すBチャネル成分の画像は、処理対象帯域の一例である。 As an example of the process of emphasizing the high frequency component of the spatial frequency, there is a mask process using an unsharp mask. As an example of the process of suppressing the high frequency component of the spatial frequency, there is a filter process using a low-pass filter. The high frequency component of the spatial frequency shown in the embodiment is an example of a defined frequency component of the spatial frequency. The image of the B channel component shown in the embodiment is an example of the processing target band.

〈作用効果〉
第二実施形態に係る画像処理によれば、通常光画像14aのBチャネル成分の画像に対して、空間周波数の高周波成分を強調する処理を施す。処理画像17aは通常光画像14aと比較して高いコントラストで微小な血管構造などが表される。これにより、LCIにおける特殊光画像16aの学習に適用可能な学習データの拡充が可能となる。
<Action effect>
According to the image processing according to the second embodiment, the image of the B channel component of the normal optical image 14a is subjected to a process of emphasizing the high frequency component of the spatial frequency. The processed image 17a shows a minute vascular structure and the like with a higher contrast than the normal optical image 14a. This makes it possible to expand the learning data applicable to the learning of the special optical image 16a in the LCI.

〈第三実施形態〉
第三実施形態に係る画像処理は、通常光画像14aを用いた注目領域の自動認識システムに適用される学習において、NBIにおける特殊光画像16aを利用する場合に適用される。
<Third Embodiment>
The image processing according to the third embodiment is applied when the special light image 16a in NBI is used in the learning applied to the automatic recognition system of the region of interest using the normal light image 14a.

図7は通常光画像の分光分布とNBIにおける特殊光画像の分光分布との関係を示す説明図である。符号200は通常光画像14aの分光分布を示す。通常光画像14aの分光分布200の横軸は波長を表す。縦軸は信号強度を表す。 FIG. 7 is an explanatory diagram showing the relationship between the spectral distribution of the normal optical image and the spectral distribution of the special optical image in NBI. Reference numeral 200 indicates the spectral distribution of the normal optical image 14a. The horizontal axis of the spectral distribution 200 of the normal optical image 14a represents the wavelength. The vertical axis represents the signal strength.

通常光画像14aの分光分布200は、Bチャネルの波長帯域にBチャネル成分202を有する。通常光画像14aの分光分布200は、Gチャネルの波長帯域にGチャネル成分204を有する。通常光画像14aの分光分布200は、Rチャネルの波長帯域にRチャネル成分206を有する。 The spectral distribution 200 of the normal optical image 14a has a B channel component 202 in the wavelength band of the B channel. The spectral distribution 200 of the normal optical image 14a has a G-channel component 204 in the wavelength band of the G-channel. The spectral distribution 200 of the normal optical image 14a has an R channel component 206 in the wavelength band of the R channel.

符号220は、NBIにおける特殊光画像16aの分光分布特性を示す。NBIにおける特殊光画像16aの分光分布220の横軸は波長を表す。縦軸は信号強度を表す。NBIにおける特殊光画像16aは、Bチャネルの波長帯域にBチャネル成分222を有する。NBIにおける特殊光画像16aは、Gチャネルの波長帯域にGチャネル成分224を有する。 Reference numeral 220 indicates the spectral distribution characteristics of the special optical image 16a in NBI. The horizontal axis of the spectral distribution 220 of the special optical image 16a in NBI represents the wavelength. The vertical axis represents the signal strength. The special optical image 16a in the NBI has a B channel component 222 in the wavelength band of the B channel. The special optical image 16a in NBI has a G channel component 224 in the wavelength band of the G channel.

一方、NBIにおける特殊光画像16aは、受光の際にRチャネル成分が失われている。図7に示すNBIにおける特殊光画像16aの分光分布220には、一点鎖線を用いて失われているRチャネル成分を示す。すなわち、通常光画像14a及びNBIにおける特殊光画像16aにおいて、Rチャネル成分同士は相違する。 On the other hand, in the special light image 16a in NBI, the R channel component is lost at the time of light reception. The spectral distribution 220 of the special optical image 16a in NBI shown in FIG. 7 shows the R channel component lost by using the alternate long and short dash line. That is, in the normal light image 14a and the special light image 16a in NBI, the R channel components are different from each other.

一方、NBIにおける特殊光画像16aのBチャネル成分222及びGチャネル成分224は、通常光画像14aのBチャネル成分202及びGチャネル成分204と帯域幅が相違するものの、重複する帯域が存在する。 On the other hand, the B channel component 222 and the G channel component 224 of the special optical image 16a in the NBI have different bandwidths from the B channel component 202 and the G channel component 204 of the normal optical image 14a, but there are overlapping bands.

通常光画像14a及びNBIにおける特殊光画像16aにおいて、Bチャネル成分及びGチャネル成分同士は、Rチャネル成分同士と比較して近い性質を持っている。すなわち、通常光画像14a及びBIにおける特殊光画像16aにおいて、Bチャネル成分同士及びGチャネル成分同士は類似する。 In the normal optical image 14a and the special optical image 16a in the NBI, the B channel component and the G channel component have properties similar to those of the R channel component. That is, in the normal optical image 14a and the special optical image 16a in BI, the B channel components and the G channel components are similar to each other.

そこで、画像生成部40は、通常光画像14aにおけるRチャネル成分206を抑制する処理を実施し処理画像17aを生成する。学習部30はNBIにおける特殊光画像16aの学習に処理画像を適用し得る。 Therefore, the image generation unit 40 performs a process of suppressing the R channel component 206 in the normal optical image 14a to generate the processed image 17a. The learning unit 30 may apply the processed image to the learning of the special light image 16a in the NBI.

画像生成部40は、通常光画像14aのBチャネル成分202及びGチャネル成分204の少なくともいずれかを強調する処理を施して処理画像17aを生成してもよい。学習部30はNBIにおける特殊光画像16aの学習に処理画像17aを適用し得る。通常光画像14aの処理対象の帯域成分を抑制する処理、及び処理対象の帯域成分を強調する処理は第一実施形態と同様である。ここでの説明は省略する。 The image generation unit 40 may generate the processed image 17a by performing a process of emphasizing at least one of the B channel component 202 and the G channel component 204 of the normal optical image 14a. The learning unit 30 may apply the processed image 17a to the learning of the special light image 16a in the NBI. The process of suppressing the band component of the normal optical image 14a to be processed and the process of emphasizing the band component to be processed are the same as those in the first embodiment. The description here will be omitted.

〈作用効果〉
第三実施形態に係る画像処理によれば、通常光画像14aに対して、Rチャネル成分の抑制処理又はGチャネル成分及びBチャネル成分の少なくともいずれかの強調処理を施す。これにより、NBIにおける特殊光画像16aの学習に適用可能な学習データの拡充が可能となる。
<Action effect>
According to the image processing according to the third embodiment, the normal optical image 14a is subjected to the suppression processing of the R channel component or the enhancement processing of at least one of the G channel component and the B channel component. This makes it possible to expand the learning data applicable to the learning of the special optical image 16a in NBI.

〈第三実施形態の応用例〉
NBIにおける特殊光画像16aのBチャネル成分222又はGチャネル成分224は、通常光画像14aのBチャネル成分222又はGチャネル成分224と比較してヘモグロビンの吸収係数が大きい帯域成分が大きいため、NBIにおける特殊光画像16aは通常光画像14aと比較して高いコントラストで血管構造等を表す性質を持つ。そこで、第二実施形態に係る画像処理と同様に、画像生成部40は、通常光画像14aのBチャネル成分222の画像又はGチャネル成分224の画像について、空間周波数における高周波成分を強調する処理を行い、処理画像17aを生成し得る。処理画像17aは、通常光画像14aと比較して高いコントラストで微小な血管構造などが表される。これにより、NBIにおける特殊光画像16aの学習に適用可能な学習データの拡充が可能となる。
<Application example of the third embodiment>
Since the B-channel component 222 or the G-channel component 224 of the special optical image 16a in the NBI has a large band component having a large hemoglobin absorption coefficient as compared with the B-channel component 222 or the G-channel component 224 of the normal optical image 14a, the NBI has a large band component. The special light image 16a has a property of expressing a blood vessel structure or the like with a higher contrast than the normal light image 14a. Therefore, as in the image processing according to the second embodiment, the image generation unit 40 performs a process of emphasizing the high frequency component at the spatial frequency with respect to the image of the B channel component 222 of the normal optical image 14a or the image of the G channel component 224. This can be done to generate the processed image 17a. The processed image 17a shows a minute blood vessel structure and the like with a higher contrast than the normal optical image 14a. This makes it possible to expand the learning data applicable to the learning of the special optical image 16a in NBI.

〈第四実施形態〉
第四実施形態に係る画像処理は、互いに異なる観察モードを適用して取得した複数の画像群を適用して学習を行う場合に適用される。第一実施形態から第三実施形態に示す画像処理は、本来とは異なる観察モードを適用して取得した内視鏡画像を、擬似的に本来の観察モードを適用して取得した内視鏡画像に近づける処理である。
<Fourth Embodiment>
The image processing according to the fourth embodiment is applied to the case where learning is performed by applying a plurality of image groups acquired by applying different observation modes. The image processing shown in the first to third embodiments is an endoscopic image obtained by applying a pseudo-original observation mode to an endoscopic image acquired by applying an observation mode different from the original one. It is a process that brings it closer to.

そうすると、別の観察モードの影響が大きくなり過ぎると、学習精度の向上が期待を下回る可能性がある。そこで、学習部30に適用される学習方法を工夫して、複数の画像群のバランスの調整を図る。具体的には、通常光画像群の学習と特殊光画像群の学習との学習方法を切り替える。通常光画像群の学習と特殊光画像群の学習との学習方法を切り替えには、通常光画像14aから生成した処理画像17aの学習と特殊光画像16aの学習との学習方法を切り替えが含まれる。以下に、学習方法の切り替えの具体例について説明する。 Then, if the influence of another observation mode becomes too large, the improvement of learning accuracy may be less than expected. Therefore, the learning method applied to the learning unit 30 is devised to adjust the balance of the plurality of image groups. Specifically, the learning method of learning the normal light image group and learning the special light image group is switched. Switching the learning method between the learning of the normal light image group and the learning of the special light image group includes switching the learning method between the learning of the processed image 17a generated from the normal light image 14a and the learning of the special light image 16a. .. A specific example of switching the learning method will be described below.

《重み係数の導入》
CNNを含む学習手法の多くは、特定の目的関数を最小化又は最大化する学習を実施する。そこで、本来の観察モードが適用された画像群のみから計算される目的関数をL_maimとし、本来とは異なる観察モードが適用された画像群のみから計算される目的関数をL_subとする。式1を用いて表される目的関数Lを最小化又は最大化する学習を実施する。
<< Introduction of weighting factor >>
Many learning methods, including CNNs, perform learning that minimizes or maximizes a particular objective function. Therefore, the objective function calculated only from the image group to which the original observation mode is applied is L_maim, and the objective function calculated only from the image group to which the observation mode different from the original is applied is L_sub. Learning is performed to minimize or maximize the objective function L expressed by using Equation 1.

L=L_maim+λ×L_sub …式1
なお、式1のλは設計パラメータである。設計パラメータλは1未満の任意の定数が適用される。設計パラメータλの値をより小さくすると、目的関数Lにおいて本来の観察モードの影響を表す第一項に対して、本来とは異なる観察モードの影響を表す第二項の影響がより抑制され得る。
L = L_maim + λ × L_sub ... Equation 1
Note that λ in Equation 1 is a design parameter. Any constant less than 1 is applied to the design parameter λ. When the value of the design parameter λ is made smaller, the influence of the second term, which represents the influence of the observation mode different from the original, can be further suppressed with respect to the first term, which represents the influence of the original observation mode in the objective function L.

通常光画像14aの画像群とLCIにおける特殊光画像16aの画像群とを用いて学習を実施する場合は以下のとおりである。特殊光画像16aの画像群のみから計算される目的関数をL_maimとする。通常光画像14aの画像群のみから計算される目的関数をL_subとする。設計パラメータλを適宜設定して、式1の目的関数Lを最小化又は最大化する学習を実施し得る。 When learning is performed using the image group of the normal light image 14a and the image group of the special light image 16a in the LCI, it is as follows. Let L_maim be the objective function calculated only from the image group of the special light image 16a. Let L_sub be the objective function calculated only from the image group of the normal optical image 14a. Learning to minimize or maximize the objective function L of Equation 1 can be performed by appropriately setting the design parameter λ.

図2に示す内視鏡画像学習装置10は、設計パラメータλを設定する設計パラメータ設定部を備え得る。また、内視鏡画像学習装置10は、目的関数Lを記憶する目的関数記憶部を備え得る。学習部30は、目的関数L及び設計パラメータλを読み出し、学習を実施し得る。 The endoscopic image learning device 10 shown in FIG. 2 may include a design parameter setting unit that sets the design parameter λ. Further, the endoscopic image learning device 10 may include an objective function storage unit that stores the objective function L. The learning unit 30 can read the objective function L and the design parameter λ and perform learning.

《転移学習》
まず、観察モードが互いに異なる複数の画像群を用いてCNNを学習させる。その後に学習済みパラメータを初期値として、本来の観察モードが適用された画像群のみを用いてCNNを再学習させる。
《Transfer learning》
First, CNN is trained using a plurality of image groups having different observation modes. After that, the CNN is retrained using only the image group to which the original observation mode is applied, with the trained parameters as the initial values.

具体的には、通常光画像14a及び処理画像17aを用いた学習済みのCNN、又は処理画像17aを用いた学習済みのCNNに対して、特殊光画像16aを用いて再学習を実施する。 Specifically, the trained CNN using the normal light image 14a and the processed image 17a or the trained CNN using the processed image 17a is relearned by using the special light image 16a.

これにより、本来とは異なる観察モードが適用された画像群の情報を利用した上で、本来の観察モードが適用された画像群に、より近づけることが可能となる。 As a result, it is possible to use the information of the image group to which the observation mode different from the original is applied and to bring the image group closer to the image group to which the original observation mode is applied.

学習部30は、観察モードが互いに異なる複数の画像群を用いてCNNを学習させる第一学習部、及び本来の観察モードが適用された画像群のみを用いてCNNを再学習させる第二学習部を備え得る。 The learning unit 30 is a first learning unit that learns the CNN using a plurality of image groups having different observation modes, and a second learning unit that relearns the CNN using only the image groups to which the original observation mode is applied. Can be equipped.

〈作用効果〉
第四実施形態に係る画像処理によれば、本来とは異なる観察モードが適用された画像群の情報を利用した上で、本来とは異なる観察モードが適用された画像群の影響が抑制される学習を実施し得る。
<Action effect>
According to the image processing according to the fourth embodiment, the influence of the image group to which the observation mode different from the original is applied is suppressed after using the information of the image group to which the observation mode different from the original is applied. Learning can be carried out.

[内視鏡画像を取得する内視鏡システムの全体構成]
図8は内視鏡システムの全体構成図である。図8に示す内視鏡システム300は、内視鏡302、光源装置311、プロセッサ装置312、表示装置313、画像処理装置314、入力装置315、及びモニタ装置316を備える。
[Overall configuration of the endoscope system that acquires endoscopic images]
FIG. 8 is an overall configuration diagram of the endoscope system. The endoscope system 300 shown in FIG. 8 includes an endoscope 302, a light source device 311, a processor device 312, a display device 313, an image processing device 314, an input device 315, and a monitor device 316.

内視鏡302は電子内視鏡である。また、内視鏡302は軟性内視鏡である。内視鏡302は挿入部320、操作部321、及びユニバーサルコード322を備える。挿入部320は被検体内に挿入される。挿入部320は、全体が細径で長尺状に形成されている。 The endoscope 302 is an electronic endoscope. Further, the endoscope 302 is a flexible endoscope. The endoscope 302 includes an insertion unit 320, an operation unit 321 and a universal cord 322. The insertion unit 320 is inserted into the subject. The entire insertion portion 320 has a small diameter and is formed in a long shape.

挿入部320は、軟性部325、湾曲部326、及び先端部327を備える。挿入部320は、軟性部325、湾曲部326、及び先端部327が連設されて構成される。軟性部325は、挿入部320の基端側から先端側に向けて順に可撓性を有する。湾曲部326は、操作部321が操作された場合に湾曲可能な構造を有する。先端部327は、図示しない撮像光学系及び撮像素子328等が内蔵される。 The insertion portion 320 includes a soft portion 325, a curved portion 326, and a tip portion 327. The insertion portion 320 is configured by connecting a soft portion 325, a curved portion 326, and a tip portion 327 in succession. The soft portion 325 has flexibility in order from the proximal end side to the distal end side of the insertion portion 320. The curved portion 326 has a structure that can be bent when the operating portion 321 is operated. The tip portion 327 incorporates an image pickup optical system (not shown), an image pickup element 328, and the like.

撮像素子328は、CMOS型撮像素子又はCCD型撮像素子が適用される。CMOSは、Complementary Metal Oxide Semiconductorの省略語である。CCDは、Charge Coupled Deviceの省略語である。 A CMOS image sensor or a CCD image sensor is applied to the image sensor 328. CMOS is an abbreviation for Complementary Metal Oxide Semiconductor. CCD is an abbreviation for Charge Coupled Device.

先端部327の先端面327aは、図示しない観察窓が配置される。観察窓は、先端部327の先端面327aに形成された開口である。観察窓は図示しないカバーが取り付けられる。観察窓の後方には、図示しない撮像光学系が配置される。撮像素子328の撮像面は、観察窓及び撮像光学系等を介して、被観察部位の像光が入射する。撮像素子328は、撮像素子328の撮像面に入射した被観察部位の像光を撮像して、撮像信号を出力する。ここでいう撮像は、被観察部位からの反射光を電気信号へ変換するという意味が含まれる。 An observation window (not shown) is arranged on the tip surface 327a of the tip portion 327. The observation window is an opening formed on the tip surface 327a of the tip portion 327. A cover (not shown) is attached to the observation window. An imaging optical system (not shown) is arranged behind the observation window. The image light of the observed portion is incident on the image pickup surface of the image pickup element 328 through the observation window, the image pickup optical system, and the like. The image sensor 328 captures the image light of the observed portion incident on the image pickup surface of the image sensor 328 and outputs an image pickup signal. The imaging referred to here includes the meaning of converting the reflected light from the observed portion into an electric signal.

操作部321は挿入部320の基端側に連設される。操作部321は、術者が操作する各種操作部材を備える。具体的には、操作部321は、二種類の湾曲操作ノブ329を備える。湾曲操作ノブ329は、湾曲部326の湾曲操作の際に用いられる。なお、術者は、医師、操作者、観察者、及びユーザなどと呼ばれることがあり得る。 The operation unit 321 is continuously provided on the base end side of the insertion unit 320. The operation unit 321 includes various operation members operated by the operator. Specifically, the operation unit 321 includes two types of curved operation knobs 329. The bending operation knob 329 is used when the bending operation of the bending portion 326 is performed. The operator may be referred to as a doctor, an operator, an observer, a user, or the like.

操作部321は、送気送水ボタン330及び吸引ボタン331を備える。送気送水ボタン330は、術者が送気送水操作を行う際に用いられる。吸引ボタン331は、術者が吸引操作を行う際に用いられる。 The operation unit 321 includes an air supply / water supply button 330 and a suction button 331. The air supply / water supply button 330 is used when the operator performs an air supply / water supply operation. The suction button 331 is used when the operator performs a suction operation.

操作部321は、静止画像撮像指示部332及び処置具導入口333を備える。静止画像撮像指示部332は、被観察部位の静止画像を撮像する際に、術者が操作する。処置具導入口333は、挿入部320の内部を挿通している処置具挿通路の内部に処置具を挿入する開口である。なお、処置具挿通路及び処置具の図示は省略する。 The operation unit 321 includes a still image imaging instruction unit 332 and a treatment tool introduction port 333. The still image imaging instruction unit 332 is operated by the operator when capturing a still image of the observed portion. The treatment tool introduction port 333 is an opening for inserting the treatment tool into the inside of the treatment tool insertion passage through which the inside of the insertion portion 320 is inserted. It should be noted that the treatment tool insertion passage and the treatment tool are not shown.

ユニバーサルコード322は、内視鏡302を光源装置311に接続する接続コードである。ユニバーサルコード322は、挿入部320の内部を挿通しているライトガイド335、信号ケーブル336、及び図示しない流体チューブを内包している。 The universal cord 322 is a connection cord for connecting the endoscope 302 to the light source device 311. The universal cord 322 includes a light guide 335 that inserts the inside of the insertion portion 320, a signal cable 336, and a fluid tube (not shown).

また、ユニバーサルコード322の先端部は、光源装置311に接続されるコネクタ337a、及びコネクタ337aから分岐され、かつプロセッサ装置312に接続されるコネクタ337bを備える。 The tip of the universal cord 322 includes a connector 337a connected to the light source device 311 and a connector 337b branched from the connector 337a and connected to the processor device 312.

コネクタ337aを光源装置311に接続すると、ライトガイド335及び図示しない流体チューブが光源装置311に挿入される。これにより、ライトガイド335及び図示しない流体チューブを介して、光源装置311から内視鏡302に対して必要な照明光と水と気体とが供給される。 When the connector 337a is connected to the light source device 311, a light guide 335 and a fluid tube (not shown) are inserted into the light source device 311. As a result, necessary illumination light, water, and gas are supplied from the light source device 311 to the endoscope 302 via the light guide 335 and a fluid tube (not shown).

その結果、先端部327の先端面327aの図示しない照明窓から被観察部位に向けて照明光が照射される。また、送気送水ボタン330の押下操作に応じて、先端部327の先端面327aの図示しない送気送水ノズルから先端面327aの図示しない観察窓に向けて気体又は水が噴射される。 As a result, the illumination light is emitted from the illumination window (not shown) on the tip surface 327a of the tip portion 327 toward the observed portion. Further, in response to the pressing operation of the air supply / water supply button 330, gas or water is injected from the air supply / water supply nozzle (not shown) on the tip surface 327a of the tip portion 327 toward the observation window (not shown) on the tip surface 327a.

コネクタ337bをプロセッサ装置312に接続すると、信号ケーブル336とプロセッサ装置312とが電気的に接続される。これにより、信号ケーブル336を介して、内視鏡302の撮像素子328からプロセッサ装置312へ被観察部位の撮像信号が出力され、かつプロセッサ装置312から内視鏡302へ制御信号が出力される。 When the connector 337b is connected to the processor device 312, the signal cable 336 and the processor device 312 are electrically connected. As a result, the image pickup element 328 of the endoscope 302 outputs the image pickup signal of the observed portion to the processor device 312, and the processor device 312 outputs the control signal to the endoscope 302 via the signal cable 336.

本実施形態では、内視鏡302として軟性内視鏡を例に挙げて説明を行ったが、内視鏡302として、硬性内視鏡等の被観察部位の動画撮像を可能な各種の電子内視鏡を用いてもよい。 In the present embodiment, a flexible endoscope has been described as an example of the endoscope 302, but as the endoscope 302, various electrons capable of capturing a moving image of an observed part such as a rigid endoscope are used. An endoscope may be used.

光源装置311は、コネクタ337aを介して、内視鏡302のライトガイド335へ照明光を供給する。照明光は、白色光又は特定の波長帯域の光を適用可能である。照明光は、白色光及び特定の波長帯域の光を組み合わせてもよい。光源装置311は、観察目的に応じた波長帯域の光を、照明光として適宜選択可能に構成される。 The light source device 311 supplies illumination light to the light guide 335 of the endoscope 302 via the connector 337a. As the illumination light, white light or light in a specific wavelength band can be applied. The illumination light may be a combination of white light and light in a specific wavelength band. The light source device 311 is configured so that light in a wavelength band according to the purpose of observation can be appropriately selected as illumination light.

白色光は、白色の波長帯域の光又は複数の波長帯域の光のいずれでもよい。特定の波長帯域は、白色の波長帯域よりも狭い帯域である。特定の波長帯域の光は、一種類の波長帯域の光を適用してもよいし、複数の波長帯域の光を適用してもよい。特定の波長帯域は、特殊光と呼ばれる場合がある。 The white light may be either light in a white wavelength band or light in a plurality of wavelength bands. The specific wavelength band is narrower than the white wavelength band. As the light of a specific wavelength band, light of one kind of wavelength band may be applied, or light of a plurality of wavelength bands may be applied. A particular wavelength band is sometimes referred to as special light.

プロセッサ装置312は、コネクタ337b及び信号ケーブル336を介して、内視鏡302の動作を制御する。また、プロセッサ装置312は、コネクタ337b及び信号ケーブル336を介して、内視鏡302の撮像素子328から撮像信号を取得する。プロセッサ装置312は規定のフレームレートを適用して内視鏡302から出力された撮像信号を取得する。 The processor device 312 controls the operation of the endoscope 302 via the connector 337b and the signal cable 336. Further, the processor device 312 acquires an image pickup signal from the image pickup element 328 of the endoscope 302 via the connector 337b and the signal cable 336. The processor device 312 applies a predetermined frame rate to acquire an image pickup signal output from the endoscope 302.

プロセッサ装置312は、内視鏡302から取得した撮像信号に基づき、被観察部位の観察画像である内視鏡画像を生成する。ここでいう内視鏡画像338には動画像が含まれる。内視鏡画像338は静止画像339が含まれてもよい。 The processor device 312 generates an endoscope image, which is an observation image of the observed portion, based on the image pickup signal acquired from the endoscope 302. The endoscopic image 338 referred to here includes a moving image. The endoscopic image 338 may include a still image 339.

プロセッサ装置312は、操作部321の静止画像撮像指示部332が操作された場合、動画像の生成と並行して、撮像素子328から取得した撮像信号に基づき被観察部位の静止画像339を生成する。静止画像339は、動画像の解像度に対して高解像度に生成されていてもよい。 When the still image imaging instruction unit 332 of the operation unit 321 is operated, the processor device 312 generates a still image 339 of the observed portion based on the imaging signal acquired from the imaging element 328 in parallel with the generation of the moving image. .. The still image 339 may be generated at a higher resolution than the resolution of the moving image.

内視鏡画像338の生成の際に、プロセッサ装置312はホワイトバランス調整及びシェーディング補正等のデジタル信号処理を適用した画質の補正を行う。プロセッサ装置312はDICOM規格で規定された付帯情報を内視鏡画像338へ付加してもよい。なお、DICOMは、Digital Imaging and Communications in Medicineの省略語である。 When generating the endoscopic image 338, the processor device 312 corrects the image quality by applying digital signal processing such as white balance adjustment and shading correction. The processor device 312 may add incidental information specified in the DICOM standard to the endoscopic image 338. DICOM is an abbreviation for Digital Imaging and Communications in Medicine.

内視鏡画像338は、被検体内、すなわち生体内を撮像した生体内画像である。内視鏡画像338が、特定の波長帯域の光を用いて撮像して得られた画像である場合、両者は特殊光画像である。そして、プロセッサ装置312は、生成した内視鏡画像338を表示装置313と画像処理装置314とのそれぞれに出力する。プロセッサ装置312は、DICOM規格に準拠した通信プロトコルに従って、図示しないネットワークを介して内視鏡画像338を、図示しない記憶装置へ出力してもよい。 The endoscopic image 338 is an in-vivo image obtained by imaging the inside of a subject, that is, the inside of a living body. When the endoscopic image 338 is an image obtained by imaging using light in a specific wavelength band, both are special optical images. Then, the processor device 312 outputs the generated endoscopic image 338 to the display device 313 and the image processing device 314, respectively. The processor device 312 may output the endoscopic image 338 to a storage device (not shown) via a network (not shown) according to a communication protocol conforming to the DICOM standard.

表示装置313は、プロセッサ装置312に接続される。表示装置313は、プロセッサ装置312から送信された内視鏡画像338を表示する。術者は、表示装置313に表示される内視鏡画像338を確認しながら、挿入部320の進退操作等をし得る。術者は、被観察部位に病変等を検出した場合に、静止画像撮像指示部332を操作して被観察部位の静止画を撮像し得る。 The display device 313 is connected to the processor device 312. The display device 313 displays the endoscopic image 338 transmitted from the processor device 312. The operator can move the insertion unit 320 forward and backward while checking the endoscopic image 338 displayed on the display device 313. When a lesion or the like is detected at the observed site, the operator can operate the still image imaging instruction unit 332 to capture a still image of the observed site.

画像処理装置314は、コンピュータが用いられる。入力装置315はコンピュータに接続可能なキーボード及びマウス等が用いられる。入力装置315とコンピュータとの接続は有線接続、又は無線接続のいずれでもよい。モニタ装置316は、コンピュータに接続可能な各種モニタが用いられる。 A computer is used as the image processing device 314. As the input device 315, a keyboard, a mouse, or the like that can be connected to a computer is used. The connection between the input device 315 and the computer may be either a wired connection or a wireless connection. As the monitor device 316, various monitors that can be connected to a computer are used.

画像処理装置314として、ワークステーション及びサーバ装置等の診断支援装置を用いてもよい。この場合、入力装置315及びモニタ装置316は、それぞれワークステーション等に接続した複数の端末ごとに設けられる。更に、画像処理装置314として、医療レポート等の作成支援を行う診療業務支援装置を用いてもよい。 As the image processing device 314, a diagnostic support device such as a workstation and a server device may be used. In this case, the input device 315 and the monitor device 316 are provided for each of a plurality of terminals connected to a workstation or the like. Further, as the image processing device 314, a medical service support device that supports the creation of a medical report or the like may be used.

画像処理装置314は、内視鏡画像338の取得及び内視鏡画像338の記憶を行う。画像処理装置314は、モニタ装置316の再生制御を行う。図8に示す画像処理装置314は、図1から図7までの各図を用いて説明した内視鏡画像学習装置10の機能を備え得る。また、図8に示す入力装置315は図1に示す操作部18に相当する。図8に示すモニタ装置316は図1に示す表示部26に相当する。 The image processing device 314 acquires the endoscopic image 338 and stores the endoscopic image 338. The image processing device 314 controls the reproduction of the monitor device 316. The image processing device 314 shown in FIG. 8 may include the function of the endoscopic image learning device 10 described with reference to the drawings 1 to 7. Further, the input device 315 shown in FIG. 8 corresponds to the operation unit 18 shown in FIG. The monitor device 316 shown in FIG. 8 corresponds to the display unit 26 shown in FIG.

なお、本明細書における画像という用語は、画像を表す電気信号及び画像を表す情報等の静止画像339の意味が含まれている。本明細書における画像という用語は、画像自身及び画像データの少なくともいずれかを意味している。 The term "image" in the present specification includes the meaning of a still image 339 such as an electric signal representing an image and information representing an image. The term image in the present specification means at least one of the image itself and the image data.

また、画像の記憶という用語は、画像の保存と読み替えることが可能である。ここでいう画像の記憶は、画像の非一時的記憶を意味する。画像処理装置314は画像を一時記憶する一時記憶用のメモリを備えてもよい。 Also, the term image storage can be read as image storage. Image memory here means non-temporary image storage. The image processing device 314 may include a memory for temporary storage for temporarily storing an image.

入力装置315は、画像処理装置314に対する操作指示の入力に用いられる。モニタ装置316は、画像処理装置314の制御の下、内視鏡画像338の表示を行う。モニタ装置316は、画像処理装置314における各種情報の表示部として機能してもよい。 The input device 315 is used for inputting an operation instruction to the image processing device 314. The monitor device 316 displays the endoscopic image 338 under the control of the image processing device 314. The monitor device 316 may function as a display unit for various information in the image processing device 314.

画像処理装置314は、図示しないネットワークを介して、図示しない記憶装置と接続され得る。画像の格納形式及びネットワークを経由した各装置間の通信は、DICOM規格及びDICOM規格に準拠したプロトコル等を適用可能である。 The image processing device 314 may be connected to a storage device (not shown) via a network (not shown). For the image storage format and communication between each device via the network, a protocol compliant with the DICOM standard and the DICOM standard can be applied.

図示しない記憶装置は、データを非一時的に記憶するストレージ等を適用可能である。記憶装置は、図示しないサーバ装置を用いて管理されてもよい。サーバ装置は、各種データを記憶して管理するコンピュータを適用可能である。 A storage device (not shown) can be applied with a storage or the like that stores data non-temporarily. The storage device may be managed by using a server device (not shown). The server device can be applied to a computer that stores and manages various data.

[内視鏡システムの観察モード]
図9は内視鏡システムの機能ブロック図である。内視鏡システム300は通常光観察モードと特殊光観察モードとの切り替えが可能に構成される。操作者は図示しない観察モード切替ボタンを操作して、通常光観察モードと特殊光観察モードとの切り替えを実施し得る。
[Observation mode of endoscopic system]
FIG. 9 is a functional block diagram of the endoscopic system. The endoscope system 300 is configured to be able to switch between a normal light observation mode and a special light observation mode. The operator can operate an observation mode switching button (not shown) to switch between the normal light observation mode and the special light observation mode.

光源装置311は、第一レーザ光源400、第二レーザ光源402、及び光源制御部404を備える。第一レーザ光源400は、中心波長445nmの青色レーザ光源である。第二レーザ光源402は、中心波長405nmの紫色レーザ光源である。第一レーザ光源400及び第二レーザ光源402として、レーザダイオードを用いることができる。第一レーザ光源400及び第二レーザ光源402の発光は、光源制御部404を用いて個別に制御される。第一レーザ光源400と第二レーザ光源402との発光強度比は変更自在になっている。 The light source device 311 includes a first laser light source 400, a second laser light source 402, and a light source control unit 404. The first laser light source 400 is a blue laser light source having a center wavelength of 445 nm. The second laser light source 402 is a purple laser light source having a center wavelength of 405 nm. A laser diode can be used as the first laser light source 400 and the second laser light source 402. The light emission of the first laser light source 400 and the second laser light source 402 is individually controlled by using the light source control unit 404. The emission intensity ratio between the first laser light source 400 and the second laser light source 402 can be freely changed.

内視鏡302は、第一光ファイバ410、第二光ファイバ412、蛍光体414、拡散部材416、撮像レンズ418、撮像素子328、及びアナログデジタル変換部420を備える。 The endoscope 302 includes a first optical fiber 410, a second optical fiber 412, a phosphor 414, a diffusion member 416, an image pickup lens 418, an image pickup element 328, and an analog-to-digital converter 420.

第一レーザ光源400、第二レーザ光源402、第一光ファイバ410、第二光ファイバ412、蛍光体414、及び拡散部材416を用いて照射部が構成される。 The irradiation unit is configured by using the first laser light source 400, the second laser light source 402, the first optical fiber 410, the second optical fiber 412, the phosphor 414, and the diffusion member 416.

第一レーザ光源400から出射されるレーザ光は、第一光ファイバ410を介して内視鏡302の先端部327に配置された蛍光体414に照射される。蛍光体414は、第一レーザ光源400からの青色レーザ光の一部を吸収して緑色から黄色まで範囲に励起発光する複数種の蛍光体を含んで構成される。これにより、蛍光体414から出射する光は、第一レーザ光源400からの青色レーザ光を励起光とする緑色から黄色まで範囲の励起光L11及び蛍光体414に吸収されずに透過した青色のレーザ光L12が合わされて、白色又は疑似白色の光Lとなる。The laser light emitted from the first laser light source 400 is applied to the phosphor 414 arranged at the tip end portion 327 of the endoscope 302 via the first optical fiber 410. The phosphor 414 is composed of a plurality of types of phosphors that absorb a part of the blue laser light from the first laser light source 400 and excite and emit light in a range from green to yellow. As a result, the light emitted from the phosphor 414 is the blue one that is transmitted without being absorbed by the excitation light L 11 in the range from green to yellow, which uses the blue laser light from the first laser light source 400 as the excitation light, and the phosphor 414. The laser light L 12 is combined to form a white or pseudo-white light L 1 .

なお、ここで言う白色光とは、厳密に可視光の全ての波長成分を含むものに限らない。例えば、R、G、及びBなど、特定の波長帯域の光を含むものであればよく、緑色から赤色にかけての波長成分を含む光、又は青色から緑色にかけての波長成分を含む光等も広義に含むものとする。 It should be noted that the white light referred to here is not limited to that strictly includes all wavelength components of visible light. For example, light containing a specific wavelength band such as R, G, and B may be used, and light containing a wavelength component from green to red or light containing a wavelength component from blue to green is also broadly defined. It shall include.

一方、第二レーザ光源402から出射されるレーザ光は、第二光ファイバ412を介して内視鏡302の先端部327に配置された拡散部材416に照射される。拡散部材416は、透光性を有する樹脂材料等を用いることができる。拡散部材416から出射する光は、照射領域内において光量が均一化された狭帯域波長の光Lとなる。On the other hand, the laser light emitted from the second laser light source 402 is applied to the diffusion member 416 arranged at the tip end portion 327 of the endoscope 302 via the second optical fiber 412. As the diffusion member 416, a translucent resin material or the like can be used. The light emitted from the diffusing member 416 becomes light L 2 having a narrow band wavelength in which the amount of light is uniform in the irradiation region.

図10は光の強度分布を示すグラフである。光源制御部404は、第一レーザ光源400と第二レーザ光源402との光量比を変更する。これにより、光Lと光Lとの光量比が変更され、光Lと光Lとの合成光である照射光Lの波長パターンが変更され、観察モードに応じて異なる波長パターンの照射光Lを照射することができる。FIG. 10 is a graph showing the light intensity distribution. The light source control unit 404 changes the light amount ratio between the first laser light source 400 and the second laser light source 402. Thus, the light quantity ratio between the light L 1 and the light L 2 is changed, the changed wavelength pattern of the light L 1 and the irradiation light L 0 is a composite light of the light L 2 is, wavelengths different patterns depending on the observation mode The irradiation light L 0 can be irradiated.

図9に示す内視鏡システム300は、撮像レンズ418、撮像素子328、アナログデジタル変換部420を含む撮像部を備える。図8に示すように撮像部は、内視鏡302の先端部327に配置される。 The endoscope system 300 shown in FIG. 9 includes an image pickup unit including an image pickup lens 418, an image pickup element 328, and an analog-to-digital conversion unit 420. As shown in FIG. 8, the imaging unit is arranged at the tip portion 327 of the endoscope 302.

図9に示す撮像レンズ418は、入射した光を撮像素子328に結像させる。撮像素子328は、受光した光に応じたアナログ信号を生成する。撮像素子328から出力されるアナログ信号は、アナログデジタル変換部420を用いてデジタル信号に変換され、プロセッサ装置312に入力される。 The image pickup lens 418 shown in FIG. 9 forms an image of the incident light on the image pickup element 328. The image sensor 328 generates an analog signal according to the received light. The analog signal output from the image sensor 328 is converted into a digital signal by the analog-digital conversion unit 420 and input to the processor device 312.

プロセッサ装置312は、撮像制御部440、画像処理部442、画像取得部444、及び画像認識部446を備える。 The processor device 312 includes an image pickup control unit 440, an image processing unit 442, an image acquisition unit 444, and an image recognition unit 446.

撮像制御部440は、光源装置311の光源制御部404、内視鏡302の撮像素子328及びアナログデジタル変換部420、並びにプロセッサ装置312の画像処理部442を制御し、内視鏡システム300を用いた動画及び静止画の撮像を統括制御する。 The image pickup control unit 440 controls the light source control unit 404 of the light source device 311, the image pickup element 328 and the analog-digital conversion unit 420 of the endoscope 302, and the image processing unit 442 of the processor device 312, and uses the endoscope system 300. It controls the imaging of moving images and still images.

画像処理部442は、内視鏡302のアナログデジタル変換部420から入力されたデジタル信号に画像処理を施し画像を生成する。画像処理部442は、撮像時の照射光の波長パターンに応じた画像処理を施す。 The image processing unit 442 performs image processing on the digital signal input from the analog-to-digital conversion unit 420 of the endoscope 302 to generate an image. The image processing unit 442 performs image processing according to the wavelength pattern of the irradiation light at the time of imaging.

画像取得部444は、画像処理部442が生成した画像を取得する。すなわち、画像取得部444は、被験者の体腔内を一定のフレームレートを適用して時系列的に撮像した複数の画像を順次取得する。なお、画像取得部444は、入力部447から入力された画像、又は記憶部468に記憶された画像を取得してもよい。また、不図示のネットワークに接続されたサーバ等の外部装置から画像を取得してもよい。これらの場合の画像も、時系列的に撮像した複数の画像であることが好ましい。 The image acquisition unit 444 acquires the image generated by the image processing unit 442. That is, the image acquisition unit 444 sequentially acquires a plurality of images captured in time series by applying a constant frame rate to the inside of the body cavity of the subject. The image acquisition unit 444 may acquire an image input from the input unit 447 or an image stored in the storage unit 468. Further, the image may be acquired from an external device such as a server connected to a network (not shown). The images in these cases are also preferably a plurality of images captured in time series.

画像認識部446は、内視鏡画像学習装置10によって学習された学習モデルを用いて、画像取得部444が取得した画像の画像認識を行う。本実施形態では、画像取得部444が取得した画像から病変を認識する。病変とは、病気が原因のものに限定されず、外観上正常な状態とは異なる状態の領域を含んでいる。 The image recognition unit 446 uses the learning model learned by the endoscopic image learning device 10 to perform image recognition of the image acquired by the image acquisition unit 444. In the present embodiment, the lesion is recognized from the image acquired by the image acquisition unit 444. Lesions are not limited to those caused by disease and include areas of a state that is different from the apparently normal state.

病変の一例として、ポリープ、癌、大腸憩室、炎症、治療痕、クリップ箇所、出血点、穿孔、及び血管異型性等が挙げられる。治療痕の一例として、EMR瘢痕及びESD瘢痕等が挙げられる。EMRはEndoscopic Mucosal Resectionの省略語である。ESDはEndoscopic Submucosal Dissectionの省略語である。 Examples of lesions include polyps, cancer, diverticula of the large intestine, inflammation, treatment scars, clip sites, bleeding points, perforations, and vascular atypia. Examples of treatment scars include EMR scars and ESD scars. EMR is an abbreviation for Endoscopic Mucosal Resection. ESD is an abbreviation for Endoscopic Submucosal Dissection.

表示制御部450は、画像処理部442を用いて生成された画像を表示装置313に表示させる。表示制御部450は、画像認識部446を用いて認識した病変を認識可能に画像に重畳表示してもよい。 The display control unit 450 causes the display device 313 to display the image generated by using the image processing unit 442. The display control unit 450 may superimpose and display the lesion recognized by the image recognition unit 446 on the image so as to be recognizable.

記憶制御部452は、画像処理部442を用いて生成された画像を記憶部468に記憶させる。例えば、静止画の取得指示に従って撮像された画像及び画像を撮像した際の照射光Lの波長パターンの情報等を記憶部468に記憶させる。The storage control unit 452 stores the image generated by using the image processing unit 442 in the storage unit 468. For example, and stores the information of the wavelength pattern of the irradiation light L 0 at the time of capturing a captured image and the image according to the acquired instruction of a still image in the storage unit 468.

記憶部468の一例として、ハードディスク等のストレージ装置が挙げられる。なお、記憶部468は、プロセッサ装置312に内蔵されたものに限定されない。例えば、プロセッサ装置312に接続される不図示の外部記憶装置であってもよい。外部記憶装置は、不図示のネットワークを介して接続されていてもよい。 An example of the storage unit 468 is a storage device such as a hard disk. The storage unit 468 is not limited to the one built in the processor device 312. For example, it may be an external storage device (not shown) connected to the processor device 312. The external storage device may be connected via a network (not shown).

このように構成された内視鏡システム300は、通常は一定のフレームレートで動画撮像を行い、撮像した画像を表示装置313に表示する。また、撮像された動画から、病変を検出し、検出した病変を認識可能に動画に重畳して表示装置313に表示する。 The endoscope system 300 configured in this way normally captures a moving image at a constant frame rate, and displays the captured image on the display device 313. In addition, a lesion is detected from the captured moving image, and the detected lesion is recognizable and superimposed on the moving image and displayed on the display device 313.

内視鏡システム300によれば、内視鏡画像学習装置10によって学習された学習モデルを用いた画像認識部446を適用して内視鏡画像の自動認識を行い、特殊光画像の画像認識を適切に行うことができる。 According to the endoscope system 300, an image recognition unit 446 using a learning model learned by the endoscope image learning device 10 is applied to automatically recognize an endoscope image, and perform image recognition of a special optical image. Can be done properly.

図8から図10を用いて説明した内視鏡システム300は、通常光画像14a及び特殊光画像16aを取得し得る。 The endoscope system 300 described with reference to FIGS. 8 to 10 can acquire a normal light image 14a and a special light image 16a.

[内視鏡システムの変形例]
〔プロセッサ装置の変形例〕
プロセッサ装置312は、画像処理装置314の機能を有してもよい。すなわち、プロセッサ装置312は、画像処理装置314と一体に構成されてもよい。かかる態様では、表示装置313はモニタ装置316と兼用し得る。プロセッサ装置312は入力装置315を接続させる接続端子を備え得る。
[Modification example of endoscopic system]
[Modification example of processor device]
The processor device 312 may have the function of the image processing device 314. That is, the processor device 312 may be integrally configured with the image processing device 314. In such an embodiment, the display device 313 can also be used as the monitor device 316. The processor device 312 may include a connection terminal to which the input device 315 is connected.

〔特徴量画像の生成例〕
医用画像として、白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得る通常画像、並びに特定の波長帯域の光を照射して得る特殊光画像の少なくともいずれかに基づく演算を用いて、特徴量画像を生成し得る。
[Example of generating a feature image]
The medical image is based on at least one of a white band light, a normal image obtained by irradiating light in a plurality of wavelength bands as light in the white band, and a special light image obtained by irradiating light in a specific wavelength band. An operation can be used to generate a feature image.

[コンピュータを画像処理装置として機能させるプログラムへの適用例]
上述した内視鏡画像学習方法は、コンピュータを用いて、内視鏡画像学習方法における各工程に対応する機能を実現させるプログラムとして構成可能である。例えば、コンピュータに、互いに分光分布が異なる第一画像及び第二画像を取得する画像取得機能、第一画像に画像処理を施して第三画像を生成する画像処理機能、及び複数の第一画像を含む第一画像群、複数の第二画像を含む第二画像群、及び複数の第三画像を含む第三画像群、並びに第一画像群、第二画像群、及び第三画像群のそれぞれの正しい認識結果である正解データを用いて、自動認識に適用する認識器を学習する学習機能を実現させるプログラムであって、画像処理機能は、第一画像の分光分布に含まれる帯域のうち第二画像の対応する帯域と特性が異なる帯域の信号を抑制する画像処理、及び第一画像に含まれる帯域のうち第二画像の対応する帯域と特性が同一の帯域の信号又は類似する帯域の信号を強調する画像処理の少なくともいずれかを施して、第一画像から第三画像を生成するプログラムを実現し得る。
[Example of application to a program that makes a computer function as an image processing device]
The above-mentioned endoscopic image learning method can be configured as a program that realizes a function corresponding to each step in the endoscopic image learning method by using a computer. For example, a computer is provided with an image acquisition function for acquiring a first image and a second image having different spectral distributions, an image processing function for performing image processing on the first image to generate a third image, and a plurality of first images. Each of the first image group including, the second image group including a plurality of second images, the third image group including a plurality of third images, and the first image group, the second image group, and the third image group, respectively. It is a program that realizes a learning function that learns a recognizer to be applied to automatic recognition using correct answer data that is the correct recognition result, and the image processing function is the second of the bands included in the spectral distribution of the first image. Image processing that suppresses signals in a band whose characteristics are different from the corresponding band of the image, and signals in a band that has the same characteristics as the corresponding band in the second image or a signal in a similar band among the bands included in the first image. A program that generates a third image from a first image can be realized by performing at least one of the image processing to be emphasized.

上述した内視鏡画像学習機能をコンピュータに実現させるプログラムを、有体物である非一時的な情報記憶媒体である、コンピュータが読取可能な情報記憶媒体に記憶し、情報記憶媒体を通じてプログラムを提供することが可能である。 To store the program for realizing the above-mentioned endoscopic image learning function in a computer in a computer-readable information storage medium, which is a tangible non-temporary information storage medium, and provide the program through the information storage medium. Is possible.

また、非一時的な情報記憶媒体にプログラムを記憶して提供する態様に代えて、ネットワークを介してプログラム信号を提供する態様も可能である。 Further, instead of the mode in which the program is stored and provided in the non-temporary information storage medium, the mode in which the program signal is provided via the network is also possible.

[実施形態及び変形例等の組み合わせについて]
上述した実施形態で説明した構成要素及び変形例で説明した構成要素は、適宜組み合わせて用いることができ、また、一部の構成要素を置き換えることもできる。
[Combination of Embodiments and Modifications]
The components described in the above-described embodiment and the components described in the modified examples can be used in combination as appropriate, or some components can be replaced.

以上説明した本発明の実施形態は、本発明の趣旨を逸脱しない範囲で、適宜構成要件を変更、追加、削除することが可能である。本発明は以上説明した実施形態に限定されるものではなく、本発明の技術的思想内で当該分野の通常の知識を有する者により、多くの変形が可能である。 In the embodiment of the present invention described above, the constituent requirements can be appropriately changed, added, or deleted without departing from the spirit of the present invention. The present invention is not limited to the embodiments described above, and many modifications can be made by a person having ordinary knowledge in the art within the technical idea of the present invention.

10 内視鏡画像学習装置
12 通信部
14 第一記憶装置
14a 通常光画像
16 第二記憶装置
16a 特殊光画像
17 第三記憶装置
17a 処理画像
18 操作部
20 CPU
22 RAM
24 ROM
26 表示部
30 学習部
32 CNN
32a 入力層
32b 中間層
32c 出力層
32d 畳み込み層
32e プーリング層
32f セット
32g 全結合層
34 誤差算出部
36 パラメータ更新部
40 画像生成部
100 分光感度分布
102 Bチャネル成分
104 Gチャネル成分
106 Rチャネル成分
120 通常光の強度分布
140 通常光画像の分光分布特性
142 Bチャネル成分
144 Gチャネル成分
146 Rチャネル成分
160 LCIにおける照明光の強度分布
180 特殊光画像の分光分布特性
182 Bチャネル成分
184 Gチャネル成分
186 Rチャネル成分
200 通常光画像の分光分布特性
202 Bチャネル成分
204 Gチャネル成分
206 Rチャネル成分
220 特殊光画像の分光分布特性
222 Bチャネル成分
224 Gチャネル成分
300 内視鏡システム
302 内視鏡
311 光源装置
312 プロセッサ装置
313 表示装置
314 画像処理装置
315 入力装置
316 モニタ装置
320 挿入部
321 操作部
322 ユニバーサルコード
325 軟性部
326 湾曲部
327 先端部
327a 先端面
328 撮像素子
329 湾曲操作ノブ
330 送気送水ボタン
331 吸引ボタン
332 静止画像撮像指示部
333 処置具導入口
335 ライトガイド
336 信号ケーブル
337a コネクタ
337b コネクタ
338 内視鏡画像
339 静止画像
400 第一レーザ光源
402 第二レーザ光源
404 光源制御部
410 第一光ファイバ
412 第二光ファイバ
414 蛍光体
416 拡散部材
418 撮像レンズ
420 アナログデジタル変換部
442 画像処理部
444 画像取得部
446 画像認識部
447 入力部
450 表示制御部
452 記憶制御部
468 記憶部
S10からS21 内視鏡画像学習方法の各工程
10 Endoscopic image learning device 12 Communication unit 14 First storage device 14a Normal light image 16 Second storage device 16a Special optical image 17 Third storage device 17a Processing image 18 Operation unit 20 CPU
22 RAM
24 ROM
26 Display unit 30 Learning unit 32 CNN
32a Input layer 32b Intermediate layer 32c Output layer 32d Folding layer 32e Pooling layer 32f Set 32g Fully coupled layer 34 Error calculation unit 36 Parameter update unit 40 Image generation unit 100 Spectral sensitivity distribution 102 B channel component 104 G channel component 106 R channel component 120 Intensity distribution of normal light 140 Spectral distribution characteristic of normal light image 142 B channel component 144 G channel component 146 R channel component 160 Intensity distribution of illumination light in LCI 180 Spectral distribution characteristic of special light image 182 B channel component 184 G channel component 186 R channel component 200 Spectral distribution characteristic of normal light image 202 B channel component 204 G channel component 206 R channel component 220 Spectral distribution characteristic of special light image 222 B channel component 224 G channel component 300 Endoscope system 302 Endoscope 311 Light source Device 312 Processor device 313 Display device 314 Image processing device 315 Input device 316 Monitor device 320 Insertion unit 321 Operation unit 322 Universal cord 325 Flexible part 326 Curved part 327 Tip part 327a Tip surface 328 Image sensor 329 Curved operation knob 330 Air supply / water supply button 331 Suction button 332 Still image imaging instruction unit 333 Treatment tool introduction port 335 Light guide 336 Signal cable 337a Connector 337b Connector 338 Endoscope image 339 Still image 400 First laser light source 402 Second laser light source 404 Light source control unit 410 First light Fiber 412 Second optical fiber 414 Fluorescent material 416 Diffusing member 418 Imaging lens 420 Analog digital conversion unit 442 Image processing unit 444 Image acquisition unit 446 Image recognition unit 447 Input unit 450 Display control unit 452 Storage control unit 468 Storage unit S10 to S21 Each step of the spectroscopic image learning method

Claims (18)

互いに分光分布が異なる第一画像及び第二画像を取得する画像取得部と、
前記第一画像に画像処理を施して第三画像を生成する画像処理部と、
複数の前記第一画像を含む第一画像群、複数の前記第二画像を含む第二画像群、及び複数の前記第三画像を含む第三画像群、並びに前記第一画像群、前記第二画像群、及び前記第三画像群のそれぞれの正解データを用いて、自動認識に適用する認識器を学習させる学習部と、
を備え、
前記画像処理部は、前記第一画像の分光分布に含まれる帯域のうち前記第二画像の対応する帯域と特性が異なる帯域の信号を抑制する画像処理、及び前記第一画像に含まれる帯域のうち前記第二画像の対応する帯域と特性が同一の帯域の信号又は類似する帯域の信号を強調する画像処理の少なくともいずれかを施して、前記第一画像から前記第三画像を生成する医用画像学習装置。
An image acquisition unit that acquires the first image and the second image whose spectral distributions are different from each other,
An image processing unit that performs image processing on the first image to generate a third image,
A first image group including the plurality of the first images, a second image group including the plurality of the second images, a third image group including the plurality of the third images, and the first image group and the second image. A learning unit that learns a recognizer to be applied to automatic recognition using the correct answer data of each of the image group and the third image group.
With
The image processing unit suppresses signals in a band having characteristics different from the corresponding band of the second image among the bands included in the spectral distribution of the first image, and the band included in the first image. A medical image that generates the third image from the first image by performing at least one of image processing that emphasizes a signal in a band having the same characteristics as the corresponding band of the second image or a signal in a similar band. Learning device.
前記画像処理部は、前記第一画像に対して、輝度分散を変換する処理を施す請求項1に記載の医用画像学習装置。 The medical image learning device according to claim 1, wherein the image processing unit performs a process of converting the luminance dispersion on the first image. 前記画像処理部は、前記第一画像に対して、輝度を規定の輝度値に変更する処理を施す請求項1に記載の医用画像学習装置。 The medical image learning device according to claim 1, wherein the image processing unit performs a process of changing the brightness of the first image to a predetermined brightness value. 前記画像処理部は、前記第一画像に対して、輝度をランダムな輝度値に変更する処理を施す請求項1に記載の医用画像学習装置。 The medical image learning device according to claim 1, wherein the image processing unit performs a process of changing the brightness of the first image to a random brightness value. 前記第一画像は通常光を用いて撮像した通常光画像であり、
前記第二画像は通常光よりも狭帯域の特殊光を用いて撮像した特殊光画像である請求項1に記載の医用画像学習装置。
The first image is a normal light image captured by using normal light.
The medical image learning device according to claim 1, wherein the second image is a special light image captured by using special light having a narrower band than normal light.
前記画像処理部は、前記通常光画像に対して、Bチャネル成分を抑制する処理を施す請求項5に記載の医用画像学習装置。 The medical image learning device according to claim 5, wherein the image processing unit performs a process of suppressing a B channel component on the normal optical image. 前記画像処理部は、前記通常光画像に対して、Rチャネル成分及びGチャネル成分の少なくともいずれか一方を強調する処理を施す請求項5に記載の医用画像学習装置。 The medical image learning apparatus according to claim 5, wherein the image processing unit performs a process of emphasizing at least one of an R channel component and a G channel component on the normal optical image. 前記画像処理部は、前記通常光画像に対して、Rチャネル成分を抑制する処理を施す請求項5に記載の医用画像学習装置。 The medical image learning device according to claim 5, wherein the image processing unit performs a process of suppressing an R channel component on the normal optical image. 前記画像処理部は、前記通常光画像に対して、Bチャネル成分及びGチャネル成分を強調する処理を施す請求項5に記載の医用画像学習装置。 The medical image learning apparatus according to claim 5, wherein the image processing unit performs a process of emphasizing a B channel component and a G channel component on the normal optical image. 前記画像処理部は、前記第一画像の処理対象帯域における空間周波数の規定の周波数成分を抑制する処理、又は前記第一画像の処理対象帯域における空間周波数の規定の周波数成分を強調する処理を施す請求項1に記載の医用画像学習装置。 The image processing unit performs a process of suppressing a specified frequency component of the spatial frequency in the processing target band of the first image, or a process of emphasizing the specified frequency component of the spatial frequency in the processing target band of the first image. The medical image learning device according to claim 1. 前記第一画像は通常光を用いて撮像した通常光画像であり、
前記第二画像は通常光よりも狭帯域の特殊光を用いて撮像した特殊光画像であり、
前記画像処理部は、前記通常光画像のBチャネル成分の高周波成分を強調する処理を施す請求項10に記載の医用画像学習装置。
The first image is a normal light image captured by using normal light.
The second image is a special light image taken by using special light having a narrower band than normal light.
The medical image learning apparatus according to claim 10, wherein the image processing unit performs a process of emphasizing a high frequency component of a B channel component of the normal optical image.
前記学習部は、前記第一画像群の学習と前記第二画像群の学習との学習方法を切り替える請求項1から11のいずれか一項に記載の医用画像学習装置。 The medical image learning device according to any one of claims 1 to 11, wherein the learning unit switches a learning method between learning of the first image group and learning of the second image group. 前記学習部は、前記第二画像群の学習と前記第三画像群の学習との学習方法を切り替える請求項1から11のいずれか一項に記載の医用画像学習装置。 The medical image learning device according to any one of claims 1 to 11, wherein the learning unit switches a learning method between learning of the second image group and learning of the third image group. 前記学習部は、学習における前記第三画像の影響を抑制又は強調する学習方法を適用する請求項12又は13に記載の医用画像学習装置。 The medical image learning device according to claim 12 or 13, wherein the learning unit applies a learning method that suppresses or emphasizes the influence of the third image on learning. 前記学習部は、前記第一画像群、前記第三画像群、前記第一画像群の正解データ、及び前記第三画像群の正解データを用いた学習済の認識器、又は前記第三画像群及び前記第三画像群の正解データを用いた学習済の認識器に対して、前記第二画像群及び前記第二画像群の正解データを用いた学習を実施する請求項12又は13に記載の医用画像学習装置。 The learning unit is a recognizer that has been trained using the first image group, the third image group, the correct answer data of the first image group, and the correct answer data of the third image group, or the third image group. The invention according to claim 12 or 13, wherein the trained recognizer using the correct answer data of the third image group is trained using the correct answer data of the second image group and the second image group. Medical image learning device. 互いに分光分布が異なる第一画像及び第二画像を取得する画像取得工程と、
前記第一画像に画像処理を施して第三画像を生成する画像処理工程と、
複数の前記第一画像を含む第一画像群、複数の前記第二画像を含む第二画像群、及び複数の前記第三画像を含む第三画像群、並びに前記第一画像群、前記第二画像群、及び前記第三画像群のそれぞれの正解データを用いて、自動認識に適用する認識器を学習させる学習工程と、
を含み、
前記画像処理工程は、前記第一画像の分光分布に含まれる帯域のうち前記第二画像の対応する帯域と特性が異なる帯域の信号を抑制する画像処理、及び前記第一画像に含まれる帯域のうち前記第二画像の対応する帯域と特性が同一の帯域の信号又は類似する帯域の信号を強調する画像処理の少なくともいずれかを施して、前記第一画像から前記第三画像を生成する医用画像学習方法。
An image acquisition process for acquiring a first image and a second image having different spectral distributions from each other,
An image processing step of performing image processing on the first image to generate a third image, and
A first image group including the plurality of the first images, a second image group including the plurality of the second images, a third image group including the plurality of the third images, and the first image group and the second image. A learning process for learning a recognizer to be applied to automatic recognition using the correct answer data of each of the image group and the third image group.
Including
The image processing step includes image processing that suppresses signals in a band having characteristics different from the corresponding band of the second image among the bands included in the spectral distribution of the first image, and the band included in the first image. A medical image that generates the third image from the first image by performing at least one of image processing that emphasizes a signal in a band having the same characteristics as the corresponding band of the second image or a signal in a similar band. Learning method.
コンピュータに、
互いに分光分布が異なる第一画像及び第二画像を取得する画像取得機能、
前記第一画像に画像処理を施して第三画像を生成する画像処理機能、及び
複数の前記第一画像を含む第一画像群、複数の前記第二画像を含む第二画像群、及び複数の前記第三画像を含む第三画像群、並びに前記第一画像群、前記第二画像群、及び前記第三画像群のそれぞれの正解データを用いて、自動認識に適用する認識器を学習させる学習機能を実現させるプログラムであって、
前記画像処理機能は、前記第一画像の分光分布に含まれる帯域のうち前記第二画像の対応する帯域と特性が異なる帯域の信号を抑制する画像処理、及び前記第一画像に含まれる帯域のうち前記第二画像の対応する帯域と特性が同一の帯域の信号又は類似する帯域の信号を強調する画像処理の少なくともいずれかを施して、前記第一画像から前記第三画像を生成するプログラム。
On the computer
Image acquisition function to acquire the first image and the second image whose spectral distributions are different from each other,
An image processing function that performs image processing on the first image to generate a third image, a first image group including the plurality of the first images, a second image group including the plurality of the second images, and a plurality of. Learning to learn a recognizer to be applied to automatic recognition by using the correct answer data of each of the third image group including the third image, the first image group, the second image group, and the third image group. It is a program that realizes the function
The image processing function includes image processing that suppresses signals in a band having characteristics different from the corresponding band of the second image among the bands included in the spectral distribution of the first image, and a band included in the first image. A program that generates the third image from the first image by performing at least one of image processing that emphasizes a signal in a band having the same characteristics as the corresponding band of the second image or a signal in a similar band.
非一時的かつコンピュータ読取可能な記憶媒体であって、前記記憶媒体に格納された指令がコンピュータによって読み取られた場合に、
互いに分光分布が異なる第一画像及び第二画像を取得する画像取得機能と、
前記第一画像に画像処理を施して第三画像を生成する画像処理機能と、
複数の前記第一画像を含む第一画像群、複数の前記第二画像を含む第二画像群、及び複数の前記第三画像を含む第三画像群、並びに前記第一画像群、前記第二画像群、及び前記第三画像群のそれぞれの正解データを用いて、自動認識に適用する認識器を学習させる学習機能と、を含み、
前記画像処理機能は、前記第一画像の分光分布に含まれる帯域のうち前記第二画像の対応する帯域と特性が異なる帯域の信号を抑制する画像処理、及び前記第一画像に含まれる帯域のうち前記第二画像の対応する帯域と特性が同一の帯域の信号又は類似する帯域の信号を強調する画像処理の少なくともいずれかを施して、前記第一画像から前記第三画像を生成する、画像学習機能をコンピュータに実行させる記憶媒体。
A non-temporary, computer-readable storage medium when the instructions stored in the storage medium are read by a computer.
An image acquisition function that acquires the first and second images with different spectral distributions from each other,
An image processing function that performs image processing on the first image to generate a third image,
A first image group including the plurality of the first images, a second image group including the plurality of the second images, a third image group including the plurality of the third images, and the first image group and the second image. It includes a learning function for learning a recognizer to be applied to automatic recognition using the correct answer data of each of the image group and the third image group.
The image processing function includes image processing that suppresses signals in a band having characteristics different from the corresponding band of the second image among the bands included in the spectral distribution of the first image, and a band included in the first image. An image in which the third image is generated from the first image by performing at least one of image processing for emphasizing a signal in a band having the same characteristics as the corresponding band of the second image or a signal in a similar band. A storage medium that causes a computer to perform learning functions.
JP2020530944A 2018-07-20 2019-06-17 Medical image learning device, medical image learning method, and program Active JP6931425B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018136922 2018-07-20
JP2018136922 2018-07-20
PCT/JP2019/023882 WO2020017211A1 (en) 2018-07-20 2019-06-17 Medical image learning device, medical image learning method, and program

Publications (2)

Publication Number Publication Date
JPWO2020017211A1 JPWO2020017211A1 (en) 2021-08-02
JP6931425B2 true JP6931425B2 (en) 2021-09-01

Family

ID=69164325

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020530944A Active JP6931425B2 (en) 2018-07-20 2019-06-17 Medical image learning device, medical image learning method, and program

Country Status (2)

Country Link
JP (1) JP6931425B2 (en)
WO (1) WO2020017211A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023113500A1 (en) * 2021-12-17 2023-06-22 가천대학교 산학협력단 System and method for predicting depth image for medical image

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8903167B2 (en) * 2011-05-12 2014-12-02 Microsoft Corporation Synthesizing training samples for object recognition
WO2016208016A1 (en) * 2015-06-24 2016-12-29 オリンパス株式会社 Image-processing device, image-processing method, and image-processing program
JP6807869B2 (en) * 2015-12-24 2021-01-06 オリンパス株式会社 Image processing equipment, image processing methods and programs
JP6656357B2 (en) * 2016-04-04 2020-03-04 オリンパス株式会社 Learning method, image recognition device and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023113500A1 (en) * 2021-12-17 2023-06-22 가천대학교 산학협력단 System and method for predicting depth image for medical image

Also Published As

Publication number Publication date
JPWO2020017211A1 (en) 2021-08-02
WO2020017211A1 (en) 2020-01-23

Similar Documents

Publication Publication Date Title
JP6890184B2 (en) Medical image processing equipment and medical image processing program
JP7346285B2 (en) Medical image processing device, endoscope system, operating method and program for medical image processing device
WO2013005533A1 (en) Endoscope system, endoscope system processor and image display method
WO2019198637A1 (en) Image processing device, endoscope system, and image processing method
JP7005767B2 (en) Endoscopic image recognition device, endoscopic image learning device, endoscopic image learning method and program
WO2020012872A1 (en) Medical image processing device, medical image processing system, medical image processing method, and program
JP2011217798A (en) Electronic endoscope system
JP7308258B2 (en) Medical imaging device and method of operating medical imaging device
US11948080B2 (en) Image processing method and image processing apparatus
JP7387859B2 (en) Medical image processing device, processor device, endoscope system, operating method and program for medical image processing device
JP7526449B2 (en) Method for generating trained model, method for training endoscopic images, and program
JPWO2020174747A1 (en) Medical image processing equipment, processor equipment, endoscopic systems, medical image processing methods, and programs
WO2021145265A1 (en) Medical image processing device, endoscope system, diagnosis assistance method, and program
WO2020162275A1 (en) Medical image processing device, endoscope system, and medical image processing method
CN111670000A (en) Imaging device, imaging method, and program
CN105007801B (en) Image processing apparatus and the method for work of endoscopic system
CN113453607B (en) Medical image processing apparatus and method
WO2020054255A1 (en) Endoscope device, endoscope processor, and endoscope device operation method
JP6931425B2 (en) Medical image learning device, medical image learning method, and program
WO2019138772A1 (en) Image processing apparatus, processor apparatus, image processing method, and program
CN115245312A (en) Endoscope multispectral image processing system and processing and training method
JP7289241B2 (en) Filing device, filing method and program
CN116234487A (en) Medical image processing device, medical image processing method, endoscope system, and medical image processing program
US20190253675A1 (en) Image processing apparatus, image processing method, and computer readable recording medium
WO2022049901A1 (en) Learning device, learning method, image processing apparatus, endocope system, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210813

R150 Certificate of patent or registration of utility model

Ref document number: 6931425

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250