[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2024509105A - Turpの病理画像から前立腺癌を検出するための人工ニューラルネットワークを学習する方法、及びこれを行うコンピューティングシステム - Google Patents

Turpの病理画像から前立腺癌を検出するための人工ニューラルネットワークを学習する方法、及びこれを行うコンピューティングシステム Download PDF

Info

Publication number
JP2024509105A
JP2024509105A JP2023551750A JP2023551750A JP2024509105A JP 2024509105 A JP2024509105 A JP 2024509105A JP 2023551750 A JP2023551750 A JP 2023551750A JP 2023551750 A JP2023551750 A JP 2023551750A JP 2024509105 A JP2024509105 A JP 2024509105A
Authority
JP
Japan
Prior art keywords
neural network
pathological
turp
learning
artificial neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023551750A
Other languages
English (en)
Inventor
ジュニョン チョ
ヘヨン チャン
テヨン カク
ソンウ キム
Original Assignee
ディープ バイオ インク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ディープ バイオ インク filed Critical ディープ バイオ インク
Publication of JP2024509105A publication Critical patent/JP2024509105A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30081Prostate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)
  • Business, Economics & Management (AREA)
  • Image Processing (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Reproductive Health (AREA)

Abstract

TURPの病理画像に特徴的に現れる組織形態を考慮して、TURPの病理画像内の前立腺癌病変を効果的に検出できる人工ニューラルネットワークを学習する方法、及びこれを行うコンピューティングシステムが開示される。 本発明の一態様によると、ニューラルネットワーク学習システムが、複数の一次学習用病理画像を取得するステップ(ここで、前記複数の一次学習用病理画像のそれぞれは、前立腺針生検の病理画像、又は前立腺切除術の病理画像である)と、前記ニューラルネットワーク学習システムが、前記複数の一次学習用病理画像を用いて、前立腺癌判定用人工ニューラルネットワークを一次学習するステップ(前記前立腺癌判定用人工ニューラルネットワークは、病理画像から前立腺癌を検出するための人工ニューラルネットワークである)と、前記ニューラルネットワーク学習システムが、複数のTURPの病理画像を取得するステップと、前記ニューラルネットワーク学習システムが、前記複数のTURPの病理画像を用いて、一次学習された前記人工ニューラルネットワークを二次学習するステップと、を含み、前記複数のTURPの病理画像のそれぞれは、非前立腺組織領域又は焼灼された前立腺組織領域の少なくとも一方を必ず含み、前立腺癌の病変領域は全く含んでいないことを特徴とする、TURPの病理画像から前立腺癌を検出するための人工ニューラルネットワークを学習する方法が提供される。

Description

本発明は、TURPの病理画像から前立腺癌を検出するための人工ニューラルネットワークを学習する(training)方法、及びこれを行うコンピューティングシステムに関する。より詳しくは、TURPの病理画像に特徴的に現れる組織形態を考慮して、TURPの病理画像内の前立腺癌病変を効果的に検出できる人工ニューラルネットワークを学習する方法、及びこれを行うコンピューティングシステムに関する。
病理学又は病理科で行う主なタスクの1つは、患者の生体組織のスライド画像を読み取り、特定疾患に対する状態又は徴候を判定する診断を行うことである。従来の病理診断方法は、検体から製作された診断用病理スライド画像を光学顕微鏡を介して病理専門医が目視で観察及び読取する方式でなされていた。コンピュータに接続された顕微鏡カメラを活用して病理スライドをデジタル画像に変換した後、モニターで観察して読み取る方式がデジタル病理学の始まりといえる。最近、デジタルスライドスキャナが登場し、病理スライド全体を1つのデジタル画像に変換して病理スライド画像で製作した後、これをコンピュータモニターを介して観察して読み取る方式が広く普及されている。
最近、機械学習(machine learning)の発達により、画像を認識又は分類するなどのタスクをコンピューティングシステムによって自動化しようとする試みが盛んに行われている。特に、機械学習の一種であるニューラルネットワーク(例えば、畳み込みニューラルネットワーク(Convolution Neural Network;CNN)を用いたディープラーニング方式)を用いて、熟練した医療関係者が行っていた診断を自動化するための試みがなされている。特に、ニューラルネットワーク(例えば、CNN)を用いたディープラーニングによる診断は、従来の熟練した医療関係者の経験と知識を単に自動化するのではなく、自ら学習を通じて特徴的な要素を見つけて所望の解答を導き出すという点において、むしろ熟練した医療関係者が知らない疾患因子の特徴を画像から見つける場合もある。
一般に、生体画像を用いるニューラルネットワークを介した疾患の診断は、生体画像(例えば、生体組織のスライド画像)の断片、すなわちパッチ(patch;タイル(tile)ともいう)を用いる。すなわち、該当パッチに対して熟練した医療関係者は、特定疾患の状態(例えば、癌の発現有無)をアノテーション(annotation)し、このようなアノテーションされた複数のパッチをトレーニングデータとして用いてニューラルネットワークを学習することになる。このとき、ニューラルネットワークとして畳み込みニューラルネットワークを用いることができる。
一方、前立腺肥大症などの良性疾患の治療のために経尿道的前立腺切除術(transurethral resection of prostate;TURP)を施術する場合が多く、TURPの施術時に採取された検体に対して前立腺癌の有無を病理的に判別することが必要である。
TURPの病理画像から前立腺癌を検出する機械学習モデルを訓練するために、前立腺癌の病変領域がアノテーションされたTURPの病理画像データのみを用いることは非常に困難であり、その理由は以下の通りである。
第一に、TURPの病理画像の規模が非常に大きい。患者毎に平均N個(Nは2以上の整数)の2cm×3cmガラススライドが製作され、これを400倍率にスキャンしてデジタル画像にすることで、N×80,000×120,000画素サイズの画像が製作される。第二に、TURPの病理画像内の前立腺癌の病変領域のサイズは非常に小さい。TURP施術患者で前立腺癌が発見される割合は20%未満であり、前立腺癌が発見された場合でも、病理画像1つの局所領域でのみ発見される場合がほとんどである。すなわち、学習データのサイズと容量は非常に膨大である一方、全体組織に対する前立腺癌で標識される領域の割合が非常に小さいため、TURPの病理画像データだけで感度が十分に高い機械学習モデルを訓練するためには、非常に多くのデータが必要であるという問題が発生する可能性がある。
また、TURPの病理画像から前立腺癌を検出する機械学習モデルを訓練するために、前立腺癌の病変領域がアノテーションされた前立腺針生検(prostate needle biopsy)又は前立腺切除術(radical prostatectomy)により採取された検体病理画像データを用いることは、以下のような理由で問題があり得る。TURPの特性上、前立腺ではなく組織(膀胱、尿路上皮など)又は焼灼された(cauterized)前立腺組織が存在し、これは前立腺針生検又は切除術の検体では現れなくなる。よって、前立腺針生検(prostate needle biopsy)又は前立腺切除術(radical prostatectomy)により採取された検体病理画像データを用いてTURPの病理画像から前立腺癌を検出する機械学習モデルを訓練する場合、前立腺ではなく組織(膀胱、尿路上皮など)又は焼灼された(cauterized)前立腺組織を癌と誤診するという問題が発生し得る。
本発明が達成しようとする技術的な課題は、上記の問題を解決し、TURPの病理画像において前立腺癌を高性能で検出できる機械学習モデルを訓練する方法を提供することである。より詳しくは、TURPの病理画像に特徴的に現れる組織形態を考慮して、TURPの病理画像内の前立腺癌病変を効果的に検出できる機械学習モデルを訓練する効率的な方法を提供することである。
本発明の一態様によると、ニューラルネットワーク学習システムが、複数の一次学習用病理画像を取得するステップ(ここで、前記複数の一次学習用病理画像のそれぞれは、前立腺針生検(prostate needle biopsy)により採取された病理検体のスライドをスキャンした画像である前立腺針生検の病理画像、又は前立腺切除術(radical prostatectomy)により採取された病理検体のスライドをスキャンした画像である前立腺切除術の病理画像のいずれか一方である)と、前記ニューラルネットワーク学習システムが、前記複数の一次学習用病理画像を用いて、前立腺癌判定用人工ニューラルネットワークを一次学習するステップ(前記前立腺癌判定用人工ニューラルネットワークは、病理画像から前立腺癌を検出するための人工ニューラルネットワークである)と、前記ニューラルネットワーク学習システムが、経尿道的前立腺切除術(transurethral resection of prostate;TURP)により採取された病理検体のスライドをスキャンした画像である複数のTURPの病理画像を取得するステップと、前記ニューラルネットワーク学習システムが、前記複数のTURPの病理画像を用いて、一次学習された前記人工ニューラルネットワークを二次学習するステップと、を含み、前記複数のTURPの病理画像のそれぞれは、非前立腺組織領域又は焼灼された(cauterized)前立腺組織領域の少なくとも一方を必ず含み、前立腺癌の病変領域は全く含んでいないことを特徴とする、TURPの病理画像から前立腺癌を検出するための人工ニューラルネットワークを学習する方法が提供される。
一実施形態において、前記人工ニューラルネットワークは、U-Net、DeepLabv3+、Mask R-CNN、DenseNetのいずれかであることを特徴とすることができる。
本発明の他の態様によると、前記人工ニューラルネットワークを学習する方法によって学習された人工ニューラルネットワークを介して、所定の判定対象TURPの病理画像に対する判定結果を提供する方法であって、コンピューティングシステムが、前記判定対象TURPの病理画像を取得するステップと、前記コンピューティングシステムが、前記人工ニューラルネットワークが前記判定対象TURPの病理画像に基づいて判定した前立腺癌検出結果を出力するステップと、を含む方法が提供される。
本発明の他の態様によると、データ処理装置に設置され、上述の方法を行うための媒体に記録されたコンピュータプログラムが提供される。
本発明の他の態様によると、上述の方法を行うためのコンピュータプログラムが記録されたコンピュータ読み取り可能な記録媒体が提供される。
本発明の他の態様によると、ニューラルネットワーク学習システムであって、プロセッサ、及びコンピュータプログラムを記憶するメモリを含み、前記コンピュータプログラムは、前記プロセッサによって実行される場合、前記ニューラルネットワーク学習システムが、上述した人工ニューラルネットワークを学習する方法を行うようにするニューラルネットワーク学習システムが提供される。
本発明の他の態様によると、所定の判定対象TURPの病理画像に対する判定結果を提供するコンピューティングシステムであって、プロセッサ、及びコンピュータプログラムを記憶するメモリを含み、前記コンピュータプログラムは、前記プロセッサによって実行される場合、前記コンピューティングシステムが、上述した人工ニューラルネットワーク学習方法によって学習された人工ニューラルネットワークを介して、前記判定対象TURPの病理画像に対する判定結果を提供する方法を行うようにするコンピューティングシステムが提供される。
本発明の他の態様によると、ニューラルネットワーク学習システムが、前立腺針生検(prostate needle biopsy)により採取された病理検体のスライドをスキャンした画像である複数の前立腺針生検の病理画像を取得するステップと、前記ニューラルネットワーク学習システムが、前立腺切除術(radical prostatectomy)により採取された病理検体のスライドをスキャンした画像である複数の前立腺切除術の病理画像を取得するステップと、前記ニューラルネットワーク学習システムが、前記複数の前立腺針生検の病理画像及び前記複数の前立腺切除術の病理画像を用いて、前立腺癌判定用人工ニューラルネットワークを一次学習するステップ(前記前立腺癌判定用人工ニューラルネットワークは、病理画像から前立腺癌を検出するための人工ニューラルネットワークである)と、前記ニューラルネットワーク学習システムが、経尿道的前立腺切除術(transurethral resection of prostate;TURP)により採取された病理検体のスライドをスキャンした画像である複数のTURPの病理画像を取得するステップと、前記ニューラルネットワーク学習システムが、前記複数のTURPの病理画像を用いて、一次学習された前記人工ニューラルネットワークを二次学習するステップと、を含み、前記複数のTURPの病理画像は、非前立腺組織領域又は焼灼された(cauterized)前立腺組織領域の少なくとも一方を必ず含み、前立腺癌の病変領域は全く含んでいないことを特徴とする、TURPの病理画像から前立腺癌を検出するための人工ニューラルネットワークを学習する方法が提供される。
本発明の技術的思想によると、TURPの病理画像に特徴的に現れる組織形態を考慮して、TURPの病理画像内の前立腺癌病変を効果的に検出できる機械学習モデルを訓練する効率的な方法及びシステムを提供することができる。
本発明の詳細な説明で引用される図面をより十分に理解するために各図面の簡単な説明が提供される。
本発明の技術的思想による人工ニューラルネットワーク学習方法、及び病理検体に対する判定結果の提供方法が行われる環境を概略的に示す図である。 本発明の一実施形態によるニューラルネットワーク学習方法を説明するためのフローチャートである。 前立腺針生検の検体の病理画像の一例である。 焼灼された前立腺組織領域が含まれた例である。 焼灼された前立腺組織領域を拡大した図である。 非前立腺組織領域が含まれた例である。 非前立腺組織領域を拡大した図である。 本発明の一実施形態による判定結果の提供方法の一例を示す図である。 本発明の一実施形態による人工ニューラルネットワーク学習システムの概略的な構成を示す図である。 発明の一実施形態による判定結果提供システムの概略的な構成を示す図である。
本発明は、様々な変換を加えることができ、様々な実施形態を有することができるので、特定の実施形態を図面に示し、詳細に説明する。しかしながら、これは本発明を特定の実施形態に限定することを意図するものではなく、本発明の精神および技術的範囲に含まれるすべての変換、等価物から代替物を含むことを理解されたい。本発明の説明において、関連する公知技術の具体的な説明が本発明の要旨を不明瞭にすると判定される場合、その詳細な説明は省略する。
第1、第2などの用語は様々な構成要素を説明するために使用することができるが、構成要素はその用語によって限定されるべきではない。第1、第2などの用語は特別な順序を表すものではなく、ある構成要素を他の構成要素から区別する目的でのみ使用される。
本出願で使用される用語は、単に特定の実施形態を説明するために使用されたものであり、本発明を限定することを意図していない。単数の表現は、文脈上明らかに他に意味がない限り、複数の表現を含む。
本明細書において、「含む」または「有する」などの用語は、本明細書に記載の特徴、数字、ステップ、動作、構成要素、部品、またはそれらを組み合わせたものが存在することを指定するものであり、1つまたは複数の他の特徴、数、ステップ、動作、構成要素、部品、またはそれらを組み合わせたものの存在または追加の可能性を事前に除外しないことを理解されたい。
また、本明細書において、ある構成要素が他の構成要素にデータを「伝送」する場合、構成要素は、他の構成要素に直接データを伝送することもでき、少なくとも1つの別の構成要素を介して、データを他の構成要素に伝送することもできることを意味する。逆に、ある構成要素が他の構成要素にデータを「直接伝送」する場合、構成要素はまた他の構成要素を介さずに他の構成要素にデータを伝送することを意味する。
以下、添付の図面を参照して本発明の実施形態を中心に本発明を詳細に説明する。各図に示されている同じ参照符号は同じ部材を示す。
図1は、本発明の技術的思想による人工ニューラルネットワーク学習方法、及び病理検体に対する判定結果の提供方法が行われる環境を概略的に示す図である。
図1を参照すると、本発明の一実施形態による人工ニューラルネットワーク学習方法は、ニューラルネットワーク学習システム100によって行うことができ、本発明の一実施形態による病理検体に対する判定結果の提供方法は、病理検体に対する判定結果提供システム200(以下、「判定結果提供システム」という)によって行うことができる。
人工ニューラルネットワーク学習システム100は、人工ニューラルネットワーク300を学習することができる。人工ニューラルネットワーク300は、経尿道的前立腺切除術により採取された病理検体に対する診断情報を提供するためのニューラルネットワークであってもよい。病理検体は、人体の様々な臓器で採取した生検及び手術によって切除された生体組織であってもよい。
特に、人工ニューラルネットワーク300は、TURPの病理画像を入力し、入力されたTURPの病理画像から前立腺癌を検出するための人工ニューラルネットワークであってもよい。判定結果提供システム200は、学習された人工ニューラルネットワーク300を用いてTURPの病理画像から前立腺癌に対する検出有無を判定することができる。本明細書において、TURPの病理画像は、経尿道的前立腺切除術(TURP)により採取された病理検体のスライドをスキャンした画像又はその一部を意味し得る。TURPの病理画像は、病理スライドをスキャンした全体スライド画像(Whole Slide Image)を意味し、実施形態によっては、TURPの病理画像全体スライド画像を所定の単位サイズに分割したパッチ又はタイルを意味し得る。
一実施形態において、ニューラルネットワーク300は、前立腺癌の発現有無に対する確率値を出力するように学習された機械学習モデルであってもよい。ニューラルネットワーク300は、入力層を介して入力されたデータに基づいて、対象検体に対する判定結果(例えば、疾患の発現有無の可能性)を示す数値、すなわち確率値を出力することができる。
一実施形態において、人工ニューラルネットワーク300は、全体スライド画像を入力し、前立腺癌による病変の有無を判定するか又は病変領域を検出する機械学習モデルであってもよく、実施形態によっては、スライド画像のパッチを入力し、該当パッチに前立腺癌による病変の有無又は病変領域を判定する機械学習モデルであってもよい。
本明細書において、人工ニューラルネットワークは、人間のニューロンの動作原理に基づいて人工的に構築したニューラルネットワークであり、多層パーセプトロンモデルを含み、人工ニューラルネットワークを定義する一連の設計事項を表現する情報の集合を意味し得る。
一実施形態において、人工ニューラルネットワーク300は、画像分析に主に活用される畳み込みニューラルネットワークであるか、又は畳み込みニューラルネットワークを含んでもよい。特に、領域分割に効果的であると知られたU-Net(Ronneberger2015)やDeepLabv3+(Chen2018)、Mask R-CNN(He2017)などが用いられてもよく、画素単位の微細な領域検出機能が不要な場合には、小さなサイズのパッチ画像単位で前立腺癌の有無を判別するように学習されたResNet(He2016)やDenseNet(Huang2017)などの分類モデルが活用されてもよい。
ニューラルネットワーク学習システム100及び/又は判定結果提供システム200は、本発明の技術的思想を実現するための演算能力を有するデータ処理装置であるコンピューティングシステムであってもよく、一般に、ネットワークを介してクライアントが接続可能なデータ処理装置であるサーバだけでなく、パーソナルコンピュータや携帯端末などのコンピューティタ装置を含んでもよい。
ニューラルネットワーク学習システム100及び/又は判定結果提供システム200は、いずれかの物理装置で実現されてもよいが、必要に応じて複数の物理装置が有機的に結合されて本発明の技術的思想によるニューラルネットワーク学習システム100及び/又は判定結果提供システム200を実現できることを、本発明の技術分野の平均的な専門家であれば容易に推論することができるであろう。
ニューラルネットワーク学習システム100は、複数の病理検体から生成された学習データに基づいて人工ニューラルネットワーク300を学習することができる。ニューラルネットワーク学習システム100は、病理検体のスライドをスキャンした画像又はスキャンしたスライド画像の一部(すなわち、パッチ)を用いて個別学習データを生成し、これをニューラルネットワーク300の入力層に入力してニューラルネットワーク300を学習することができる。このとき、病理検体は、前立腺針生検又は前立腺切除術により採取された検体、又はTURP施術により採取された検体であってもよい。
一方、学習されたニューラルネットワーク300は、判定結果提供システム200に記憶されてもよく、判定結果提供システム200は、学習された人工ニューラルネットワークを用いて所定の診断対象TURP検体に対する判定を行うことができる。
図1に示すように、ニューラルネットワーク学習システム100及び/又は判定結果提供システム200は、所定の親システム10のサブシステムの形態で実現されてもよい。親システム10はサーバであってもよい。サーバ10は、本発明の技術的思想を実現するための演算能力を有するデータ処理装置を意味し、一般に、ネットワークを介してクライアントが接続可能なデータ処理装置だけでなく、パーソナルコンピュータ、携帯端末などのように特定サービスを行うことができるいかなる装置もサーバとして定義できることを、本発明の技術分野の平均的な専門家であれば容易に推論することができるであろう。
或いは、実施形態によって、ニューラルネットワーク学習システム100及び判定結果提供システム200は、互いに分離した形態で実現されてもよい。
図2は、本発明の一実施形態によるニューラルネットワーク学習方法を説明するためのフローチャートである。図2の学習方法によって人工ニューラルネットワーク300が学習されてもよく、前述のように、人工ニューラルネットワーク300は、病理画像から前立腺癌を検出するための人工ニューラルネットワークである。
人工ニューラルネットワーク300は、TURPの病理画像で前立腺癌に対する診断を行うニューラルネットワークであるが、人工ニューラルネットワーク300を学習する過程では、TURPの病理画像だけでなく、前立腺針生検又は前立腺切除術により採取された検体の画像を用いることができる。
図2を参照すると、ニューラルネットワーク学習システム100は、複数の一次学習用病理画像を取得することができる(S100)。ここで、複数の一次学習用病理画像のそれぞれは、前立腺針生検(prostate needle biopsy)により採取された病理検体のスライドをスキャンした画像である前立腺針生検の病理画像、又は前立腺切除術(radical prostatectomy)により採取された病理検体のスライドをスキャンした画像である前立腺切除術の病理画像のいずれか一方であってもよい。
一方、複数の一次学習用病理画像のそれぞれには、前立腺癌による病変が予めアノテーションされていてもよく、アノテーションされた情報を学習データのラベルとして用いてもよい。
前立腺針生検は、前立腺の生体組織を針(ニードル)によって採取する方法を意味する。前立腺針生検の検体の病理画像の一例が図3に示されている。
ニューラルネットワーク学習システム100は、複数の一次学習用病理画像を用いて、人工ニューラルネットワーク300を一次学習することができる(S110)。
アノテーションされた前立腺針生検の病理画像又はアノテーションされた前立腺切除術の病理画像は、比較的容易に採取することができるため、ニューラルネットワーク学習方法では、容易に採取可能なアノテーションされた前立腺針生検の病理画像又はアノテーションされた前立腺切除術の病理画像により人工ニューラルネットワーク300を一次学習する。複数の一次学習用病理画像のうち一定比率以上を前立腺癌による病変領域を含む画像として構成してもよく、このようにすることで、人工ニューラルネットワーク300の感度を一定レベル以上に高めることができる。
一方、TURPの病理画像の場合、TURP施術の特性上、前立腺ではなく組織(膀胱、尿路上皮など)の領域又は焼灼された前立腺組織領域が存在し、これは前立腺針生検の検体又は切除術の検体では現れない。よって、一次学習された人工ニューラルネットワーク300のTURPの病理画像に対する特異性を高めるために、以下のような過程をさらに行わなければならない。
また、図2を参照すると、ニューラルネットワーク学習システム100は、経尿道的前立腺切除術により採取された病理検体のスライドをスキャンした画像である複数のTURPの病理画像を取得することができる(S120)。
このとき、二次学習に用いられる複数のTURPの病理画像のそれぞれは、非前立腺組織領域又は焼灼された(cauterized)前立腺組織領域の少なくとも一方を必ず含み、前立腺癌の病変領域は全く含んではならない。図4a及び図5aは、それぞれ二次学習に用いられるTURPの病理画像の例を示す図である。図4aは、焼灼された前立腺組織領域が含まれた例であり、図4bは、焼灼された前立腺組織領域を拡大した図である。図5aは、非前立腺組織領域が含まれた例であり、図5bは、非前立腺組織領域を拡大した図である。
一実施形態において、二次学習に用いられる複数のTURPの病理画像のうちの一部は、非前立腺組織領域を含むが、前立腺癌の病変領域は全く含んでいない画像であり、残りの一部は、焼灼された前立腺組織領域を含むが、前立腺癌の病変領域は全く含んでいない画像であってもよい。
このように、二次学習に用いられる複数のTURPの病理画像は、いずれも前立腺癌の病変領域が全く含まれてはならないため、二次学習に用いられる複数のTURPの病理画像は、一括して正常(benign)とラベル付けすることができ、別の病変領域に対するアノテーションが不要な学習データである。
その後、ニューラルネットワーク学習システム100は、複数のTURPの病理画像を用いて、一次学習された人工ニューラルネットワーク300を二次学習することができる(S130)。
図6は、本発明の一実施形態による判定結果の提供方法の一例を示す図である。
図6を参照すると、判定結果提供システム200は、所定の判定対象TURPの病理画像を取得することができる(S200)。判定対象TURPの病理画像は、経尿道的前立腺切除術(TURP)により採取された所定の判定対象病理検体のスライドをスキャンした画像である。
判定結果提供システム200は、人工ニューラルネットワーク300に判定対象TURPの病理画像を入力し、人工ニューラルネットワーク300が判定対象TURPの病理画像に基づいて判定した前立腺癌検出結果を出力することができる(S210)。
図7は、本発明の一実施形態による人工ニューラルネットワーク学習システム100の概略的な構成を示す図であり、図8は、発明の一実施形態による判定結果提供システム200の概略的な構成を示す図である。
人工ニューラルネットワーク学習システム100及び判定結果提供システム200は、本発明の技術的思想を実現するために必要なハードウェアリソース(resource)及び/又はソフトウェアを備えた論理的な構成を意味し、必ずしも1つの物理的な構成要素又は1つの装置を意味するわけではない。すなわち、人工ニューラルネットワーク学習システム100及び判定結果提供システム200は、本発明の技術的思想を実現するために備えられるハードウェア及び/又はソフトウェアの論理的な結合を意味し、必要に応じては互いに離隔した装置に設置され、それぞれの機能を行うことで本発明の技術的思想を実現するための論理的な構成の集合で実現されてもよい。また、人工ニューラルネットワーク学習システム100及び判定結果提供システム200は、本発明の技術的思想を実現するためのそれぞれの機能又は役割毎に別に実現される構成の集合を意味し得る。人工ニューラルネットワーク学習システム100及び判定結果提供システム200の各構成は、互いに異なる物理装置に位置することもでき、同一の物理装置に位置することもできる。また、実施形態によっては、人工ニューラルネットワーク学習システム100及び判定結果提供システム200の構成要素のそれぞれを構成するソフトウェア及び/又はハードウェアの結合も互いに異なる物理装置に位置し、互いに異なる物理装置に位置した構成が互いに有機的に結合されてそれぞれのモジュールを実現することもできる。
また、本明細書でモジュールとは、本発明の技術的思想を行うためのハードウェア、及びハードウェアを駆動するためのソフトウェアの機能的、構造的結合を意味し得る。例えば、モジュールは、所定のコードと、所定のコードが行われるためのハードウェアリソース(resource)の論理的な単位を意味し、必ずしも物理的に接続されたコードを意味したり、一種類のハードウェアを意味するわけではないことは、本発明の技術分野の平均的な専門家であれば容易に推論することができる。
図7を参照すると、人工ニューラルネットワーク学習システム100は、記憶モジュール110、取得モジュール120、及び学習モジュール130を含んでもよい。本発明の実施形態によっては、上述の構成要素のうちの一部の構成要素は、必ずしも本発明の実現に必須な構成要素に該当しなくてもよく、また実施形態によっては、人工ニューラルネットワーク学習システム100は、これよりも多くの構成要素を含んでもよいことは言うまでもない。例えば、人工ニューラルネットワーク学習システム100は、外部装置と通信するための通信モジュール(図示せず)、人工ニューラルネットワーク学習システム100の構成要素及びリソースを制御するための制御モジュール(図示せず)をさらに含んでもよい。
記憶モジュール110は、学習される人工ニューラルネットワーク300を記憶することができる。
取得モジュール120は、複数の一次学習用病理画像を取得することができ、複数の一次学習用病理画像のそれぞれは、前立腺針生検により採取された病理検体のスライドをスキャンした画像である前立腺針生検の病理画像、又は前立腺切除術により採取された病理検体のスライドをスキャンした画像である前立腺切除術の病理画像のいずれか一方であってもよい。
また取得モジュール120は、経尿道的前立腺切除術により採取された病理検体のスライドをスキャンした画像である複数のTURPの病理画像を取得することができる。このとき、複数のTURPの病理画像のそれぞれは、非前立腺組織領域又は焼灼された(cauterized)前立腺組織領域の少なくとも一方を必ず含み、前立腺癌の病変領域は全く含んでいなくてもよい。
学習モジュール130は、複数の一次学習用病理画像を用いて、前立腺癌判定用人工ニューラルネットワークを一次学習することができ、複数のTURPの病理画像を用いて、一次学習された人工ニューラルネットワークを二次学習することができる。
図8を参照すると、判定結果提供システム200は、記憶モジュール210、取得モジュール220、及び判定モジュール230を含んでもよい。本発明の実施形態によっては、上述の構成要素のうちの一部の構成要素は、必ずしも本発明の実現に必須な構成要素に該当しなくてもよく、また実施形態によって、判定結果提供システム200は、これよりも多くの構成要素を含んでもよいことは言うまでもない。例えば、判定結果提供システム200は、通信モジュール(図示せず)、判定結果提供システム200の構成要素及びリソースを制御するための制御モジュール(図示せず)をさらに含んでもよい。
記憶モジュール210は、学習された人工ニューラルネットワーク300を記憶することができる。
取得モジュール220は、所定の判定対象TURPの病理画像を取得することができる。
判定モジュール230は、判定対象TURPの病理画像を人工ニューラルネットワーク300に入力し、人工ニューラルネットワーク300が判定対象TURPの病理画像に基づいて判定した前立腺癌検出結果を出力することができる。
一方、実施形態によって、人工ニューラルネットワーク学習システム100及び判定結果提供システム200は、プロセッサ、及びプロセッサによって実行されるプログラムを記憶するメモリを含んでもよい。プロセッサは、シングルコアCPU又はマルチコアCPUを含んでもよい。メモリは、高速ランダムアクセスメモリを含んでもよく、1つ以上の磁気ディスク記憶装置、フラッシュメモリ装置、又はその他不揮発性固体状態メモリ装置のような不揮発性メモリを含んでもよい。プロセッサ、及びその他構成要素によるメモリへのアクセスは、メモリコントローラによって制御することができる。
一方、本発明の実施形態による方法は、コンピュータ読み取り可能なプログラム命令形態で実現され、コンピュータで読み取り可能な記録媒体に記憶されてもよく、本発明の実施形態による制御プログラム及び対象プログラムもコンピュータで読み取り可能な記録媒体に記憶されてもよい。コンピュータ読み取り可能な記録媒体は、コンピューティングシステムによって読み取り可能なデータが記憶されるあらゆる種類の記録装置を含む。
記録媒体に記録されるプログラム命令は、本発明のために特別に設計及び構成されたものであってもよく、ソフトウェア分野の当業者に公知として使用可能なものであってもよい。
コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピーディスク及び磁気テープのような磁気媒体(magnetic media)、CD-ROM、DVDのような光記録媒体(optical media)、フロプティカルディスク(floptical disk)のような磁気-光媒体(magneto-optical media)及びROM、RAM、フラッシュメモリなどのようなプログラム命令を記憶して実行するために特別に構成されたハードウェア装置が含まれる。またコンピュータ読み取り可能な記録媒体は、ネットワークで接続されたコンピューティングシステムに分散され、分散方式でコンピュータ読み取り可能なコードを記憶して実行することができる。
プログラム命令の例としては、コンパイラによって作成される機械語コードだけでなく、インタプリタなどを用いて電子的に情報を処理する装置、例えば、コンピュータによって実行することができる高級言語コードを含む。
上述のハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェアモジュールとして作動するように構成されてもよく、その逆も同様である。
上述した本発明の説明は例示のためのものであり、本発明が属する技術分野の通常の知識を有する者であれば、本発明の技術的思想や必須の特徴を変更することなく他の具体的な形態に容易に変形が可能であることを理解することができるであろう。従って、上記で説明した実施形態はすべての点で例示的なものであり、限定的なものではないと理解すべきである。例えば、単一の形態で説明されている各構成要素は分散して実施することができ、同様に分散されたと記載されている構成要素も組み合わせた形で実施することができる。
本発明の範囲は、上記の詳細な説明ではなく、後述する特許請求の範囲によって示され、特許請求の範囲の意味及び範囲、またその均等概念から導出される全ての変更又は変形された形態が本発明の範囲に含まれるものと解釈されるべきである。
本発明は、TURPの病理画像から前立腺癌を検出するための人工ニューラルネットワークを学習する方法、及びこれを行うコンピューティングシステムに用いることができる。

Claims (6)

  1. ニューラルネットワーク学習システムが、複数の一次学習用病理画像を取得するステップ(ここで、前記複数の一次学習用病理画像のそれぞれは、前立腺針生検により採取された病理検体のスライドをスキャンした画像である前立腺針生検の病理画像、又は前立腺切除術により採取された病理検体のスライドをスキャンした画像である前立腺切除術の病理画像のうちのいずれか一方である)と、
    前記ニューラルネットワーク学習システムが、前記複数の一次学習用病理画像を用いて、前立腺癌判定用人工ニューラルネットワークを一次学習するステップ(前記前立腺癌判定用人工ニューラルネットワークは、病理画像から前立腺癌を検出するための人工ニューラルネットワークである)と、
    前記ニューラルネットワーク学習システムが、TURPにより採取された病理検体のスライドをスキャンした画像である複数のTURPの病理画像を取得するステップと、
    前記ニューラルネットワーク学習システムが、前記複数のTURPの病理画像を用いて、一次学習された前記人工ニューラルネットワークを二次学習するステップと、
    を含み、
    前記複数のTURPの病理画像のそれぞれは、
    非前立腺組織領域又は焼灼された前立腺組織領域の少なくとも一方を必ず含み、前立腺癌の病変領域は全く含んでいないことを特徴とする、TURPの病理画像から前立腺癌を検出するための人工ニューラルネットワークを学習する方法。
  2. 請求項1に記載の人工ニューラルネットワークを学習する方法によって学習された人工ニューラルネットワークを介して、所定の判定対象TURPの病理画像に対する判定結果を提供する方法であって、
    コンピューティングシステムが、前記判定対象TURPの病理画像を取得するステップと、
    前記コンピューティングシステムが、前記人工ニューラルネットワークが前記判定対象TURPの病理画像に基づいて判定した前立腺癌検出結果を出力するステップと、
    を含む、方法。
  3. データ処理装置に設置され、請求項1又は請求項2のいずれか一項に記載の方法を行うための媒体に記録されたコンピュータプログラム。
  4. 請求項1又は請求項2のいずれか一項に記載の方法を行うためのコンピュータプログラムが記録されたコンピュータ読み取り可能な記録媒体。
  5. ニューラルネットワーク学習システムであって、
    プロセッサと、コンピュータプログラムを記憶するメモリと、を含み、
    前記コンピュータプログラムは、前記プロセッサによって実行される場合、前記コンピューティングシステムが人工ニューラルネットワークを学習する方法を行うようにし、
    前記人工ニューラルネットワーク学習方法は、
    複数の一次学習用病理画像を取得するステップ(ここで、前記複数の一次学習用病理画像のそれぞれは、前立腺針生検により採取された病理検体のスライドをスキャンした画像である前立腺針生検の病理画像、又は前立腺切除術により採取された病理検体のスライドをスキャンした画像である前立腺切除術の病理画像のいずれか一方である)と、
    前記複数の一次学習用病理画像を用いて、前立腺癌判定用人工ニューラルネットワークを一次学習するステップ(前記前立腺癌判定用人工ニューラルネットワークは、病理画像から前立腺癌を検出するための人工ニューラルネットワークである)と、
    前記ニューラルネットワーク学習システムが、TURPにより採取された病理検体のスライドをスキャンした画像である複数のTURPの病理画像を取得するステップと、
    前記複数のTURPの病理画像を用いて、一次学習された前記人工ニューラルネットワークを二次学習するステップと、
    を含み、
    前記複数のTURPの病理画像のそれぞれは、
    非前立腺組織領域又は焼灼された前立腺組織領域の少なくとも一方を必ず含み、前立腺癌の病変領域は全く含んでいないことを特徴とする、ニューラルネットワーク学習システム。
  6. 所定の判定対象TURPの病理画像に対する判定結果を提供するコンピューティングシステムであって、
    プロセッサと、
    コンピュータプログラムを記憶するメモリと、
    を含み、
    前記コンピュータプログラムは、前記プロセッサによって実行される場合、前記コンピューティングシステムが、請求項1に記載の人工ニューラルネットワーク学習方法によって学習された人工ニューラルネットワークを介して、前記判定対象TURPの病理画像に対する判定結果を提供する方法を行うようにし、
    前記判定結果を提供する方法は、
    前記判定対象TURPの病理画像を取得するステップと、
    前記人工ニューラルネットワークが前記判定対象TURPの病理画像に基づいて判定した前立腺癌検出結果を出力するステップと、
    を含む、コンピューティングシステム。

JP2023551750A 2021-03-08 2022-03-07 Turpの病理画像から前立腺癌を検出するための人工ニューラルネットワークを学習する方法、及びこれを行うコンピューティングシステム Pending JP2024509105A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020210029876A KR102316525B1 (ko) 2021-03-08 2021-03-08 Turp 병리 이미지로부터 전립선암을 검출하기 위한 용도의 인공 뉴럴 네트워크를 학습하는 방법 및 이를 수행하는 컴퓨팅 시스템
KR10-2021-0029876 2021-03-08
PCT/KR2022/003178 WO2022191539A1 (ko) 2021-03-08 2022-03-07 Turp 병리 이미지로부터 전립선암을 검출하기 위한 용도의 인공 뉴럴 네트워크를 학습하는 방법 및 이를 수행하는 컴퓨팅 시스템

Publications (1)

Publication Number Publication Date
JP2024509105A true JP2024509105A (ja) 2024-02-29

Family

ID=78275729

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023551750A Pending JP2024509105A (ja) 2021-03-08 2022-03-07 Turpの病理画像から前立腺癌を検出するための人工ニューラルネットワークを学習する方法、及びこれを行うコンピューティングシステム

Country Status (6)

Country Link
US (1) US20240153073A1 (ja)
EP (1) EP4290529A1 (ja)
JP (1) JP2024509105A (ja)
KR (1) KR102316525B1 (ja)
CN (1) CN117337473A (ja)
WO (1) WO2022191539A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102395664B1 (ko) 2022-01-26 2022-05-09 주식회사 몰팩바이오 Hsv 색 공간과 clahe를 이용한 병리 슬라이드 이미지 색감 표준화 방법 및 장치

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998039721A1 (en) * 1997-03-07 1998-09-11 University Of Florida Method for diagnosing and staging prostate cancer
KR101944536B1 (ko) 2016-12-11 2019-02-01 주식회사 딥바이오 뉴럴 네트워크를 이용한 질병의 진단 시스템 및 그 방법
JP7217589B2 (ja) * 2018-02-27 2023-02-03 シスメックス株式会社 画像解析方法、画像解析装置、プログラム、学習済み深層学習アルゴリズムの製造方法および学習済み深層学習アルゴリズム
KR102172213B1 (ko) * 2018-06-04 2020-10-30 주식회사 딥바이오 투 페이스 질병 진단 시스템 및 그 방법
KR20210030381A (ko) * 2018-06-29 2021-03-17 미라키 이노베이션 씽크 탱크 엘엘씨 기계 학습 및 인공 지능을 이용하는 체내 제어 가능한 소형화 의료 기기
KR102236948B1 (ko) * 2019-01-25 2021-04-06 주식회사 딥바이오 준-지도학습을 이용하여 질병의 발병 영역에 대한 어노테이션을 수행하기 위한 방법 및 이를 수행하는 진단 시스템
KR102100698B1 (ko) * 2019-05-29 2020-05-18 (주)제이엘케이 앙상블 학습 알고리즘을 이용한 인공지능 기반 진단 보조 시스템

Also Published As

Publication number Publication date
US20240153073A1 (en) 2024-05-09
KR102316525B1 (ko) 2021-10-22
EP4290529A1 (en) 2023-12-13
WO2022191539A1 (ko) 2022-09-15
CN117337473A (zh) 2024-01-02

Similar Documents

Publication Publication Date Title
Yogapriya et al. Gastrointestinal tract disease classification from wireless endoscopy images using pretrained deep learning model
US20180263568A1 (en) Systems and Methods for Clinical Image Classification
CN111278348A (zh) 基于消化器官的内视镜影像的疾病的诊断支援方法、诊断支援系统、诊断支援程序及存储着此诊断支援程序的计算机能够读取的记录介质
Estrade et al. Towards automatic recognition of pure and mixed stones using intra‐operative endoscopic digital images
KR102237198B1 (ko) 인공지능 기반의 의료영상 판독 서비스 시스템
JP2021521553A (ja) 画像認識方法、装置、端末機器及び医療システム、並びにそのコンピュータプログラム
Patel et al. Artificial intelligence applied to gastrointestinal diagnostics: a review
KR102245219B1 (ko) 의료 영상에서 악성의심 병변을 구별하는 방법, 이를 이용한 의료 영상 판독 방법 및 컴퓨팅 장치
KR102531400B1 (ko) 인공 지능 기반 대장 내시경 영상 진단 보조 시스템 및 방법
CN109460717A (zh) 消化道共聚焦激光显微内镜病变图像识别方法及装置
Qiu et al. Endoscopic image recognition method of gastric cancer based on deep learning model
Xu et al. Upper gastrointestinal anatomy detection with multi‐task convolutional neural networks
WO2020170533A1 (ja) 医用画像にaiの判断で進行度合いを表示する計測方法
JP2020062355A (ja) 画像処理装置、データ生成装置及びプログラム
JP2024509105A (ja) Turpの病理画像から前立腺癌を検出するための人工ニューラルネットワークを学習する方法、及びこれを行うコンピューティングシステム
EP4266247A1 (en) Method for refining tissue specimen image, and computing system performing same
JP2024519459A (ja) 乳がんの病変領域を判別するための人工ニューラルネットワークの学習方法、及びこれを行うコンピュータシステム
Qiu et al. Is visual explanation with Grad-CAM more reliable for deeper neural networks? A case study with automatic pneumothorax diagnosis
Bugday et al. Automatic diagnosis of ureteral stone and degree of hydronephrosis with proposed convolutional neural network, RelieF, and gradient‐weighted class activation mapping based deep hybrid model
Fan et al. A novel approach for early gastric cancer detection using a hybrid of alexnet, extreme learning machine, and adjusted gorilla troops optimization
Zhang et al. A spatial regulated patch-wise approach for cervical dysplasia diagnosis
JP6710853B2 (ja) プローブ型共焦点レーザー顕微内視鏡画像診断支援装置
Chu et al. Epitomized summarization of wireless capsule endoscopic videos for efficient visualization
WO2013150419A1 (en) Quality-check during medical imaging procedure
Kvak Visualizing CoAtNet predictions for aiding melanoma detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240604

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241011

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241025