[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2021519663A - 内視鏡画像の処理方法、システム、コンピュータデバイス及びコンピュータプログラム - Google Patents

内視鏡画像の処理方法、システム、コンピュータデバイス及びコンピュータプログラム Download PDF

Info

Publication number
JP2021519663A
JP2021519663A JP2020560333A JP2020560333A JP2021519663A JP 2021519663 A JP2021519663 A JP 2021519663A JP 2020560333 A JP2020560333 A JP 2020560333A JP 2020560333 A JP2020560333 A JP 2020560333A JP 2021519663 A JP2021519663 A JP 2021519663A
Authority
JP
Japan
Prior art keywords
endoscopic image
training
image
layer
endoscopic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020560333A
Other languages
English (en)
Other versions
JP7214291B2 (ja
Inventor
星▲輝▼ 付
星▲輝▼ 付
▲鐘▼前 ▲孫▼
▲鐘▼前 ▲孫▼
巍 ▲楊▼
巍 ▲楊▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2021519663A publication Critical patent/JP2021519663A/ja
Application granted granted Critical
Publication of JP7214291B2 publication Critical patent/JP7214291B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Endoscopes (AREA)

Abstract

本出願は、内視鏡画像の処理方法、システム及びコンピュータデバイスを開示している。当該方法は、検査対象ユーザーの現在の内視鏡画像を取得するステップと、ディープ畳み込みネットワークを使用して、トレーニングパラメータに基づいて現在の内視鏡画像を予測するステップであって、当該トレーニングパラメータが、少なくとも1つの第1の内視鏡画像、及び、少なくとも1つの第1の内視鏡画像を変換した少なくとも1つの第2の内視鏡画像に基づき決定され、当該少なくとも1つの内視鏡画像が人体部位に対応するステップと、現在の内視鏡画像に対応する器官カテゴリーを決定するステップと、を含む。本発明の方法は、予測プロセスをよりインテリジェントかつよりロバストし、処理装置のリソース使用率を向上させる。

Description

本出願は、2018年10月30日に中国特許庁に提出された、出願番号が201811276885.2であって、出願の名称が「内視鏡画像の処理方法、装置、システム及び記憶媒体」である中国特許出願の優先権を主張するものであり、その全内容を本出願に参照により援用する。
本発明は、画像処理技術の分野に関し、特に、内視鏡画像の処理方法、システム及びコンピュータデバイスに関する。
現在、胃がん、食道がんは、中国及び世界で発生率の高い悪性腫瘍の上位5種類にランクされている。胃がんと食道がんは、どちらも上部消化管部位の悪性腫瘍である。実際の診療では、医師は内視鏡によって電子検査を行い、内視鏡を口腔から被験者の上部消化管部位に入り、光源から発せられた強い光が光ファイバを介して光を回すことによって、医師が上部消化管内の各器官の健康状態を観察できるようにする。
しかしながら、内視鏡によって撮影された医療画像は、収集環境、検知デバイス、及び、医師の撮影習慣の違いにより、同じ器官の内視鏡画像の視覚的なパフォーマンスが大きく異なり、異なる器官の局所パフォーマンスが非常に似ている場合がある。従って、医師による病気の診断に深刻な影響を与える。
関連技術では、医療画像における異なる器官を認識するために、一般的に、コンピュータビジョン技術を使用して、例えば、色、テクスチャ、勾配、ローカルバイナリパターン(Local Binary Patterns、LBP)などの特徴を抽出し、そして、サポートベクターマシン(Support Vector Machine、SVM)分類方法によって、器官の分類認識を行う。しかし、このような技術では、画像の固有の特点に基づいて、利用可能な特徴抽出案を策定するために、研究者が医療画像を深く理解する必要があり、技術的なしきい値が高くなる。なお、抽出された特徴は、診断される特定の身体部位に対して意図的に抽出された特定の器官特徴ではなく、より一般的な特徴に偏るので、カバレッジが不完全になり、解決策のロバスト性が十分ではない。
そこで、本発明の実施例は、内視鏡画像の処理方法、システム及びコンピュータデバイスを提供し、予測プロセスをよりインテリジェントかつロバストにし、処理装置のリソース使用率を向上させる。
具体的に、本発明の実施例の技術的解決策は、以下のように実現される。
本発明は、内視鏡画像の処理方法を提供し、この方法は、
検査対象ユーザーの現在の内視鏡画像を取得するステップと、
ディープ畳み込みネットワークを使用して、トレーニングパラメータに基づいて前記現在の内視鏡画像を予測するステップであって、前記トレーニングパラメータが少なくとも1つの第1の内視鏡画像、及び、前記少なくとも1つの第1の内視鏡画像を変換した少なくとも1つの第2の内視鏡画像によって決定され、前記少なくとも1つの第1の内視鏡画像が人体部位に対応するステップと、
前記現在の内視鏡画像に対応する器官カテゴリーを決定するステップと、を含む。
本発明は、内視鏡画像処理システムをさらに提供し、当該内視鏡画像処理システムは人体検知デバイスと、内視鏡画像処理装置とを含み、
前記人体検知デバイスは、人体部位を検知し、検知した少なくとも1つの第1の内視鏡画像を前記内視鏡画像処理装置に送信するために用いられ、
前記内視鏡画像処理装置は、前記人体検知デバイスから前記少なくとも1つの第1の内視鏡画像を取得し、内視鏡画像を予測するためのディープ畳み込みネットワークを確立し、前記少なくとも1つの第1の内視鏡画像、及び前記少なくとも1つの第1の内視鏡画像を変換した少なくとも1つの第2の内視鏡画像に基づき、前記ディープ畳み込みネットワークのトレーニングパラメータを決定し、検査対象ユーザーの現在の内視鏡画像を取得し、前記ディープ畳み込みネットワークを使用して前記トレーニングパラメータに基づいて前記現在の内視鏡画像を予測し、前記現在の内視鏡画像に対応する器官カテゴリーを決定するために用いられる。
なお、本発明は、コンピュータ可読記憶媒体をさらに提供し、コンピュータ可読記憶媒体にコンピュータ可読指令が記憶されており、前記コンピュータ可読指令が少なくとも1つのプロセッサーによって実行される場合、次のステップを実現するように、前記少なくとも1つのプロセッサーによってロードされて実行される。即ち、
検査対象ユーザーの現在の内視鏡画像を取得するステップと、
ディープ畳み込みネットワークを使用して、トレーニングパラメータに基づいて前記現在の内視鏡画像を予測するステップであって、前記トレーニングパラメータが少なくとも1つの第1の内視鏡画像、及び、前記少なくとも1つの第1の内視鏡画像を変換した少なくとも1つの第2の内視鏡画像によって決定され、前記少なくとも1つの第1の内視鏡画像が人体部位に対応するステップと、
前記現在の内視鏡画像に対応する器官カテゴリーを決定するステップと、を含む。
また、本発明は、少なくとも1つのメモリ及び少なくとも1つのプロセッサーを含むコンピュータデバイスをさらに提供し、前記少なくとも1つのメモリに少なくとも1つのプログラムコードが記憶されており、前記少なくとも1つのプログラムコードは、次のステップを実現するように、前記少なくとも1つのプロセッサーによってロードされて実行される。即ち、
検査対象ユーザーの現在の内視鏡画像を取得するステップと、
ディープ畳み込みネットワークを使用して、トレーニングパラメータに基づいて前記現在の内視鏡画像を予測するステップであって、前記トレーニングパラメータが少なくとも1つの第1の内視鏡画像、及び、前記少なくとも1つの第1の内視鏡画像を変換した少なくとも1つの第2の内視鏡画像によって決定され、前記少なくとも1つの第1の内視鏡画像が人体部位に対応するステップと、
前記現在の内視鏡画像に対応する器官カテゴリーを決定するステップと、を含む。
上記の技術的解決策から、本発明の実施例によって提供される方法によれば、研究者が医療画像を深く理解する必要なく、ディープ畳み込みネットワークのモデルによって特徴抽出プロセスを完全に自主的に学習できるようにし、医師の専門レベルへの依存を減らし、予測プロセス全体がよりインテリジェントになる。同時に、トレーニングプロセスで使用されるラベル付きデータの数を減らし、トレーニングの収束速度を向上させ、次の疾患診断にクリーンで利用可能なデータを提供し、異なる器官での疾患診断に利用可能な統合モジュールを提供し、処理装置のリソース使用率を向上させることができる。
本発明の一実施例に係る内視鏡画像処理システムの構成概略図である。 本発明の一実施例における内視鏡画像の処理方法のフローチャート概略図である。 本発明の一実施例におけるディープ畳み込みネットワークの構成概略図である。 本発明の他の実施例におけるディープ畳み込みネットワークの構成概略図である。 本発明のさらに他の実施例における処理レイヤーの構成概略図である。 本発明の他の実施例における内視鏡画像の処理方法のフローチャート概略図である。 本発明の一実施例におけるラベル画像の概略図である。 本発明の一実施例におけるディープ畳み込みネットワークをトレーニングするフローチャート概略図である。 本発明の一実施例における内視鏡画像の処理装置の構成概略図である。 本発明の他の実施例における内視鏡画像の処理装置の構成概略図である。
本発明の目的、技術的解決策及び利点をより明確にするために、以下は、添付の図面を参照して実施例を挙げて、本発明をさらに詳細に説明する。
図1は、本発明の一実施例に係る内視鏡画像処理システムの構成概略図である。図1に示すように、内視鏡画像処理システム100には、検査対象ユーザー101と、内視鏡1021が含まれる人体検知デバイス102と、内視鏡画像処理装置103と、医師104を含む。その中、内視鏡画像処理装置103は、リアルタイム予測サブ装置1031、オフライントレーニングサブ装置1032、及び内視鏡画像データベース1033を含み得る。
本発明の実施例によれば、人体検知デバイス102は、内視鏡1021を介して、検査対象ユーザー101のある人体部位を検知する。人体検知デバイス102は、収集した内視鏡画像を内視鏡画像処理装置103に送信する。具体的には、それを予測対象となる現在の内視鏡画像としてリアルタイム予測サブ装置1031に送信してもよく、内視鏡画像データベース1033に送信して記憶してもよく、内視鏡画像データベース1033に記憶された画像は、オフライントレーニングに使用される。
本発明の実施例によれば、医師104が予測対象となる現在の内視鏡画像を疾患診断したい場合、リアルタイム予測サブ装置1031は、まず、オフライントレーニングサブ装置1032からトレーニングパラメータを取得する必要があり、そして、当該トレーニングパラメータ及び作成されたディープ畳み込みネットワークに基づいて現在の内視鏡画像を予測し、当該現在の内視鏡画像に対応する器官カテゴリーを決定し、例えば、当該器官カテゴリーは上部消化管における十二指腸であり得る。オフライントレーニングサブ装置1032はトレーニングパラメータを生成する場合、リアルタイム予測サブ装置1031と同じディープ畳み込みネットワークを使用して、内視鏡画像データベース1033から内視鏡を介して収集された画像及びラベル付けされたラベル画像を取得し、内視鏡によって収集された画像及び各ラベル付けされたラベル画像に基づき、オフライントレーニングを実行し、ディープ畳み込みネットワークのトレーニングパラメータを出力する。
ここで、上記の人体検知デバイス102とは、内視鏡1021が取り付けられ、画像収集機能を持つ医学端末デバイスをいう。さらに、内視鏡1021は、画像センサー、光学レンズ、光源照明、機械装置などを含み得る。内視鏡画像処理装置103は、サーバー、又はクラウドサーバーであってもよく、画像記憶及び処理機能を備える。これらの端末デバイスには、オペレーティングシステムがインストールされ、当該オペレーティングシステムは、Androidオペレーティングシステム、Symbianオペレーティングシステム、Windows mobileオペレーティングシステム、及びApple iPhone(登録商標) OSオペレーティングシステムなどを含むが、これらに限定されない。人体検知デバイス102と内視鏡画像処理装置103との間は、有線又は無線ネットワークを介して通信してもよい。
図2は、本発明の一実施例における内視鏡画像の処理方法のフローチャート概略図である。当該方法は、コンピュータデバイスに適用され、コンピュータデバイスがサーバーである例を説明する。当該実施例は、以下のステップを含む。
ステップ201、サーバーは、人体部位の少なくとも1つの第1の内視鏡画像を取得する。
つまり、前記少なくとも1つの第1の内視鏡画像は人体部位に対応する。
ステップ202、サーバーは、内視鏡画像を予測するためのディープ畳み込みネットワークを確立する。
ステップ203、サーバーは、少なくとも1つの第1の内視鏡画像、及び、少なくとも1つの第1の内視鏡画像を変換した少なくとも1つの第2の内視鏡画像に基づき、ディープ畳み込みネットワークのトレーニングパラメータを決定する。
ステップ204、サーバーは、検査対象ユーザーの現在の内視鏡画像を取得し、ディープ畳み込みネットワークを使用して、トレーニングパラメータに基づいて現在の内視鏡画像を予測し、現在の内視鏡画像に対応する器官カテゴリーを決定する。
つまり、上記のトレーニングパラメータは少なくとも1つの第1の内視鏡画像、及び、少なくとも1つの第1の内視鏡画像を変換した少なくとも1つの第2の内視鏡画像によって決定される。
次に、実施例に基づいて、上記のステップを詳細に説明する。
上記のステップ201では、内視鏡が含まれる検知デバイスを使用して人体部位を検知することによって、少なくとも1枚の第1の内視鏡画像を取得してもよい。人体部位には1つ又は複数の器官を含み、例えば、人体部位が上部消化管部位であり、上部消化管部位に咽頭、食道、胃、噴門、十二指腸などの、5個の器官を含む。検知デバイスによって撮影されたものは写真又はビデオであってもよく、取得された第1の内視鏡画像は白色光RGB画像であってもよい。
上記のステップ202では、内視鏡画像への分類に使用されるディープ畳み込みネットワークは、深い学習に基づく畳み込みニューラルネットワークである。具体的に、ディープ畳み込みネットワークに、入力レイヤー、処理レイヤー、及び分類レイヤーを含む。図3は、本発明の一実施例におけるディープ畳み込みネットワークの構成概略図である。図3に示すように、ディープ畳み込みネットワークでは、入力レイヤー301は、入力として使用される少なくとも1つの内視鏡画像を決定し、処理レイヤー302は、入力された各内視鏡画像に対して特徴抽出を行い、分類レイヤー303は、入力された各内視鏡画像を予測することによって得られる器官カテゴリーを出力する。ただし、上記の少なくとも1つの内視鏡画像は、検知デバイスによって撮影された各第1の内視鏡画像を含んでもよく、勿論、各第1の内視鏡画像を変換することによって得られる各第2の内視鏡画像を含んでもよい。このように、サンプル容量を増やすことができる。
さらに、処理レイヤー302では、畳み込みレイヤー3021は、畳み込み行列をフィルタとして内視鏡画像に対して特徴抽出を行い、特徴画像を取得し、プーリングレイヤー3022は、畳み込みレイヤーから出力された情報を簡略化し、データの次元を減らし、算出オーバーヘッドを減らし、オーバーフィッティングを制御する。
分類レイヤー303では、完全接続レイヤー3031は、取得された特徴画像がどの器官カテゴリーに最も類似しているかを検出する。softmax層3032は1つの1×M次元の分類ベクトルを出力し、当該softmax層は指数正規化に使用される。ただし、Mは候補器官カテゴリーの数であり、例えば、候補器官カテゴリーには、非器官マップ、咽頭、食道、胃、噴門、十二指腸の6つのカテゴリーがある。分類ベクトルにおける要素の値は[0,1]であり、i番目の要素は、入力である内視鏡画像がi番目の候補器官カテゴリーに属する確率を表す。
本発明の一実施例では、サーバーがディープ畳み込みネットワークを確立する場合、処理レイヤーに少なくとも1つの密集接続レイヤーを追加し、当該密集接続レイヤーは複数の接続サブレイヤーを含み、前記接続サブレイヤーのそれぞれについて、当該接続サブレイヤーの前にある他の接続サブレイヤーから出力された特徴を当該接続サブレイヤーの入力としてもよい。
図4は、本発明の他の実施例におけるディープ畳み込みネットワークの構成概略図である。図4に示すように、処理レイヤー312に、Y個の密集接続レイヤー3121〜312Yを含む。図のブロック3121〜312Y内の黒丸で示されるように、密集接続レイヤーのそれぞれは、複数の接続サブレイヤーを含む。出力層313では、ブロック3131内に示すような6つのカテゴリの確率を出力する。
図5は、本発明のさらに他の実施例における処理レイヤーの構成概略図である。図5に示すように、処理レイヤー400の構造では、畳み込みレイヤー401とプーリングレイヤー404の間にK個の密集接続レイヤー4021〜402Kがあり、同じ密集接続レイヤーでは、各接続サブレイヤーから出力された特徴がその後の他の接続サブレイヤーに入力される。
密集接続レイヤーがJ個の接続サブレイヤーを含み、j番目の接続サブレイヤーの処理関数がH、j=1,・・・,Jであると仮定すると、j番目の接続サブレイヤーから出力された特徴zは、次の式で算出されることができる。
=H([z,z1,・・・,zj-1]) (1)
ただし、[z,z1,・・・,zj-1]は、番号が0からj-1である接続サブレイヤーから出力された特徴をカスケードすることを示す。Hは、ブロック正規化(Batch Normalization、BN、バッチ正規化とも呼ばれる)、ReLU励起及び3×3畳み込みなどの動作であってもよい。当該密集接続レイヤーに入力されるチャネルの数がkであると、j番目のレイヤーのチャネルの数はk+(j―1)×kであり、ただし、kは成長率であり、接続サブレイヤーの数が増えると、チャネルの数がkとともに線形に増加する。
本発明の一実施例では、処理レイヤーに少なくとも1つの密集接続レイヤーを追加する場合、パラメータをさらにコンパクトするために、2つの隣接する密集接続レイヤーの間に遷移レイヤーを追加してもよい。図5に示すように、密集接続レイヤー4021と密集接続レイヤー4022との間に遷移レイヤー403が追加される。K個の密集接続レイヤーがあると、遷移レイヤーの数がK-1である。そして、予め設定された予測精度に基づき、当該遷移レイヤーの特徴圧縮率を設置してもよい。圧縮率はパラメータの数及び予測精度に影響を与えるため、内視鏡画像に対して予め設定された予測精度に基づき、特徴圧縮率に採用される値を設置する。例えば、0.5に設置される。
本発明の他の実施例では、サーバーは、予測対象となる内視鏡画像の数、予測精度、及びトレーニングプロセス中のハイパーパラメーターへの調整に基づき、ディープ畳み込みネットワークのうち処理レイヤー及び分類レイヤーの具体的なパラメータを決定する。表1は、1つのディープ畳み込みネットワークの構造及びパラメータの例であり、合計で4つの密集接続レイヤー及び3つの遷移レイヤーを含む。その中、各密集接続レイヤーの成長率を24に設置し、3×3畳み込み動作の前に、1つの1×1畳み込み動作をさらに実行してもよい。これにより、入力される特徴画像の数が削減され、各チャネルの特徴を融合することもできる。遷移レイヤーにおける1×1畳み込み動作では、入力チャネルの数を半分にすることができる。
Figure 2021519663
ステップ203では、ディープ畳み込みネットワークをトレーニングする場合、サーバーは、少なくとも1つの第1の内視鏡画像、及び、少なくとも1つの第1の内視鏡画像を変換した少なくとも1つの第2の内視鏡画像に基づき、ディープ畳み込みネットワークのトレーニングパラメータを決定する。
具体的には、サーバーは、まず、少なくとも1つの第1の内視鏡画像を変換して、変換された少なくとも1つの第2の内視鏡画像を取得し、少なくとも1つの第1の内視鏡画像と少なくとも1つの第2の内視鏡画像をディープ畳み込みネットワークに同時に入力してトレーニングし、ディープ畳み込みネットワークのトレーニングパラメータを得る。
本発明の実施例では、当該少なくとも1つの第1の内視鏡画像に対してサーバーによって実行される変換は、クリッピング、回転、輝度ジッター、カラージッター、又はコントラストジッターのうちの少なくとも1つを含む。このような変換操作は、データ拡張役割を果たす。実際に適用する場合、変換される数は、候補器官カテゴリーの数及び/又は予め設定された予測精度によって決定されることができる。
例えば、図3に示すように、入力レイヤー301において、3011は検知デバイスから取得された第1の内視鏡画像であり、3011に対して、変換された第2の内視鏡画像3012を得る回転変換と、変換された第2の内視鏡画像3013を得る色変換と、を含む2つのタイプの変換を行い、3011、3012、3013を処理レイヤー302に同時に入力し、特徴を抽出する。
ステップ203で得られたトレーニングパラメータ、及びステップ202で確立されたディープ畳み込みネットワークは、後続のリアルタイム予測に使用される。ステップ204では、サーバーは検査対象ユーザーの現在の内視鏡画像を取得し、ディープ畳み込みネットワークを使用して、トレーニングパラメータに基づいて現在の内視鏡画像を予測し、現在の内視鏡画像に対応する器官カテゴリーを決定する。
例えば、入力レイヤー301に入力される現在の内視鏡画像は、予測されることによって、例えば「食道」のカテゴリに分類されるか、又は、当該画像が無効な医療画像であり、どの器官にも対応せず、「非器官画像」のカテゴリーに属する。これにより、医師は、病気を診断するときに当該画像を参照する必要がなくなる。
上記の実施例により、少なくとも1つの第1の内視鏡画像、及び、少なくとも1つの第1の内視鏡画像を変換した少なくとも1つの第2の内視鏡画像に基づき、ディープ畳み込みネットワークのトレーニングパラメータを決定し、変換された各第2の内視鏡画像を補助データとして、各第1の内視鏡画像に対する分類トレーニングに使用してもよい。全体的な解決策から、次の技術的効果を得ることができる。
1)研究者が医療画像を深く理解する必要なく、特徴抽出プロセスをディープ畳み込みネットワークのモデルによって完全に自主的に学習できるようにし、医師の専門レベルへの依存を減らし、予測プロセス全体がよりインテリジェントになる。
2)トレーニングプロセスで使用されるラベル付きデータの数を減らし、トレーニングの収束速度を改善し、画像分類を高速化し、処理装置のリソース使用率を向上させる。
3)反復されたトレーニングパラメータはより正確になり、ひいては当該トレーニングパラメータによってリアルタイムで予測した分類結果がより正確になり、次の疾患診断に、クリーンで利用可能なデータを提供する。
4)このようなディープ畳み込みネットワークによって、色やテクスチャなどの低レベルの画像特徴だけでなく、粘膜が滑らかかどうか、しわがたくさんあるかどうかなどのより抽象的な語義特徴も抽出でき、強いロバスト性を持ち、異なる病院で異なる医師により撮影された、同一部位に対する異なる角度及び撮影手段などによって引き起こされる干渉に適応できる。
5)正確な分類結果が得られたら、異なる器官での疾患診断に対して、利用可能な統合モジュールを提供でき、例えば、食道器官の場合、分類された後に食道カテゴリーに属する全ての内視鏡画像を食道がんのスクリーニングと診断に使用し、胃器官の場合、分類された後に胃カテゴリーに属する全ての内視鏡画像を胃炎や胃がんなどの疾患のスクリーニングに使用する。
また、ディープ畳み込みネットワークを確立する場合、少なくとも1つの密集接続レイヤーを追加することによって、ネットワークにおけるすべてのレイヤー間の情報フローを最大化し、トレーニングプロセスにおける勾配散逸の問題をある程度軽減でき、そして、大量の特徴が再利用されるため、少量の畳み込みカーネルを使用して大量の特徴を生成でき、最終的なモデルのサイズも比較的小さくなり、パラメータの数が削減される。
図6は、本発明の他の実施例における内視鏡画像処理方法のフローチャート概略図である。図6に示すように、次のステップを含む。
ステップ501、サーバーは、人体部位に対する少なくとも1つの第1の内視鏡画像を取得する。
ステップ502、サーバーは、少なくとも1つの第1の内視鏡画像を変換して、変換された少なくとも1つの第2の内視鏡画像を得る。
ステップ503、サーバーは、内視鏡画像を予測するためのディープ畳み込みネットワークを確立する。
ここで、ステップ501−503は、上記のステップ201、203、202を参照できる。ここで、繰り返さない。
ステップ504、サーバーは、人体部位の構造及び予め設定された診断ターゲットに基づき、少なくとも1つの候補器官カテゴリーを決定する。
このステップでは、人体部位に複数の器官が含まれ、ディープ畳み込みネットワークを利用して内視鏡画像を予測する場合、複数の候補器官カテゴリーを事前に決定する必要がある。具体的には、人体部位を分割する場合、予め設定された診断ターゲットを参照して、複数の領域を分割し、ひいては複数の候補器官カテゴリーを決定することができる。例えば、胃がん、食道がんは、現在発生率の高い悪性腫瘍の種類の中で最も一般的であり、診断ターゲットがこれらの2つの器官を診断するように設定される場合、候補器官カテゴリーは胃、食道、及びその他という3つのカテゴリに設定されることができる。
ステップ505、サーバーは、各候補器官カテゴリーに対応するラベル画像を取得する。
本発明の実施例では、これらのラベル画像は、医療画像データベースから取得され、手動でラベル付けされてもよく、又は、収集された第1の内視鏡画像から候補器官の典型的な特徴を持つ画像がフィルタリングされてもよい。図7は、本発明の一実施例におけるラベル画像の概略図である。図7に示すように、十二指腸、食道、胃、及び目の複数のラベル画像がそれぞれ与えられる。
ステップ506、ディープ畳み込みネットワークをトレーニングする場合、サーバーは、少なくとも1つの第1の内視鏡画像及び少なくとも1つの第2の内視鏡画像を入力サンプルとして、各ラベル画像を理想的な出力サンプル(即ち、ターゲット出力サンプル)としてトレーニングし、ディープ畳み込みネットワークのトレーニングパラメータを得る。
本発明の実施例では、ディープニューラルネットワークは、トレーニングのプロセスでは、入力された画像サンプル及び理想的な出力サンプルに基づき、収束するまで、重みを反復的に徐々に調整する。
ステップ507、サーバーは、検査対象ユーザーの現在の内視鏡画像を取得し、ディープ畳み込みネットワークを使用して、トレーニングパラメータに基づいて現在の内視鏡画像を予測し、現在の内視鏡画像に対応する器官カテゴリーを決定する。
このステップは上記のステップ204と同じであるので、ここで、繰り返さない。
上記の実施例によって、同じ器官の医療画像が大きく異なる可能性があることを考慮して、候補器官カテゴリーは合理的に設計され、入力サンプルに各第1の内視鏡画像を変換することによって歪められた各第2の内視鏡画像が含まれることによって、ラベル画像の数を大幅に削減し、ディープ畳み込みネットワークをトレーニングする場合にラベル付きデータとするラベル画像の数が限られるという問題を解決できる。
図8は、本発明の一実施例におけるディープ畳み込みネットワークをトレーニングするフローチャート概略図である。図8に示すように、次のステップを含む。
ステップ701、サーバーは、人体部位に対する少なくとも1つの第1の内視鏡画像を取得する。
ステップ702、サーバーは、少なくとも1つの第1の内視鏡画像を変換して、変換された少なくとも1つの第2の内視鏡画像を得る。
ステップ703、サーバーは、内視鏡画像を予測するためのディープ畳み込みネットワークを確立し、ディープ畳み込みネットワークは、入力レイヤー、処理レイヤー、及び分類レイヤーを含む。
ディープ畳み込みネットワークをトレーニングする場合、収束するまで、反復的に逆伝播アルゴリズムによってパラメータを調整してもよい。逆伝播アルゴリズムは、4つの異なる部分、即ち、順方向伝送、損失関数の計算、逆方向伝送、及びパラメータ更新に分けてもよい。順方向伝送のプロセスでは、少なくとも1つの第1の内視鏡画像及び変換された少なくとも1つの第2の内視鏡画像を含む初期サンプルデータを入力し、処理レイヤーにおいて伝送する。損失関数を構築することにより、収束するまで、ディープ畳み込みネットワークがトレーニングパラメータを更新するのに役立つ。
ステップ704、サーバーは、ディープ畳み込みネットワークをトレーニングするための損失関数を予め構築する。
このステップでは、予め設定された収束戦略に従って損失関数を構築する。
本発明の一実施例では、入力された第1の内視鏡画像及び変換された第2の内視鏡画像に対して、具体的に、収束戦略は整合性制約戦略であり、即ち、異なる変換を介した同一の内視鏡画像について、モデルによって抽出された特徴は非常に接近すべきである。
本発明の他の実施例では、入力された第1の内視鏡画像及びそれが属する器官カテゴリーの中心特徴に対して、具体的に、収束戦略は中心アグリゲーション戦略であり、即ち、同じ器官カテゴリーに属する第1の内視鏡画像の間の距離が減少され、つまり、クラスタ間距離が短くなり、同時に、異なる器官カテゴリーの間の内視鏡画像の間の距離が大きくなり、つまり、クラスタ間距離が長くなる。
ステップ705、サーバーは、少なくとも1つの第1の内視鏡画像、及び、少なくとも1つの第2の内視鏡画像を入力し、ディープ畳み込みネットワークを初期化する。
このステップでは、ディープ畳み込みネットワークを初期化することは、次の2つの初期化プロセスを含む。
1) 処理レイヤーと出力レイヤーにおける各サブレイヤーの重みを含むディープ畳み込みネットワークのトレーニングパラメータwを初期化する。例えば、ランダムな初期化方式を採用して、トレーニングパラメータの初期値をランダム値[0.3,0.1, 0.4,0.2,0.3・・・]として決定する。
2)第1の内視鏡画像に対応する中心特徴を初期化し、例えば、各カテゴリーのラベル画像の平均値を中心特徴の初期値とする。
トレーニングの開始時に、初期化されたトレーニングパラメータと中心特徴により、損失関数の値が高くなる。ディープニューラルネットワークをトレーニングする目的は、予測値が実際値と同じであることを期待することである。このため、損失関数の値をなるべく減少する必要があり、損失値が小さいほど、予測結果が実際値に近いことを示す。このプロセスでは、トレーニングパラメータと中心特徴を反復して調整し、各反復において損失関数の値を算出し、最終的にネットワーク全体の損失を最小限に抑える。
損失関数を算出する場合、次のステップ706、707は上記の整合性制約戦略に対応し、次のステップ708は上記の中心アグリゲーション戦略に対応する。
ステップ706、サーバーは、処理レイヤーが少なくとも1つの第1の内視鏡画像を処理することによって得られた少なくとも1つの処理済み特徴を取得する。
ステップ707、サーバーは、少なくとも1つの処理済み特徴及び少なくとも1つの第2の内視鏡画像の特徴に基づき、今回の反復における損失関数の値を算出する。
上記の整合性制約戦略は、損失関数では、各第1の内視鏡画像の処理済み特徴と各第2の内視鏡画像の特徴との間の複数の第1の距離をそれぞれ算出し、複数の第1の距離によって第1の内視鏡画像と第2の内視鏡画像との間の整合性を制約するように表現される。
具体的には、トレーニングパラメータをw、入力されたi番目の第1の内視鏡画像の特徴ベクトルをx、i番目のラベル画像の特徴ベクトルをyとすると、損失関数L(w)は、次の式で反復して計算されることができる。
Figure 2021519663
ただし、nは入力された第1の内視鏡画像の数であり、mは第1の内視鏡画像を変換して得られた第2の内視鏡画像の数であり、
Figure 2021519663
は分類クロスエントロピー損失を示し、
Figure 2021519663
はL2正則化パラメータを示し、hは第1の内視鏡画像に基づき処理レイヤーによって出力された特徴ベクトル、即ち、処理済み特徴のベクトルであり、hはk番目の第2の内視鏡画像の特徴ベクトルであり、rとλはハイパーパラメーターであり、どちらも0より大きい値である。
また、iは、1以上かつn以下の整数で、kは、1以上かつm以下の整数である。
以上から、上記の式(2)において、第1の距離はh−hであり、表現式
Figure 2021519663
は変換前後の内視鏡画像の間の整合性の制約を反映している。
ステップ708、サーバーは、各第1の内視鏡画像の特徴と各第1の内視鏡画像に対応する中心特徴との間の複数の第2の距離を算出する。
第1の内視鏡画像に対応する中心特徴を
Figure 2021519663
中心損失を
Figure 2021519663
として定義すると、中心損失を表すための第2の距離は
Figure 2021519663
である。
ステップ709、サーバーは、当該複数の第1の距離と当該複数の第2の距離に基づき、損失関数の値を算出する。
整合性制約のみを考慮すると、損失関数の値は、上記の式(2)を参照して算出されることができる。
整合性制約と中心アグリゲーション戦略を同時に考慮すると、第1の距離と第2の距離に基づき損失関数の値を算出する。具体的に、次のように算出する。
Figure 2021519663
ただし、
Figure 2021519663
ステップ710、サーバーは、損失関数の値に基づき、トレーニングプロセスが終了したかどうかを決定する。そうである場合は、ステップ713を実行し、そうではない場合は、ステップ711及び712を実行する。
連続する反復のプロセスでは、損失関数を最小化し、即ち、minL(w)である。損失関数の値が許容しきい値に達したかどうかを判断することで、反復を停止するかどうかを判断する。反復を停止した後、トレーニングプロセス全体が終了する。
ステップ711、サーバーはトレーニングパラメータを更新する。そして、さらにステップ706を実行して、次の反復プロセスを実行する。
ステップ712、サーバーは、中心特徴を更新する。そして、さらにステップ708を実行し、次の反復プロセスを実行する。
ステップ713、サーバーは、トレーニングが終了した後、ディープ畳み込みネットワークのトレーニングパラメータを得る。
上記の実施例によって、ディープ畳み込みネットワークをトレーニングするための損失関数を予め構築し、第1の内視鏡画像の処理済み特徴及び各第2の内視鏡画像の特徴に基づき、各反復における損失関数の値を算出し、整合性制約が導入されることで、より安定した特徴を優先的に見つけて、最適な解が得られるまでトレーニングプロセスの収束速度を加速することができる。また、損失関数では中心アグリゲーション戦略を考慮することで、各カテゴリーに対してモデルにより学習された特徴がより安定してまとまりがあり、実際環境でのモデルの汎化能力をさらに向上させる。
図9は、本発明の一実施例における内視鏡画像の処理装置の構成概略図である。図9に示すように、装置800は、
内視鏡が含まれる検知デバイスを介して、人体部位に対する第1の内視鏡画像を取得し、検査対象ユーザーの現在の内視鏡画像を取得する取得モジュール810と、
内視鏡画像を予測するためのディープ畳み込みネットワークを確立し、取得モジュール810によって取得された第1の内視鏡画像、及び、第1の内視鏡画像を変換した少なくとも1つの第2の内視鏡画像に基づき、ディープ畳み込みネットワークのトレーニングパラメータを決定する確立モジュール820と、
確立モジュール820によって確立されたディープ畳み込みネットワークを使用して、トレーニングパラメータに基づいて現在の内視鏡画像を予測し、現在の内視鏡画像に対応する器官カテゴリーを決定する予測モジュール830と、を含む。
本発明の一実施例では、装置800は、
人体部位の構造及び予め設定された診断ターゲットに基づき、少なくとも1つの候補器官カテゴリーを決定し、各候補器官カテゴリーに対応するラベル画像を取得する決定モジュール840と、
第1の内視鏡画像及び少なくとも1つの第2の内視鏡画像を入力サンプルとし、決定モジュール840によって決定された各ラベル画像を理想的な出力サンプルとして、トレーニングパラメータを得る確立モジュール820をさらに含む。
本発明の一実施例では、ディープ畳み込みネットワークは、入力レイヤー、処理レイヤー、及び分類レイヤーを含み、確立モジュール820は、処理レイヤーに、複数の接続サブレイヤーを含む少なくとも1つの密集接続レイヤーを追加し、前記接続サブレイヤーのそれぞれについて、当該接続サブレイヤーの前にある他の接続サブレイヤーから出力された特徴を当該接続サブレイヤーの入力とするために用いられる。
本発明の一実施例では、確立モジュール820は、2つの隣接する密集接続レイヤーの間に遷移レイヤーを追加し、予め設定された予測精度に基づき当該遷移レイヤーの特徴圧縮率の値を設置するために用いられる。
本発明の一実施例では、ディープ畳み込みネットワークは、入力レイヤー、処理レイヤー、及び分類レイヤーを含み、装置800は、
ディープ畳み込みネットワークをトレーニングするための損失関数を予め構築する構築モジュール850と、
ディープ畳み込みネットワークをトレーニングする場合、処理レイヤーが第1の内視鏡画像を処理することによって得られた処理済み特徴を取得することと、処理済み特徴と各第2の内視鏡画像の特徴に基づき、今回の反復における損失関数の値を算出することと、損失関数の値に基づきトレーニングプロセスが終了したかどうかを決定し、トレーニングプロセスが終了したと決定した場合、トレーニングパラメータを取得することとを反復して実行する確立モジュール820と、をさらに含む。
本発明の一実施例では、確立モジュール820は、さらに、第1の内視鏡画像が属する器官カテゴリーの中心特徴を初期化し、処理済み特徴と各第2の内視鏡画像の特徴との間の第1の距離をそれぞれ算出し、第1の内視鏡画像の特徴と第1の内視鏡画像に対応する中心特徴との間の第2の距離を算出し、第1の距離及び第2の距離に基づき値を算出するために用いられる。
本発明の一実施例では、第1の内視鏡画像に対して実行される変換は、クリッピング、回転、輝度ジッター、カラージッター、コントラストジッターのうちの少なくとも1つを含む。
図10は、本発明の他の実施例における内視鏡画像の処理装置の構成概略図である。図10に示すように、装置900は、プロセッサー910、メモリ920、ポート930、及びバス940を含む。プロセッサー910とメモリ920は、バス940を介してお互いに接続される。プロセッサー910は、ポート930を介してデータを送受信することができる。
プロセッサー910は、メモリ920に記憶された機械可読指令モジュールを実行する。
メモリ920に、プロセッサー910によって実行可能な機械可読指令モジュールが記憶される。プロセッサー910によって実行可能な指令モジュールは、取得モジュール921、確立モジュール922、及び予測モジュール923を含む。
取得モジュール921は、プロセッサー910によって実行される場合、内視鏡が含まれる検知デバイスを介して、人体部位に対する第1の内視鏡画像を取得し、検査対象ユーザーの現在の内視鏡画像を取得するためのものであってもよい。
確立モジュール922は、プロセッサー910によって実行される場合、内視鏡画像を予測するためのディープ畳み込みネットワークを確立し、取得モジュール921によって取得された第1の内視鏡画像、及び第1の内視鏡画像を変換した少なくとも1つの第2の内視鏡画像に基づき、ディープ畳み込みネットワークのトレーニングパラメータを決定するためのものであってもよい。
予測モジュール923は、プロセッサー910によって実行される場合、確立モジュール922によって確立されるディープ畳み込みネットワークを使用してトレーニングパラメータに基づいて現在の内視鏡画像を予測し、現在の内視鏡画像に対応する器官カテゴリーを決定するためのものであってもよい。
本発明の一実施例では、プロセッサー910によって実行可能な指令モジュールは、決定モジュール924をさらに含む。決定モジュール924は、プロセッサー910によって実行される場合、人体部位の構造及び予め設定された診断ターゲットに基づき、少なくとも1つの候補器官カテゴリーを決定し、ディープ畳み込みネットワークをトレーニングする前に、各候補器官カテゴリーに対応するラベル画像を取得するためのものであってもよい。
確立モジュール922は、プロセッサー910によって実行される場合、第1の内視鏡画像及び少なくとも1つの第2の内視鏡画像を入力サンプルとし、決定モジュール924によって決定された各ラベル画像を理想的な出力サンプルとして、トレーニングパラメータを得るためのものであってもよい。
本発明の一実施例では、プロセッサー910によって実行可能な指令モジュールは、構築モジュール925をさらに含む。構築モジュール925は、プロセッサー910によって実行される場合、ディープ畳み込みネットワークをトレーニングするための損失関数を予め構築するためのものであってもよい。
確立モジュール922は、プロセッサー910によって実行される場合、ディープ畳み込みネットワークをトレーニングする場合、処理レイヤーが第1の内視鏡画像を処理することによって得られた処理済み特徴を取得することと、処理済み特徴と各第2の内視鏡画像の特徴に基づき、今回の反復における損失関数の値を算出することと、損失関数の値に基づきトレーニングプロセスが終了したかどうかを決定し、トレーニングプロセスが終了したと決定した場合、トレーニングパラメータを取得することと、を反復して実行するためのものであってもよい。
このことから、メモリ920に記憶された指令モジュールがプロセッサー910によって実行される場合、上記の各実施例における取得モジュール、確立モジュール、予測モジュール、決定モジュール、及び構築モジュールの各機能を実現できることがわかる。
上記の装置の実施例では、各モジュール及びユニットのその自体の機能を実現するための具体的な方法はいずれも方法実施例で説明されており、ここで繰り返さない。
また、本発明の各実施例における各機能モジュールは、1つの処理ユニットに統合されてもよく、物理的に単独で存在してもよく、2つ又は2つ以上のモジュールが1つのユニットに統合されてもよい。上記の統合されたユニットは、ハードウェアの形で実現されてもよく、ソフトウェア機能ユニットの形で実現されてもよい。
一実施例では、人体検知デバイスと、内視鏡画像処理装置とを含む内視鏡画像処理システムを提供し、
当該人体検知デバイスは、人体部位を検知し、検知した少なくとも1つの第1の内視鏡画像を当該内視鏡画像処理装置に送信するために用いられ、
当該内視鏡画像処理装置は、当該人体検知デバイスから当該少なくとも1つの第1の内視鏡画像を取得し、内視鏡画像を予測するためのディープ畳み込みネットワークを確立し、当該少なくとも1つの第1の内視鏡画像及び当該少なくとも1つの第1の内視鏡画像を変換した少なくとも1つの第2の内視鏡画像に基づき、当該ディープ畳み込みネットワークのトレーニングパラメータを決定し、検査対象ユーザーの現在の内視鏡画像を取得し、当該ディープ畳み込みネットワークを使用して当該トレーニングパラメータに基づいて当該現在の内視鏡画像を予測し、当該現在の内視鏡画像に対応する器官カテゴリーを決定するために用いられる。
一実施例では、当該内視鏡画像処理装置は、さらに、人体部位の構造及び予め設定された診断ターゲットに基づき、少なくとも1つの候補器官カテゴリーを決定し、各候補器官カテゴリーに対応するラベル画像を取得し、当該少なくとも1つの第1の内視鏡画像と当該少なくとも1つ第2の内視鏡画像を入力サンプルとし、各ラベル画像をターゲット出力サンプルとしてトレーニングして、当該トレーニングパラメータを得るために用いられる。
一実施例では、当該ディープ畳み込みネットワークは、入力レイヤー、処理レイヤー、及び分類レイヤーを含み、当該内視鏡画像処理装置は、さらに、当該ディープ畳み込みネットワークをトレーニングするための損失関数を予め構築し、当該ディープ畳み込みネットワークをトレーニングする場合、当該処理レイヤーが当該少なくとも1つの第1の内視鏡画像を処理することによって得られた少なくとも1つの処理済み特徴を取得することと、当該少なくとも1つの処理済み特徴及び当該少なくとも1つの第2の内視鏡画像の特徴に基づき、今回の反復における当該損失関数の値を算出することと、当該損失関数の値に基づきトレーニングプロセスが終了したかどうかを決定し、トレーニングプロセスが終了したと決定した場合、当該トレーニングパラメータを得ることと、を反復して実行するために用いられる。
一実施例では、当該ディープ畳み込みネットワークをトレーニングする場合、当該内視鏡画像処理装置は、さらに、当該少なくとも1つの第1の内視鏡画像が属する器官カテゴリーの中心特徴を初期化し、各処理済み特徴と各第2の内視鏡画像の特徴との間の複数の第1の距離をそれぞれ算出し、各第1の内視鏡画像の特徴と各第1の内視鏡画像に対応する中心特徴との間の複数の第2の距離を算出し、当該複数の第1の距離と当該複数の第2の距離に基づき、当該損失関数の値を算出するために用いられる。
一実施例では、コンピュータデバイスを提供し、当該コンピュータデバイスは少なくとも1つのメモリ及び少なくとも1つのプロセッサーを含み、当該少なくとも1つのメモリに少なくとも1つのプログラムコードが記憶されており、当該少なくとも1つのプログラムコードは、当該少なくとも1つのプロセッサーによってロードされて実行されることで、
検査対象ユーザーの現在の内視鏡画像を取得するステップと、
ディープ畳み込みネットワークを使用して、トレーニングパラメータに基づいて当該現在の内視鏡画像を予測するステップであって、当該トレーニングパラメータが少なくとも1つの第1の内視鏡画像及び当該少なくとも1つの第1の内視鏡画像を変換した少なくとも1つの第2の内視鏡画像によって決定され、当該少なくとも1つの第1の内視鏡画像が人体部位に対応するステップと、
当該現在の内視鏡画像に対応する器官カテゴリーを決定するステップと、を実行する。
一実施例では、当該少なくとも1つのプロセッサーは、
人体部位に対する少なくとも1つの第1の内視鏡画像を取得するステップと、
内視鏡画像を予測するためのディープ畳み込みネットワークを確立し、当該少なくとも1つの第1の内視鏡画像及び当該少なくとも1つの第1の内視鏡画像を変換した少なくとも1つの第2の内視鏡画像に基づき、当該ディープ畳み込みネットワークのトレーニングパラメータを決定するステップと、を実行する。
一実施例では、当該少なくとも1つのプロセッサーは、
人体部位の構造及び予め設定された診断ターゲットに基づき、少なくとも1つの候補器官カテゴリーを決定するステップと、
各候補器官カテゴリーに対応するラベル画像を取得するステップと、
当該少なくとも1つの第1の内視鏡画像と当該少なくとも1つ第2の内視鏡画像を入力サンプルとし、各ラベル画像をターゲット出力サンプルとしてトレーニングして、当該トレーニングパラメータを得るテップと、を実行する。
一実施例では、当該ディープ畳み込みネットワークは、入力レイヤー、処理レイヤー、及び分類レイヤーを含み、
当該少なくとも1つのプロセッサーは、
当該処理レイヤーに少なくとも1つの密集接続レイヤーを追加するステップであって、当該密集接続レイヤーに複数の接続サブレイヤーが含まれるステップと、
前記接続サブレイヤーのそれぞれについて、当該接続サブレイヤーの前にある他の接続サブレイヤーから出力された特徴を当該接続サブレイヤーの入力とするステップと、を実行する。
一実施例では、当該少なくとも1つのプロセッサーは、
2つの隣接する密集接続レイヤーの間に遷移レイヤーを追加し、予め設定された予測精度に基づき、当該遷移レイヤーの特徴圧縮率を設置するステップを実行する。
一実施例では、当該ディープ畳み込みネットワークは、入力レイヤー、処理レイヤー、及び分類レイヤーを含み、当該少なくとも1つのプロセッサーは、
当該ディープ畳み込みネットワークをトレーニングするための損失関数を予め構築するステップと、
当該ディープ畳み込みネットワークをトレーニングする場合、
当該処理レイヤーが当該少なくとも1つの第1の内視鏡画像を処理することによって得られた少なくとも1つの処理済み特徴を取得することと、
当該少なくとも1つの処理済み特徴及び当該少なくとも1つの第2の内視鏡画像の特徴に基づき、今回の反復における当該損失関数の値を算出することと、
当該損失関数の値に基づきトレーニングプロセスが終了したかどうかを決定し、トレーニングプロセスが終了したと決定した場合、当該トレーニングパラメータを得ることと、を反復して実行するステップと、を実行する。
一実施例では、当該ディープ畳み込みネットワークをトレーニングする場合、当該少なくとも1つのプロセッサーは、
当該少なくとも1つの第1の内視鏡画像が属する器官カテゴリーの中心特徴を初期化するステップと、
各処理済み特徴と各第2の内視鏡画像の特徴との間の複数の第1の距離をそれぞれ算出するステップと、
各第1の内視鏡画像の特徴と各第1の内視鏡画像に対応する中心特徴との間の複数の第2の距離を算出するステップと、
当該複数の第1の距離と当該複数の第2の距離に基づき、当該損失関数の値を算出するステップと、を実行する。
一実施例では、当該少なくとも1つの第1の内視鏡画像に対して実行される変換は、クリッピング、回転、輝度ジッター、カラージッター、又はコントラストジッターのうちの少なくとも1つを含む。
また、本発明の各実施例は、コンピュータなどのデータ処理デバイスで実行されるデータ処理プログラムによって実現することができる。明らかに、データ処理プログラムは本発明を構成する。また、一般的に、1つの記憶媒体に記憶されたデータ処理プログラムは、記憶媒体から直接読み取られたり、データ処理デバイスの記憶デバイス(例えば、ハードディスク及び/又はメモリ)にインストール又はコピーされたりすることによって実行される。これにより、このような記憶媒体も本発明を構成する。記憶媒体は、例えば、紙の記憶媒体(例えば、紙テープなど)、磁気記憶媒体(例えば、フレキシブルディスク、ハードディスク、フラッシュメモリなど)、光記憶媒体(例えば、CD-ROMなど)、光磁気記憶媒体(例えば、MOなど)などの、任意のカテゴリーの記録形態を使用することができる。
従って、本発明は、さらに、データ処理プログラムが記憶される記憶媒体も開示し、当該データ処理プログラムは、本発明の上記の方法実施例のいずれかを実行するために使用される。
いくつかの実施例では、当該記憶媒体は、コンピュータ可読指令が記憶されるコンピュータ可読記憶媒体であってもよく、当該コンピュータ可読指令は、少なくとも1つのプロセッサーによって実行される場合、当該少なくとも1つのプロセッサーによってロードされて実行されることで、
検査対象ユーザーの現在の内視鏡画像を取得するステップと、
ディープ畳み込みネットワークを使用して、トレーニングパラメータに基づいて当該現在の内視鏡画像を予測するステップであって、当該トレーニングパラメータが少なくとも1つの第1の内視鏡画像及び当該少なくとも1つの第1の内視鏡画像を変換した少なくとも1つの第2の内視鏡画像によって決定され、当該少なくとも1つの第1の内視鏡画像が人体部位に対応するステップと、
当該現在の内視鏡画像に対応する器官カテゴリーを決定するステップと、を実現する。
一実施例では、当該少なくとも1つのプロセッサーは、
人体部位に対する少なくとも1つの第1の内視鏡画像を取得するステップと、
内視鏡画像を予測するためのディープ畳み込みネットワークを確立し、当該少なくとも1つの第1の内視鏡画像、及び当該少なくとも1つの第1の内視鏡画像を変換した少なくとも1つの第2の内視鏡画像に基づき、当該ディープ畳み込みネットワークのトレーニングパラメータを決定するステップと、を実行する。
一実施例では、当該少なくとも1つのプロセッサーは、
人体部位の構造及び予め設定された診断ターゲットに基づき、少なくとも1つの候補器官カテゴリーを決定するステップと、
各候補器官カテゴリーに対応するラベル画像を取得するステップと、
当該少なくとも1つの第1の内視鏡画像と当該少なくとも1つ第2の内視鏡画像を入力サンプルとし、各ラベル画像をターゲット出力サンプルとしてトレーニングして、当該トレーニングパラメータを得るステップと、を実行する。
一実施例では、当該ディープ畳み込みネットワークは、入力レイヤー、処理レイヤー、及び分類レイヤーを含み、当該少なくとも1つのプロセッサーは、
当該処理レイヤーに、少なくとも1つの密集接続レイヤーを追加するステップであって、当該密集接続レイヤーに複数の接続サブレイヤーが含まれるステップと、
前記接続サブレイヤーのそれぞれについて、当該接続サブレイヤーの前にある他の接続サブレイヤーから出力された特徴を当該接続サブレイヤーの入力とするステップと、を実行する。
一実施例では、当該少なくとも1つのプロセッサーは、
2つの隣接する密集接続レイヤーの間に遷移レイヤーを追加し、予め設定された予測精度に基づき当該遷移レイヤーの特徴圧縮率を設置するステップを実行する。
一実施例では、当該ディープ畳み込みネットワークは、入力レイヤー、処理レイヤー、及び分類レイヤーを含み、当該少なくとも1つのプロセッサーは、
当該ディープ畳み込みネットワークをトレーニングするための損失関数を予め構築するステップと、
当該ディープ畳み込みネットワークをトレーニングする場合、
当該処理レイヤーが当該少なくとも1つの第1の内視鏡画像を処理することによって得られた少なくとも1つの処理済み特徴を取得することと、
当該少なくとも1つの処理済み特徴及び当該少なくとも1つの第2の内視鏡画像の特徴に基づき、今回の反復における当該損失関数の値を算出することと、
当該損失関数の値に基づきトレーニングプロセスが終了したかどうかを決定し、トレーニングプロセスが終了したと決定した場合、当該トレーニングパラメータを得ることと、を反復して実行するステップと、を実行する。
一実施例では、当該ディープ畳み込みネットワークをトレーニングする場合、当該少なくとも1つのプロセッサーは、
当該少なくとも1つの第1の内視鏡画像が属する器官カテゴリーの中心特徴を初期化するステップと、
各処理済み特徴と各第2の内視鏡画像の特徴との間の複数の第1の距離をそれぞれ算出するステップと、
各第1の内視鏡画像の特徴と各第1の内視鏡画像に対応する中心特徴との間の複数の第2の距離を算出するステップと、
当該複数の第1の距離と当該複数の第2の距離に基づき、当該損失関数の値を算出するステップと、を実行する。
一実施例では、当該少なくとも1つの第1の内視鏡画像に対して実行される変換は、クリッピング、回転、輝度ジッター、カラージッター、又はコントラストジッターのうちの少なくとも1つを含む。
以上は、本発明の好ましい実施例に過ぎず、本発明を限定することを意図しない。本発明の精神及び原則の範囲で行われた任意の補正、均等な置換、改善などは、いずれも本発明の保護範囲に含まれるべきである。
100 内視鏡画像処理システム
101 検査対象ユーザー
102 人体検知デバイス
103 内視鏡画像処理装置
104 医師
301 入力レイヤー
302 処理レイヤー
303 分類レイヤー
312 処理レイヤー
313 出力層
400 処理レイヤー
401 畳み込みレイヤー
402 密集接続レイヤー
403 遷移レイヤー
404 プーリングレイヤー
800 装置
810 取得モジュール
820 確立モジュール
830 予測モジュール
840 決定モジュール
850 構築モジュール
900 装置
910 プロセッサー
920 メモリ
921 取得モジュール
922 確立モジュール
923 予測モジュール
924 決定モジュール
925 構築モジュール
930 ポート
940 バス
1021 内視鏡
1031 リアルタイム予測サブ装置
1032 オフライントレーニングサブ装置
1033 内視鏡画像データベース
3012 第2の内視鏡画像
3013 第2の内視鏡画像
3021 畳み込みレイヤー
3022 プーリングレイヤー
3031 完全接続レイヤー
3032 softmax層
3121 密集接続レイヤー
4021 密集接続レイヤー
4022 密集接続レイヤー

Claims (20)

  1. 内視鏡画像の処理方法であって、
    検査対象ユーザーの現在の内視鏡画像を取得するステップと、
    ディープ畳み込みネットワークを使用して、トレーニングパラメータに基づいて前記現在の内視鏡画像を予測するステップであって、前記トレーニングパラメータが少なくとも1つの第1の内視鏡画像、及び、前記少なくとも1つの第1の内視鏡画像を変換した少なくとも1つの第2の内視鏡画像によって決定され、前記少なくとも1つの第1の内視鏡画像が人体部位に対応するステップと、
    前記現在の内視鏡画像に対応する器官カテゴリーを決定するステップと、
    を含むことを特徴とする方法。
  2. ディープ畳み込みネットワークを使用して、トレーニングパラメータに基づいて前記現在の内視鏡画像を予測する前に、
    人体部位の少なくとも1つの第1の内視鏡画像を取得するステップと、
    内視鏡画像を予測するためのディープ畳み込みネットワークを確立し、前記少なくとも1つの第1の内視鏡画像、及び、前記少なくとも1つの第1の内視鏡画像を変換した少なくとも1つの第2の内視鏡画像に基づき、前記ディープ畳み込みネットワークのトレーニングパラメータを決定するステップと、
    をさらに含むことを特徴とする請求項1に記載の方法。
  3. 前記人体部位の構造及び予め設定された診断ターゲットに基づき、少なくとも1つの候補器官カテゴリーを決定するステップと、
    各候補器官カテゴリーに対応するラベル画像を取得するステップと、
    をさらに含み、
    前記少なくとも1つの第1の内視鏡画像、及び、前記少なくとも1つの第1の内視鏡画像を変換した少なくとも1つの第2の内視鏡画像に基づき、前記ディープ畳み込みネットワークのトレーニングパラメータを決定する前記ステップは、
    前記少なくとも1つの第1の内視鏡画像及び前記少なくとも1つの第2の内視鏡画像を入力サンプルとし、各ラベル画像をターゲット出力サンプルとしてトレーニングして、前記トレーニングパラメータを得るステップ、を含むことを特徴とする請求項2に記載の方法。
  4. 前記ディープ畳み込みネットワークは、入力レイヤー、処理レイヤー、及び分類レイヤーを含み、
    内視鏡画像を予測するためのディープ畳み込みネットワークを確立する前記ステップは、
    前記処理レイヤーに少なくとも1つの密集接続レイヤーを追加するステップであって、前記密集接続レイヤーが複数の接続サブレイヤーを含むステップと、
    前記接続サブレイヤーのそれぞれについて、当該接続サブレイヤーの前にある他の接続サブレイヤーから出力された特徴を当該接続サブレイヤーの入力とするステップと、
    を含むことを特徴とする請求項2に記載の方法。
  5. 前記処理レイヤーに少なくとも1つの密集接続レイヤーを追加する前記ステップは、
    2つの隣接する密集接続レイヤーの間に遷移レイヤーを追加し、予め設定された予測精度に基づき、当該遷移レイヤーの特徴圧縮率を設置するステップ、を含むことを特徴とする請求項4に記載の方法。
  6. 前記ディープ畳み込みネットワークは、入力レイヤー、処理レイヤー、及び分類レイヤーを含み、
    前記方法は、
    前記ディープ畳み込みネットワークをトレーニングするための損失関数を予め構築するステップをさらに含み、
    前記少なくとも1つの第1の内視鏡画像、及び、前記少なくとも1つの第1の内視鏡画像を変換した少なくとも1つの第2の内視鏡画像に基づき、前記ディープ畳み込みネットワークのトレーニングパラメータを決定する前記ステップは、
    前記ディープ畳み込みネットワークをトレーニングする場合、
    前記処理レイヤーが前記少なくとも1つの第1の内視鏡画像を処理することによって得られた少なくとも1つの処理済み特徴を取得するステップと、
    前記少なくとも1つの処理済み特徴及び前記少なくとも1つの第2の内視鏡画像の特徴に基づき、今回の反復における前記損失関数の値を算出するステップと、
    前記損失関数の値に基づき、トレーニングプロセスが終了したかどうかを決定し、トレーニングプロセスが終了したと決定した場合、前記トレーニングパラメータを取得するステップと、
    を反復して実行することを特徴とする請求項2に記載の方法。
  7. 前記ディープ畳み込みネットワークをトレーニングする場合、前記方法は、
    前記少なくとも1つの第1の内視鏡画像が属する器官カテゴリーの中心特徴を初期化するステップ、をさらに含み、
    前記少なくとも1つの処理済み特徴及び前記少なくとも1つの第2の内視鏡画像の特徴に基づき、今回の反復における前記損失関数の値を算出する前記ステップは、
    各処理済み特徴と各第2の内視鏡画像の特徴との間の複数の第1の距離をそれぞれ算出するステップと、
    各第1の内視鏡画像の特徴と各第1の内視鏡画像に対応する中心特徴との間の複数の第2の距離を算出するステップと、
    前記複数の第1の距離と前記複数の第2の距離に基づき、前記損失関数の値を算出するステップと、
    を含むことを特徴とする請求項6に記載の方法。
  8. 前記少なくとも1つの第1の内視鏡画像に対して実行される変換は、クリッピング、回転、輝度ジッター、カラージッター、又はコントラストジッターのうちの少なくとも1つを含むことを特徴とする請求項1に記載の方法。
  9. 内視鏡画像処理システムであって、
    人体検知デバイスと、内視鏡画像処理装置とを含み、
    前記人体検知デバイスは、人体部位を検知し、検知した少なくとも1つの第1の内視鏡画像を前記内視鏡画像処理装置に送信するために用いられ、
    前記内視鏡画像処理装置は、前記人体検知デバイスから前記少なくとも1つの第1の内視鏡画像を取得し、内視鏡画像を予測するためのディープ畳み込みネットワークを確立し、前記少なくとも1つの第1の内視鏡画像及び前記少なくとも1つの第1の内視鏡画像を変換した少なくとも1つの第2の内視鏡画像に基づき、前記ディープ畳み込みネットワークのトレーニングパラメータを決定し、検査対象ユーザーの現在の内視鏡画像を取得し、前記ディープ畳み込みネットワークを使用し前記トレーニングパラメータに基づいて前記現在の内視鏡画像を予測し、前記現在の内視鏡画像に対応する器官カテゴリーを決定するために用いられる、ことを特徴とするシステム。
  10. 前記内視鏡画像処理装置はさらに、
    前記人体部位の構造及び予め設定された診断ターゲットに基づき、少なくとも1つの候補器官カテゴリーを決定し、各候補器官カテゴリーに対応するラベル画像を取得し、前記少なくとも1つの第1の内視鏡画像及び前記少なくとも1つの第2の内視鏡画像を入力サンプルとし、各前記ラベル画像をターゲット出力サンプルとしてトレーニングして、前記トレーニングパラメータを得るために用いられることを特徴とする請求項9に記載のシステム。
  11. 前記ディープ畳み込みネットワークは、入力レイヤー、処理レイヤー、及び分類レイヤーを含み、
    前記内視鏡画像処理装置は、さらに、
    前記ディープ畳み込みネットワークをトレーニングするための損失関数を予め構築し、
    前記ディープ畳み込みネットワークをトレーニングする場合、
    前記処理レイヤーが前記少なくとも1つの第1の内視鏡画像を処理することによって得られた少なくとも1つの処理済み特徴を取得するステップと、
    前記少なくとも1つの処理済み特徴及び前記少なくとも1つの第2の内視鏡画像の特徴に基づき、今回の反復における前記損失関数の値を算出するステップと、
    前記損失関数の値に基づき、トレーニングプロセスが終了したかどうかを決定し、トレーニングプロセスが終了したと決定した場合、前記トレーニングパラメータを取得するステップと、を反復して実行する、ために用いられることを特徴とする請求項9に記載のシステム。
  12. 前記ディープ畳み込みネットワークをトレーニングする場合、前記内視鏡画像処理装置は、さらに、
    前記少なくとも1つの第1の内視鏡画像が属する器官カテゴリーの中心特徴を初期化し、
    各処理済み特徴と各第2の内視鏡画像の特徴との間の複数の第1の距離をそれぞれ算出し、
    各第1の内視鏡画像の特徴と各第1の内視鏡画像に対応する中心特徴との間の複数の第2の距離を算出し、
    前記複数の第1の距離と前記複数の第2の距離に基づき、前記損失関数の値を算出する、ために用いられることを特徴とする請求項11に記載のシステム。
  13. コンピュータデバイスであって、
    少なくとも1つのメモリ及び少なくとも1つのプロセッサーを含み、前記少なくとも1つのメモリに少なくとも1つのプログラムコードが記憶されており、前記少なくとも1つのプログラムコードは、前記少なくとも1つのプロセッサーによってロードされて実行されることで、
    検査対象ユーザーの現在の内視鏡画像を取得するステップと、
    ディープ畳み込みネットワークを使用して、トレーニングパラメータに基づいて前記現在の内視鏡画像を予測するステップであって、前記トレーニングパラメータが少なくとも1つの第1の内視鏡画像、及び、前記少なくとも1つの第1の内視鏡画像を変換した少なくとも1つの第2の内視鏡画像によって決定され、前記少なくとも1つの第1の内視鏡画像が人体部位に対応するステップと、
    前記現在の内視鏡画像に対応する臓器カテゴリーを決定するステップと、を実行することを特徴とするコンピュータデバイス。
  14. 前記少なくとも1つのプロセッサーは、
    人体部位に対する少なくとも1つの第1の内視鏡画像を取得するステップと、
    内視鏡画像を予測するためのディープ畳み込みネットワークを確立し、前記少なくとも1つの第1の内視鏡画像、及び、前記少なくとも1つの第1の内視鏡画像を変換した少なくとも1つの第2の内視鏡画像に基づき、前記ディープ畳み込みネットワークのトレーニングパラメータを決定するステップと、を実行することを特徴とする請求項13に記載のコンピュータデバイス。
  15. 前記少なくとも1つのプロセッサーは、
    前記人体部位の構造及び予め設定された診断ターゲットに基づき、少なくとも1つの候補臓器カテゴリーを決定するステップと、
    各候補臓器カテゴリーに対応するラベル画像を取得するステップと、
    前記少なくとも1つの第1の内視鏡画像及び前記少なくとも1つの第2の内視鏡画像を入力サンプルとし、各ラベル画像をターゲット出力サンプルとしてトレーニングして、前記トレーニングパラメータを得るステップと、を実行することを特徴とする請求項14に記載のコンピュータデバイス。
  16. 前記ディープ畳み込みネットワークは、入力レイヤー、処理レイヤー、及び分類レイヤーを含み、
    前記少なくとも1つのプロセッサーは、
    前記処理レイヤーに少なくとも1つの密集接続レイヤーを追加するステップであって、前記密集接続レイヤーが複数の接続サブレイヤーを含むステップと、
    前記接続サブレイヤーのそれぞれについて、当該接続サブレイヤーの前にある他の接続サブレイヤーから出力された特徴を当該接続サブレイヤーの入力とするステップと、実行することを特徴とする請求項14に記載のコンピュータデバイス。
  17. 前記少なくとも1つのプロセッサーは、
    2つの隣接する密集接続レイヤーの間に遷移レイヤーを追加し、予め設定された予測精度に基づき、当該遷移レイヤーの特徴圧縮率を設置するステップを実行する、ことを特徴とする請求項16に記載のコンピュータデバイス。
  18. 前記ディープ畳み込みネットワークは、入力レイヤー、処理レイヤー、及び分類レイヤーを含み、
    前記少なくとも1つのプロセッサーは、
    前記ディープ畳み込みネットワークをトレーニングするための損失関数を予め構築するステップを実行し、
    前記ディープ畳み込みネットワークをトレーニングする場合、
    前記処理レイヤーが前記少なくとも1つの第1の内視鏡画像を処理することによって得られた少なくとも1つの処理済み特徴を取得するステップと、
    前記少なくとも1つの処理済み特徴及び前記少なくとも1つの第2の内視鏡画像の特徴に基づき、現在の反復における前記損失関数の値を算出するステップと、
    前記損失関数の値に基づき、トレーニングプロセスが終了したかどうかを決定し、トレーニングプロセスが終了したと決定した場合、前記トレーニングパラメータを取得するステップと、を反復して実行する、ことを特徴とする請求項14に記載のコンピュータデバイス。
  19. 前記ディープ畳み込みネットワークをトレーニングする場合、前記少なくとも1つのプロセッサーは、
    前記少なくとも1つの第1の内視鏡画像が属する臓器カテゴリーの中心特徴を初期化するステップと、
    各処理済み特徴と各第2の内視鏡画像の特徴との間の複数の第1の距離をそれぞれ算出するステップと、
    各第1の内視鏡画像の特徴と各第1の内視鏡画像に対応する中心特徴との間の複数の第2の距離を算出するステップと、
    前記複数の第1の距離と前記複数の第2の距離に基づき、前記損失関数の値を算出するステップと、
    を実行することを特徴とする請求項18に記載のコンピュータデバイス。
  20. 前記少なくとも1つの第1の内視鏡画像に対して実行される変換は、クリッピング、回転、輝度ジッター、カラージッター、又はコントラストジッターのうちの少なくとも1つを含むことを特徴とする請求項13に記載のコンピュータデバイス。
JP2020560333A 2018-10-30 2019-10-21 コンピュータデバイスの作動方法、コンピュータデバイス、およびコンピュータプログラム、ならびに、内視鏡画像処理システム Active JP7214291B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201811276885.2 2018-10-30
CN201811276885.2A CN109523522B (zh) 2018-10-30 2018-10-30 内窥镜图像的处理方法、装置、系统及存储介质
PCT/CN2019/112202 WO2020088288A1 (zh) 2018-10-30 2019-10-21 内窥镜图像的处理方法、系统及计算机设备

Publications (2)

Publication Number Publication Date
JP2021519663A true JP2021519663A (ja) 2021-08-12
JP7214291B2 JP7214291B2 (ja) 2023-01-30

Family

ID=65774370

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020560333A Active JP7214291B2 (ja) 2018-10-30 2019-10-21 コンピュータデバイスの作動方法、コンピュータデバイス、およびコンピュータプログラム、ならびに、内視鏡画像処理システム

Country Status (5)

Country Link
US (2) US11849914B2 (ja)
EP (1) EP3876190B1 (ja)
JP (1) JP7214291B2 (ja)
CN (1) CN109523522B (ja)
WO (1) WO2020088288A1 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109523522B (zh) * 2018-10-30 2023-05-09 腾讯医疗健康(深圳)有限公司 内窥镜图像的处理方法、装置、系统及存储介质
CN110084279A (zh) * 2019-03-29 2019-08-02 广州思德医疗科技有限公司 一种确定分类标签的方法及装置
CN110084280B (zh) * 2019-03-29 2021-08-31 广州思德医疗科技有限公司 一种确定分类标签的方法及装置
CN110097083A (zh) * 2019-03-29 2019-08-06 广州思德医疗科技有限公司 一种确定分类标签的方法及装置
CN110136106B (zh) * 2019-05-06 2022-12-27 腾讯医疗健康(深圳)有限公司 医疗内窥镜图像的识别方法、系统、设备和内窥镜影像系统
CN110495847B (zh) * 2019-08-23 2021-10-08 重庆天如生物科技有限公司 基于深度学习的消化道早癌辅助诊断系统和检查装置
EP3786765A1 (en) * 2019-08-29 2021-03-03 Leica Instruments (Singapore) Pte. Ltd. Microscope, control circuit, method and computer program for generating information on at least one inspected region of an image
CN111012285B (zh) * 2019-12-06 2021-06-08 腾讯科技(深圳)有限公司 内窥镜移动时间确定方法、装置和计算机设备
CN110859624A (zh) * 2019-12-11 2020-03-06 北京航空航天大学 一种基于结构磁共振影像的大脑年龄深度学习预测系统
CN110974142B (zh) * 2019-12-20 2020-08-18 山东大学齐鲁医院 共聚焦激光显微内镜实时同步内镜病变定位系统
CN113143168A (zh) * 2020-01-07 2021-07-23 日本电气株式会社 医疗辅助操作方法、装置、设备和计算机存储介质
CN111814655B (zh) * 2020-07-03 2023-09-01 浙江大华技术股份有限公司 目标重识别方法及其网络训练方法、相关装置
CN111860542B (zh) * 2020-07-22 2024-06-28 海尔优家智能科技(北京)有限公司 用于识别物品类别的方法及装置、电子设备
CN112907726B (zh) * 2021-01-25 2022-09-20 重庆金山医疗技术研究院有限公司 一种图像处理方法、装置、设备及计算机可读存储介质
CN112906682A (zh) * 2021-02-07 2021-06-04 杭州海康慧影科技有限公司 控制光源亮度的方法、装置及计算机存储介质
CN113469959B (zh) * 2021-06-16 2024-07-23 北京理工大学 基于质量缺陷成像模型的对抗训练优化方法及装置
CN113486990B (zh) * 2021-09-06 2021-12-21 北京字节跳动网络技术有限公司 内窥镜图像分类模型的训练方法、图像分类方法和装置
CN113706526B (zh) * 2021-10-26 2022-02-08 北京字节跳动网络技术有限公司 内窥镜图像特征学习模型、分类模型的训练方法和装置
CN113822894B (zh) * 2021-11-25 2022-02-08 武汉大学 十二指肠胰头图像识别方法和十二指肠胰头图像识别装置
CN114464316B (zh) * 2022-04-11 2022-07-19 武汉大学 胃部异常风险等级预测方法、装置、终端及可读存储介质
CN114511749B (zh) * 2022-04-19 2022-06-28 武汉大学 图像处理方法、装置、计算机设备及存储介质
CN117974668B (zh) * 2024-04-02 2024-08-13 青岛美迪康数字工程有限公司 基于ai的新型胃黏膜可视度评分量化方法、装置和设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017045341A (ja) * 2015-08-28 2017-03-02 カシオ計算機株式会社 診断装置、及び診断装置における学習処理方法、並びにプログラム
WO2017175282A1 (ja) * 2016-04-04 2017-10-12 オリンパス株式会社 学習方法、画像認識装置およびプログラム
WO2018008593A1 (ja) * 2016-07-04 2018-01-11 日本電気株式会社 画像診断学習装置、画像診断装置、方法およびプログラムを格納する記憶媒体
US20180225820A1 (en) * 2015-08-07 2018-08-09 Arizona Board Of Regents On Behalf Of Arizona State University Methods, systems, and media for simultaneously monitoring colonoscopic video quality and detecting polyps in colonoscopy
WO2018225448A1 (ja) * 2017-06-09 2018-12-13 智裕 多田 消化器官の内視鏡画像による疾患の診断支援方法、診断支援システム、診断支援プログラム及びこの診断支援プログラムを記憶したコンピュータ読み取り可能な記録媒体

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6292791B1 (en) * 1998-02-27 2001-09-18 Industrial Technology Research Institute Method and apparatus of synthesizing plucked string instruments using recurrent neural networks
US10482313B2 (en) * 2015-09-30 2019-11-19 Siemens Healthcare Gmbh Method and system for classification of endoscopic images using deep decision networks
US10007866B2 (en) * 2016-04-28 2018-06-26 Microsoft Technology Licensing, Llc Neural network image classifier
CN106022221B (zh) 2016-05-09 2021-11-30 腾讯科技(深圳)有限公司 一种图像处理方法及处理系统
CN106097340A (zh) * 2016-06-12 2016-11-09 山东大学 一种基于卷积分类器的自动检测并勾画肺结节所在位置的方法
CN106920227B (zh) * 2016-12-27 2019-06-07 北京工业大学 基于深度学习与传统方法相结合的视网膜血管分割方法
US20190005377A1 (en) * 2017-06-30 2019-01-03 Advanced Micro Devices, Inc. Artificial neural network reduction to reduce inference computation time
CN108304936B (zh) * 2017-07-12 2021-11-16 腾讯科技(深圳)有限公司 机器学习模型训练方法和装置、表情图像分类方法和装置
CN107730489A (zh) * 2017-10-09 2018-02-23 杭州电子科技大学 无线胶囊内窥镜小肠病变计算机辅助检测系统及检测方法
CN107977969B (zh) * 2017-12-11 2020-07-21 北京数字精准医疗科技有限公司 一种内窥镜荧光图像的分割方法、装置及存储介质
CN108108807B (zh) * 2017-12-29 2020-06-02 北京达佳互联信息技术有限公司 学习型图像处理方法、系统及服务器
CN108256450A (zh) * 2018-01-04 2018-07-06 天津大学 一种基于深度学习的人脸识别和人脸验证的监督学习方法
CN108596090B (zh) * 2018-04-24 2019-08-27 北京达佳互联信息技术有限公司 人脸图像关键点检测方法、装置、计算机设备及存储介质
CN108615037A (zh) * 2018-05-31 2018-10-02 武汉大学人民医院(湖北省人民医院) 基于深度学习的可控胶囊内镜操作实时辅助系统及操作方法
CN118609067A (zh) * 2018-09-20 2024-09-06 辉达公司 训练神经网络以用于车辆重新识别
CN109523522B (zh) * 2018-10-30 2023-05-09 腾讯医疗健康(深圳)有限公司 内窥镜图像的处理方法、装置、系统及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180225820A1 (en) * 2015-08-07 2018-08-09 Arizona Board Of Regents On Behalf Of Arizona State University Methods, systems, and media for simultaneously monitoring colonoscopic video quality and detecting polyps in colonoscopy
JP2017045341A (ja) * 2015-08-28 2017-03-02 カシオ計算機株式会社 診断装置、及び診断装置における学習処理方法、並びにプログラム
WO2017175282A1 (ja) * 2016-04-04 2017-10-12 オリンパス株式会社 学習方法、画像認識装置およびプログラム
WO2018008593A1 (ja) * 2016-07-04 2018-01-11 日本電気株式会社 画像診断学習装置、画像診断装置、方法およびプログラムを格納する記憶媒体
WO2018225448A1 (ja) * 2017-06-09 2018-12-13 智裕 多田 消化器官の内視鏡画像による疾患の診断支援方法、診断支援システム、診断支援プログラム及びこの診断支援プログラムを記憶したコンピュータ読み取り可能な記録媒体

Also Published As

Publication number Publication date
US20240081618A1 (en) 2024-03-14
WO2020088288A1 (zh) 2020-05-07
JP7214291B2 (ja) 2023-01-30
EP3876190A4 (en) 2021-12-29
EP3876190B1 (en) 2024-05-01
US20210052135A1 (en) 2021-02-25
EP3876190A1 (en) 2021-09-08
CN109523522B (zh) 2023-05-09
CN109523522A (zh) 2019-03-26
US11849914B2 (en) 2023-12-26

Similar Documents

Publication Publication Date Title
JP7214291B2 (ja) コンピュータデバイスの作動方法、コンピュータデバイス、およびコンピュータプログラム、ならびに、内視鏡画像処理システム
CN113496489B (zh) 内窥镜图像分类模型的训练方法、图像分类方法和装置
Younas et al. A deep ensemble learning method for colorectal polyp classification with optimized network parameters
JP7152513B2 (ja) 画像認識方法、装置、端末機器及び医療システム、並びにそのコンピュータプログラム
CN110517256B (zh) 一种基于人工智能的早期癌辅助诊断系统
CN111489324B (zh) 一种融合多模态先验病理深度特征的宫颈图像分类方法
CN112088394A (zh) 生物组织的计算机分类
CN109948671B (zh) 图像分类方法、装置、存储介质以及内窥镜成像设备
CN117274270A (zh) 基于人工智能的消化内镜实时辅助系统及方法
CN117689949A (zh) 一种基于少样本学习的消化道内镜图像分类算法
CN109460717A (zh) 消化道共聚焦激光显微内镜病变图像识别方法及装置
Xing et al. A saliency-aware hybrid dense network for bleeding detection in wireless capsule endoscopy images
JP6707131B2 (ja) 画像処理装置、学習装置、画像処理方法、識別基準の作成方法、学習方法およびプログラム
CN113222957A (zh) 一种基于胶囊镜图像的多类别病灶高速检测方法及系统
CN111816308B (zh) 一种通过面部图片分析预测冠心病发病风险的系统
CN116830148A (zh) 胶囊式内窥镜检查中小肠病变的自动检测和区分
CN117058467B (zh) 一种胃肠道病变类型识别方法及系统
US20240020829A1 (en) Automatic detection of erosions and ulcers in crohn's capsule endoscopy
US20240135540A1 (en) Automatic detection and differentiation of biliary lesions in cholangioscopy images
Mishra et al. Assessing robustness of deep learning methods in dermatological workflow
CN115690518A (zh) 一种肠化生严重程度分类系统
JP2024509105A (ja) Turpの病理画像から前立腺癌を検出するための人工ニューラルネットワークを学習する方法、及びこれを行うコンピューティングシステム
CN114155234A (zh) 病灶肺段位置的识别方法、装置、存储介质及电子设备
Malviya et al. Deep Learning Based Gastro Intestinal Disease Analysis Using Wireless Capsule Endoscopy Images
Batra et al. A brief overview on deep learning methods for lung cancer detection using medical imaging

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201027

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201027

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230112

R150 Certificate of patent or registration of utility model

Ref document number: 7214291

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150