JP7127779B2 - Diagnostic support system and diagnostic support program - Google Patents
Diagnostic support system and diagnostic support program Download PDFInfo
- Publication number
- JP7127779B2 JP7127779B2 JP2019081571A JP2019081571A JP7127779B2 JP 7127779 B2 JP7127779 B2 JP 7127779B2 JP 2019081571 A JP2019081571 A JP 2019081571A JP 2019081571 A JP2019081571 A JP 2019081571A JP 7127779 B2 JP7127779 B2 JP 7127779B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- tissue diagnosis
- specific site
- support system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Endoscopes (AREA)
- Closed-Circuit Television Systems (AREA)
Description
特許法第30条第2項適用 〔集会での発表による公開〕 ・集会名 :第95回日本消化器内視鏡学会総会 開催日 :2018年5月11日 開催場所 :グランドプリンス新高輪 国際館パミール ・集会名 :Digestive Disease Week(DDW2018) 開催日 :2018年6月2日 開催場所 :Walter E.Washington Convention Center ・集会名 :第96回日本消化器内視鏡学会総会 開催日 :2018年11月3日 開催場所 :神戸コンベンションセンター 〔刊行物による公開〕 ・刊行物名 :PR TIMS 発行日 :2018年8月17日 ・刊行物名 :IoTNEWS 発行日 :2018年8月17日 ・刊行物名 :iza:イザ! 発行日 :2018年8月17日 ・刊行物名 :産経ニュース 発行日 :2018年8月17日 ・刊行物名 :エキサイト 発行日 :2018年8月17日 ・刊行物名 :Infoseekニュース 発行日 :2018年8月17日 ・刊行物名 :CNET Japan 発行日 :2018年8月17日 ・刊行物名 :読売新聞 発行日 :2019年1月16日 ・刊行物名 :yomiDr.(ヨミドクター) 発行日 :2019年1月16日 〔ウェブサイトによる公開〕 電気通信回線発表:2018年10月1日 掲載アドレス:http://www.jddw.jp/jddw2018/abstracts/index.php/loginArticle 30,
本発明は診断支援システム、及び診断支援用プログラムに関する。 The present invention relates to a diagnostic support system and a diagnostic support program.
我が国における大腸癌の罹患率や死亡数は年々増加傾向にある。その予防や治療成績の向上には、腫瘍性ポリープを早期のうちに大腸内視鏡によって発見し、切除することが重要とされている。 The morbidity and mortality of colorectal cancer in Japan are increasing year by year. In order to prevent the disease and improve the results of treatment, it is important to detect and remove neoplastic polyps at an early stage by colonoscopy.
しかし、腫瘍性ポリープの検査精度は、内視鏡医の技能や機械の性能に依存しているのが現状である。大腸の鋸歯状病変は、大腸過形成ポリープ(HP)、鋸歯状線種(TSA)、広基性・無茎性鋸歯状病変(SSA/P)に分類され得る。TSAは明らかな腫瘍性の病変である。一方、SSA/Pは従前は病変とは考えられていなかったが、近年、前駆病変として注目されている。このため、SSA/Pを的確に内視鏡画像から検出し、組織診断予測(分類)の対象とすることが求められている。 However, the current situation is that the accuracy of examination of neoplastic polyps depends on the skill of the endoscopist and the performance of the machine. Serrated lesions of the colon can be classified into hyperplastic polyps of the colon (HP), serrated adenomas (TSA), and broadly basal sessile serrated lesions (SSA/P). A TSA is a distinct neoplastic lesion. On the other hand, SSA/P was not considered as a lesion in the past, but in recent years it has attracted attention as a precursor lesion. Therefore, it is required to accurately detect SSA/P from endoscopic images and use it as a target for tissue diagnosis prediction (classification).
しかし、HPとSSA/Pを的確に判別することは、熟練した内視鏡医でも難しく、また、画像処理装置において正確に分類することも困難である。そこで、内視鏡医の技能や機械の性能によらず、検査精度の向上を図ることができる診断支援システムが望まれている。このような問題は、大腸内視鏡検査に限らず他の人体組織の診断についても同様に発生している。 However, it is difficult even for a skilled endoscopist to accurately discriminate between HP and SSA/P, and it is also difficult for an image processing apparatus to perform accurate classification. Therefore, there is a demand for a diagnostic support system capable of improving examination accuracy regardless of the skill of the endoscopist or the performance of the machine. Such problems occur not only in colonoscopy but also in diagnosis of other human tissues.
特許文献1には、内視鏡により消化管の粘膜細胞を拡大撮像して得られた内視鏡画像に含まれる細胞核を抽出し、テクスチャ解析により、非腫瘍、腺腫、癌及びSSA/Pの識別を行う診断支援システムが開示されている。しかし、この特許文献1の技術は、高倍率撮像機能を有する内視鏡を用いて、超拡大画像に基づく診断支援を行うものであり、通常の内視鏡においても汎用的に利用できるものではない。また、超拡大画像を利用することを前提とするものであり、病変の見落としという問題に対して効果的な解決手段を提供するものではない。
In
本発明は、上記の課題に鑑みてなされたものであって、病変の見落としを防止しつつも、病変の分類を内視鏡の技能に従って適切なタイミングで実行することができる診断支援システムを提供することを目的とするものである。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and provides a diagnostic support system capable of classifying lesions at an appropriate timing according to endoscopic skills while preventing lesions from being overlooked. It is intended to
上記の課題を解決するため、本発明に係る診断支援システムは、撮像装置により得られた画像を表示する表示部と、前記画像中において病変または前駆病変の特徴を有する特定部位を検出する特定部位検出部と、前記表示部において、前記特定部位検出部で特定された特定部位を囲う図形を表示する表示制御部と、前記特定部位に関し、所定の基準に従って組織診断の予測を行う組織診断予測部と、前記特定部位検出部によって前記特定部位を検出する検出アルゴリズムを実行している間において前記画像が静止状態にあるとの条件が成立した場合、前記組織診断予測部によって組織診断の予測を実行する組織診断アルゴリズムを開始する制御部とを備えたことを特徴とする。 In order to solve the above problems, the diagnostic support system according to the present invention includes a display unit for displaying an image obtained by an imaging device, and a specific site for detecting a specific site having characteristics of a lesion or a precursor lesion in the image. a detection unit, a display control unit for displaying a graphic surrounding the specific site specified by the specific site detection unit in the display unit, and a tissue diagnosis prediction unit for predicting a tissue diagnosis for the specific site according to a predetermined standard. and when the condition that the image is in a static state is satisfied while the detection algorithm for detecting the specific site is executed by the specific site detection unit, the tissue diagnosis prediction unit predicts the tissue diagnosis. and a controller for initiating a tissue diagnosis algorithm for performing the tissue diagnosis.
このシステムにおいて、画像の状態を判定する画像状態検出部を更に備えることができる。この場合、制御部は、画像状態検出部の判定結果に従い、検出アルゴリズムと組織診断アルゴリズムを並行して実行することができる。ここで画像状態検出部は、画像が静止状態にあるか否かを判定するよう構成されたものとすることができる。 This system can further include an image state detector that determines the state of the image. In this case, the control section can execute the detection algorithm and tissue diagnosis algorithm in parallel according to the determination result of the image state detection section. Here, the image state detection unit can be configured to determine whether or not the image is in a static state.
また、組織診断予測部は、画像を構成する複数のフレーム間における前記図形の重なり率に基づいて前記部位において病変が存在する可能性を示す確信度を算出するよう構成されることができる。 Further, the tissue diagnosis prediction unit can be configured to calculate a certainty factor indicating the possibility that a lesion exists at the site based on the overlap rate of the graphics between a plurality of frames forming the image.
本発明に係る診断支援システムによれば、病変の見落としを防止しつつも、病変の分類を内視鏡の技能に従って適切なタイミングで実行することができる診断支援システムを提供することができる。 According to the diagnostic support system according to the present invention, it is possible to provide a diagnostic support system capable of preventing lesions from being overlooked and classifying lesions at appropriate timing according to endoscope skills.
以下、添付図面を参照して本実施形態について説明する。添付図面では、機能的に同じ要素は同じ番号で表示される場合もある。なお、添付図面は本開示の原理に則った実施形態と実装例を示しているが、これらは本開示の理解のためのものであり、決して本開示を限定的に解釈するために用いられるものではない。本明細書の記述は典型的な例示に過ぎず、本開示の特許請求の範囲又は適用例を如何なる意味においても限定するものではない。 Hereinafter, this embodiment will be described with reference to the accompanying drawings. In the accompanying drawings, functionally identical elements may be labeled with the same numbers. It should be noted that although the attached drawings show embodiments and implementation examples in accordance with the principles of the present disclosure, they are for the purpose of understanding the present disclosure and are in no way used to interpret the present disclosure in a restrictive manner. is not. The description herein is merely exemplary and is not intended to limit the scope or application of this disclosure in any way.
本実施形態では、当業者が本開示を実施するのに十分詳細にその説明がなされているが、他の実装・形態も可能で、本開示の技術的思想の範囲と精神を逸脱することなく構成・構造の変更や多様な要素の置き換えが可能であることを理解する必要がある。従って、以降の記述をこれに限定して解釈してはならない。 Although the present embodiments are described in sufficient detail to enable those skilled in the art to practice the present disclosure, other implementations and configurations are possible without departing from the scope and spirit of the present disclosure. It is necessary to understand that it is possible to change the composition/structure and replace various elements. Therefore, the following description should not be construed as being limited to this.
まず、本発明の第1の実施の形態の診断支援システムについて詳細に説明する。 First, a diagnosis support system according to the first embodiment of the present invention will be described in detail.
(ハードウエア構成)
図1は、第1の実施の形態の診断支援システム1のハードウエア構成を説明する概略図である。この診断支援システム1は、内視鏡100(撮像装置)、プロセッサ200、ディスプレイ300、及び光源部400から大略構成される。
(Hardware configuration)
FIG. 1 is a schematic diagram for explaining the hardware configuration of a
内視鏡100は、被検体の体内、例えば大腸に挿入可能に構成されて被写体を撮像し、その撮像された画像の画像信号をプロセッサ200に伝送する機能を有する。プロセッサ200は、内視鏡100からの画像信号を受信して所定の信号処理を実行し、後述する検出や組織診断の予測を実行する。
The
内視鏡100は、挿入部101、手元操作部102、屈曲部103、先端部104、ユニバーサルケーブル105、及びコネクタ部106を備えている。挿入部101は、可撓性を有し、その長手方向に沿ってライトガイド、各種配線及び送水管等を備えており、被検体の体内に挿入される。挿入部101は、その一端において手元操作部102と接続されている。手元操作部102は、例えば湾曲操作ノブ102A及び操作ボタン102B等を備えている。操作ボタン102Bは、気流を送り込むための送気ボタン、水流を送り込むための送水ボタンの他、撮像中の画像から静止画像を取得するためのフリーズボタン102Bfを含み得る。
The
挿入部101の先端には、屈曲可能に構成された屈曲部103が設けられている。手元操作部102に設けられた湾曲操作ノブ102Aの回転操作に連動した操作ワイヤ(図示せず)の牽引によって屈曲部103は屈曲する。更に、屈曲部103の先端には、CCDやCMOSセンサ等の撮像素子を備えた先端部104が連結されている。先端部104は、湾曲操作ノブ102Aの回転操作による屈曲部103の屈曲動作に応じてその向きが変更されるよう構成されている。
A
手元操作部102とコネクタ部106とは、ユニバーサルケーブル105により接続されている。ユニバーサルケーブル105は、その内部にライトガイドや各種配線を含んでいる。コネクタ部106は、内視鏡100をプロセッサ200に接続させるための各種コネクタを含んでいる。
プロセッサ200は、内視鏡100で撮像された画像に所定の画像処理を施してディスプレイ300に表示させる。また、プロセッサ200は、得られた画像の分析を行って、画像中から特定の部位を検出するとともに、検出された部位を、その性状に従って分類(組織診断予測)を行う。一例としてプロセッサ200は、検出された部位を、大腸過形成ポリープ(HP)、鋸歯状線種(TSA)、広基性・無茎性鋸歯状病変(SSA/P)等に分類することが可能に構成される。
The
ディスプレイ300は、例えば例えばユーザインタフェース(UI)301、観察画像表示部302、及びキャプチャ画像表示部303を表示画面に表示する。UI301は、例えば表示の内容、検出の手法、学習用データの収集の有無、その他本診断支援システムの動作に関する各種命令やパラメータを入力し、又は表示するためのインタフェースである。観察画像表示部302には、内視鏡100が撮像している画像を表示する他、検出された特定部位の位置を示すバウンディングボックスBXが表示される。バウンディングボックスBXは、所定の特徴を有する特定部位の位置を示すための図形の一例であって、図示の例は矩形であるが、これに限定されるものではないことは言うまでもなく、ユーザにその存在を認知可能なものであればその形状は不問である。キャプチャ画像表示部303は、現在撮像中(リアルタイム)の画像ではなく、例えば現在撮像中のフレームよりも前のフレームをキャプチャ(保存)した後表示する部分である。キャプチャ画像表示部303は、新しい病変が検出された場合に、その検出結果をレポートとして出力する表示部としても機能し得る。
The
次に、プロセッサ200の構成の詳細を、引き続き図1を参照して説明する。プロセッサ200は、一例として、画像処理部201、インタフェース202、ハードディスクドライブ203、ROM204、RAM205、入力部206、インタフェース207、CPU208、表示制御部209、特定部位検出部210、組織診断予測部211、画像状態検出部212、学習用データ生成部213を備えている。
The details of the configuration of
画像処理部201は、内視鏡100の固体撮像素子(図示せず)から受信した映像信号に対し所定の画像処理を行ってデジタル信号に変換する。デジタル信号に変換された映像信号は、インタフェース202を介してCPU208に取り込まれる。ハードディスクドライブ203は、本システムにおける診断支援システムの動作を制御するコンピュータプログラム、及びその動作に用いるデータ群を記憶する。大腸内視鏡データは、大腸内視鏡画像と、その病変に関する診断データとを含む。
The
ROM204は、例えばこのコンピュータプログラムの設定ファイルや、その他装置の動作パラメータ等を記憶する記憶装置であり、RAM205は、コンピュータプログラムをハードディスクドライブ203から読み出して記憶するとともに、コンピュータプログラムの動作中の処理データ等を一時記憶する記憶装置である。入力部206は、例えば周知のキーボード、マウス、テンキー、ジョイスティック、タッチパネル等、ユーザが各種の入力を行うための装置であり、インタフェース207を介してCPU208に対しデータの送信を行う。入力部206は、内視鏡100に設けられる操作ボタン102Bも含む。その他、内視鏡100及び/又はプロセッサ200には、検査の終了を指示する終了ボタン(図示せず)を設けることもできる。
The
表示制御部209は、ディスプレイ300上における画面表示を制御する制御部である。表示制御部209は、検出結果に従ってディスプレイ300の表示状態を変更すると共に、入力部206からの入力に従ってもその表示状態を変化させることが可能なよう構成されている。
The
特定部位検出部210は、前述の学習用データによって定まる検出基準(検出用モデル)に従い、特定部位(病変、前駆病変等)を撮像画像の中から検出するモジュールであり、前述のコンピュータプログラムによりプロセッサ200内にソフトウエア的に実現され得る。特定部位検出部210は、特定部位が検出されると、その撮像画像上での位置を含むデータをCPU208に出力する。表示制御部209は、CPU208から当該情報を受信し、該当する箇所にバウンディングボックスBXを表示する。バウンディングボックスBXは、大腸内視鏡検査の間において多数ディスプレイ300上で表示されるので、内視鏡医は、このバウンディングボックスBXの表示に注意しつつ、検査を続けることができる。なお、特定部位検出部210、組織診断予測部211、及び画像状態検出部212は、ソフトウエア的に実現される代わりに、ハードウエア、例えばDSP(Digital Signal Processor)等により実現されてもよい。
The specific
組織診断予測部211は、所定の条件が成立した場合において、特定部位検出部210で検出された特定部位に対し、組織診断予測用モデルに従い、組織診断予測(分類)を行う機能を有し、同様に前述のコンピュータプログラムによりプロセッサ200内にソフトウエア的に実現され得る。ここで、所定の条件は、一例として、以下で説明するフリーズ状態が画像状態検出部212により検出された場合である。組織診断予測用モデルは、例えばロジスティック回帰、単純ベイズ分類器、サポートベクターマシン、ニューラルネットワークなどに基づいて生成され得るが、特定のものに限定されるものではない。ニューラルネットワークとしては、順伝播型ニューラルネットワークと再帰型(リカレント)ニューラルネットワークのいずれも利用することが可能である。なお、組織診断予測部211に加え、病変の種類を鑑別する病変鑑別部を更に備えても良い。
The tissue
画像状態検出部212は、映像信号が所定の状態にあるか否かを検出するモジュールであり、同様にコンピュータプログラムによりプロセッサ200内にソフトウエア的に実現され得る。例えば、画像状態検出部212は、撮像中の画像の単位時間当たりの変化が所定量未満であるか否かを検知する。図2に模式的に示すように、内視鏡100により大腸の撮像が行われる場合、本システムのユーザである内視鏡医Dは、内視鏡100の挿入部101を大腸LB内で出し入れする動作(矢印A)を行う。この出し入れの動作により、先端部104が大腸LB内を移動することで、撮像画像は刻々と変化する。
The image
しかし、内視鏡医Dが挿入部101を移動させる手を止めるか、又は前述のフリーズボタン102Bfを押すと、撮像画像の変化は止まるか、又はその変化が微小となる。以下では、このように挿入部101の移動が止められたり、フリーズボタン102Bfが押されたりすることにより、単位時間当たりの撮像画像の変化が所定値未満となった状態を、以下では「フリーズ状態(静止状態)」と称する。画像状態検出部212は、このようなフリーズ状態(静止状態)を検出する機能を有するモジュールである。具体的に画像状態検出部212は、あるフレーム(第1のフレーム)と、そのフレームよりも時間的に前のフレーム(第2のフレーム)との比較に基づいて、撮像画像がフリーズ状態か否かを判定することができる。なお、画像状態検出部212は、撮像中の画像が、白色光画像なのか、NBI(Narrow Band Imaging(登録商標))画像なのか、それとも染色画像なのかも、フリーズ状態の検出と共に検出可能とされている。
However, when the endoscopist D stops moving the
この実施の形態では、特定部位検出部210は、検査の実行中常に動作しており、特定部位検出部210は、ユーザによる入力や検出の結果等に拘わらず(終了ボタン等を含む検査終了の指示が無い限り)、特定部位の検出を継続する。一方、組織診断予測部211は、特定の条件が成立した場合にのみ動作を開始し、特定部位検出部210における特定部位の検出と並行して、組織診断の予測を実行する。すなわち、CPU208及びプログラムは、画像状態検出部212の判定結果に従い、特定部位検出部210による検出アルゴリズムと組織診断予測部211による組織診断アルゴリズムを並行して実行するよう構成されている。このように、この実施の形態では、特定部位検出部210を常時動作させる一方、組織診断予測部211は、特定の条件が成立した場合にのみ特定部位検出部210と並行して動作させることが可能とされており、これにより、特定部位の見落としを防止しつつも、内視鏡医のスキル等に合わせて適切なタイミングで組織診断の予測を実行することができる。
In this embodiment, the specific
例えば、スキルが必ずしも高くない内視鏡医は、挿入部101の動きを頻繁に止めたり(又は遅くしたり)、頻繁にフリーズボタン102Bfを押すことで、検出された測定部位に対し高い頻度で組織診断予測を実行することができる。これにより、特定部位の見落としも防ぎつつ、内視鏡医のスキルに応じ、高い頻度で組織診断予測の結果をディスプレイ300に表示することができる。
For example, an endoscopist whose skill is not necessarily high frequently stops (or slows down) the movement of the
一方、スキルが高い内視鏡医は、自身のスキルに合わせた速度で挿入部101を操作し、自身の診断スキルに合わせたタイミングで挿入部101の動きを適宜止めたり、目に止まった特定部位の位置でフリーズボタン102Bfを押したりして、その特定部位の組織診断予測を実行することができる。特定部位検出部210による特定部位の検出は、内視鏡医のスキルに拘わらず、内視鏡100により撮像される限り常時行われるが、組織診断予測部211が動作するタイミングは、内視鏡医のスキルによって異なる。スキルの高い内視鏡医がこのシステムにおいて検査を実行する場合、スキルが必ずしも高くない内視鏡医が検査を実行する場合に比べ、組織診断予測部211による組織診断予測が行われる頻度は小さくなる。すなわち、内視鏡医のスキルに合わせたタイミングで組織診断予測を行うことができる。換言すれば、本実施の形態のシステムによれば、スキルの高い内視鏡医にとっては不要な情報が表示されることを防止することができる。
On the other hand, a highly skilled endoscopist operates the
(動作)
次に、図3~図8のフローチャートを参照して、実施の形態の診断支援システムの動作を説明する。図3のフローチャートは、本システムの動作の全体の手順を示しており、図4~図8は、図3のフローチャート中の一部のステップを更に詳細に説明している。これらのフローチャートに示す動作は、ハードディスクドライブ203に格納されたコンピュータプログラムに従って規定される。
(motion)
Next, the operation of the diagnostic support system according to the embodiment will be described with reference to the flow charts of FIGS. 3 to 8. FIG. The flow chart of FIG. 3 shows the overall procedure of operation of the system, and FIGS. 4-8 explain some steps in the flow chart of FIG. 3 in more detail. The operations shown in these flowcharts are defined according to a computer program stored in
(動作の全体概要)
図3に示すように、本診断支援システムによる検査が開始されると、まず、CPU208は、ROM204に格納された設定ファイルから、ソフトウエアにおける判定や検出に必要なパラメータを読み出す(ステップS11)。そして、ユーザインタフェースを起動し(ステップS12)、ディスプレイ300の一部に表示する。
(overall overview of operation)
As shown in FIG. 3, when the examination by the diagnostic support system is started, first, the
ステップS12で読み出されたパラメータをRAM205に入力し記憶させた後、診断支援用プログラムの動作の開始を指示する操作が、ユーザによってなされる(ステップS13)。開始を指示する操作は、ユーザインタフェース301上のアイコンをクリックすることによる指示であってもよいし、単に内視鏡100に対する操作の開始を検知することにより、指示に替えてもよい。
After the parameters read in step S12 are input and stored in the
操作の開始後、診断支援用プログラムは、ステップS14において子スレッドを作成し、以後、親スレッドと子スレッドとが並行して実行される。親スレッド(ステップS15~S19)は、終了ボタンが押されない限り常時継続される。一方、子スレッド(ステップS20:バウンディングボックス推定)も、バウンディングボックスBXの表示処理に関しては常時継続して実行されるが、組織診断予測部211の動作に基づく組織診断予測は、フリーズ判定の結果が肯定的(YES)である場合にのみ実行される。フリーズ判定の結果が否定的(NO)である場合には、子スレッド(ステップS20)では、特定部位の検出及びバウンディングボックスBXの表示のみが行われ、組織診断予測は実行されない。 After starting the operation, the diagnostic support program creates a child thread in step S14, and thereafter the parent thread and the child thread are executed in parallel. The parent thread (steps S15 to S19) is always continued unless the end button is pressed. On the other hand, the child thread (step S20: bounding box estimation) is also continuously executed with respect to the display processing of the bounding box BX. Executed only if affirmative (YES). If the freeze determination result is negative (NO), the child thread (step S20) only detects the specific site and displays the bounding box BX, but does not execute tissue diagnosis prediction.
親スレッド(ステップS15~S19)では、終了ボタンが押されたか否かが判定され(ステップS15)、押されていなければステップS16に移行し、押されていれば、ステップS21に移行して子スレッドを終了した後、動作は終了する。 In the parent thread (steps S15 to S19), it is determined whether or not the end button has been pressed (step S15). If not pressed, the process proceeds to step S16. After terminating the thread, the operation ends.
ステップS16では、内視鏡100で撮像された画像が画像処理部201により取得される。取得された画像は子スレッドに渡される(子スレッドでの処理については後述する)。親スレッドでは、続くステップS17において、撮像された画像がフリーズ状態にあるか否かが判定される。その判定結果は子スレッドに渡される。
In step S<b>16 , the image captured by the
続くステップS18では、得られた画像上に、バウンディングボックスBX、組織診断予測の結果(病変の種類に関する判定)を示す「ラベル」、及び組織診断予測の確信度(所定の病変に該当である可能性)などの情報を重畳したユーザインタフェース画面を描画し、ディスプレイ300に表示する。なお、ラベル情報、及び確信度の情報は、組織診断予測部211により組織診断予測が実行されたタイミングでのみ受信され、描画される。組織診断予測が実行されていないタイミングにおいては、バウンディングボックスBXのみが表示される。なお、バウンディングボックスBX、ラベル、確信度以外に、病変の部位、個数、良性/境界/悪性の判定などの情報が表示項目に含まれても良い。
In the following step S18, a bounding box BX, a "label" indicating the result of tissue diagnosis prediction (judgment regarding the type of lesion), and the degree of certainty of tissue diagnosis prediction (possibility of corresponding to a predetermined lesion) are displayed on the obtained image. A user interface screen on which information such as gender) is superimposed is drawn and displayed on the
こうして撮像され描画された画像データは、学習用データ生成部213において収集され、これらの画像データに基づいて、学習用データ生成部213において学習用データが生成される(ステップS19)。学習用データは、予めハードディスクドライブ203にも保存されており、このような事前の学習用データと、新たに生成された学習用データとを合わせて新たな学習用データ群とすることができる。なお、ハードディスクドライブ203に事前に記憶されている学習用データのみを用い、このステップS19は省略することもできる。
The image data captured and drawn in this manner is collected by the learning
(画像取得(ステップS16))
次に、図4を参照して、ステップS16の画像取得の詳細について説明する。まず、ステップS31において、画像処理部201のキャプチャボード(図示せず)から画像データ(例:1920×1980画素)が読み取られる。続いて、ステップS32において、読み取られた画像データの所定の部分が、Configファイル等で指定された大きさに従って切り取られる。
(Image acquisition (step S16))
Next, with reference to FIG. 4, the details of image acquisition in step S16 will be described. First, in step S<b>31 , image data (eg, 1920×1980 pixels) is read from a capture board (not shown) of the
次に、ステップS32で切り取られた画像が、検出に適した大きさにリサイズされて検出分類用画像として生成されると共に、ディスプレイ300での表示に適した大きさにリサイズされて表示用画像として生成される(ステップS33、S34)。
Next, the image cut out in step S32 is resized to a size suitable for detection and generated as an image for detection and classification, and resized to a size suitable for display on the
(フリーズ判定(ステップS17))
続いて、図5を参照して、図3のステップS17のフリーズ判定の詳細について説明する。フリーズ判定は、図1の画像状態検出部212において行われる。まず、ステップS16(図4のステップS34)で取得された表示用画像を、更に小さい画素数(例えば30×30画素)にリサイズし(ステップS41)、更にグレースケール画像に変換する(ステップS42)。
(Freeze determination (step S17))
Next, details of the freeze determination in step S17 of FIG. 3 will be described with reference to FIG. Freeze determination is performed in the image
続いて、グレースケール画像の各画素の画素値と、それよりも時間的に前のフレーム中のグレースケール画像の各画素の画素値との重み付け和を計算する(ステップS43)。そして、その重み付け和と現在のフレームの画素値との差分を計算する(ステップS44)。 Subsequently, a weighted sum of the pixel value of each pixel of the grayscale image and the pixel value of each pixel of the grayscale image in the temporally previous frame is calculated (step S43). Then, the difference between the weighted sum and the pixel value of the current frame is calculated (step S44).
ステップS45では、ステップS44で計算された差分が、2回連続で閾値を下回ったか、又は最後に閾値を下回ってから20フレーム以内であるか否かが判定される。YESの場合、画像状態検出部212は、対象画像がフリーズ状態にあると判定し(ステップS46)、フリーズとの判定結果を出力する。NOの場合には、フリーズ状態ではないと判定する(ステップS47)。そして、ステップS44で計算された差分が、最後に閾値を下回ってから30フレーム以上経過しているか否かが判断される(ステップS48)。YESであれば、30フレーム前とは異なる箇所を撮影しているものと判断し、差分値等についての積算結果をクリア(消去)した上で(ステップS49)、フリーズ状態ではないとの判定結果が出力されフリーズ判定は終了する。一方、ステップS48の判定結果がNOであれば、積算結果はそのままとしつつ、フリーズ状態ではないという判定結果が出力され、同様のフリーズ判定動作が継続される。
In step S45, it is determined whether the difference calculated in step S44 has fallen below the threshold two times in a row, or whether it has been within 20 frames since the last fall below the threshold. In the case of YES, the image
(ユーザインタフェース描画(検出用)(ステップS18))
続いて、図6のフローチャートを参照して、図3のステップS18のユーザインタフェース画面の描画(フリーズ状態ではなく、特定部位の検出のみが継続される場合)の手順の詳細を説明する。換言すると、図6のフローチャートは、図3のフローチャートのステップS17においてフリーズ状態ではないという判定がされた場合におけるステップS18の動作の詳細を説明している。
(User interface drawing (for detection) (step S18))
Subsequently, details of the procedure for drawing the user interface screen in step S18 of FIG. 3 (when only the detection of the specific part is continued instead of the frozen state) will be described with reference to the flowchart of FIG. In other words, the flowchart of FIG. 6 describes the details of the operation of step S18 when it is determined in step S17 of the flowchart of FIG. 3 that the state is not frozen.
図1のステップS17において、画像状態検出部212によりフリーズ状態ではないという判定結果が得られると(図6のステップS51)、ステップS52へ移行する。なお、フリーズ状態であるという判定がされた場合には、組織診断予測のための分類用ユーザインタフェース画面の描画を行う。これについては後述する。
In step S17 of FIG. 1, when the image
ステップS52では、バウンディングボックスBXを描画すべき特定部位が検出されたか否かが検出される。このとき、確信度が閾値以下の特定部位については検出対象から除外され、バウンディングボックスBXも表示されない。 In step S52, it is detected whether or not a specific portion where the bounding box BX should be drawn has been detected. At this time, the specific parts whose certainty is equal to or less than the threshold are excluded from detection targets, and the bounding box BX is not displayed either.
ステップS52の判定結果がYESである場合、ステップS53では、その特定部位の周囲にバウンディングボックスBXを描画する。検出された特定部位が複数個存在する場合、バウンディングボックスBXも複数個描画される。なお、バウンディングボックスBXの表示に対応して、プロセッサ200は、図示しないスピーカから効果音を発生させることができる。
If the determination result in step S52 is YES, in step S53 a bounding box BX is drawn around the specific part. When there are multiple detected specific parts, multiple bounding boxes BX are also drawn. Note that the
ステップS52の判定結果がNOの場合、ステップS61に移行して、ユーザインタフェース画面として描画済みの画像をディスプレイ300に表示する。
If the determination result in step S52 is NO, the process proceeds to step S61, and the drawn image is displayed on
ステップS53でバウンディングボックスBXが描画されると、続くステップS54では、バウンディングボックスBXの面積(複数個のバウンディングボックスBXがある場合、その面積の合計)が計算される。そして、その面積がディスプレイ300の表示画面の中で占める割合が所定値以上であるか否か、例えば、表示画面の面積の1%以下であるか否かが判定される。
After the bounding box BX is drawn in step S53, the area of the bounding box BX (if there are a plurality of bounding boxes BX, the total area) is calculated in step S54. Then, it is determined whether or not the ratio of the area to the display screen of
ステップS54での判定結果がYESである場合には、ステップS55に進み、当該フレームの表示を例えば5フレーム以上続ける。このように、バウンディングボックスBXの表示数が少ない場合には、複数フレーム(例えば5フレーム)に亘って表示することにより、ユーザにそのバウンディングボックスBXを認知され易くする。 If the determination result in step S54 is YES, the process advances to step S55 to continue displaying the frame, for example, for five frames or more. In this way, when the number of bounding boxes BX to be displayed is small, the bounding boxes BX are displayed over a plurality of frames (for example, 5 frames) to make it easier for the user to perceive the bounding boxes BX.
一方、ステップS54の判定結果がNOである場合(バウンディングボックスBXの面積が1%より大きい場合)には、ステップS56に移行する。ステップS56では、バウンディングボックスBXの表示とともに発せられる効果音の前回の再生から30フレーム以内であるか否かが判定される。30フレーム以内である場合、再度効果音を発することは、病変等の検出のために不要であり、ユーザに不快感を与える虞がある。このため、ステップS56の判定結果がYESであれば、前述のステップS61に移行して、効果音を発することなくUI描画済の画像を表示して図6の動作を終了する。 On the other hand, when the determination result of step S54 is NO (when the area of the bounding box BX is larger than 1%), the process proceeds to step S56. In step S56, it is determined whether or not it is within 30 frames from the previous reproduction of the effect sound emitted with the display of the bounding box BX. If it is within 30 frames, it is unnecessary to emit the sound effect again for detection of a lesion or the like, and there is a possibility that the user may feel uncomfortable. Therefore, if the determination result in step S56 is YES, the process proceeds to step S61 described above, displays the UI-drawn image without producing sound effects, and terminates the operation of FIG.
一方、ステップS56の判定結果がNOであれば、ステップS57に移行する。ステップS57では、前回の効果音の再生から40フレーム以内であるか否かが判定される。すなわち、前回の効果音の再生から30フレームを超えているが、40フレーム以内である場合には(ステップS57のYES)、効果音を再生させ、その後効果音再生タイミングを計測するタイマの計数値をリセットして(ステップS59)、ステップS60に移行する。一方、前回の効果音の再生から40フレームを超えている場合には(ステップS57のNO)、ステップS58では、その画像をキャプチャ(保存)し、リアルタイムな画像を表示する画像表示部302の横にキャプチャ画像表示部303に表示すると共に、効果音を再生する。そして、ユーザインタフェース画面として描画済の画像をディスプレイ300に表示する(ステップS60)。なお、ステップS57、S58での判定基準である30フレーム及び40フレームは、あくまでも一例であり、他のフレーム数が判定基準として採用されてもよいことは言うまでもない。
On the other hand, if the determination result of step S56 is NO, it will transfer to step S57. In step S57, it is determined whether or not it is within 40 frames from the reproduction of the previous sound effect. That is, if 30 frames have passed since the previous reproduction of the sound effect, but it is within 40 frames (YES in step S57), the sound effect is reproduced, and then the count value of the timer that measures the timing of reproducing the sound effect. is reset (step S59), and the process proceeds to step S60. On the other hand, if 40 frames have passed since the previous reproduction of the sound effect (NO in step S57), then in step S58, the image is captured (saved) and displayed on the side of the
(ユーザインタフェース描画(分類用)(ステップS18))
続いて、図7のフローチャートを参照して、図3のステップS18のユーザインタフェース画面の描画(フリーズ状態ではあり、検出された特定部位の組織診断予測(分類)が実行される場合)の手順の詳細を説明する。換言すると、図7のフローチャートは、図3のフローチャートのステップS17においてフリーズ状態であると判定された場合におけるステップS18の動作の詳細を説明している。
(User interface drawing (for classification) (step S18))
Next, referring to the flowchart of FIG. 7, the procedure for drawing the user interface screen in step S18 of FIG. I will explain the details. In other words, the flowchart of FIG. 7 describes the details of the operation of step S18 when the frozen state is determined in step S17 of the flowchart of FIG.
図1のステップS17において、画像状態検出部212によりフリーズ状態であるとの判定結果が得られると(図7のステップS71)、ステップS72に移行する。なお、フリーズ状態ではないという判定がされた場合には、特定部位の検出のためのユーザインタフェース画面の描画を行う(図6で既に前述した動作)。
In step S17 in FIG. 1, when the image
ステップS72では、特定部位が画面中で検出されたか否かが判断される。検出がされない場合(NO)、ステップS77に移行し、ユーザインタフェース画面として描画済みの画像をディスプレイ300に表示する。
In step S72, it is determined whether or not the specific part has been detected in the screen. If it is not detected (NO), the process proceeds to step S77, and the drawn image is displayed on the
一方、ステップS72で特定部位が画面中で検出されたと判断される場合(YES)、ステップS73では、その検出された特定部位に係るバウンディングボックスBX(1)と、過去のフレームで検出された特定部位に係るバウンディングボックスBX(0)との重なり率Iouが0.3以上であるか否かが判断される。重なり率が0.3以上であった場合、ラベル(病変の種類)に応じて、確信度が積算される。 On the other hand, if it is determined in step S72 that the specific site has been detected in the screen (YES), then in step S73 the bounding box BX(1) associated with the detected specific site and the specific site detected in the past frame are displayed. It is determined whether or not the overlapping rate Iou with the bounding box BX(0) related to the part is 0.3 or more. If the overlap rate is 0.3 or more, the confidence factor is accumulated according to the label (lesion type).
このようにして確信度が積算され、その積算値が600%以上となった場合(ステップS74のYES)、バウンディングボックスBXとともに、ラベル(病変の種類)、及び確信度がディスプレイ300に表示される(ステップS75)。一方、積算値が600%に満たない場合には、classifying(分類中)との表示がディスプレイ300になされ、同様の手順が継続される。
When the confidence factor is integrated in this way and the integrated value reaches 600% or more (YES in step S74), the bounding box BX, the label (lesion type), and the confidence factor are displayed on the
(バウンディングボックス推定(ステップS20))
続いて、図8のフローチャートを参照して、バウンディングボックス推定(ステップS20)の実行手順の詳細を説明する。このステップS20では、図3で説明した通り、フリーズ状態の判定の結果に従って、特定部位の検出及びバウンディングボックスBXの表示のみを行う状態と、バインディングボックスBXの表示に加えて、当該特定部位について組織診断予測をも行う状態とが切り替えられる。
(Bounding box estimation (step S20))
Next, the details of the bounding box estimation (step S20) execution procedure will be described with reference to the flowchart of FIG. In this step S20, as described with reference to FIG. 3, according to the result of the freeze state determination, only the detection of the specific site and the display of the bounding box BX are performed, and in addition to the display of the binding box BX, the organization of the specific site is displayed. A state in which diagnostic prediction is also performed is toggled.
具体的に説明すると、まず、ステップS81では、ステップS17(図3)のフリーズ判定結果に従い、フリーズ状態であるか否かの判定がなされる。フリーズ状態と判定された場合(ステップS81のYES)、組織診断予測用モデルが適用され、このモデルに従って検出された特定部位に関して組織診断予測が実行される(ステップS82)。一方、フリーズ状態ではないと判定された場合(ステップS81のNO)、特定部位の検出用モデルが適用され、このモデルに従って、特定部位の検出のみが実行される(ステップS83)。 Specifically, first, in step S81, it is determined whether or not the freeze state is present according to the freeze determination result in step S17 (FIG. 3). If it is determined that the state is frozen (YES in step S81), a tissue diagnosis prediction model is applied, and tissue diagnosis prediction is executed for the specific site detected according to this model (step S82). On the other hand, if it is determined that the state is not frozen (NO in step S81), a model for detection of specific parts is applied, and only detection of specific parts is executed according to this model (step S83).
ステップS84では、検出された特定部位に関し、上述のモデルに従って確信度が演算され、その確信度が閾値以下であるか否かが判断される。閾値以下であれば、その特定部位に関するバウンディングボックスBXは削除される。そして、続くステップS85では、過去のx個のフレームで検出されたy個以上のバウンディングボックスBXとの関係で重なり率Iouが閾値未満であるバウンディングボックスBXが削除される。これにより、特定部位である可能性が低い部分に関してバウンディングボックスBXが表示されることが抑制され、診断を容易にすることができる。その後、組織診断予測モデルが適用されている場合には、バウンディングボックスBX、ラベル、及び確信度がディスプレイ300に表示され、検出用モデルが適用されている場合にはバウンディングボックスBXのみが表示され、このステップS20は終了する。
In step S84, the certainty factor is calculated according to the model described above for the detected specific part, and it is determined whether or not the certainty factor is equal to or less than a threshold. If it is equal to or less than the threshold, the bounding box BX for that specific part is deleted. Then, in subsequent step S85, the bounding boxes BX whose overlap rate Iou is less than the threshold in relation to y or more bounding boxes BX detected in the past x frames are deleted. This suppresses the display of the bounding box BX for a portion that is unlikely to be the specific site, thereby facilitating diagnosis. Then, when the tissue diagnosis prediction model is applied, the bounding box BX, label, and confidence are displayed on the
(効果)
以上説明したように、第1の実施の形態の診断支援システムによれば、特定部位の検出を継続している間において、撮像中の画像がフリーズ状態となったか否かを画像状態検出部212により検出し、その結果に従って適宜組織診断予測部211が動作する。このため、病変の見落としを防止しつつも、病変の分類を内視鏡の技能に従って適切なタイミングで実行することができる。
(effect)
As described above, according to the diagnosis support system of the first embodiment, the image
[第2の実施の形態]
図9は、第2の実施の形態の診断支援システム1のハードウエア構成を説明する概略図である。図9において、図1と同一の構成要素については同一の参照符号を付しているので、以下では重複する説明は省略する。この第2の実施の形態の診断支援システム1は、第1の実施の形態(図1)の画像状態検出部212に代えて(又はこれに追加して)、フリーズボタン検出部212Aを備えている。第1の実施の形態では、撮像された画像自体を比較してフリーズ状態か否かを画像状態検出部212により判定する。第2の実施の形態では、これに代えて(又はこれに追加して)、内視鏡100のフリーズボタン102Bf自体の操作信号をフリーズボタン検出部212Aにおいて検出し、その結果に従って組織診断予測部211において組織診断の予測を実行する組織診断アルゴリズムを開始する。この形態によっても、第1の実施の形態と同様の効果を奏することができる。
[Second embodiment]
FIG. 9 is a schematic diagram for explaining the hardware configuration of the
[変形例]
上述の実施の形態では、診断支援システム1が内視鏡100、プロセッサ200、ディスプレイ300、及び光源部400を含む例を説明した。これらはあくまでも一例であり、発明の趣旨を逸脱しない範囲において様々な追加、変更、改変等が可能である。図10の(A)~(D)は、変形例の一例をそれぞれ示している。なお、図10(A)~(D)では、簡略化のため光源部400の図示は省略している。
[Modification]
In the embodiment described above, an example in which the
図10(A)は、プロセッサ200がスタンドアロン型のサーバとして提供され、ディスプレイ300と接続される例を示している。スタンドアロン型のサーバであるプロセッサ200に、本実施の形態に係るソフトウエアがインストールされる。
FIG. 10A shows an example in which
図10(B)は、プロセッサ200が、クラウドに接続される医局サーバとして構成され、医局サーバは更にクラウドにより外部のサーバと接続され、本実施の形態に係るソフトウエアは外部サーバから供給される。医局サーバ(200)は、内視鏡100と直接接続されたベッドサイドPC500Aと院内ネットワーク(LAN等)を介して通信可能に接続され、このベッドサイドPC500Aが、ディスプレイ300としても機能する。医局サーバ200とソフトウエアとは、同一の企業から提供されてもよいし、別々の企業から提供されてもよい。
In FIG. 10B, the
図10(C)は、内視鏡100、ベッドサイドPC500B、及びサーバ200により構成されA社から提供される内視鏡システムに対し、本実施の形態の、A社とは別のB社が生産したソフトウエアが、当該内視鏡システムのオープンプラットフォームを利用する形でインストールされる場合を示している。
FIG. 10(C) shows an endoscope system provided by Company A, which includes an
また、図10(D)は、内視鏡100を制御する支援診断システムとして、ベッドサイドPC500C(ディスプレイ300含む)、及びスタンドアロン型のサーバ200を含むシステムの例を示している。本実施の形態のソフトウエアは、サーバ200にインストールされ得る。ベッドサイドPC500Cとサーバ200とは、同一の企業から提供されてもよいし、複数企業の共同開発によるものであってもよい。
FIG. 10(D) shows an example of a system including a
[その他]
本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
置換をすることが可能である。
[others]
The present invention is not limited to the above-described embodiments, and includes various modifications. For example, the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the described configurations. In addition, it is possible to replace part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Moreover, it is possible to add, delete, or replace a part of the configuration of each embodiment with another configuration.
It is possible to make substitutions.
1…診断支援システム、 100…内視鏡、 101…挿入部、 102…手元操作部、 102A…湾曲操作ノブ、 102B…操作ボタン、 102Bf…フリーズボタン、 103…屈曲部、 104…先端部、 105…ユニバーサルケーブル、 106…コネクタ部、 200…プロセッサ、 201…画像処理部、 201…画像処理部、 202…インタフェース、 203…ハードディスクドライブ、 204…ROM、 205…RAM、 206…入力部、 207…インタフェース、208…CPU、 209…表示制御部、 210…特定部位検出部、 211…組織診断予測部、 212…画像状態検出部、 213…学習用データ生成部、 300…ディスプレイ、 301…ユーザインタフェース、 302…観察画像表示部、 400…光源部、 BX…バウンディングボックス。
DESCRIPTION OF
Claims (7)
前記画像中において病変または前駆病変の特徴を有する特定部位を検出する特定部位検出部と、
前記表示部において、前記特定部位検出部で特定された特定部位を囲う図形を表示する表示制御部と、
前記特定部位に関し、所定の基準に従って組織診断の予測を行う組織診断予測部と、
前記特定部位検出部によって前記特定部位を検出する検出アルゴリズムを実行している間において前記画像が静止状態にあるとの条件が成立した場合、前記組織診断予測部によって組織診断の予測を実行する組織診断アルゴリズムを開始する制御部と
を備えたことを特徴とする診断支援システム。 a display unit that displays an image obtained by the imaging device;
a specific site detection unit that detects a specific site having characteristics of a lesion or a precursor lesion in the image;
a display control unit for displaying, in the display unit, a figure surrounding the specific part identified by the specific part detection unit;
a tissue diagnosis prediction unit that predicts a tissue diagnosis according to a predetermined criterion with respect to the specific site;
When a condition that the image is in a static state is satisfied while the detection algorithm for detecting the specific site is executed by the specific site detection unit, tissue diagnosis prediction is performed by the tissue diagnosis prediction unit. A diagnostic support system, comprising: a controller that initiates a diagnostic algorithm;
前記制御部は、前記画像状態検出部の判定結果に従い、前記検出アルゴリズムと前記組織診断アルゴリズムを並行して実行する、請求項1に記載の診断支援システム。 further comprising an image state detection unit that determines the state of the image;
2. The diagnosis support system according to claim 1, wherein said control unit executes said detection algorithm and said tissue diagnosis algorithm in parallel according to the determination result of said image state detection unit.
前記画像を構成する複数のフレームの間における前記図形の重なり率に基づいて前記特定部位において病変が存在する可能性を示す確信度を算出するよう構成された、請求項1に記載の診断支援システム。 The tissue diagnosis prediction unit
2. The diagnosis support system according to claim 1, configured to calculate a degree of certainty indicating the possibility that a lesion is present in the specific site based on an overlapping rate of the graphics between a plurality of frames forming the image. .
前記画像中において病変または前駆病変の特徴を有する特定部位を検出するステップと、
前記表示部において、特定された特定部位を囲う図形を表示するステップと、
前記特定部位に関し、所定の基準に従って組織診断の予測を行うステップと、
前記特定部位を検出する検出アルゴリズムを実行している間において前記画像が静止状態にあるとの条件が成立した場合、組織診断の予測を実行する組織診断アルゴリズムを開始するステップと
をコンピュータに実行させることが可能に構成された、診断支援用プログラム。 a step of displaying an image obtained by the imaging device on a display unit;
detecting in the image specific sites characteristic of lesions or precursor lesions ;
displaying, on the display unit, a figure surrounding the identified specific part;
a step of predicting tissue diagnosis according to predetermined criteria for the specific site;
causing a computer to execute a step of starting a tissue diagnosis algorithm for predicting a tissue diagnosis when a condition is satisfied that the image is in a static state while executing the detection algorithm for detecting the specific site. A diagnostic support program configured to enable
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019081571A JP7127779B2 (en) | 2019-04-23 | 2019-04-23 | Diagnostic support system and diagnostic support program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019081571A JP7127779B2 (en) | 2019-04-23 | 2019-04-23 | Diagnostic support system and diagnostic support program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020175051A JP2020175051A (en) | 2020-10-29 |
JP7127779B2 true JP7127779B2 (en) | 2022-08-30 |
Family
ID=72936241
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019081571A Active JP7127779B2 (en) | 2019-04-23 | 2019-04-23 | Diagnostic support system and diagnostic support program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7127779B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2022234743A1 (en) * | 2021-05-06 | 2022-11-10 | ||
WO2023148857A1 (en) * | 2022-02-02 | 2023-08-10 | オリンパス株式会社 | Information output method and information output device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017213097A (en) | 2016-05-30 | 2017-12-07 | オリンパス株式会社 | Image processing device, image processing method, and program |
WO2018105063A1 (en) | 2016-12-07 | 2018-06-14 | オリンパス株式会社 | Image processing device |
WO2019054045A1 (en) | 2017-09-15 | 2019-03-21 | 富士フイルム株式会社 | Medical image processing device, medical image processing method, and medical image processing program |
-
2019
- 2019-04-23 JP JP2019081571A patent/JP7127779B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017213097A (en) | 2016-05-30 | 2017-12-07 | オリンパス株式会社 | Image processing device, image processing method, and program |
WO2018105063A1 (en) | 2016-12-07 | 2018-06-14 | オリンパス株式会社 | Image processing device |
WO2019054045A1 (en) | 2017-09-15 | 2019-03-21 | 富士フイルム株式会社 | Medical image processing device, medical image processing method, and medical image processing program |
Also Published As
Publication number | Publication date |
---|---|
JP2020175051A (en) | 2020-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113015476B (en) | System and method for generating and displaying in vivo image streams | |
KR100868339B1 (en) | Method for displaying the medical image and system and method for providing captured image by the medical image | |
JP4274854B2 (en) | Endoscope insertion shape analyzer | |
WO2020242949A1 (en) | Systems and methods for video-based positioning and navigation in gastroenterological procedures | |
JP5676063B1 (en) | Medical device and method of operating medical device | |
JP2010158308A (en) | Image processing apparatus, image processing method and image processing program | |
JP2008295490A (en) | Capsule endoscope image display device | |
WO2020054543A1 (en) | Medical image processing device and method, endoscope system, processor device, diagnosis assistance device and program | |
JP7127779B2 (en) | Diagnostic support system and diagnostic support program | |
JPWO2020165978A1 (en) | Image recorder, image recording method and image recording program | |
WO2022251112A1 (en) | Phase identification of endoscopy procedures | |
EP4189698A1 (en) | Devices, systems, and methods for identifying unexamined regions during a medical procedure | |
WO2023042273A1 (en) | Image processing device, image processing method, and storage medium | |
WO2022224446A1 (en) | Image processing device, image processing method, and storage medium | |
WO2022185369A1 (en) | Image processing device, image processing method, and storage medium | |
WO2023162216A1 (en) | Image processing device, image processing method, and storage medium | |
US20240148235A1 (en) | Information processing apparatus, information processing method, endoscope system, and report creation support device | |
WO2023228659A1 (en) | Image processing device and endoscope system | |
US20230122280A1 (en) | Systems and methods for providing visual indicators during colonoscopy | |
US20240233896A9 (en) | Information processing apparatus, information processing method, endoscope system, and report creation support device | |
JP7264407B2 (en) | Colonoscopy observation support device for training, operation method, and program | |
US20240358223A1 (en) | Endoscope system, medical information processing method, and medical information processing program | |
US20240266017A1 (en) | Information processing apparatus, information processing method, endoscope system, and report creation support device | |
WO2024171780A1 (en) | Medical assistance device, endoscope, medical assistance method, and program | |
WO2021153437A1 (en) | Endoscope processor, information processing method, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20190523 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20210414 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20210415 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210419 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210625 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220623 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220712 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220809 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7127779 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |