[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7127779B2 - Diagnostic support system and diagnostic support program - Google Patents

Diagnostic support system and diagnostic support program Download PDF

Info

Publication number
JP7127779B2
JP7127779B2 JP2019081571A JP2019081571A JP7127779B2 JP 7127779 B2 JP7127779 B2 JP 7127779B2 JP 2019081571 A JP2019081571 A JP 2019081571A JP 2019081571 A JP2019081571 A JP 2019081571A JP 7127779 B2 JP7127779 B2 JP 7127779B2
Authority
JP
Japan
Prior art keywords
image
unit
tissue diagnosis
specific site
support system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019081571A
Other languages
Japanese (ja)
Other versions
JP2020175051A (en
Inventor
和毅 炭山
俊介 樺
佑基 島原
亜弥 登内
明広 福田
祐介 藤本
光輝 王
夏麿 朽名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LPIXEL INC.
Jikei University School of Medicine
Original Assignee
LPIXEL INC.
Jikei University School of Medicine
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LPIXEL INC., Jikei University School of Medicine filed Critical LPIXEL INC.
Priority to JP2019081571A priority Critical patent/JP7127779B2/en
Publication of JP2020175051A publication Critical patent/JP2020175051A/en
Application granted granted Critical
Publication of JP7127779B2 publication Critical patent/JP7127779B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Endoscopes (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

特許法第30条第2項適用 〔集会での発表による公開〕 ・集会名 :第95回日本消化器内視鏡学会総会 開催日 :2018年5月11日 開催場所 :グランドプリンス新高輪 国際館パミール ・集会名 :Digestive Disease Week(DDW2018) 開催日 :2018年6月2日 開催場所 :Walter E.Washington Convention Center ・集会名 :第96回日本消化器内視鏡学会総会 開催日 :2018年11月3日 開催場所 :神戸コンベンションセンター 〔刊行物による公開〕 ・刊行物名 :PR TIMS 発行日 :2018年8月17日 ・刊行物名 :IoTNEWS 発行日 :2018年8月17日 ・刊行物名 :iza:イザ! 発行日 :2018年8月17日 ・刊行物名 :産経ニュース 発行日 :2018年8月17日 ・刊行物名 :エキサイト 発行日 :2018年8月17日 ・刊行物名 :Infoseekニュース 発行日 :2018年8月17日 ・刊行物名 :CNET Japan 発行日 :2018年8月17日 ・刊行物名 :読売新聞 発行日 :2019年1月16日 ・刊行物名 :yomiDr.(ヨミドクター) 発行日 :2019年1月16日 〔ウェブサイトによる公開〕 電気通信回線発表:2018年10月1日 掲載アドレス:http://www.jddw.jp/jddw2018/abstracts/index.php/loginArticle 30, Paragraph 2 of the Patent Act applies [Disclosure by presentation at a meeting] ・Meeting name: The 95th Annual General Meeting of the Japan Gastroenterological Endoscopy Society Date: May 11, 2018 Venue: Grand Prince New Takanawa International Hall Pamir ・Meeting name: Digestive Disease Week (DDW2018) Date: June 2, 2018 Venue: Walter E. Washington Convention Center ・Meeting name: The 96th Annual General Meeting of the Japan Gastroenterological Endoscopy Society Date: November 3, 2018 Venue: Kobe Convention Center [Published by publication] ・Publication name: PR TIMS Publication date: 2018 August 17, 2018 ・Publication name: IoT NEWS Publication date: August 17, 2018 ・Publication name: iza: Iza! Publication date: August 17, 2018 ・Publication name: Sankei News Publication date: August 17, 2018 ・Publication name: Excite Publication date: August 17, 2018 ・Publication name: Infoseek News Publication date: August 17, 2018 ・Publication name: CNET Japan Date of issue: August 17, 2018 ・Publication name: Yomiuri Shimbun Date of issue: January 16, 2019 ・Publication name: yomiDr. (Yomi Doctor) Publication date: January 16, 2019 [Published on website] Telecommunications line announcement: October 1, 2018 Posting address: http://www. jddw. jp/jddw2018/abstracts/index. php/login

本発明は診断支援システム、及び診断支援用プログラムに関する。 The present invention relates to a diagnostic support system and a diagnostic support program.

我が国における大腸癌の罹患率や死亡数は年々増加傾向にある。その予防や治療成績の向上には、腫瘍性ポリープを早期のうちに大腸内視鏡によって発見し、切除することが重要とされている。 The morbidity and mortality of colorectal cancer in Japan are increasing year by year. In order to prevent the disease and improve the results of treatment, it is important to detect and remove neoplastic polyps at an early stage by colonoscopy.

しかし、腫瘍性ポリープの検査精度は、内視鏡医の技能や機械の性能に依存しているのが現状である。大腸の鋸歯状病変は、大腸過形成ポリープ(HP)、鋸歯状線種(TSA)、広基性・無茎性鋸歯状病変(SSA/P)に分類され得る。TSAは明らかな腫瘍性の病変である。一方、SSA/Pは従前は病変とは考えられていなかったが、近年、前駆病変として注目されている。このため、SSA/Pを的確に内視鏡画像から検出し、組織診断予測(分類)の対象とすることが求められている。 However, the current situation is that the accuracy of examination of neoplastic polyps depends on the skill of the endoscopist and the performance of the machine. Serrated lesions of the colon can be classified into hyperplastic polyps of the colon (HP), serrated adenomas (TSA), and broadly basal sessile serrated lesions (SSA/P). A TSA is a distinct neoplastic lesion. On the other hand, SSA/P was not considered as a lesion in the past, but in recent years it has attracted attention as a precursor lesion. Therefore, it is required to accurately detect SSA/P from endoscopic images and use it as a target for tissue diagnosis prediction (classification).

しかし、HPとSSA/Pを的確に判別することは、熟練した内視鏡医でも難しく、また、画像処理装置において正確に分類することも困難である。そこで、内視鏡医の技能や機械の性能によらず、検査精度の向上を図ることができる診断支援システムが望まれている。このような問題は、大腸内視鏡検査に限らず他の人体組織の診断についても同様に発生している。 However, it is difficult even for a skilled endoscopist to accurately discriminate between HP and SSA/P, and it is also difficult for an image processing apparatus to perform accurate classification. Therefore, there is a demand for a diagnostic support system capable of improving examination accuracy regardless of the skill of the endoscopist or the performance of the machine. Such problems occur not only in colonoscopy but also in diagnosis of other human tissues.

特許文献1には、内視鏡により消化管の粘膜細胞を拡大撮像して得られた内視鏡画像に含まれる細胞核を抽出し、テクスチャ解析により、非腫瘍、腺腫、癌及びSSA/Pの識別を行う診断支援システムが開示されている。しかし、この特許文献1の技術は、高倍率撮像機能を有する内視鏡を用いて、超拡大画像に基づく診断支援を行うものであり、通常の内視鏡においても汎用的に利用できるものではない。また、超拡大画像を利用することを前提とするものであり、病変の見落としという問題に対して効果的な解決手段を提供するものではない。 In Patent Document 1, the cell nuclei contained in the endoscopic image obtained by magnifying the mucosal cells of the gastrointestinal tract with an endoscope are extracted, and texture analysis is performed to analyze nontumor, adenoma, cancer, and SSA/P. A diagnostic assistance system for identification is disclosed. However, the technique of Patent Document 1 uses an endoscope with a high-magnification imaging function to provide diagnostic support based on super-magnified images, and cannot be used for general purposes even in ordinary endoscopes. do not have. In addition, it is premised on the use of super-enlarged images, and does not provide effective means for solving the problem of overlooking lesions.

特開2017-70609号公報JP 2017-70609 A

本発明は、上記の課題に鑑みてなされたものであって、病変の見落としを防止しつつも、病変の分類を内視鏡の技能に従って適切なタイミングで実行することができる診断支援システムを提供することを目的とするものである。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and provides a diagnostic support system capable of classifying lesions at an appropriate timing according to endoscopic skills while preventing lesions from being overlooked. It is intended to

上記の課題を解決するため、本発明に係る診断支援システムは、撮像装置により得られた画像を表示する表示部と、前記画像中において病変または前駆病変の特徴を有する特定部位を検出する特定部位検出部と、前記表示部において、前記特定部位検出部で特定された特定部位を囲う図形を表示する表示制御部と、前記特定部位に関し、所定の基準に従って組織診断の予測を行う組織診断予測部と、前記特定部位検出部によって前記特定部位を検出する検出アルゴリズムを実行している間において前記画像が静止状態にあるとの条件が成立した場合、前記組織診断予測部によって組織診断の予測を実行する組織診断アルゴリズムを開始する制御部とを備えたことを特徴とする。 In order to solve the above problems, the diagnostic support system according to the present invention includes a display unit for displaying an image obtained by an imaging device, and a specific site for detecting a specific site having characteristics of a lesion or a precursor lesion in the image. a detection unit, a display control unit for displaying a graphic surrounding the specific site specified by the specific site detection unit in the display unit, and a tissue diagnosis prediction unit for predicting a tissue diagnosis for the specific site according to a predetermined standard. and when the condition that the image is in a static state is satisfied while the detection algorithm for detecting the specific site is executed by the specific site detection unit, the tissue diagnosis prediction unit predicts the tissue diagnosis. and a controller for initiating a tissue diagnosis algorithm for performing the tissue diagnosis.

このシステムにおいて、画像の状態を判定する画像状態検出部を更に備えることができる。この場合、制御部は、画像状態検出部の判定結果に従い、検出アルゴリズムと組織診断アルゴリズムを並行して実行することができる。ここで画像状態検出部は、画像が静止状態にあるか否かを判定するよう構成されたものとすることができる。 This system can further include an image state detector that determines the state of the image. In this case, the control section can execute the detection algorithm and tissue diagnosis algorithm in parallel according to the determination result of the image state detection section. Here, the image state detection unit can be configured to determine whether or not the image is in a static state.

また、組織診断予測部は、画像を構成する複数のフレーム間における前記図形の重なり率に基づいて前記部位において病変が存在する可能性を示す確信度を算出するよう構成されることができる。 Further, the tissue diagnosis prediction unit can be configured to calculate a certainty factor indicating the possibility that a lesion exists at the site based on the overlap rate of the graphics between a plurality of frames forming the image.

本発明に係る診断支援システムによれば、病変の見落としを防止しつつも、病変の分類を内視鏡の技能に従って適切なタイミングで実行することができる診断支援システムを提供することができる。 According to the diagnostic support system according to the present invention, it is possible to provide a diagnostic support system capable of preventing lesions from being overlooked and classifying lesions at appropriate timing according to endoscope skills.

第1の実施形態の診断支援システム1の概略図である。1 is a schematic diagram of a diagnosis support system 1 of a first embodiment; FIG. 第1の実施の形態の診断支援システム1の動作の概要を示す概略図である。It is a schematic diagram showing an outline of operation of diagnosis support system 1 of a 1st embodiment. 第1の実施の形態の診断支援システム1の動作の全体の手順を示すフローチャートである。4 is a flow chart showing an overall procedure of operation of the diagnostic support system 1 of the first embodiment; 図3の画像取得(ステップS16)の手順の詳細を説明するフローチャートである。FIG. 4 is a flowchart for explaining the details of the procedure of image acquisition (step S16) in FIG. 3; FIG. 図3のフリーズ判定(ステップS17)の手順の詳細を説明するフローチャートである。FIG. 4 is a flow chart illustrating the details of the freeze determination (step S17) procedure in FIG. 3; FIG. 図3のユーザインタフェース画面の描画(検出用)(ステップS18)の手順の詳細を説明するフローチャートである。FIG. 4 is a flow chart illustrating details of a procedure for drawing (for detection) (step S18) of the user interface screen of FIG. 3; FIG. 図3のユーザインタフェース画面の描画(組織診断予測(分類)用)(ステップS18)の手順の詳細を説明するフローチャートである。FIG. 4 is a flow chart illustrating the details of the procedure for drawing the user interface screen of FIG. 3 (for tissue diagnosis prediction (classification)) (step S18); FIG. 図3のバウンディングボックス推定(ステップS20)の手順の詳細を示すフローチャートである。FIG. 4 is a flow chart showing the details of the procedure of bounding box estimation (step S20) in FIG. 3; FIG. 第2の実施形態の診断支援システム1の概略図である。1 is a schematic diagram of a diagnosis support system 1 of a second embodiment; FIG. 各実施の形態の変形例を示す概略図である。It is a schematic diagram showing a modification of each embodiment.

以下、添付図面を参照して本実施形態について説明する。添付図面では、機能的に同じ要素は同じ番号で表示される場合もある。なお、添付図面は本開示の原理に則った実施形態と実装例を示しているが、これらは本開示の理解のためのものであり、決して本開示を限定的に解釈するために用いられるものではない。本明細書の記述は典型的な例示に過ぎず、本開示の特許請求の範囲又は適用例を如何なる意味においても限定するものではない。 Hereinafter, this embodiment will be described with reference to the accompanying drawings. In the accompanying drawings, functionally identical elements may be labeled with the same numbers. It should be noted that although the attached drawings show embodiments and implementation examples in accordance with the principles of the present disclosure, they are for the purpose of understanding the present disclosure and are in no way used to interpret the present disclosure in a restrictive manner. is not. The description herein is merely exemplary and is not intended to limit the scope or application of this disclosure in any way.

本実施形態では、当業者が本開示を実施するのに十分詳細にその説明がなされているが、他の実装・形態も可能で、本開示の技術的思想の範囲と精神を逸脱することなく構成・構造の変更や多様な要素の置き換えが可能であることを理解する必要がある。従って、以降の記述をこれに限定して解釈してはならない。 Although the present embodiments are described in sufficient detail to enable those skilled in the art to practice the present disclosure, other implementations and configurations are possible without departing from the scope and spirit of the present disclosure. It is necessary to understand that it is possible to change the composition/structure and replace various elements. Therefore, the following description should not be construed as being limited to this.

まず、本発明の第1の実施の形態の診断支援システムについて詳細に説明する。 First, a diagnosis support system according to the first embodiment of the present invention will be described in detail.

(ハードウエア構成)
図1は、第1の実施の形態の診断支援システム1のハードウエア構成を説明する概略図である。この診断支援システム1は、内視鏡100(撮像装置)、プロセッサ200、ディスプレイ300、及び光源部400から大略構成される。
(Hardware configuration)
FIG. 1 is a schematic diagram for explaining the hardware configuration of a diagnostic support system 1 according to the first embodiment. This diagnostic support system 1 is roughly composed of an endoscope 100 (imaging device), a processor 200 , a display 300 and a light source section 400 .

内視鏡100は、被検体の体内、例えば大腸に挿入可能に構成されて被写体を撮像し、その撮像された画像の画像信号をプロセッサ200に伝送する機能を有する。プロセッサ200は、内視鏡100からの画像信号を受信して所定の信号処理を実行し、後述する検出や組織診断の予測を実行する。 The endoscope 100 is configured to be insertable into the body of a subject, for example, the large intestine, and has a function of capturing an image of the subject and transmitting an image signal of the captured image to the processor 200 . The processor 200 receives an image signal from the endoscope 100, performs predetermined signal processing, and performs detection and prediction of tissue diagnosis, which will be described later.

内視鏡100は、挿入部101、手元操作部102、屈曲部103、先端部104、ユニバーサルケーブル105、及びコネクタ部106を備えている。挿入部101は、可撓性を有し、その長手方向に沿ってライトガイド、各種配線及び送水管等を備えており、被検体の体内に挿入される。挿入部101は、その一端において手元操作部102と接続されている。手元操作部102は、例えば湾曲操作ノブ102A及び操作ボタン102B等を備えている。操作ボタン102Bは、気流を送り込むための送気ボタン、水流を送り込むための送水ボタンの他、撮像中の画像から静止画像を取得するためのフリーズボタン102Bfを含み得る。 The endoscope 100 includes an insertion section 101 , a hand operation section 102 , a bending section 103 , a tip section 104 , a universal cable 105 and a connector section 106 . The insertion section 101 is flexible, has a light guide, various wirings, a water pipe, etc. along its longitudinal direction, and is inserted into the body of the subject. One end of the insertion portion 101 is connected to the handheld operation portion 102 . The hand operation unit 102 includes, for example, a curved operation knob 102A and an operation button 102B. The operation buttons 102B may include an air supply button for supplying airflow, a water supply button for supplying water flow, and a freeze button 102Bf for obtaining a still image from an image being captured.

挿入部101の先端には、屈曲可能に構成された屈曲部103が設けられている。手元操作部102に設けられた湾曲操作ノブ102Aの回転操作に連動した操作ワイヤ(図示せず)の牽引によって屈曲部103は屈曲する。更に、屈曲部103の先端には、CCDやCMOSセンサ等の撮像素子を備えた先端部104が連結されている。先端部104は、湾曲操作ノブ102Aの回転操作による屈曲部103の屈曲動作に応じてその向きが変更されるよう構成されている。 A bending portion 103 configured to be bendable is provided at the distal end of the insertion portion 101 . The bending portion 103 is bent by pulling an operation wire (not shown) interlocked with the turning operation of the bending operation knob 102A provided on the hand operation portion 102 . Furthermore, a distal end portion 104 having an imaging device such as a CCD or CMOS sensor is connected to the distal end of the bent portion 103 . The distal end portion 104 is configured such that its orientation is changed according to the bending motion of the bending portion 103 by the rotating operation of the bending operation knob 102A.

手元操作部102とコネクタ部106とは、ユニバーサルケーブル105により接続されている。ユニバーサルケーブル105は、その内部にライトガイドや各種配線を含んでいる。コネクタ部106は、内視鏡100をプロセッサ200に接続させるための各種コネクタを含んでいる。 Hand operation unit 102 and connector unit 106 are connected by universal cable 105 . The universal cable 105 includes a light guide and various wiring inside. The connector section 106 includes various connectors for connecting the endoscope 100 to the processor 200 .

プロセッサ200は、内視鏡100で撮像された画像に所定の画像処理を施してディスプレイ300に表示させる。また、プロセッサ200は、得られた画像の分析を行って、画像中から特定の部位を検出するとともに、検出された部位を、その性状に従って分類(組織診断予測)を行う。一例としてプロセッサ200は、検出された部位を、大腸過形成ポリープ(HP)、鋸歯状線種(TSA)、広基性・無茎性鋸歯状病変(SSA/P)等に分類することが可能に構成される。 The processor 200 performs predetermined image processing on the image captured by the endoscope 100 and causes the display 300 to display the image. In addition, the processor 200 analyzes the obtained image, detects a specific site from the image, and classifies the detected site according to its properties (histologic diagnosis prediction). As an example, the processor 200 can classify detected sites into colonic hyperplastic polyps (HP), serrated adenomas (TSA), broadly basal sessile serrated lesions (SSA/P), and the like. configured to

ディスプレイ300は、例えば例えばユーザインタフェース(UI)301、観察画像表示部302、及びキャプチャ画像表示部303を表示画面に表示する。UI301は、例えば表示の内容、検出の手法、学習用データの収集の有無、その他本診断支援システムの動作に関する各種命令やパラメータを入力し、又は表示するためのインタフェースである。観察画像表示部302には、内視鏡100が撮像している画像を表示する他、検出された特定部位の位置を示すバウンディングボックスBXが表示される。バウンディングボックスBXは、所定の特徴を有する特定部位の位置を示すための図形の一例であって、図示の例は矩形であるが、これに限定されるものではないことは言うまでもなく、ユーザにその存在を認知可能なものであればその形状は不問である。キャプチャ画像表示部303は、現在撮像中(リアルタイム)の画像ではなく、例えば現在撮像中のフレームよりも前のフレームをキャプチャ(保存)した後表示する部分である。キャプチャ画像表示部303は、新しい病変が検出された場合に、その検出結果をレポートとして出力する表示部としても機能し得る。 The display 300 displays, for example, a user interface (UI) 301, an observed image display section 302, and a captured image display section 303 on the display screen. The UI 301 is an interface for inputting or displaying, for example, display contents, a detection method, whether or not to collect data for learning, and various other commands and parameters relating to the operation of this diagnosis support system. The observation image display unit 302 displays an image captured by the endoscope 100 and also displays a bounding box BX indicating the position of the detected specific region. The bounding box BX is an example of a figure for indicating the position of a specific portion having predetermined characteristics, and although the illustrated example is a rectangle, it goes without saying that the bounding box BX is not limited to this. Any shape is acceptable as long as its existence can be recognized. The captured image display unit 303 is a part that captures (stores), for example, a frame that precedes the frame that is currently being captured, and then displays it, instead of the image that is currently being captured (in real time). The captured image display unit 303 can also function as a display unit that outputs the detection result as a report when a new lesion is detected.

次に、プロセッサ200の構成の詳細を、引き続き図1を参照して説明する。プロセッサ200は、一例として、画像処理部201、インタフェース202、ハードディスクドライブ203、ROM204、RAM205、入力部206、インタフェース207、CPU208、表示制御部209、特定部位検出部210、組織診断予測部211、画像状態検出部212、学習用データ生成部213を備えている。 The details of the configuration of processor 200 will now be described with continued reference to FIG. The processor 200 includes, for example, an image processing unit 201, an interface 202, a hard disk drive 203, a ROM 204, a RAM 205, an input unit 206, an interface 207, a CPU 208, a display control unit 209, a specific part detection unit 210, a tissue diagnosis prediction unit 211, an image A state detection unit 212 and a learning data generation unit 213 are provided.

画像処理部201は、内視鏡100の固体撮像素子(図示せず)から受信した映像信号に対し所定の画像処理を行ってデジタル信号に変換する。デジタル信号に変換された映像信号は、インタフェース202を介してCPU208に取り込まれる。ハードディスクドライブ203は、本システムにおける診断支援システムの動作を制御するコンピュータプログラム、及びその動作に用いるデータ群を記憶する。大腸内視鏡データは、大腸内視鏡画像と、その病変に関する診断データとを含む。 The image processing unit 201 performs predetermined image processing on a video signal received from a solid-state imaging device (not shown) of the endoscope 100 and converts it into a digital signal. A video signal converted into a digital signal is taken into the CPU 208 via the interface 202 . The hard disk drive 203 stores a computer program for controlling the operation of the diagnostic support system in this system and a data group used for the operation. Colonoscopy data includes colonoscopy images and diagnostic data about the lesion.

ROM204は、例えばこのコンピュータプログラムの設定ファイルや、その他装置の動作パラメータ等を記憶する記憶装置であり、RAM205は、コンピュータプログラムをハードディスクドライブ203から読み出して記憶するとともに、コンピュータプログラムの動作中の処理データ等を一時記憶する記憶装置である。入力部206は、例えば周知のキーボード、マウス、テンキー、ジョイスティック、タッチパネル等、ユーザが各種の入力を行うための装置であり、インタフェース207を介してCPU208に対しデータの送信を行う。入力部206は、内視鏡100に設けられる操作ボタン102Bも含む。その他、内視鏡100及び/又はプロセッサ200には、検査の終了を指示する終了ボタン(図示せず)を設けることもできる。 The ROM 204 is a storage device for storing, for example, setting files for the computer program and other operating parameters of the device. etc. is temporarily stored. The input unit 206 is a device such as a well-known keyboard, mouse, numeric keypad, joystick, touch panel, etc., for the user to perform various inputs, and transmits data to the CPU 208 via the interface 207 . The input unit 206 also includes an operation button 102B provided on the endoscope 100. FIG. In addition, endoscope 100 and/or processor 200 may be provided with an end button (not shown) for instructing the end of the examination.

表示制御部209は、ディスプレイ300上における画面表示を制御する制御部である。表示制御部209は、検出結果に従ってディスプレイ300の表示状態を変更すると共に、入力部206からの入力に従ってもその表示状態を変化させることが可能なよう構成されている。 The display control unit 209 is a control unit that controls screen display on the display 300 . The display control unit 209 is configured to be able to change the display state of the display 300 according to the detection result and also change the display state according to the input from the input unit 206 .

特定部位検出部210は、前述の学習用データによって定まる検出基準(検出用モデル)に従い、特定部位(病変、前駆病変等)を撮像画像の中から検出するモジュールであり、前述のコンピュータプログラムによりプロセッサ200内にソフトウエア的に実現され得る。特定部位検出部210は、特定部位が検出されると、その撮像画像上での位置を含むデータをCPU208に出力する。表示制御部209は、CPU208から当該情報を受信し、該当する箇所にバウンディングボックスBXを表示する。バウンディングボックスBXは、大腸内視鏡検査の間において多数ディスプレイ300上で表示されるので、内視鏡医は、このバウンディングボックスBXの表示に注意しつつ、検査を続けることができる。なお、特定部位検出部210、組織診断予測部211、及び画像状態検出部212は、ソフトウエア的に実現される代わりに、ハードウエア、例えばDSP(Digital Signal Processor)等により実現されてもよい。 The specific site detection unit 210 is a module that detects a specific site (lesion, precursor lesion, etc.) from the captured image according to the detection criteria (detection model) determined by the learning data described above. 200 can be implemented in software. When the specific site is detected, the specific site detection unit 210 outputs data including the position on the captured image to the CPU 208 . The display control unit 209 receives the information from the CPU 208 and displays the bounding box BX at the corresponding location. Since the bounding box BX is displayed on multiple displays 300 during the colonoscopy, the endoscopist can continue the examination while paying attention to the display of the bounding box BX. Note that the specific site detection unit 210, the tissue diagnosis prediction unit 211, and the image state detection unit 212 may be realized by hardware such as a DSP (Digital Signal Processor) instead of by software.

組織診断予測部211は、所定の条件が成立した場合において、特定部位検出部210で検出された特定部位に対し、組織診断予測用モデルに従い、組織診断予測(分類)を行う機能を有し、同様に前述のコンピュータプログラムによりプロセッサ200内にソフトウエア的に実現され得る。ここで、所定の条件は、一例として、以下で説明するフリーズ状態が画像状態検出部212により検出された場合である。組織診断予測用モデルは、例えばロジスティック回帰、単純ベイズ分類器、サポートベクターマシン、ニューラルネットワークなどに基づいて生成され得るが、特定のものに限定されるものではない。ニューラルネットワークとしては、順伝播型ニューラルネットワークと再帰型(リカレント)ニューラルネットワークのいずれも利用することが可能である。なお、組織診断予測部211に加え、病変の種類を鑑別する病変鑑別部を更に備えても良い。 The tissue diagnosis prediction unit 211 has a function of performing tissue diagnosis prediction (classification) according to the tissue diagnosis prediction model for the specific site detected by the specific site detection unit 210 when a predetermined condition is satisfied, Similarly, it can be implemented in software within the processor 200 by the aforementioned computer program. Here, the predetermined condition is, for example, the case where the image state detection unit 212 detects a freeze state described below. A tissue diagnosis prediction model can be generated based on, for example, logistic regression, naive Bayes classifier, support vector machine, neural network, etc., but is not limited to any particular one. As the neural network, both a forward propagation neural network and a recurrent neural network can be used. In addition to the tissue diagnosis prediction unit 211, a lesion discrimination unit that discriminates the type of lesion may be further provided.

画像状態検出部212は、映像信号が所定の状態にあるか否かを検出するモジュールであり、同様にコンピュータプログラムによりプロセッサ200内にソフトウエア的に実現され得る。例えば、画像状態検出部212は、撮像中の画像の単位時間当たりの変化が所定量未満であるか否かを検知する。図2に模式的に示すように、内視鏡100により大腸の撮像が行われる場合、本システムのユーザである内視鏡医Dは、内視鏡100の挿入部101を大腸LB内で出し入れする動作(矢印A)を行う。この出し入れの動作により、先端部104が大腸LB内を移動することで、撮像画像は刻々と変化する。 The image state detection unit 212 is a module that detects whether or not the video signal is in a predetermined state, and likewise can be implemented in software within the processor 200 by a computer program. For example, the image state detection unit 212 detects whether the change per unit time of the image being captured is less than a predetermined amount. As schematically shown in FIG. 2, when an endoscope 100 is used to image the large intestine, an endoscopist D, who is the user of this system, inserts and withdraws the insertion portion 101 of the endoscope 100 into and out of the large intestine LB. perform the action (arrow A). The movement of the distal end portion 104 in the large intestine LB due to this movement of putting in and out changes the picked-up image moment by moment.

しかし、内視鏡医Dが挿入部101を移動させる手を止めるか、又は前述のフリーズボタン102Bfを押すと、撮像画像の変化は止まるか、又はその変化が微小となる。以下では、このように挿入部101の移動が止められたり、フリーズボタン102Bfが押されたりすることにより、単位時間当たりの撮像画像の変化が所定値未満となった状態を、以下では「フリーズ状態(静止状態)」と称する。画像状態検出部212は、このようなフリーズ状態(静止状態)を検出する機能を有するモジュールである。具体的に画像状態検出部212は、あるフレーム(第1のフレーム)と、そのフレームよりも時間的に前のフレーム(第2のフレーム)との比較に基づいて、撮像画像がフリーズ状態か否かを判定することができる。なお、画像状態検出部212は、撮像中の画像が、白色光画像なのか、NBI(Narrow Band Imaging(登録商標))画像なのか、それとも染色画像なのかも、フリーズ状態の検出と共に検出可能とされている。 However, when the endoscopist D stops moving the insertion portion 101 or presses the freeze button 102Bf, the captured image stops changing or changes very little. Hereinafter, a state in which the change in the captured image per unit time is less than a predetermined value due to stopping the movement of the insertion portion 101 or pressing the freeze button 102Bf will be referred to as a "freeze state." (static state)”. The image state detection unit 212 is a module having a function of detecting such a freeze state (still state). Specifically, the image state detection unit 212 determines whether the captured image is in a frozen state based on a comparison between a certain frame (first frame) and a frame (second frame) temporally before that frame. It is possible to determine whether Note that the image state detection unit 212 can also detect whether the image being captured is a white light image, an NBI (Narrow Band Imaging (registered trademark)) image, or a dyed image as well as the detection of the frozen state. ing.

この実施の形態では、特定部位検出部210は、検査の実行中常に動作しており、特定部位検出部210は、ユーザによる入力や検出の結果等に拘わらず(終了ボタン等を含む検査終了の指示が無い限り)、特定部位の検出を継続する。一方、組織診断予測部211は、特定の条件が成立した場合にのみ動作を開始し、特定部位検出部210における特定部位の検出と並行して、組織診断の予測を実行する。すなわち、CPU208及びプログラムは、画像状態検出部212の判定結果に従い、特定部位検出部210による検出アルゴリズムと組織診断予測部211による組織診断アルゴリズムを並行して実行するよう構成されている。このように、この実施の形態では、特定部位検出部210を常時動作させる一方、組織診断予測部211は、特定の条件が成立した場合にのみ特定部位検出部210と並行して動作させることが可能とされており、これにより、特定部位の見落としを防止しつつも、内視鏡医のスキル等に合わせて適切なタイミングで組織診断の予測を実行することができる。 In this embodiment, the specific part detection unit 210 always operates during execution of the examination, and the specific part detection unit 210 operates regardless of the user's input or detection result (examination end button including end button). Unless otherwise instructed), continue to detect specific parts. On the other hand, the tissue diagnosis prediction unit 211 starts operating only when a specific condition is satisfied, and performs tissue diagnosis prediction in parallel with the detection of the specific site by the specific site detection unit 210 . That is, the CPU 208 and the program are configured to concurrently execute the detection algorithm by the specific site detection unit 210 and the tissue diagnosis algorithm by the tissue diagnosis prediction unit 211 according to the determination result of the image state detection unit 212 . As described above, in this embodiment, while the specific site detection unit 210 is always operated, the tissue diagnosis prediction unit 211 can be operated in parallel with the specific site detection unit 210 only when a specific condition is satisfied. As a result, it is possible to predict the tissue diagnosis at an appropriate timing according to the endoscopist's skill, etc., while preventing the oversight of a specific site.

例えば、スキルが必ずしも高くない内視鏡医は、挿入部101の動きを頻繁に止めたり(又は遅くしたり)、頻繁にフリーズボタン102Bfを押すことで、検出された測定部位に対し高い頻度で組織診断予測を実行することができる。これにより、特定部位の見落としも防ぎつつ、内視鏡医のスキルに応じ、高い頻度で組織診断予測の結果をディスプレイ300に表示することができる。 For example, an endoscopist whose skill is not necessarily high frequently stops (or slows down) the movement of the insertion portion 101 or presses the freeze button 102Bf frequently, so that the detected measurement site is frequently Tissue diagnostic prediction can be performed. As a result, the result of tissue diagnosis prediction can be displayed on the display 300 at a high frequency according to the skill of the endoscopist, while preventing the oversight of a specific site.

一方、スキルが高い内視鏡医は、自身のスキルに合わせた速度で挿入部101を操作し、自身の診断スキルに合わせたタイミングで挿入部101の動きを適宜止めたり、目に止まった特定部位の位置でフリーズボタン102Bfを押したりして、その特定部位の組織診断予測を実行することができる。特定部位検出部210による特定部位の検出は、内視鏡医のスキルに拘わらず、内視鏡100により撮像される限り常時行われるが、組織診断予測部211が動作するタイミングは、内視鏡医のスキルによって異なる。スキルの高い内視鏡医がこのシステムにおいて検査を実行する場合、スキルが必ずしも高くない内視鏡医が検査を実行する場合に比べ、組織診断予測部211による組織診断予測が行われる頻度は小さくなる。すなわち、内視鏡医のスキルに合わせたタイミングで組織診断予測を行うことができる。換言すれば、本実施の形態のシステムによれば、スキルの高い内視鏡医にとっては不要な情報が表示されることを防止することができる。 On the other hand, a highly skilled endoscopist operates the insertion unit 101 at a speed suitable for his/her own skill, stops the movement of the insertion unit 101 at a timing suitable for his/her own diagnosis skill, or identifies a point that catches the eye. By pressing the freeze button 102Bf at the position of the site, tissue diagnosis prediction of the specific site can be executed. Detection of a specific site by the specific site detection unit 210 is always performed as long as the image is captured by the endoscope 100 regardless of the skill of the endoscopist. Depends on medical skill. When a highly skilled endoscopist performs an examination in this system, the frequency of tissue diagnosis prediction by the tissue diagnosis prediction unit 211 is lower than when an endoscopist who is not necessarily highly skilled performs an examination. Become. That is, tissue diagnosis prediction can be performed at a timing that matches the skill of the endoscopist. In other words, according to the system of the present embodiment, it is possible to prevent unnecessary information from being displayed for a highly skilled endoscopist.

(動作)
次に、図3~図8のフローチャートを参照して、実施の形態の診断支援システムの動作を説明する。図3のフローチャートは、本システムの動作の全体の手順を示しており、図4~図8は、図3のフローチャート中の一部のステップを更に詳細に説明している。これらのフローチャートに示す動作は、ハードディスクドライブ203に格納されたコンピュータプログラムに従って規定される。
(motion)
Next, the operation of the diagnostic support system according to the embodiment will be described with reference to the flow charts of FIGS. 3 to 8. FIG. The flow chart of FIG. 3 shows the overall procedure of operation of the system, and FIGS. 4-8 explain some steps in the flow chart of FIG. 3 in more detail. The operations shown in these flowcharts are defined according to a computer program stored in hard disk drive 203 .

(動作の全体概要)
図3に示すように、本診断支援システムによる検査が開始されると、まず、CPU208は、ROM204に格納された設定ファイルから、ソフトウエアにおける判定や検出に必要なパラメータを読み出す(ステップS11)。そして、ユーザインタフェースを起動し(ステップS12)、ディスプレイ300の一部に表示する。
(overall overview of operation)
As shown in FIG. 3, when the examination by the diagnostic support system is started, first, the CPU 208 reads parameters necessary for determination and detection by software from the setting file stored in the ROM 204 (step S11). Then, the user interface is activated (step S12) and displayed on a part of the display 300. FIG.

ステップS12で読み出されたパラメータをRAM205に入力し記憶させた後、診断支援用プログラムの動作の開始を指示する操作が、ユーザによってなされる(ステップS13)。開始を指示する操作は、ユーザインタフェース301上のアイコンをクリックすることによる指示であってもよいし、単に内視鏡100に対する操作の開始を検知することにより、指示に替えてもよい。 After the parameters read in step S12 are input and stored in the RAM 205, the user performs an operation to instruct the start of the operation of the diagnostic support program (step S13). The operation for instructing the start may be an instruction by clicking an icon on the user interface 301 , or may be replaced by an instruction simply by detecting the start of the operation on the endoscope 100 .

操作の開始後、診断支援用プログラムは、ステップS14において子スレッドを作成し、以後、親スレッドと子スレッドとが並行して実行される。親スレッド(ステップS15~S19)は、終了ボタンが押されない限り常時継続される。一方、子スレッド(ステップS20:バウンディングボックス推定)も、バウンディングボックスBXの表示処理に関しては常時継続して実行されるが、組織診断予測部211の動作に基づく組織診断予測は、フリーズ判定の結果が肯定的(YES)である場合にのみ実行される。フリーズ判定の結果が否定的(NO)である場合には、子スレッド(ステップS20)では、特定部位の検出及びバウンディングボックスBXの表示のみが行われ、組織診断予測は実行されない。 After starting the operation, the diagnostic support program creates a child thread in step S14, and thereafter the parent thread and the child thread are executed in parallel. The parent thread (steps S15 to S19) is always continued unless the end button is pressed. On the other hand, the child thread (step S20: bounding box estimation) is also continuously executed with respect to the display processing of the bounding box BX. Executed only if affirmative (YES). If the freeze determination result is negative (NO), the child thread (step S20) only detects the specific site and displays the bounding box BX, but does not execute tissue diagnosis prediction.

親スレッド(ステップS15~S19)では、終了ボタンが押されたか否かが判定され(ステップS15)、押されていなければステップS16に移行し、押されていれば、ステップS21に移行して子スレッドを終了した後、動作は終了する。 In the parent thread (steps S15 to S19), it is determined whether or not the end button has been pressed (step S15). If not pressed, the process proceeds to step S16. After terminating the thread, the operation ends.

ステップS16では、内視鏡100で撮像された画像が画像処理部201により取得される。取得された画像は子スレッドに渡される(子スレッドでの処理については後述する)。親スレッドでは、続くステップS17において、撮像された画像がフリーズ状態にあるか否かが判定される。その判定結果は子スレッドに渡される。 In step S<b>16 , the image captured by the endoscope 100 is acquired by the image processing section 201 . The acquired image is passed to the child thread (processing in the child thread will be described later). In the parent thread, in subsequent step S17, it is determined whether or not the captured image is in a frozen state. The judgment result is passed to the child thread.

続くステップS18では、得られた画像上に、バウンディングボックスBX、組織診断予測の結果(病変の種類に関する判定)を示す「ラベル」、及び組織診断予測の確信度(所定の病変に該当である可能性)などの情報を重畳したユーザインタフェース画面を描画し、ディスプレイ300に表示する。なお、ラベル情報、及び確信度の情報は、組織診断予測部211により組織診断予測が実行されたタイミングでのみ受信され、描画される。組織診断予測が実行されていないタイミングにおいては、バウンディングボックスBXのみが表示される。なお、バウンディングボックスBX、ラベル、確信度以外に、病変の部位、個数、良性/境界/悪性の判定などの情報が表示項目に含まれても良い。 In the following step S18, a bounding box BX, a "label" indicating the result of tissue diagnosis prediction (judgment regarding the type of lesion), and the degree of certainty of tissue diagnosis prediction (possibility of corresponding to a predetermined lesion) are displayed on the obtained image. A user interface screen on which information such as gender) is superimposed is drawn and displayed on the display 300 . The label information and confidence information are received and drawn only at the timing when tissue diagnosis prediction is executed by the tissue diagnosis prediction unit 211 . Only the bounding box BX is displayed at the timing when tissue diagnosis prediction is not executed. In addition to the bounding box BX, the label, and the degree of certainty, the display items may include information such as the site of the lesion, the number of lesions, and the benign/border/malignant determination.

こうして撮像され描画された画像データは、学習用データ生成部213において収集され、これらの画像データに基づいて、学習用データ生成部213において学習用データが生成される(ステップS19)。学習用データは、予めハードディスクドライブ203にも保存されており、このような事前の学習用データと、新たに生成された学習用データとを合わせて新たな学習用データ群とすることができる。なお、ハードディスクドライブ203に事前に記憶されている学習用データのみを用い、このステップS19は省略することもできる。 The image data captured and drawn in this manner is collected by the learning data generation unit 213, and based on these image data, the learning data generation unit 213 generates learning data (step S19). The learning data is also stored in the hard disk drive 203 in advance, and such prior learning data and newly generated learning data can be combined to form a new learning data group. It is also possible to use only the learning data stored in advance in the hard disk drive 203 and omit this step S19.

(画像取得(ステップS16))
次に、図4を参照して、ステップS16の画像取得の詳細について説明する。まず、ステップS31において、画像処理部201のキャプチャボード(図示せず)から画像データ(例:1920×1980画素)が読み取られる。続いて、ステップS32において、読み取られた画像データの所定の部分が、Configファイル等で指定された大きさに従って切り取られる。
(Image acquisition (step S16))
Next, with reference to FIG. 4, the details of image acquisition in step S16 will be described. First, in step S<b>31 , image data (eg, 1920×1980 pixels) is read from a capture board (not shown) of the image processing unit 201 . Subsequently, in step S32, a predetermined portion of the read image data is cut according to the size designated by the Config file or the like.

次に、ステップS32で切り取られた画像が、検出に適した大きさにリサイズされて検出分類用画像として生成されると共に、ディスプレイ300での表示に適した大きさにリサイズされて表示用画像として生成される(ステップS33、S34)。 Next, the image cut out in step S32 is resized to a size suitable for detection and generated as an image for detection and classification, and resized to a size suitable for display on the display 300 as an image for display. generated (steps S33, S34).

(フリーズ判定(ステップS17))
続いて、図5を参照して、図3のステップS17のフリーズ判定の詳細について説明する。フリーズ判定は、図1の画像状態検出部212において行われる。まず、ステップS16(図4のステップS34)で取得された表示用画像を、更に小さい画素数(例えば30×30画素)にリサイズし(ステップS41)、更にグレースケール画像に変換する(ステップS42)。
(Freeze determination (step S17))
Next, details of the freeze determination in step S17 of FIG. 3 will be described with reference to FIG. Freeze determination is performed in the image state detection unit 212 in FIG. First, the display image obtained in step S16 (step S34 in FIG. 4) is resized to a smaller number of pixels (eg, 30×30 pixels) (step S41), and further converted into a grayscale image (step S42). .

続いて、グレースケール画像の各画素の画素値と、それよりも時間的に前のフレーム中のグレースケール画像の各画素の画素値との重み付け和を計算する(ステップS43)。そして、その重み付け和と現在のフレームの画素値との差分を計算する(ステップS44)。 Subsequently, a weighted sum of the pixel value of each pixel of the grayscale image and the pixel value of each pixel of the grayscale image in the temporally previous frame is calculated (step S43). Then, the difference between the weighted sum and the pixel value of the current frame is calculated (step S44).

ステップS45では、ステップS44で計算された差分が、2回連続で閾値を下回ったか、又は最後に閾値を下回ってから20フレーム以内であるか否かが判定される。YESの場合、画像状態検出部212は、対象画像がフリーズ状態にあると判定し(ステップS46)、フリーズとの判定結果を出力する。NOの場合には、フリーズ状態ではないと判定する(ステップS47)。そして、ステップS44で計算された差分が、最後に閾値を下回ってから30フレーム以上経過しているか否かが判断される(ステップS48)。YESであれば、30フレーム前とは異なる箇所を撮影しているものと判断し、差分値等についての積算結果をクリア(消去)した上で(ステップS49)、フリーズ状態ではないとの判定結果が出力されフリーズ判定は終了する。一方、ステップS48の判定結果がNOであれば、積算結果はそのままとしつつ、フリーズ状態ではないという判定結果が出力され、同様のフリーズ判定動作が継続される。 In step S45, it is determined whether the difference calculated in step S44 has fallen below the threshold two times in a row, or whether it has been within 20 frames since the last fall below the threshold. In the case of YES, the image state detection unit 212 determines that the target image is in a frozen state (step S46), and outputs the freeze determination result. In the case of NO, it is determined that the state is not frozen (step S47). Then, it is determined whether or not 30 frames or more have passed since the difference calculated in step S44 last fell below the threshold value (step S48). If YES, it is determined that a location different from that of 30 frames before is being photographed, and after clearing (erasing) the accumulation result of the difference value, etc. (step S49), it is determined that the state is not in a frozen state. is output and the freeze determination ends. On the other hand, if the determination result in step S48 is NO, the determination result that the state is not frozen is output while the integration result remains unchanged, and the same freeze determination operation is continued.

(ユーザインタフェース描画(検出用)(ステップS18))
続いて、図6のフローチャートを参照して、図3のステップS18のユーザインタフェース画面の描画(フリーズ状態ではなく、特定部位の検出のみが継続される場合)の手順の詳細を説明する。換言すると、図6のフローチャートは、図3のフローチャートのステップS17においてフリーズ状態ではないという判定がされた場合におけるステップS18の動作の詳細を説明している。
(User interface drawing (for detection) (step S18))
Subsequently, details of the procedure for drawing the user interface screen in step S18 of FIG. 3 (when only the detection of the specific part is continued instead of the frozen state) will be described with reference to the flowchart of FIG. In other words, the flowchart of FIG. 6 describes the details of the operation of step S18 when it is determined in step S17 of the flowchart of FIG. 3 that the state is not frozen.

図1のステップS17において、画像状態検出部212によりフリーズ状態ではないという判定結果が得られると(図6のステップS51)、ステップS52へ移行する。なお、フリーズ状態であるという判定がされた場合には、組織診断予測のための分類用ユーザインタフェース画面の描画を行う。これについては後述する。 In step S17 of FIG. 1, when the image state detection unit 212 determines that the state is not frozen (step S51 of FIG. 6), the process proceeds to step S52. Note that when it is determined that the system is in a frozen state, a classification user interface screen for tissue diagnosis prediction is drawn. This will be discussed later.

ステップS52では、バウンディングボックスBXを描画すべき特定部位が検出されたか否かが検出される。このとき、確信度が閾値以下の特定部位については検出対象から除外され、バウンディングボックスBXも表示されない。 In step S52, it is detected whether or not a specific portion where the bounding box BX should be drawn has been detected. At this time, the specific parts whose certainty is equal to or less than the threshold are excluded from detection targets, and the bounding box BX is not displayed either.

ステップS52の判定結果がYESである場合、ステップS53では、その特定部位の周囲にバウンディングボックスBXを描画する。検出された特定部位が複数個存在する場合、バウンディングボックスBXも複数個描画される。なお、バウンディングボックスBXの表示に対応して、プロセッサ200は、図示しないスピーカから効果音を発生させることができる。 If the determination result in step S52 is YES, in step S53 a bounding box BX is drawn around the specific part. When there are multiple detected specific parts, multiple bounding boxes BX are also drawn. Note that the processor 200 can generate a sound effect from a speaker (not shown) in response to the display of the bounding box BX.

ステップS52の判定結果がNOの場合、ステップS61に移行して、ユーザインタフェース画面として描画済みの画像をディスプレイ300に表示する。 If the determination result in step S52 is NO, the process proceeds to step S61, and the drawn image is displayed on display 300 as a user interface screen.

ステップS53でバウンディングボックスBXが描画されると、続くステップS54では、バウンディングボックスBXの面積(複数個のバウンディングボックスBXがある場合、その面積の合計)が計算される。そして、その面積がディスプレイ300の表示画面の中で占める割合が所定値以上であるか否か、例えば、表示画面の面積の1%以下であるか否かが判定される。 After the bounding box BX is drawn in step S53, the area of the bounding box BX (if there are a plurality of bounding boxes BX, the total area) is calculated in step S54. Then, it is determined whether or not the ratio of the area to the display screen of display 300 is equal to or greater than a predetermined value, for example, whether or not it is equal to or less than 1% of the display screen area.

ステップS54での判定結果がYESである場合には、ステップS55に進み、当該フレームの表示を例えば5フレーム以上続ける。このように、バウンディングボックスBXの表示数が少ない場合には、複数フレーム(例えば5フレーム)に亘って表示することにより、ユーザにそのバウンディングボックスBXを認知され易くする。 If the determination result in step S54 is YES, the process advances to step S55 to continue displaying the frame, for example, for five frames or more. In this way, when the number of bounding boxes BX to be displayed is small, the bounding boxes BX are displayed over a plurality of frames (for example, 5 frames) to make it easier for the user to perceive the bounding boxes BX.

一方、ステップS54の判定結果がNOである場合(バウンディングボックスBXの面積が1%より大きい場合)には、ステップS56に移行する。ステップS56では、バウンディングボックスBXの表示とともに発せられる効果音の前回の再生から30フレーム以内であるか否かが判定される。30フレーム以内である場合、再度効果音を発することは、病変等の検出のために不要であり、ユーザに不快感を与える虞がある。このため、ステップS56の判定結果がYESであれば、前述のステップS61に移行して、効果音を発することなくUI描画済の画像を表示して図6の動作を終了する。 On the other hand, when the determination result of step S54 is NO (when the area of the bounding box BX is larger than 1%), the process proceeds to step S56. In step S56, it is determined whether or not it is within 30 frames from the previous reproduction of the effect sound emitted with the display of the bounding box BX. If it is within 30 frames, it is unnecessary to emit the sound effect again for detection of a lesion or the like, and there is a possibility that the user may feel uncomfortable. Therefore, if the determination result in step S56 is YES, the process proceeds to step S61 described above, displays the UI-drawn image without producing sound effects, and terminates the operation of FIG.

一方、ステップS56の判定結果がNOであれば、ステップS57に移行する。ステップS57では、前回の効果音の再生から40フレーム以内であるか否かが判定される。すなわち、前回の効果音の再生から30フレームを超えているが、40フレーム以内である場合には(ステップS57のYES)、効果音を再生させ、その後効果音再生タイミングを計測するタイマの計数値をリセットして(ステップS59)、ステップS60に移行する。一方、前回の効果音の再生から40フレームを超えている場合には(ステップS57のNO)、ステップS58では、その画像をキャプチャ(保存)し、リアルタイムな画像を表示する画像表示部302の横にキャプチャ画像表示部303に表示すると共に、効果音を再生する。そして、ユーザインタフェース画面として描画済の画像をディスプレイ300に表示する(ステップS60)。なお、ステップS57、S58での判定基準である30フレーム及び40フレームは、あくまでも一例であり、他のフレーム数が判定基準として採用されてもよいことは言うまでもない。 On the other hand, if the determination result of step S56 is NO, it will transfer to step S57. In step S57, it is determined whether or not it is within 40 frames from the reproduction of the previous sound effect. That is, if 30 frames have passed since the previous reproduction of the sound effect, but it is within 40 frames (YES in step S57), the sound effect is reproduced, and then the count value of the timer that measures the timing of reproducing the sound effect. is reset (step S59), and the process proceeds to step S60. On the other hand, if 40 frames have passed since the previous reproduction of the sound effect (NO in step S57), then in step S58, the image is captured (saved) and displayed on the side of the image display unit 302 that displays the real-time image. is displayed on the captured image display unit 303, and the sound effect is reproduced. Then, the drawn image is displayed on the display 300 as a user interface screen (step S60). 30 frames and 40 frames, which are the determination criteria in steps S57 and S58, are merely examples, and it goes without saying that other numbers of frames may be adopted as the determination criteria.

(ユーザインタフェース描画(分類用)(ステップS18))
続いて、図7のフローチャートを参照して、図3のステップS18のユーザインタフェース画面の描画(フリーズ状態ではあり、検出された特定部位の組織診断予測(分類)が実行される場合)の手順の詳細を説明する。換言すると、図7のフローチャートは、図3のフローチャートのステップS17においてフリーズ状態であると判定された場合におけるステップS18の動作の詳細を説明している。
(User interface drawing (for classification) (step S18))
Next, referring to the flowchart of FIG. 7, the procedure for drawing the user interface screen in step S18 of FIG. I will explain the details. In other words, the flowchart of FIG. 7 describes the details of the operation of step S18 when the frozen state is determined in step S17 of the flowchart of FIG.

図1のステップS17において、画像状態検出部212によりフリーズ状態であるとの判定結果が得られると(図7のステップS71)、ステップS72に移行する。なお、フリーズ状態ではないという判定がされた場合には、特定部位の検出のためのユーザインタフェース画面の描画を行う(図6で既に前述した動作)。 In step S17 in FIG. 1, when the image state detection unit 212 determines that the image is in a frozen state (step S71 in FIG. 7), the process proceeds to step S72. Note that when it is determined that the state is not frozen, the user interface screen for detecting the specific part is drawn (the operation already described in FIG. 6).

ステップS72では、特定部位が画面中で検出されたか否かが判断される。検出がされない場合(NO)、ステップS77に移行し、ユーザインタフェース画面として描画済みの画像をディスプレイ300に表示する。 In step S72, it is determined whether or not the specific part has been detected in the screen. If it is not detected (NO), the process proceeds to step S77, and the drawn image is displayed on the display 300 as a user interface screen.

一方、ステップS72で特定部位が画面中で検出されたと判断される場合(YES)、ステップS73では、その検出された特定部位に係るバウンディングボックスBX(1)と、過去のフレームで検出された特定部位に係るバウンディングボックスBX(0)との重なり率Iouが0.3以上であるか否かが判断される。重なり率が0.3以上であった場合、ラベル(病変の種類)に応じて、確信度が積算される。 On the other hand, if it is determined in step S72 that the specific site has been detected in the screen (YES), then in step S73 the bounding box BX(1) associated with the detected specific site and the specific site detected in the past frame are displayed. It is determined whether or not the overlapping rate Iou with the bounding box BX(0) related to the part is 0.3 or more. If the overlap rate is 0.3 or more, the confidence factor is accumulated according to the label (lesion type).

このようにして確信度が積算され、その積算値が600%以上となった場合(ステップS74のYES)、バウンディングボックスBXとともに、ラベル(病変の種類)、及び確信度がディスプレイ300に表示される(ステップS75)。一方、積算値が600%に満たない場合には、classifying(分類中)との表示がディスプレイ300になされ、同様の手順が継続される。 When the confidence factor is integrated in this way and the integrated value reaches 600% or more (YES in step S74), the bounding box BX, the label (lesion type), and the confidence factor are displayed on the display 300. (Step S75). On the other hand, when the integrated value is less than 600%, the message "classifying" is displayed on the display 300, and the same procedure is continued.

(バウンディングボックス推定(ステップS20))
続いて、図8のフローチャートを参照して、バウンディングボックス推定(ステップS20)の実行手順の詳細を説明する。このステップS20では、図3で説明した通り、フリーズ状態の判定の結果に従って、特定部位の検出及びバウンディングボックスBXの表示のみを行う状態と、バインディングボックスBXの表示に加えて、当該特定部位について組織診断予測をも行う状態とが切り替えられる。
(Bounding box estimation (step S20))
Next, the details of the bounding box estimation (step S20) execution procedure will be described with reference to the flowchart of FIG. In this step S20, as described with reference to FIG. 3, according to the result of the freeze state determination, only the detection of the specific site and the display of the bounding box BX are performed, and in addition to the display of the binding box BX, the organization of the specific site is displayed. A state in which diagnostic prediction is also performed is toggled.

具体的に説明すると、まず、ステップS81では、ステップS17(図3)のフリーズ判定結果に従い、フリーズ状態であるか否かの判定がなされる。フリーズ状態と判定された場合(ステップS81のYES)、組織診断予測用モデルが適用され、このモデルに従って検出された特定部位に関して組織診断予測が実行される(ステップS82)。一方、フリーズ状態ではないと判定された場合(ステップS81のNO)、特定部位の検出用モデルが適用され、このモデルに従って、特定部位の検出のみが実行される(ステップS83)。 Specifically, first, in step S81, it is determined whether or not the freeze state is present according to the freeze determination result in step S17 (FIG. 3). If it is determined that the state is frozen (YES in step S81), a tissue diagnosis prediction model is applied, and tissue diagnosis prediction is executed for the specific site detected according to this model (step S82). On the other hand, if it is determined that the state is not frozen (NO in step S81), a model for detection of specific parts is applied, and only detection of specific parts is executed according to this model (step S83).

ステップS84では、検出された特定部位に関し、上述のモデルに従って確信度が演算され、その確信度が閾値以下であるか否かが判断される。閾値以下であれば、その特定部位に関するバウンディングボックスBXは削除される。そして、続くステップS85では、過去のx個のフレームで検出されたy個以上のバウンディングボックスBXとの関係で重なり率Iouが閾値未満であるバウンディングボックスBXが削除される。これにより、特定部位である可能性が低い部分に関してバウンディングボックスBXが表示されることが抑制され、診断を容易にすることができる。その後、組織診断予測モデルが適用されている場合には、バウンディングボックスBX、ラベル、及び確信度がディスプレイ300に表示され、検出用モデルが適用されている場合にはバウンディングボックスBXのみが表示され、このステップS20は終了する。 In step S84, the certainty factor is calculated according to the model described above for the detected specific part, and it is determined whether or not the certainty factor is equal to or less than a threshold. If it is equal to or less than the threshold, the bounding box BX for that specific part is deleted. Then, in subsequent step S85, the bounding boxes BX whose overlap rate Iou is less than the threshold in relation to y or more bounding boxes BX detected in the past x frames are deleted. This suppresses the display of the bounding box BX for a portion that is unlikely to be the specific site, thereby facilitating diagnosis. Then, when the tissue diagnosis prediction model is applied, the bounding box BX, label, and confidence are displayed on the display 300, and when the detection model is applied, only the bounding box BX is displayed, This step S20 ends.

(効果)
以上説明したように、第1の実施の形態の診断支援システムによれば、特定部位の検出を継続している間において、撮像中の画像がフリーズ状態となったか否かを画像状態検出部212により検出し、その結果に従って適宜組織診断予測部211が動作する。このため、病変の見落としを防止しつつも、病変の分類を内視鏡の技能に従って適切なタイミングで実行することができる。
(effect)
As described above, according to the diagnosis support system of the first embodiment, the image state detection unit 212 detects whether or not the image being captured is in a frozen state while the detection of the specific part is continued. , and the tissue diagnosis prediction unit 211 operates appropriately according to the result. Therefore, lesions can be classified at appropriate timing according to endoscope skills while preventing lesions from being overlooked.

[第2の実施の形態]
図9は、第2の実施の形態の診断支援システム1のハードウエア構成を説明する概略図である。図9において、図1と同一の構成要素については同一の参照符号を付しているので、以下では重複する説明は省略する。この第2の実施の形態の診断支援システム1は、第1の実施の形態(図1)の画像状態検出部212に代えて(又はこれに追加して)、フリーズボタン検出部212Aを備えている。第1の実施の形態では、撮像された画像自体を比較してフリーズ状態か否かを画像状態検出部212により判定する。第2の実施の形態では、これに代えて(又はこれに追加して)、内視鏡100のフリーズボタン102Bf自体の操作信号をフリーズボタン検出部212Aにおいて検出し、その結果に従って組織診断予測部211において組織診断の予測を実行する組織診断アルゴリズムを開始する。この形態によっても、第1の実施の形態と同様の効果を奏することができる。
[Second embodiment]
FIG. 9 is a schematic diagram for explaining the hardware configuration of the diagnostic support system 1 of the second embodiment. In FIG. 9, the same reference numerals are given to the same components as in FIG. 1, so redundant description will be omitted below. The diagnosis support system 1 of the second embodiment includes a freeze button detector 212A instead of (or in addition to) the image state detector 212 of the first embodiment (FIG. 1). there is In the first embodiment, the image state detection unit 212 determines whether or not the image is in a frozen state by comparing the captured images themselves. In the second embodiment, instead of (or in addition to) this, the operation signal of the freeze button 102Bf itself of the endoscope 100 is detected by the freeze button detection unit 212A, and according to the result, the tissue diagnosis prediction unit At 211, a tissue diagnosis algorithm is initiated that performs a tissue diagnosis prediction. This form can also provide the same effects as the first embodiment.

[変形例]
上述の実施の形態では、診断支援システム1が内視鏡100、プロセッサ200、ディスプレイ300、及び光源部400を含む例を説明した。これらはあくまでも一例であり、発明の趣旨を逸脱しない範囲において様々な追加、変更、改変等が可能である。図10の(A)~(D)は、変形例の一例をそれぞれ示している。なお、図10(A)~(D)では、簡略化のため光源部400の図示は省略している。
[Modification]
In the embodiment described above, an example in which the diagnosis support system 1 includes the endoscope 100, the processor 200, the display 300, and the light source unit 400 has been described. These are only examples, and various additions, changes, alterations, etc. are possible without departing from the spirit of the invention. (A) to (D) of FIG. 10 each show an example of a modification. 10A to 10D, illustration of the light source unit 400 is omitted for simplification.

図10(A)は、プロセッサ200がスタンドアロン型のサーバとして提供され、ディスプレイ300と接続される例を示している。スタンドアロン型のサーバであるプロセッサ200に、本実施の形態に係るソフトウエアがインストールされる。 FIG. 10A shows an example in which processor 200 is provided as a stand-alone server and connected to display 300 . Software according to the present embodiment is installed in processor 200, which is a stand-alone server.

図10(B)は、プロセッサ200が、クラウドに接続される医局サーバとして構成され、医局サーバは更にクラウドにより外部のサーバと接続され、本実施の形態に係るソフトウエアは外部サーバから供給される。医局サーバ(200)は、内視鏡100と直接接続されたベッドサイドPC500Aと院内ネットワーク(LAN等)を介して通信可能に接続され、このベッドサイドPC500Aが、ディスプレイ300としても機能する。医局サーバ200とソフトウエアとは、同一の企業から提供されてもよいし、別々の企業から提供されてもよい。 In FIG. 10B, the processor 200 is configured as a medical office server connected to the cloud, the medical office server is further connected to an external server via the cloud, and the software according to this embodiment is supplied from the external server. . The medical office server (200) is communicably connected to a bedside PC 500A directly connected to the endoscope 100 via an in-hospital network (LAN or the like). The medical office server 200 and the software may be provided by the same company or may be provided by separate companies.

図10(C)は、内視鏡100、ベッドサイドPC500B、及びサーバ200により構成されA社から提供される内視鏡システムに対し、本実施の形態の、A社とは別のB社が生産したソフトウエアが、当該内視鏡システムのオープンプラットフォームを利用する形でインストールされる場合を示している。 FIG. 10(C) shows an endoscope system provided by Company A, which includes an endoscope 100, a bedside PC 500B, and a server 200, and is provided by Company B, which is different from Company A, in the present embodiment. A case is shown in which the produced software is installed using the open platform of the endoscope system.

また、図10(D)は、内視鏡100を制御する支援診断システムとして、ベッドサイドPC500C(ディスプレイ300含む)、及びスタンドアロン型のサーバ200を含むシステムの例を示している。本実施の形態のソフトウエアは、サーバ200にインストールされ得る。ベッドサイドPC500Cとサーバ200とは、同一の企業から提供されてもよいし、複数企業の共同開発によるものであってもよい。 FIG. 10(D) shows an example of a system including a bedside PC 500C (including a display 300) and a stand-alone server 200 as a support diagnosis system that controls the endoscope 100. FIG. The software of this embodiment can be installed on the server 200 . Bedside PC 500C and server 200 may be provided by the same company, or may be jointly developed by a plurality of companies.

[その他]
本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
置換をすることが可能である。
[others]
The present invention is not limited to the above-described embodiments, and includes various modifications. For example, the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the described configurations. In addition, it is possible to replace part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Moreover, it is possible to add, delete, or replace a part of the configuration of each embodiment with another configuration.
It is possible to make substitutions.

1…診断支援システム、 100…内視鏡、 101…挿入部、 102…手元操作部、 102A…湾曲操作ノブ、 102B…操作ボタン、 102Bf…フリーズボタン、 103…屈曲部、 104…先端部、 105…ユニバーサルケーブル、 106…コネクタ部、 200…プロセッサ、 201…画像処理部、 201…画像処理部、 202…インタフェース、 203…ハードディスクドライブ、 204…ROM、 205…RAM、 206…入力部、 207…インタフェース、208…CPU、 209…表示制御部、 210…特定部位検出部、 211…組織診断予測部、 212…画像状態検出部、 213…学習用データ生成部、 300…ディスプレイ、 301…ユーザインタフェース、 302…観察画像表示部、 400…光源部、 BX…バウンディングボックス。 DESCRIPTION OF SYMBOLS 1... Diagnosis support system 100... Endoscope 101... Insertion part 102... Hand operation part 102A... Bending operation knob 102B... Operation button 102Bf... Freeze button 103... Bending part 104... Tip part 105 ... Universal cable 106 ... Connector section 200 ... Processor 201 ... Image processing section 201 ... Image processing section 202 ... Interface 203 ... Hard disk drive 204 ... ROM 205 ... RAM 206 ... Input section 207 ... Interface , 208...CPU 209...Display control unit 210...Specific site detection unit 211...Tissue diagnosis prediction unit 212...Image state detection unit 213...Learning data generation unit 300...Display 301...User interface 302 ... observation image display section, 400 ... light source section, BX ... bounding box.

Claims (7)

撮像装置により得られた画像を表示する表示部と、
前記画像中において病変または前駆病変の特徴を有する特定部位を検出する特定部位検出部と、
前記表示部において、前記特定部位検出部で特定された特定部位を囲う図形を表示する表示制御部と、
前記特定部位に関し、所定の基準に従って組織診断の予測を行う組織診断予測部と、
前記特定部位検出部によって前記特定部位を検出する検出アルゴリズムを実行している間において前記画像が静止状態にあるとの条件が成立した場合、前記組織診断予測部によって組織診断の予測を実行する組織診断アルゴリズムを開始する制御部と
を備えたことを特徴とする診断支援システム。
a display unit that displays an image obtained by the imaging device;
a specific site detection unit that detects a specific site having characteristics of a lesion or a precursor lesion in the image;
a display control unit for displaying, in the display unit, a figure surrounding the specific part identified by the specific part detection unit;
a tissue diagnosis prediction unit that predicts a tissue diagnosis according to a predetermined criterion with respect to the specific site;
When a condition that the image is in a static state is satisfied while the detection algorithm for detecting the specific site is executed by the specific site detection unit, tissue diagnosis prediction is performed by the tissue diagnosis prediction unit. A diagnostic support system, comprising: a controller that initiates a diagnostic algorithm;
前記画像の状態を判定する画像状態検出部を更に備え、
前記制御部は、前記画像状態検出部の判定結果に従い、前記検出アルゴリズムと前記組織診断アルゴリズムを並行して実行する、請求項1に記載の診断支援システム。
further comprising an image state detection unit that determines the state of the image;
2. The diagnosis support system according to claim 1, wherein said control unit executes said detection algorithm and said tissue diagnosis algorithm in parallel according to the determination result of said image state detection unit.
前記画像状態検出部は、前記画像が静止状態にあるか否かを判定するよう構成された、請求項2に記載の診断支援システム。 3. The diagnostic support system according to claim 2, wherein said image state detector is configured to determine whether said image is in a static state. 前記画像状態検出部は、前記画像を構成する第1のフレームと、前記第1のフレームよりも時間的に前の第2のフレームとの比較に基づいて、前記画像が静止状態か否かを判定する、請求項3に記載の診断支援システム。 The image state detection unit determines whether or not the image is in a static state based on a comparison between a first frame constituting the image and a second frame that temporally precedes the first frame. 4. The diagnostic support system according to claim 3, which determines. 前記組織診断予測部は、
前記画像を構成する複数のフレームの間における前記図形の重なり率に基づいて前記特定部位において病変が存在する可能性を示す確信度を算出するよう構成された、請求項1に記載の診断支援システム。
The tissue diagnosis prediction unit
2. The diagnosis support system according to claim 1, configured to calculate a degree of certainty indicating the possibility that a lesion is present in the specific site based on an overlapping rate of the graphics between a plurality of frames forming the image. .
前記特定部位検出部における特定部位の検出結果、又は前記組織診断予測部における組織診断の予測の結果の少なくともいずれか一方に基づいて学習用データを生成する学習用データ生成部を更に備える、請求項1に記載の診断支援システム。 The method further comprises a learning data generation unit that generates learning data based on at least one of a detection result of the specific region by the specific region detection unit and a tissue diagnosis prediction result by the tissue diagnosis prediction unit. 2. The diagnosis support system according to 1. 撮像装置により得られた画像を表示部に表示させるステップと、
前記画像中において病変または前駆病変の特徴を有する特定部位を検出するステップと、
前記表示部において、特定された特定部位を囲う図形を表示するステップと、
前記特定部位に関し、所定の基準に従って組織診断の予測を行うステップと、
前記特定部位を検出する検出アルゴリズムを実行している間において前記画像が静止状態にあるとの条件が成立した場合、組織診断の予測を実行する組織診断アルゴリズムを開始するステップと
をコンピュータに実行させることが可能に構成された、診断支援用プログラム。
a step of displaying an image obtained by the imaging device on a display unit;
detecting in the image specific sites characteristic of lesions or precursor lesions ;
displaying, on the display unit, a figure surrounding the identified specific part;
a step of predicting tissue diagnosis according to predetermined criteria for the specific site;
causing a computer to execute a step of starting a tissue diagnosis algorithm for predicting a tissue diagnosis when a condition is satisfied that the image is in a static state while executing the detection algorithm for detecting the specific site. A diagnostic support program configured to enable
JP2019081571A 2019-04-23 2019-04-23 Diagnostic support system and diagnostic support program Active JP7127779B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019081571A JP7127779B2 (en) 2019-04-23 2019-04-23 Diagnostic support system and diagnostic support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019081571A JP7127779B2 (en) 2019-04-23 2019-04-23 Diagnostic support system and diagnostic support program

Publications (2)

Publication Number Publication Date
JP2020175051A JP2020175051A (en) 2020-10-29
JP7127779B2 true JP7127779B2 (en) 2022-08-30

Family

ID=72936241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019081571A Active JP7127779B2 (en) 2019-04-23 2019-04-23 Diagnostic support system and diagnostic support program

Country Status (1)

Country Link
JP (1) JP7127779B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022234743A1 (en) * 2021-05-06 2022-11-10
WO2023148857A1 (en) * 2022-02-02 2023-08-10 オリンパス株式会社 Information output method and information output device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017213097A (en) 2016-05-30 2017-12-07 オリンパス株式会社 Image processing device, image processing method, and program
WO2018105063A1 (en) 2016-12-07 2018-06-14 オリンパス株式会社 Image processing device
WO2019054045A1 (en) 2017-09-15 2019-03-21 富士フイルム株式会社 Medical image processing device, medical image processing method, and medical image processing program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017213097A (en) 2016-05-30 2017-12-07 オリンパス株式会社 Image processing device, image processing method, and program
WO2018105063A1 (en) 2016-12-07 2018-06-14 オリンパス株式会社 Image processing device
WO2019054045A1 (en) 2017-09-15 2019-03-21 富士フイルム株式会社 Medical image processing device, medical image processing method, and medical image processing program

Also Published As

Publication number Publication date
JP2020175051A (en) 2020-10-29

Similar Documents

Publication Publication Date Title
CN113015476B (en) System and method for generating and displaying in vivo image streams
KR100868339B1 (en) Method for displaying the medical image and system and method for providing captured image by the medical image
JP4274854B2 (en) Endoscope insertion shape analyzer
WO2020242949A1 (en) Systems and methods for video-based positioning and navigation in gastroenterological procedures
JP5676063B1 (en) Medical device and method of operating medical device
JP2010158308A (en) Image processing apparatus, image processing method and image processing program
JP2008295490A (en) Capsule endoscope image display device
WO2020054543A1 (en) Medical image processing device and method, endoscope system, processor device, diagnosis assistance device and program
JP7127779B2 (en) Diagnostic support system and diagnostic support program
JPWO2020165978A1 (en) Image recorder, image recording method and image recording program
WO2022251112A1 (en) Phase identification of endoscopy procedures
EP4189698A1 (en) Devices, systems, and methods for identifying unexamined regions during a medical procedure
WO2023042273A1 (en) Image processing device, image processing method, and storage medium
WO2022224446A1 (en) Image processing device, image processing method, and storage medium
WO2022185369A1 (en) Image processing device, image processing method, and storage medium
WO2023162216A1 (en) Image processing device, image processing method, and storage medium
US20240148235A1 (en) Information processing apparatus, information processing method, endoscope system, and report creation support device
WO2023228659A1 (en) Image processing device and endoscope system
US20230122280A1 (en) Systems and methods for providing visual indicators during colonoscopy
US20240233896A9 (en) Information processing apparatus, information processing method, endoscope system, and report creation support device
JP7264407B2 (en) Colonoscopy observation support device for training, operation method, and program
US20240358223A1 (en) Endoscope system, medical information processing method, and medical information processing program
US20240266017A1 (en) Information processing apparatus, information processing method, endoscope system, and report creation support device
WO2024171780A1 (en) Medical assistance device, endoscope, medical assistance method, and program
WO2021153437A1 (en) Endoscope processor, information processing method, and computer program

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190523

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210414

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210419

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220809

R150 Certificate of patent or registration of utility model

Ref document number: 7127779

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150