[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7159361B2 - 超音波画像表示システム及びその制御プログラム - Google Patents

超音波画像表示システム及びその制御プログラム Download PDF

Info

Publication number
JP7159361B2
JP7159361B2 JP2021000856A JP2021000856A JP7159361B2 JP 7159361 B2 JP7159361 B2 JP 7159361B2 JP 2021000856 A JP2021000856 A JP 2021000856A JP 2021000856 A JP2021000856 A JP 2021000856A JP 7159361 B2 JP7159361 B2 JP 7159361B2
Authority
JP
Japan
Prior art keywords
region
image
data
interest
color doppler
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021000856A
Other languages
English (en)
Other versions
JP2022106108A (ja
Inventor
俊一郎 谷川
Original Assignee
ジーイー・プレシジョン・ヘルスケア・エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ジーイー・プレシジョン・ヘルスケア・エルエルシー filed Critical ジーイー・プレシジョン・ヘルスケア・エルエルシー
Priority to JP2021000856A priority Critical patent/JP7159361B2/ja
Priority to CN202111608230.2A priority patent/CN114711813A/zh
Priority to US17/570,207 priority patent/US20220211353A1/en
Publication of JP2022106108A publication Critical patent/JP2022106108A/ja
Application granted granted Critical
Publication of JP7159361B2 publication Critical patent/JP7159361B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/06Measuring blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0825Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the breast, e.g. mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4444Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/488Diagnostic techniques involving Doppler signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Hematology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Physiology (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

本発明は、関心部位に応じてカラードプラ画像のデータの取得に関するパラメータを特定する超音波画像表示システム及びその制御プログラムに関する。
超音波画像表示システムの一例である超音波診断装置を用いた検査において、超音波のエコー信号に基づいて、被検体の血流等を観察するためのカラードプラ画像を作成して表示し診断が行われている(例えば、特許文献1参照)。
特開2020-130728号公報
オペレーターは、カラードプラモードで正確な血流を示したカラードプラ画像を生成するために、被検体における観察対象に応じて適切なパラメータを設定する、もしくは、検査したい臓器等に応じて、あらかじめ用意された適切なパラメータ群からなるパラメータセットを選択する。このように、カラードプラ画像が作成される対象となる関心部位に応じて適切なパラメータを設定することが望ましいものの、ユーザー等によっては、適切なパラメータの調整や、適切なモデルの選択が煩雑で、十分に実施されないことも多い。また、関心部位に応じた適切なパラメータでカラードプラ画像を生成することは困難なことも多い。
一態様の超音波画像表示システムは、プロセッサ及び超音波プローブを備える。プロセッサは、被検体に対してBモード画像用のBモードスキャンを行なうように前記超音波プローブを制御し、Bモードスキャンによって得られたエコーデータに基づいてBモード画像のデータを作成するよう構成される。また、プロセッサは、Bモード画像のデータに基づいて被検体のカラードプラ画像が作成される対象となる関心部位を特定し、関心部位に応じてカラードプラ画像のデータの取得に関するパラメータを特定する。さらに、プロセッサは、被検体に対してカラードプラ画像用のカラードプラスキャンを行なうように超音波プローブを制御し、 カラードプラスキャンによって得られたエコーデータに基づいてカラードプラ画像のデータを作成する、ことを含む制御を行なうよう構成される。カラードプラスキャン及びカラードプラ画像のデータの作成の少なくとも一方は、特定されたパラメータを用いて行われる。
また、他の態様の超音波画像表示システムは、上記態様の超音波画像表示システムにおける前記プロセッサが、被検体における第1の領域のBモード画像のデータに基づいて、第1の領域の被検体における部位を特定し、第1の領域に含まれる第2の領域のBモード画像のデータに基づいて、関心部位を特定するよう構成される。関心部位は、第1の領域の被検体における部位に含まれており、第2の領域は、被検体のカラードプラ画像を作成する対象である。
さらに、他の態様の超音波画像表示システムは、プロセッサ及び超音波プローブを備える超音波画像表示システムである。プロセッサは、被検体に対してBモード画像用のBモードスキャンを行なうように超音波プローブを制御し、Bモードスキャンによって得られたエコーデータに基づいてBモード画像のデータを作成する。また、プロセッサは、Bモード画像に関心領域を設定し、被検体に対し、第1のカラードプラ画像用の第1のカラードプラスキャンを行なうように超音波プローブを制御し、第1のカラードプラスキャンによって得られたエコーデータに基づいて関心領域の第1のカラードプラ画像のデータを作成する。プロセッサは、被検体における第1の領域におけるBモード画像のデータに基づいて、第1の領域の被検体における部位を特定する。第1の領域は、前記関心領域を含んでいる。また、プロセッサは、関心領域で構成される第2の領域の前記第1のカラードプラ画像のデータに基づいて、前記被検体において前記関心領域の対象となる関心部位を特定する。関心部位は、第1の領域の前記被検体における部位に含まれている。さらに、プロセッサは、関心部位に応じて被検体の第2のカラードプラ画像のデータの取得に関するパラメータを特定し、被検体に対して、第2のカラードプラ画像用の第2のカラードプラスキャンを行なうように超音波プローブを制御し、第2のカラードプラスキャンによって得られたエコーデータに基づいて第2のカラードプラ画像のデータを作成する。カラードプラスキャン及び第2のカラードプラ画像のデータの作成の少なくとも一方は、特定されたパラメータを用いて行われる。
上記態様における超音波画像表示システムによれば、Bモード画像のデータに基づいてカラードプラ画像が作成される対象となる関心部位が特定され、関心部位に応じてカラードプラ画像の取得に関するパラメータが特定される。従って、Bモード画像が作成されるだけで、関心部位に応じたパラメータを設定することができる。
上記他の態様における超音波画像表示システムによれば、先ず関心部位が含まれる被検体における部位が特定された後に、この部位の中から関心部位が特定されるので、より正確に関心部位を特定することができる。
さらに、上記他の態様における超音波画像表示システムによれば、先ずBモード画像のデータに基づいて、関心部位が含まれる第1の領域の被検体における部位が特定され、その後この部位の中から第1のカラードプラ画像のデータに基づいて関心部位が特定される。従って、より正確に関心部位を特定することができる。そして、関心部位に応じて第2のカラードプラ画像のデータの取得に関するパラメータが特定される。従って、Bモード画像及び第1のカラードプラ画像が作成されるだけで、関心部位に応じたパラメータを設定することができる。
実施形態による超音波画像表示システムの一例を示すブロック図である。 第1実施形態による超音波画像表示システムにおける処理の一例を示すフローチャートである。 関心領域が設定されたBモード画像が表示された状態のディスプレイを示す図である。 被検体の複数の部位と、これら複数の部位の各々に応じたパラメータセットを定めたテーブルの一例を示す図である。 カラードプラ画像が表示された状態のディスプレイを示す図である。 第1実施形態の第1変形例による超音波画像表示システムにおける処理の一例を示すフローチャートである。 第1実施形態の第1変形例による超音波画像表示システムにおける処理の一例を示すフローチャートである。 第2実施形態による超音波画像表示システムにおける処理の一例を示すフローチャートである。 第2実施形態の変形例による超音波画像表示システムにおける処理の一例を示すフローチャートである。 第2実施形態の変形例において、第1のカラードプラ画像が表示された状態のディスプレイを示す図である。 第2実施形態の変形例において、第2のカラードプラ画像が表示された状態のディスプレイを示す図である。
以下、本発明の実施形態について図面を参照して説明する。
(第1実施形態)
先ず、第1実施形態について説明する。図1に示す超音波画像表示システム1は、一例では超音波診断装置であり、超音波プローブ2、送信ビームフォーマ3及び送信機4を含む。超音波プローブ2は、被検体に対して超音波スキャンを実行して超音波のエコーを受信する。この超音波スキャンには、後述のBモードスキャン及びカラードプラスキャンが含まれる。
より具体的には、超音波プローブ2は、パルス超音波を被検体(図示せず)に放射する複数の振動素子2aを有する。複数の振動素子2aは、送信ビームフォーマ3および送信機4によってドライブされパルス超音波を放射する。
超音波画像表示システム1は、さらに受信機5及び受信ビームフォーマ6を含む。振動素子2aから放射されたパルス超音波は、被検体内において反射して振動素子2aに戻るエコーを生成する。エコーは、振動素子2aによって電気信号に変換されてエコー信号となり、受信機5に入力される。エコー信号は、受信機5において所要のゲインによる増幅等が行なわれた後に受信ビームフォーマ6に入力され、この受信ビームフォーマ6において受信ビームフォーミングが行われる。受信ビームフォーマ6は、受信ビームフォーミング後の超音波データを出力する。
受信ビームフォーマ6は、ハードウェアビームフォーマであってもソフトウェアビームフォーマであってもよい。受信ビームフォーマ6がソフトウェアビームフォーマである場合、受信ビームフォーマ6は、グラフィックス処理ユニット(GPU)、マイクロプロセッサ、中央処理装置(CPU)、デジタル信号プロセッサ(DSP)、または論理演算を実行することができる他の種類のプロセッサのうちの任意の1つまたは複数を含む1つまたは複数のプロセッサを備えることができる。受信ビームフォーマ6を構成するプロセッサは、後述のプロセッサ7とは別のプロセッサで構成されていてもよいし、プロセッサ7で構成されていてもよい。
超音波プローブ2は、送信ビームフォーミングおよび/または受信ビームフォーミングの全部または一部を行うための電気回路を含むことができる。例えば、送信ビームフォーマ3、送信機4、受信機5、および受信ビームフォーマ6の全部または一部は、超音波プローブ2内に設けられていてもよい。
超音波画像表示システム1は、送信ビームフォーマ3、送信機4、受信機5、および受信ビームフォーマ6を制御するためのプロセッサ7も含む。さらに、超音波画像表示システム1は、ディスプレイ8、メモリ9及びユーザインタフェース10を含む。
プロセッサ7は、1つ又は複数のプロセッサを含んでいる。プロセッサ7は、超音波プローブ2と電子通信している。プロセッサ7は、超音波プローブ2を制御して超音波データを取得することができる。プロセッサ7は、振動素子2aのどれがアクティブであるか、および超音波プローブ2から送信される超音波ビームの形状を制御する。プロセッサ7はまた、ディスプレイ8とも電子通信しており、プロセッサ7は、超音波データを処理してディスプレイ8上に表示するための超音波画像にすることができる。「電子通信」という用語は、有線通信と無線通信の両方を含むように定義することができる。プロセッサ7は、一実施形態によれば中央処理装置(CPU)を含むことができる。他の実施形態によれば、プロセッサ7は、デジタル信号プロセッサ、フィールドプログラマブルゲートアレイ(FPGA)、グラフィックスプロセッシングユニット(GPU)、または他のタイプのプロセッサなど、処理機能を実行することができる他の電子構成要素を含むことができる。他の実施形態によれば、プロセッサ7は、処理機能を実行することができる複数の電子構成要素を含むことができる。例えばプロセッサ7は、中央処理装置、デジタル信号プロセッサ、フィールドプログラマブルゲートアレイ、およびグラフィックスプロセッシングユニットを含む電子構成要素のリストから選択された2つ以上の電子構成要素を含むことができる。
プロセッサ7は、RFデータを復調する複合復調器(図示せず)を含むこともできる。別の実施形態では、処理チェーンの早いうちに復調を実行することができる。
プロセッサ7は、複数の選択可能な超音波モダリティに従った1つまたは複数の処理動作をデータに行うように構成されている。エコー信号が受信されるとき、データは走査セッション中にリアルタイムで処理することができる。この開示のために、「リアルタイム」という用語は、いかなる意図的な遅延もなく行われる手順を含むように定義される。
また、データは、超音波の走査中に一時的にバッファ(図示せず)に格納し、ライブ操作またはオフライン操作でリアルタイムではなく処理することができる。この開示において、「データ」という用語は、本開示においては、超音波画像表示システムを用いて取得される1つまたは複数のデータセットを指すように使用することができる。
超音波データは、プロセッサ7によって他のまたは異なるモード関連モジュール(例えば、Bモード、カラードプラ、Mモード、カラーMモード、スペクトルドプラ、造影モード、エラストグラフィ、TVI、歪み、歪み速度、など)で処理して超音波画像のデータを作ることができる。例えば、1つまたは複数のモジュールが、Bモード、カラードプラ、Mモード、カラーMモード、スペクトルドプラ、造影モード、エラストグラフィ、TVI、歪み、歪み速度、およびそれらの組合せ、などの超音波画像を生成することができる。
画像ビームおよび/または画像フレームは保存され、データがメモリに取得された時を示すタイミング情報を記録することができる。前記モジュールは、例えば、画像フレームを座標ビーム空間から表示空間座標に変換するために走査変換演算を実行する走査変換モジュールを含むことができる。被検体に処置が実施されている間にメモリから画像フレームを読み取り、その画像フレームをリアルタイムで表示する映像プロセッサモジュールが設けられてもよい。映像プロセッサモジュールは画像フレームを画像メモリに保存することができ、超音波画像は画像メモリから読み取られディスプレイ8に表示される。
なお、本明細書で使用する場合、「画像」という用語は、可視画像と可視画像を表すデータの両方を広く指す場合がある。また、「データ」という用語は、走査変換演算前の超音波データであるローデータ(raw data)と、走査変換演算後のデータである画像データを含みうる。
プロセッサ7が複数のプロセッサを含む場合、プロセッサ7が担当する上述の処理タスクを、複数のプロセッサが担当してもよい。例えば、第1のプロセッサを使用して、RF信号を復調および間引きすることができ、第2のプロセッサを使用して、データをさらに処理した後、画像を表示することができる。
また、例えば受信ビームフォーマ6がソフトウェアビームフォーマである場合、その処理機能は、単一のプロセッサで実行されてもよいし、複数のプロセッサで実行されてもよい。
ディスプレイ8は、LED(Light Emitting Diode)ディスプレイ、LCD(Liquid Crystal Display)、有機EL(Electro-Luminescence)ディスプレイなどである。
メモリ9は、任意の既知のデータ記憶媒体である。一例では、超音波画像表示システム1は、メモリ9として非一過性の記憶媒体及び一過性の記憶媒体を含み、複数のメモリ9を含んでいる。非一過性の記憶媒体は、例えば、HDD(Hard Disk:ハードディスク)、ROM(Read Only Memory)などの不揮発性の記憶媒体である。非一過性の記憶媒体は、CD(Compact Disk)やDVD(Digital Versatile Disk)などの可搬性の記憶媒体を含んでいてもよい。非一過性の記憶媒体には、プロセッサ7によって実行されるプログラムが記憶される。
一過性の記憶媒体は、RAM(Random Access Memory)などの揮発性の記憶媒体である。
ユーザインタフェース10は、オペレーターの入力を受け付けることができる。例えば、ユーザインタフェース10は、オペレーターからの指示や情報の入力を受け付ける。ユーザインタフェース10は、キーボード(keyboard)、ハードキー(hard key)、トラックボール(trackball)、ロータリーコントロール(rotary control)及びソフトキー等を含んで構成されている。ユーザインタフェース10は、ソフトキー等を表示するタッチスクリーンを含んでいてもよい。
次に、本例の超音波画像表示システム1における処理について説明する。図2のフローチャートにおいて、ステップS1では、プロセッサ7は、被検体に対してBモード画像用のBモードスキャンを行なうように超音波プローブ2を制御する。また、プロセッサ7は、Bモードスキャンによって得られたエコーデータに基づいてBモード画像のデータを作成する。
ステップS1において、プロセッサ7は、Bモード画像のデータに基づいて、図3に示すようにディスプレイ8にBモード画像BIを表示してもよい。また、プロセッサ7は、ディスプレイ8に表示されたBモード画像BIに、カラードプラ画像を作成及び表示する対象となる関心領域ROを設定してもよい。一例では、プロセッサ7は、ユーザインタフェース10がオペレーターによる関心領域ROを設定する入力を受け付けると、関心領域ROを設定する。
次に、ステップS2では、プロセッサ7は、Bモード画像BIのデータに基づいて被検体のカラードプラ画像が作成される対象となる関心部位を特定する。この関心部位は、被検体において関心領域ROと対応する領域の部位である。プロセッサ7は、Bモード画像BIのデータが取得された被検体の部位を、関心部位として特定する。プロセッサ7は、関心領域ROよりも広い領域である第1の領域のBモード画像BIのデータに基づいて関心部位を特定してもよい。第1の領域は、取得されたBモード画像BIの全体又は一部である。第1の領域には関心領域ROが含まれる。図3において、符号R1は、Bモード画像BIの全体である第1の領域を示している。
また、プロセッサ7は、関心領域ROで構成される第2の領域R2内のBモード画像BIのデータに基づいて関心部位を特定してもよい。
関心部位には、一例では乳腺、首及び下肢などが含まれる。さらに、関心部位には、首に含まれる甲状腺及び頸動脈、下肢に含まれる下肢静脈及び下肢動脈などが含まれる。ただし、ここで挙げた例は一例に過ぎないことは言うまでもない。
プロセッサ7は、機械学習によって得られた学習済みモデルを用いて関心部位の特定を行なってもよい。具体的に説明する。メモリ9には、Bモード画像とBモード画像に対する評価値との相関関係を学習させた学習済みモデルが記憶されている。評価値は、関心部位の候補となる被検体の部位に関する評価値である。一例では、評価値は、Bモード画像が、被検体におけるある部位の画像に該当する確率である。学習済みモデルにおいて、被検体における複数の部位の各々についての評価値が学習される。被検体の部位は、一例では上述の乳腺、首、下肢、甲状腺、頸動脈、下肢静脈及び下肢動脈などである。ここでは、学習済みモデルは、Bモード画像が、乳腺の画像である確率、甲状腺の画像である確率、頸動脈の画像である確率、下肢静脈の画像である確率及び下肢動脈の画像である確率の各々と、Bモード画像との相関関係を学習させたものであるとする。
なお、甲状腺及び頸動脈については、学習に用いられるBモード画像及び後述のように学習済みモデルに入力されるBモード画像は、一例では短軸像である。また、下肢静脈及び下肢動脈については、学習に用いられるBモード画像及び後述のように学習済みモデルに入力されるBモード画像は、一例では長軸像である。
プロセッサ7は、学習済みモデルの入力層に、ステップS1で取得されたBモード画像BIのデータを入力する。入力されるBモード画像BIのデータは、第1の領域R1のデータ又は第2の領域R2(関心領域R)のデータである。プロセッサ7は、学習済みモデルの出力層の出力として、入力層に入力されたBモード画像BIについての被検体の部位に関する評価値を得る。この評価値は、一例では、学習済みモデルに入力されたデータのBモード画像BIが、関心部位の候補となる被検体の部位の各々の画像に該当する確率である。具体的には、評価値は、学習済みモデルに入力されたデータのBモード画像BIが、乳腺の画像である確率、甲状腺の画像である確率、頸動脈の画像である確率、下肢静脈の画像である確率、下肢動脈の画像である確率である。
プロセッサ7は、評価値に基づいて関心部位を特定する。プロセッサ7は、評価値すなわち確率が最も高い部位を関心部位として特定する。例えば、評価値として、乳腺の画像の確率が70%、甲状腺の画像の確率が10%、頸動脈の画像の確率が10%、下肢静脈の画像の確率が5%、下肢動脈の画像の確率が5%という結果が得られたと仮定する。この場合、プロセッサ7は、関心部位を乳腺と特定する。
次に、ステップS3では、プロセッサ7は、ステップS2で特定された関心部位に応じてカラードプラ画像のデータの取得に関するパラメータを特定する。カラードプラ画像のデータの取得に関するパラメータは、カラードプラスキャンのスキャンパラメータ及びカラードプラスキャンによって得られたエコーデータに基づくカラードプラ画像のデータの作成に用いるパラメータの少なくとも一方を含む。パラメータには、カラードプラスキャンの音線数や送信周波数、Wallフィルタの種類などが含まれる。ただし、パラメータはこれらに限定されるものではない。
パラメータの特定について詳しく説明する。メモリ9には、関心部位の候補となる被検体の複数の部位の各々に応じたパラメータが記憶されている。被検体の複数の部位の各々に応じたパラメータとは、複数の部位の各々について、カラードプラ画像のデータの取得に適した値のパラメータである。カラードプラ画像のデータの取得に適したとは、血流を含む流体の情報をできるだけ正確に表したカラードプラ画像を得ることができるという意味である。プロセッサ7によって特定されるパラメータは、メモリ9に記憶されたパラメータのうち、ステップS2で特定された関心部位について記憶されたパラメータである。
メモリ9に記憶されたパラメータは、被検体の複数の部位の各々に応じたパラメータセットであってもよい。例えば、図4に示すように、乳腺について、乳腺のカラードプラ画像の取得に適したパラメータセットA、甲状腺について、甲状腺のカラードプラ画像の取得に適したパラメータセットB、頸動脈について、頸動脈のカラードプラ画像の取得に適したパラメータセットC、下肢静脈について、下肢静脈のカラードプラ画像の取得に適したパラメータセットD、下肢動脈について、下肢動脈のカラードプラ画像の取得に適したパラメータセットEを定めたテーブルTが、メモリ9に記憶されていてもよい。パラメータセットA~Eの各々は、複数のパラメータを含んでいる。
プロセッサ7は、パラメータセットA~Eの中から、ステップS2において特定された関心部位について記憶されたパラメータセットを特定する。ステップS2において特定された関心部位が乳腺である場合、パラメータセットAを特定する。
次に、ステップS4では、カラードプラ画像のデータが取得される。具体的には、プロセッサ7は、被検体に対してカラードプラ画像用のカラードプラスキャンを行なうように超音波プローブ2を制御する。また、プロセッサ7は、カラードプラスキャンによって得られたエコーデータに基づいてカラードプラ画像のデータを作成する。カラードプラスキャン及びカラードプラ画像のデータの作成には、ステップS3で特定されたパラメータが用いられる。
また、ステップS4では、プロセッサ7は、図5に示すように、カラードプラ画像のデータに基づくカラードプラ画像CIをディスプレイ8に表示する。カラードプラ画像CIは、関心領域RO内において、Bモード画像BIに重畳して表示される。
本例によれば、オペレーターは、超音波プローブを用いてBモードスキャンを行なうだけで、カラードプラ画像が作成される対象となる関心部位が特定され、この関心部位に応じて、カラードプラ画像のデータの取得に関するパラメータが特定される。カラードプラ画像を取得する場合、その前にBモード画像を取得することがほとんどであるため、オペレーターに追加のワークフローやインプットを課すことなく、カラードプラ画像のデータの取得に関するパラメータを関心部位に応じて適切に設定することができる。
ステップS1~S4の処理は、1フレームごとに行われなくてもよい。このことは、カラードプラ画像のデータの取得に関するパラメータが1フレームごとに特定されなくてもよいことを意味する。例えば、フレーム間の時間間隔よりも長い所定の時間間隔でステップS1~S4の処理が行われることにより、所定の時間間隔でカラードプラ画像のデータの取得に関するパラメータが特定されてもよい。また、フリーズ解除のタイミング、Bモード画像のデータ及びカラードプラ画像のデータを記録した後に、ステップS1~S4の処理が行われてもよい。また、Bモード画像データの1フレームにおける全画素の和が、フレーム間で所定の閾値を超えて異なる場合に、ステップS1~S4の処理が行われてもよい。
次に、第1実施形態の変形例について説明する。先ず、第1変形例について説明する。第1変形例の超音波画像表示システム1では、図6のフローチャートに従った処理が行われる。ステップS10では、ステップS1と同様の処理が行われ、Bモード画像BIが作成されて表示される。Bモード画像BIには関心領域ROが設定される。
ステップS11では、プロセッサ7は、関心領域ROよりも広い領域である第1の領域のBモード画像BIのデータに基づいて、カラードプラ画像が作成される対象となる関心部位を特定する処理を行なう。第1の領域は、取得されたBモード画像BIの全体又は一部を含む。関心部位を特定する処理は、一例では上述の学習済みモデルを用いて評価値を得る処理である。
ステップS12では、プロセッサ7は、ステップS11で得られた評価値に基づいて、関心部位を特定できるか否かを判定する。例えば、評価値が上述の確率である場合、プロセッサ7は、最も高い評価値と2番目に高い評価値との差Dに基づいて、関心部位を特定できるか否かを判定する。プロセッサ7は、差Dが閾値を超えている場合、関心部位を特定できると判定し、評価値が最も高い部位を関心部位として特定する(ステップS12において、「YES」)。関心部位が特定されると、処理がステップS14へ移行する。一方、プロセッサ7は、差Dが閾値以下である場合、関心部位を特定できないと判定する(ステップS12において、「NO」)。関心部位が特定されない場合、処理がステップS13へ移行する。
ステップS13では、プロセッサ7は、第2の領域R2、すなわち関心領域RO内のBモード画像BIのデータに基づいて、カラードプラ画像が作成される対象となる関心部位を特定する処理を行なう。この処理も、一例では上述の学習済みモデルを用いて評価値を得る処理である。プロセッサ7は、評価値が最も高い部位を関心部位として特定する。
ステップS14及びS15は、ステップS3及びS4と同様の処理である。
次に、第2変形例について説明する。第2変形例の超音波画像表示システム1では、図7のフローチャートに従った処理が行われる。この図7のフローチャートにおいて、ステップS20、S22、S24及びS25の処理は、ステップS10、S12、S14及びS15の処理と同じである。ステップS21では、プロセッサ7は、ステップS13と同様に、第2の領域R2、すなわち関心領域RO内のBモード画像BIのデータに基づいて、カラードプラ画像が作成される対象となる関心部位を特定する処理を行なう。
ステップS23では、プロセッサ7は、ステップS11と同様に、第1の領域のBモード画像BIのデータに基づいて、カラードプラ画像が作成される対象となる関心部位を特定する処理を行なう。また、プロセッサ7は、上述の学習済みモデルを用いて得られた評価値が最も高い部位を関心部位として特定する。
第1及び第2変形例におけるカラードプラ画像のデータの取得に関するパラメータの特定も、1フレームごとに行われなくてもよい。
(第2実施形態)
次に、第2実施形態について説明する。第2実施形態の超音波画像表示システムは、図1に示す構成を有する超音波画像表示システム1である。この構成については説明を省略する。以下、本例の超音波画像表示システム1における処理について説明する。
図8のフローチャートにおいて、ステップS30では、第1実施形態におけるステップS1、S10及びS20と同様の処理が行われ、Bモード画像BIが作成されて表示される。Bモード画像BIには関心領域ROが設定される。
次に、ステップS31では、プロセッサ7は、関心領域ROよりも広い領域である第1の領域のBモード画像BIのデータに基づいて、第1の領域の被検体における部位を特定する。第1の領域は、第1の実施形態と同様に、取得されたBモード画像BIの全体又は一部である。第1の領域は関心領域ROを含む。ここでの第1の領域は、図3に示すBモード画像BIの全体である第1の領域R1であるものとする。
プロセッサ7は、機械学習によって得られた学習済みモデルを用いて部位の特定を行なってもよい。具体的に説明する。メモリ9には、Bモード画像とBモード画像に対する第1の評価値との相関関係を学習させた第1の学習済みモデルが記憶されている。第1の評価値は、被検体の部位に関する評価値である。一例では、第1の評価値は、Bモード画像が、被検体におけるある部位の画像に該当する確率である。第1の学習済みモデルにおいて、被検体における複数の部位の各々についての第1の評価値が学習される。一例では、被検体の部位は、乳腺、首及び下肢であり、第1の学習済みモデルは、Bモード画像が、乳腺の画像である確率、首の画像である確率及び下肢の画像である確率の各々と、Bモード画像との相関関係を学習させたものである。また、被検体の部位は、乳腺、甲状腺、頸動脈、下肢静脈及び下肢動脈であってもよく、第1の学習済みモデルは、Bモード画像が、乳腺の画像である確率、甲状腺の画像である確率、頸動脈の画像である確率、下肢静脈の画像である確率及び下肢動脈の画像である確率の各々と、Bモード画像との相関関係を学習させたものであってもよい。ただし、被検体の部位は、これらに限定されるものではない。
プロセッサ7は、第1の学習済みモデルの入力層に、ステップS30で取得された第1の領域R1のBモード画像BIのデータを入力する。そして、プロセッサ7は、第1の学習済みモデルの出力層の出力として、第1の領域R1の被検体における部位に関する第1の評価値を得る。一例では、第1の評価値は、第1の学習済みモデルに入力されたデータの第1の領域R1のBモード画像BIが、被検体の部位の各々の画像に該当する確率である。
第1の学習済みモデルが、乳腺の画像の確率、首の画像の確率及び下肢の画像の確率について学習させたものである場合、第1の評価値は、第1の領域R1のBモード画像BIが、乳腺の画像である確率、首の画像である確率及び下肢の画像である確率である。また、第1の学習済みモデルが、乳腺の画像の確率、甲状腺の画像の確率、頸動脈の画像の確率、下肢静脈の画像の確率及び下肢動脈の画像の確率について学習させたものである場合、第1の評価値は、第1の領域R1のBモード画像BIが、乳腺の画像である確率、甲状腺の画像である確率、頸動脈の画像である確率、下肢静脈の画像である確率、下肢動脈の画像である確率である。
プロセッサ7は、第1の評価値に基づいて、第1の領域R1の被検体における部位を特定する。一例では、プロセッサ7は、第1の評価値すなわち確率が最も高い部位を特定する。例えば、第1の評価値として、乳腺の画像の確率が10%、首の画像の確率が80%、下肢の画像の確率が10%という値が得られた場合、プロセッサ7は、第1の領域R1の被検体における部位を首と特定する。
他例では、プロセッサ7は、最も高い第1の評価値と2番目に高い第1の評価値との差Dが閾値以下である場合、最も高い第1の評価値の部位と2番目に高い第1の評価値の部位を、第1の領域R1の被検体における部位として特定する。例えば、乳腺の画像である確率が10%、甲状腺の画像である確率が38%、頸動脈の画像である確率が42%、下肢静脈の画像である確率が5%、下肢動脈の画像である確率が5%という結果が得られたと仮定する。例えば、差Dについての閾値が5%である場合、プロセッサ7は、第1の領域R1の被検体における部位を、甲状腺及び頸動脈と特定する。プロセッサ7は、甲状腺及び頸動脈が含まれる首を、第1の領域R1の被検体における部位として特定してもよい。
次に、ステップS32では、プロセッサ7は、第2の領域R2のBモード画像のデータに基づいて、カラードプラ画像が作成される対象となる関心部位を特定する。第2の領域R2は、関心領域ROである。関心部位は、ステップS31で特定された第1の領域R1の被検体における部位に含まれる。従って、プロセッサ7は、ステップS31で特定された第1の領域R1の被検体における部位の中から関心部位を特定する。例えば、第1の領域の被検体における部位が、甲状腺及び頸動脈、または首であると特定された場合、関心部位として首に含まれる甲状腺又は頸動脈が特定される。
プロセッサ7は、機械学習によって得られた学習済みモデルを用いて関心部位の特定を行なってもよい。具体的に説明する。メモリ9には、Bモード画像とBモード画像に対する第2の評価値との相関関係を学習させた第2の学習済みモデルが記憶されている。第2の評価値は、被検体の部位に含まれる部位であって関心部位の候補となる部位に関する評価値である。一例では、第2の評価値は、Bモード画像が、関心部位の候補となる部位の画像に該当する確率である。第2の学習済みモデルは、複数の被検体の部位の各々について記憶されている。ここでの被検体の部位とは、関心部位の候補となる部位を含み、この関心部位の候補となる部位よりも広い領域の部位を意味する。例えば、関心部位の候補となる部位が、甲状腺、頸動脈、下肢静脈及び下肢動脈である場合、首についての第2の学習済みモデルと下肢についての第2の学習済みモデルがメモリ9に記憶される。首についての第2の学習済みモデルを第2の学習済みモデルSLM1とし、下肢についての第2の学習済みモデルを第2の学習済みモデルSLM2とする。首についての第2の学習済みモデルSLM1は、甲状腺及び頸動脈を含む領域についての学習済みモデルであってもよい。また、下肢についての第2の学習済みモデルSLM2は、下肢静脈及び下肢動脈を含む領域についての学習済みモデルであってもよい。
首についての第2の学習済みモデルSLM1は、Bモード画像が、甲状腺の画像である確率及び頸動脈の画像である確率の各々と、Bモード画像との相関関係を学習させたモデルである。また、下肢についての第2の学習済みモデルSLM2は、Bモード画像が、下肢静脈の画像である確率及び下肢動脈の画像である確率の各々と、Bモード画像との相関関係を学習させたモデルである。
プロセッサ7は、第2の学習済みモデルSLM1及びSLM2のうち、ステップS31において特定された部位についての第2の学習済みモデルを用いて関心部位を特定する。ステップS31において特定された部位が、甲状腺及び頸動脈、または首である場合、第2の学習済みモデルSLM1を用いて関心部位を特定する。具体的には、第2の学習済みモデルSLM1の入力層に、第2の領域R2のBモード画像のデータを入力する。そして、プロセッサ7は、第2の学習済みモデルSLM1の出力層の出力として、第2の領域R2の被検体における部位に関する第2の評価値を得る。
一例では、第2の評価値は、第2の領域R2のBモード画像BIが、関心部位の候補となる部位の各々の画像に該当する確率である。第2の学習済みモデルSLM1は首についての学習済みモデルなので、第2の評価値は、第2の領域R2のBモード画像BIが、甲状腺の画像である確率及び頸動脈である確率である。
ちなみに、下肢についての第2の学習済みモデルSLM2の出力層から出力される第2の評価値は、第2の領域R2のBモード画像BIが、下肢静脈の画像である確率及び下肢動脈の画像である確率である。
プロセッサ7は、第2の評価値に基づいて、関心部位を特定する。一例では、プロセッサ7は、第2の評価値が最も高い部位を特定する。例えば、第2の評価値として、甲状腺の画像の確率が80%、頸動脈の画像の確率が20%という値が得られた場合、プロセッサ7は、関心部位を甲状腺と特定する。
ステップS32において関心部位が特定された後のステップS33及びステップS34の処理は、ステップS3及びS4、ステップS14及びS15、ステップS24及びS25と同様である。
本例によれば、第1の実施形態と同様に、オペレーターに追加のワークフローやインプットを課すことなく、カラードプラ画像のデータの取得に関するパラメータを関心部位に応じて適切に設定することができる。さらに、本例によれば、ステップS31において、先ず関心部位が含まれる被検体の部位が特定された後に、この部位の中から関心部位が特定されるので、より正確に関心部位を特定することができる。
なお、第1実施形態と同様に、ステップS30~S34の処理は、1フレームごとに行われなくてもよい。
次に、第2実施形態の変形例について説明する。この変形例では、図9のフローチャートに従った処理が行われる。先ず、ステップS40では、ステップS1、S10、S20及びS30と同様の処理が行われ、Bモード画像BIが作成されて表示される。Bモード画像BIには関心領域ROが設定される。
次に、ステップS41では、プロセッサ7は、被検体に対し、第1のカラードプラ画像用の第1のカラードプラスキャンを行なうように超音波プローブ2を制御する。また、プロセッサ7は、第1のカラードプラスキャンによって得られたエコーデータに基づいて関心領域ROの第1のカラードプラ画像のデータを作成する。
第1のカラードプラスキャン及び第1のカラードプラ画像のデータの作成に用いられるパラメータは、部位に応じた最適なパラメータではなく、どの部位においても少なくとも最低限の血流情報が得られるパラメータである。第1のカラードプラスキャン及び第1のカラードプラ画像のデータの作成に用いられるパラメータは、部位に応じた最適なパラメータである後述の第2のカラードプラスキャン及び第2のカラードプラ画像のデータの作成に用いられるパラメータとは異なる。
ステップS41において、プロセッサ7は、図10に示すように、第1のカラードプラ画像のデータに基づいて、第1のカラードプラ画像CI1をディスプレイ8に表示する。第1のカラードプラ画像CI1は、関心領域RO内において、Bモード画像BIに重畳して表示される。
次に、ステップS42では、ステップS31と同様の処理が行われ、第1の領域R1の被検体における部位が特定される。
次に、ステップS43では、プロセッサ7は、第2の領域R2、すなわち関心領域ROの第1のカラードプラ画像CI1のデータに基づいて、被検体において関心領域ROの対象となる関心部位を特定する。この関心部位は、被検体において第1のカラードプラ画像CI1が作成された対象の部位であり、なおかつ被検体において後述の第2のカラードプラ画像CI2が作成される対象の部位である。ステップS32において説明したのと同様に、関心部位は、ステップS42で特定された第1の領域R1の被検体における部位に含まれる。
プロセッサ7は、機械学習によって得られた学習済みモデルを用いて関心部位の特定を行なってもよい。具体的に説明する。メモリ9には、カラードプラ画像とカラードプラ画像に対する第2の評価値との相関関係を学習させた第2の学習済みモデルが記憶されている。この第2の評価値も、被検体の部位に含まれる部位であって関心部位の候補となる部位に関する評価値である。一例では、第2の評価値は、カラードプラ画像が関心部位の候補となる部位の画像に該当する確率である。第2の学習済みモデルは、上述の実施形態と同様に、複数の被検体の部位の各々について記憶されている。ここでも、首についての第2の学習済みモデルを第2の学習済みモデルSLM1とし、下肢についての第2の学習済みモデルを第2の学習済みモデルSLM2とする。
ただし、この変形例では、首についての第2の学習済みモデルSLM1は、カラードプラ画像が、甲状腺の画像である確率及び頸動脈の画像である確率の各々と、カラードプラ画像との相関関係を学習させたモデルである。また、下肢についての第2の学習済みモデルSLM2は、カラードプラ画像が、下肢静脈の画像である確率及び下肢動脈の画像である確率の各々と、カラードプラ画像との相関関係を学習させたモデルである。
プロセッサ7は、第2の学習済みモデルSLM1及びSLM2のうち、ステップS42において特定された部位についての第2の学習済みモデルを用いて関心部位を特定する。ステップS42において特定された部位が、甲状腺及び頸動脈、または首である場合、第2の学習済みモデルSLM1を用いて関心部位を特定する。具体的には、第2の学習済みモデルSLM1の入力層に、第2の領域R2の第1のカラードプラ画像CI1のデータを入力する。そして、プロセッサ7は、第2の学習済みモデルSLM1の出力層の出力として、第2の領域R2の被検体における部位に関する第2の評価値を得る。
一例では、第2の評価値は、第2の領域R2の第1のカラードプラ画像CI1が、関心部位の候補となる部位の各々の画像に該当する確率である。第2の学習済みモデルSLM1は首についての学習済みモデルなので、第2の評価値は、第2の領域R2の第1のカラードプラ画像CI1が、甲状腺の画像である確率及び頸動脈である確率である。
ちなみに、下肢についての第2の学習済みモデルSLM2の出力層から出力される第2の評価値は、第2の領域R2の第1のカラードプラ画像CI1が、下肢静脈の画像である確率及び下肢動脈の画像である確率である。
プロセッサ7は、ステップS32と同様に、第2の評価値に基づいて関心部位を特定する。
ステップS43において関心部位が特定された後のステップS44及びステップS45の処理は、ステップS3及びS4、ステップS14及びS15、ステップS24及びS25、ステップS33及びS34と基本的に同様である。ただし、ステップS44では、第2のカラードプラ画像のデータの取得に関するパラメータが特定される。ここで特定されるパラメータは、関心部位に応じたパラメータであり、第1のカラードプラ画像のデータの取得に関するパラメータとは異なる。
また、ステップS45では、ステップS44で特定されたパラメータを用いて、第2のカラードプラスキャンが行われ、第2のカラードプラ画像のデータが作成される。ディスプレイ8には、図11に示すように、関心領域RO内においてBモード画像に重畳して第2のカラードプラ画像CI2が表示される。
本発明についてある特定の実施形態を参照して説明してきたが、本発明の範囲から逸脱することなく、様々な変更を施してもよく、均等物に置換してもよい。加えて、本発明の範囲から逸脱することなく、特定の状況または材料を本発明の教示に適合させるために、多くの修正を行うことができる。したがって、本発明は、開示された特定の実施形態に限定されず、本発明が添付の特許請求の範囲内に属するすべての実施形態を含むことになることを意図している。
例えば、上述のBモード画像のデータに基づく関心部位の特定や被検体における部位の特定は、機械学習を用いたものに限定されるものではない。例えば、Bモード画像のデータのテクスチャパタン等の輝度分布の解析、周波数解析等を用いてもよい。また、これらと機械学習の併用でもよい。
また、プロセッサ7は、第2の領域R2の位置に基づいて、カラードプラ画像が作成される対象となる関心部位を特定してもよい。位置には、被検体内の深さの位置が含まれる。プロセッサ7は、第2の領域のBモード画像のデータと第2の領域の位置の両方に基づいて、カラードプラ画像が作成される対象となる関心部位を特定してもよい。
また、カラードプラスキャン又はカラードプラ画像のデータの作成の一方のみに、関心部位に応じて特定されたパラメータが用いられるようになっていてもよい。
また、上記実施形態は、プロセッサ及び超音波プローブを備える超音波画像表示システムの制御方法であって、
該制御方法は、前記プロセッサを用いて、
被検体に対してBモード画像用のBモードスキャンを行なうように前記超音波プローブを制御し、
前記Bモードスキャンによって得られたエコーデータに基づいてBモード画像のデータを作成し、
前記Bモード画像のデータに基づいて前記被検体のカラードプラ画像が作成される対象となる関心部位を特定し、
該関心部位に応じて前記カラードプラ画像のデータの取得に関するパラメータを特定し、
前記被検体に対してカラードプラ画像用のカラードプラスキャンを行なうように前記超音波プローブを制御し、
前記カラードプラスキャンによって得られたエコーデータに基づいてカラードプラ画像のデータを作成する、ことを含み、
前記カラードプラスキャン及び前記カラードプラ画像のデータの作成の少なくとも一方は、前記パラメータを用いて行われる、超音波画像表示システムの制御方法としてもよい。
プロセッサ及び超音波プローブを備える超音波画像表示システムの制御方法であって、
該制御方法は、前記プロセッサを用いて、
被検体に対してBモード画像用のBモードスキャンを行なうように前記超音波プローブを制御し、
前記Bモードスキャンによって得られたエコーデータに基づいてBモード画像のデータを作成し、
該Bモード画像に関心領域を設定し、
前記被検体に対し、第1のカラードプラ画像用の第1のカラードプラスキャンを行なうように前記超音波プローブを制御し、
前記第1のカラードプラスキャンによって得られたエコーデータに基づいて前記関心領域の第1のカラードプラ画像のデータを作成し、
前記被検体における第1の領域における前記Bモード画像のデータに基づいて、前記第1の領域の前記被検体における部位を特定し、前記第1の領域は、前記関心領域を含んでおり、
前記関心領域で構成される第2の領域の前記第1のカラードプラ画像のデータに基づいて、前記被検体において前記関心領域の対象となる関心部位を特定し、前記関心部位は、前記第1の領域の前記被検体における部位に含まれており、
該関心部位に応じて前記被検体の第2のカラードプラ画像のデータの取得に関するパラメータを特定し、
前記被検体に対して、さらに前記第2のカラードプラ画像用の第2のカラードプラスキャンを行なうように前記超音波プローブを制御し、
前記第2のカラードプラスキャンによって得られたエコーデータに基づいて前記第2のカラードプラ画像のデータを作成する、ことを含み、
前記カラードプラスキャン及び前記第2のカラードプラ画像のデータの作成の少なくとも一方は、前記パラメータを用いて行われる、超音波画像表示システムの制御方法。
1 超音波画像表示システム
2 超音波プローブ
7 プロセッサ
9 メモリ

Claims (19)

  1. プロセッサ及び超音波プローブを備える超音波画像表示システムであって、
    前記プロセッサは、
    被検体に対してBモード画像用のBモードスキャンを行なうように前記超音波プローブを制御し、
    前記Bモードスキャンによって得られたエコーデータに基づいてBモード画像のデータを作成し、
    前記Bモード画像のデータに基づいて前記被検体のカラードプラ画像が作成される対象となる関心部位を特定し、
    該関心部位に応じて前記カラードプラ画像のデータの取得に関するパラメータを特定し、
    前記被検体に対してカラードプラ画像用のカラードプラスキャンを行なうように前記超音波プローブを制御し、
    前記カラードプラスキャンによって得られたエコーデータに基づいてカラードプラ画像のデータを作成する、ことを含む制御を行なうよう構成され、
    前記カラードプラスキャン及び前記カラードプラ画像のデータの作成の少なくとも一方は、前記パラメータを用いて行われる、超音波画像表示システム。
  2. さらに、Bモード画像と、該Bモード画像に対する評価値との相関関係を学習させた学習済みモデルを記憶するメモリを備え、前記評価値は、前記関心部位の候補となる被検体の部位に関する評価値であり、
    前記プロセッサは、前記学習済みモデルの入力層に、前記Bモードスキャンを行なって作成された前記Bモード画像のデータを入力し、前記学習済みモデルの出力層の出力として前記入力層に入力された前記データのBモード画像についての前記評価値を得て、該評価値に基づいて前記関心部位を特定する、請求項1に記載の超音波画像表示システム。
  3. 前記プロセッサは、前記被検体における第1の領域の前記Bモード画像のデータ、又は前記第1の領域に含まれる第2の領域の前記Bモード画像のデータに基づいて前記関心部位を特定し、
    前記第2の領域は、前記被検体のカラードプラ画像を作成する対象である、請求項1に記載の超音波画像表示システム。
  4. 前記プロセッサは、前記第1の領域のBモード画像のデータに基づいて前記関心部位を特定する処理を行ない、該処理によって前記関心部位を特定できない場合、前記第2の領域のBモード画像のデータに基づいて前記関心部位を特定する、請求項3に記載の超音波画像表示システム。
  5. 前記プロセッサは、前記第2の領域のBモード画像のデータに基づいて前記関心部位を特定する処理を行ない、該処理によって前記関心部位を特定できない場合、前記第1の領域のBモード画像のデータに基づいて前記関心部位を特定する、請求項3に記載の超音波画像表示システム。
  6. さらに、Bモード画像と、該Bモード画像に対する評価値との相関関係を学習させた学習済みモデルを記憶するメモリを備え、前記評価値は、前記関心部位の候補となる被検体の部位に関する評価値であり、
    前記第1の領域のBモード画像のデータに基づいて前記関心部位を特定する処理は、前記学習済みモデルの入力層に前記第1の領域の前記Bモード画像のデータを入力し、前記学習済みモデルの出力層の出力として前記入力層に入力された前記データのBモード画像についての前記評価値を得て、該評価値に基づいて前記関心部位を特定する処理を含み、
    前記第2の領域のBモード画像のデータに基づいて前記関心部位を特定する処理は、前記学習済みモデルの入力層に前記第2の領域の前記Bモード画像のデータを入力し、前記学習済みモデルの出力層の出力として前記入力層に入力された前記データのBモード画像についての前記評価値を得て、該評価値に基づいて前記関心部位を特定する処理を含む、請求項3~5のいずれか一項に記載の超音波画像表示システム。
  7. 前記評価値は、前記Bモード画像が前記被検体におけるある部位の画像に該当する確率である、請求項2又は6に記載の超音波画像表示システム。
  8. 前記プロセッサは、
    前記被検体における第1の領域の前記Bモード画像のデータに基づいて、前記第1の領域の前記被検体における部位を特定し、
    前記第1の領域に含まれる第2の領域の前記Bモード画像のデータに基づいて、前記関心部位を特定し、該関心部位は、前記第1の領域の前記被検体における部位に含まれており、
    前記第2の領域は、前記被検体のカラードプラ画像を作成する対象である、請求項1に記載の超音波画像表示システム。
  9. さらに、Bモード画像と、該Bモード画像に対する第1の評価値との相関関係を学習させた第1の学習済みモデルと、Bモード画像と、該Bモード画像に対する第2評価値との相関関係を学習させた第2の学習済みモデルを記憶するメモリを備え、前記第1の評価値は、被検体の部位に関する評価値であり、前記第2の評価値は、前記被検体の部位に含まれる部位であって前記関心部位の候補となる部位に関する評価値であり、前記第2の学習済みモデルは、複数の被検体の部位の各々について記憶されており、
    前記第1の領域のBモード画像のデータに基づいて前記部位を特定する処理は、前記第1の学習済みモデルの入力層に前記第1の領域の前記Bモード画像のデータを入力し、前記第1の学習済みモデルの出力層の出力として前記入力層に入力された前記データのBモード画像についての前記第1の評価値を得て、該第1の評価値に基づいて前記部位を特定する処理を含み、
    前記第2の領域のBモード画像のデータに基づいて前記関心部位を特定する処理は、前記複数の第2の学習済みモデルのうち、前記第1の領域のBモード画像のデータに基づいて特定された前記部位についての第2の学習済みモデルの入力層に前記第2の領域の前記Bモード画像のデータを入力し、前記第2の学習済みモデルの出力層の出力として前記入力層に入力された前記データのBモード画像についての前記第2の評価値を得て、該第2の評価値に基づいて前記関心部位を特定する処理を含む、請求項8に記載の超音波画像表示システム。
  10. 前記第1の評価値は、前記Bモード画像が前記被検体におけるある部位の画像に該当する確率であり、
    前記第2の評価値は、前記Bモード画像が、前記被検体の部位に含まれる部位であって前記関心部位の候補となる部位の画像に該当する確率である、請求項9に記載の超音波画像表示システム。
  11. 前記プロセッサは、前記第2の領域のBモード画像のデータ及び前記第2の領域の位置の少なくとも一方に基づいて、前記関心部位を特定する処理を行なう、請求項3~6および8~10のうちのいずれか一項に記載の超音波画像表示システム。
  12. プロセッサ及び超音波プローブを備える超音波画像表示システムであって、
    前記プロセッサは、
    被検体に対してBモード画像用のBモードスキャンを行なうように前記超音波プローブを制御し、
    前記Bモードスキャンによって得られたエコーデータに基づいてBモード画像のデータを作成し、
    該Bモード画像に関心領域を設定し、
    前記被検体に対し、第1のカラードプラ画像用の第1のカラードプラスキャンを行なうように前記超音波プローブを制御し、
    前記第1のカラードプラスキャンによって得られたエコーデータに基づいて前記関心領域の第1のカラードプラ画像のデータを作成し、
    前記被検体における第1の領域における前記Bモード画像のデータに基づいて、前記第1の領域の前記被検体における部位を特定し、前記第1の領域は、前記関心領域を含んでおり、
    前記関心領域で構成される第2の領域の前記第1のカラードプラ画像のデータに基づいて、前記被検体において前記関心領域の対象となる関心部位を特定し、前記関心部位は、前記第1の領域の前記被検体における部位に含まれており、
    該関心部位に応じて前記被検体の第2のカラードプラ画像のデータの取得に関するパラメータを特定し、
    前記被検体に対して、さらに前記第2のカラードプラ画像用の第2のカラードプラスキャンを行なうように前記超音波プローブを制御し、
    前記第2のカラードプラスキャンによって得られたエコーデータに基づいて前記第2のカラードプラ画像のデータを作成する、ことを含む制御を行なうよう構成され、
    前記カラードプラスキャン及び前記第2のカラードプラ画像のデータの作成の少なくとも一方は、前記パラメータを用いて行われる、超音波画像表示システム。
  13. さらに、Bモード画像と、該Bモード画像に対する第1の評価値との相関関係を学習させた第1の学習済みモデルと、カラードプラ画像と、該カラードプラ画像に対する第2の評価値との相関関係を学習させた第2の学習済みモデルを記憶するメモリを備え、前記第1の評価値は、被検体の部位に関する評価値であり、前記第2の評価値は、被検体の部位に含まれる部位であって前記関心部位の候補となる部位に関する評価値であり、前記第2の学習済みモデルは、複数の被検体の部位の各々について記憶されており、
    前記第1の領域のBモード画像のデータに基づいて前記部位を特定する処理は、前記第1の学習済みモデルの入力層に前記第1の領域の前記Bモード画像のデータを入力し、前記第1の学習済みモデルの出力層の出力として前記入力層に入力された前記データのBモード画像についての前記第1の評価値を得て、該第1の評価値に基づいて前記部位を特定する処理を含み、
    前記第2の領域における前記第1のカラードプラ画像に基づいて前記関心部位を特定する処理は、前記複数の第2の学習済みモデルのうち、前記第1の領域のBモード画像に基づいて特定された前記部位についての第2の学習済みモデルの入力層に前記第1のカラードプラ画像を入力し、前記第2の学習済みモデルの出力層の出力として前記入力層に入力された前記データの第1のカラードプラ画像についての前記第2の評価値を得て、該第2の評価値に基づいて前記関心部位を特定する処理を含む、請求項12に記載の超音波画像表示システム。
  14. 前記第1の評価値は、前記Bモード画像が前記被検体におけるある部位の画像に該当する確率であり、
    前記第2の評価値は、前記カラードプラ画像及び前記第1のカラードプラ画像が、前記被検体の部位に含まれる部位であって前記関心部位の候補となる部位の画像に該当する確率である、請求項13に記載の超音波画像表示システム。
  15. 前記プロセッサは、前記第2の領域のカラードプラ画像のデータ及び前記第2の領域の位置の少なくとも一方に基づいて、前記関心部位を特定する処理を行なう、請求項12~14のいずれか一項に記載の超音波画像表示システム。
  16. 前記関心部位の候補となる被検体の複数の部位の各々に応じた前記パラメータを記憶するメモリを備え、
    前記プロセッサによって特定されるパラメータは、前記メモリに記憶されたパラメータのうち、前記プロセッサによって特定された前記関心部位について記憶されたパラメータである、請求項1~15のいずれか一項に記載の超音波画像表示システム。
  17. 前記メモリに記憶されたパラメータは、前記被検体の複数の部位の各々に応じたパラメータセットであり、該パラメータセットの各々は、複数のパラメータ値を含んでおり、
    前記プロセッサによって特定されるパラメータは、前記メモリに記憶された複数のパラメータセットのうち、前記プロセッサによって特定された前記関心部位について記憶されたパラメータセットである、請求項16に記載の超音波画像表示システム。
  18. プロセッサ及び超音波プローブを備える超音波画像表示システムの制御プログラムであって、
    該制御プログラムは、前記プロセッサに、
    被検体に対してBモード画像用のBモードスキャンを行なうように前記超音波プローブを制御し、
    前記Bモードスキャンによって得られたエコーデータに基づいてBモード画像のデータを作成し、
    前記Bモード画像のデータに基づいて前記被検体のカラードプラ画像が作成される対象となる関心部位を特定し、
    該関心部位に応じて前記カラードプラ画像のデータの取得に関するパラメータを特定し、
    前記被検体に対してカラードプラ画像用のカラードプラスキャンを行なうように前記超音波プローブを制御し、
    前記カラードプラスキャンによって得られたエコーデータに基づいてカラードプラ画像のデータを作成する、ことを含む制御を行なわせるよう構成され、
    前記カラードプラスキャン及び前記カラードプラ画像のデータの作成の少なくとも一方は、前記パラメータを用いて行われる、超音波画像表示システムの制御プログラム。
  19. プロセッサ及び超音波プローブを備える超音波画像表示システムの制御プログラムであって、
    該制御プログラムは、前記プロセッサに、
    被検体に対してBモード画像用のBモードスキャンを行なうように前記超音波プローブを制御し、
    前記Bモードスキャンによって得られたエコーデータに基づいてBモード画像のデータを作成し、
    該Bモード画像に関心領域を設定し、
    前記被検体に対し、第1のカラードプラ画像用の第1のカラードプラスキャンを行なうように前記超音波プローブを制御し、
    前記第1のカラードプラスキャンによって得られたエコーデータに基づいて前記関心領域の第1のカラードプラ画像のデータを作成し、
    前記被検体における第1の領域における前記Bモード画像のデータに基づいて、前記第1の領域の前記被検体における部位を特定し、前記第1の領域は、前記関心領域を含んでおり、
    前記関心領域で構成される第2の領域の前記第1のカラードプラ画像のデータに基づいて、前記被検体において前記関心領域の対象となる関心部位を特定し、前記関心部位は、前記第1の領域の前記被検体における部位に含まれており、
    該関心部位に応じて前記被検体の第2のカラードプラ画像のデータの取得に関するパラメータを特定し、
    前記被検体に対して、さらに前記第2のカラードプラ画像用の第2のカラードプラスキャンを行なうように前記超音波プローブを制御し、
    前記第2のカラードプラスキャンによって得られたエコーデータに基づいて前記第2のカラードプラ画像のデータを作成する、ことを含む制御を行なわせるよう構成され、
    前記カラードプラスキャン及び前記第2のカラードプラ画像のデータの作成の少なくとも一方は、前記パラメータを用いて行われる、超音波画像表示システムの制御プログラム。
JP2021000856A 2021-01-06 2021-01-06 超音波画像表示システム及びその制御プログラム Active JP7159361B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021000856A JP7159361B2 (ja) 2021-01-06 2021-01-06 超音波画像表示システム及びその制御プログラム
CN202111608230.2A CN114711813A (zh) 2021-01-06 2021-12-24 超声图像显示系统及其控制程序
US17/570,207 US20220211353A1 (en) 2021-01-06 2022-01-06 Ultrasonic image display system and program for color doppler imaging

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021000856A JP7159361B2 (ja) 2021-01-06 2021-01-06 超音波画像表示システム及びその制御プログラム

Publications (2)

Publication Number Publication Date
JP2022106108A JP2022106108A (ja) 2022-07-19
JP7159361B2 true JP7159361B2 (ja) 2022-10-24

Family

ID=82219948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021000856A Active JP7159361B2 (ja) 2021-01-06 2021-01-06 超音波画像表示システム及びその制御プログラム

Country Status (3)

Country Link
US (1) US20220211353A1 (ja)
JP (1) JP7159361B2 (ja)
CN (1) CN114711813A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7551840B1 (ja) 2023-05-29 2024-09-17 ジーイー・プレシジョン・ヘルスケア・エルエルシー 超音波診断装置および記憶媒体

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011172933A (ja) 2010-02-25 2011-09-08 Siemens Medical Solutions Usa Inc 医学的な超音波診断におけるボリューム定量化方法および医学的な超音波診断におけるボリューム定量化のためにプログラミングされたプロセッサによって実行される命令を表すデータが記憶されているコンピュータ読取り可能記憶媒体
JP2013111309A (ja) 2011-11-30 2013-06-10 Ge Medical Systems Global Technology Co Llc 超音波診断装置及びその制御プログラム
JP2015156960A (ja) 2014-02-24 2015-09-03 日立アロカメディカル株式会社 超音波診断装置
WO2017038162A1 (ja) 2015-08-31 2017-03-09 富士フイルム株式会社 超音波診断装置および超音波診断装置の制御方法
WO2018105366A1 (ja) 2016-12-06 2018-06-14 富士フイルム株式会社 超音波診断装置及び超音波診断装置の制御方法
WO2020110500A1 (ja) 2018-11-30 2020-06-04 富士フイルム株式会社 超音波診断装置および超音波診断装置の制御方法
US20200229795A1 (en) 2019-01-22 2020-07-23 General Electric Company Method and systems for color flow imaging of arteries and veins

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10973397B2 (en) * 1999-03-01 2021-04-13 West View Research, Llc Computerized information collection and processing apparatus
KR101126851B1 (ko) * 2008-08-27 2012-03-23 삼성메디슨 주식회사 적응적 컬러 도플러 수행 방법 및 그를 위한 초음파 진단 시스템
JP7134704B2 (ja) * 2017-06-01 2022-09-12 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
CN117582248A (zh) * 2018-01-31 2024-02-23 富士胶片株式会社 超声波诊断装置及其控制方法、超声波诊断装置用处理器
EP3777697B1 (en) * 2018-03-28 2023-08-30 FUJIFILM Corporation Ultrasonic diagnostic device and control method for ultrasonic diagnostic device
EP3669786A1 (en) * 2018-12-17 2020-06-24 Koninklijke Philips N.V. Systems and methods for guided ultrasound data acquisition
JP7309355B2 (ja) * 2018-12-10 2023-07-18 キヤノンメディカルシステムズ株式会社 医用画像生成装置、及び医用画像生成プログラム
US11636593B2 (en) * 2020-11-06 2023-04-25 EchoNous, Inc. Robust segmentation through high-level image understanding

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011172933A (ja) 2010-02-25 2011-09-08 Siemens Medical Solutions Usa Inc 医学的な超音波診断におけるボリューム定量化方法および医学的な超音波診断におけるボリューム定量化のためにプログラミングされたプロセッサによって実行される命令を表すデータが記憶されているコンピュータ読取り可能記憶媒体
JP2013111309A (ja) 2011-11-30 2013-06-10 Ge Medical Systems Global Technology Co Llc 超音波診断装置及びその制御プログラム
JP2015156960A (ja) 2014-02-24 2015-09-03 日立アロカメディカル株式会社 超音波診断装置
WO2017038162A1 (ja) 2015-08-31 2017-03-09 富士フイルム株式会社 超音波診断装置および超音波診断装置の制御方法
WO2018105366A1 (ja) 2016-12-06 2018-06-14 富士フイルム株式会社 超音波診断装置及び超音波診断装置の制御方法
WO2020110500A1 (ja) 2018-11-30 2020-06-04 富士フイルム株式会社 超音波診断装置および超音波診断装置の制御方法
US20200229795A1 (en) 2019-01-22 2020-07-23 General Electric Company Method and systems for color flow imaging of arteries and veins

Also Published As

Publication number Publication date
JP2022106108A (ja) 2022-07-19
CN114711813A (zh) 2022-07-08
US20220211353A1 (en) 2022-07-07

Similar Documents

Publication Publication Date Title
CN102309338B (zh) 用于超声数据处理的方法和系统
US11071525B2 (en) Ultrasonic diagnostic apparatus and method
JP6307460B2 (ja) 超音波診断装置及びその制御プログラム
JP7159361B2 (ja) 超音波画像表示システム及びその制御プログラム
US8870777B2 (en) Ultrasound diagnostic apparatus
CN114305487B (zh) 超声图像显示装置及其控制程序
JP6722322B1 (ja) 超音波装置及びその制御プログラム
CN111855824B (zh) 超声装置及其控制方法
JP7242623B2 (ja) 超音波画像表示システム及びその制御プログラム
JP6258070B2 (ja) 超音波診断装置
JP7242618B2 (ja) 超音波画像表示システム及びその制御プログラム
JP2022129859A (ja) 解析装置及びその制御プログラム
CN106170254A (zh) 超声波观测装置
JP7366873B2 (ja) 超音波画像表示システム及びその制御プログラム
JP6924236B2 (ja) 超音波診断装置及びその制御プログラム
JP7167089B2 (ja) 装置、その制御プログラム及びシステム
JP7242621B2 (ja) 超音波画像表示システム及びその制御プログラム
US9877701B2 (en) Methods and systems for automatic setting of color flow steering angle
JP6865810B1 (ja) 超音波診断装置及びその制御プログラム
JP6983481B2 (ja) 医用画像装置、その制御プログラム及びシステム
US20230316520A1 (en) Methods and systems to exclude pericardium in cardiac strain calculations
JP7196135B2 (ja) 装置、その制御プログラム及びシステム
US20210128108A1 (en) Loosely coupled probe position and view in ultrasound imaging
CN115337040A (zh) 装置及其控制程序

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210205

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210526

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221012

R150 Certificate of patent or registration of utility model

Ref document number: 7159361

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150