[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2020103883A - 超音波撮像システムおよび対象物体品質レベルを表示するための方法 - Google Patents

超音波撮像システムおよび対象物体品質レベルを表示するための方法 Download PDF

Info

Publication number
JP2020103883A
JP2020103883A JP2019219573A JP2019219573A JP2020103883A JP 2020103883 A JP2020103883 A JP 2020103883A JP 2019219573 A JP2019219573 A JP 2019219573A JP 2019219573 A JP2019219573 A JP 2019219573A JP 2020103883 A JP2020103883 A JP 2020103883A
Authority
JP
Japan
Prior art keywords
target object
image
ultrasound
object quality
quality indicator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019219573A
Other languages
English (en)
Other versions
JP7346266B2 (ja
Inventor
クリスティアン・フリッツ・ペリー
Fritz Perrey Christian
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of JP2020103883A publication Critical patent/JP2020103883A/ja
Application granted granted Critical
Publication of JP7346266B2 publication Critical patent/JP7346266B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/58Testing, adjusting or calibrating the diagnostic device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/481Diagnostic techniques involving the use of contrast agent, e.g. microbubbles introduced into the bloodstream
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/54Control of the diagnostic device

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Hematology (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Vascular Medicine (AREA)
  • Physiology (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

【課題】自動化された超音波撮像システムおよび方法を提供する。【解決手段】超音波データを取得することと、超音波データを取得するプロセス中に対象物体の対象物体品質パラメータを取得することとを含む、超音波撮像の方法(200)。1つまたは複数のプロセッサは、対象物体品質パラメータに基づいて対象物体の対象物体品質レベルを決定し、対象物体品質レベルに基づいて対象物体品質インジケータを自動的に選択する。1つまたは複数のプロセッサはまた、超音波データに基づいて、対象物体に関連付けられた対象物体品質インジケータを含む画像を生成し、画像を表示装置に表示する。【選択図】図2

Description

本明細書で説明する主題は、一般に、自動化された超音波撮像システムおよび方法に関する。
超音波撮像手順は、スキャンエリア内の対象物体に関するスキャンエリアから定量的または定性的な情報を取得するためにしばしば使用される。超音波撮像システムは、解剖学的構造の長さもしくは直径、一定期間内に領域を流れる血液もしくは流体のボリューム、速度、平均速度、または臨床医の支援なしで患者の関心領域から取得されたピーク速度などの対象物体パラメータを自動的に特定することができる。それでも、画像から対象物体パラメータを取得するとき、超音波臨床医は、超音波データの取得中に取得品質が許容可能であったことを知ることが重要である。
具体的には、超音波画像の対象物体の自動化された検出および/またはセグメンテーションは、ユーザが検査をより効率的に実行するのに役立ち、観察者変動を減らすことが可能である。ただし、自動化は100%信頼できるものではなく、臨床医は、依然として自動化された検出/セグメンテーションの成果を検討し、失敗した場合に結果を修正する必要がある。この検討ステップは、特に複数の対象物体が存在する場合、煩雑な場合がある。例えば、卵巣の卵胞を検査するとき、複数の対象物体が提示され、臨床医は、各対象物体の自動化された検出を再検討する必要がある。このプロセスは面倒かつ非効率的であり、自動化された超音波装置の使用に関する利点を最小限に抑えてしまう。
米国特許第9392995B2号
本明細書では、上述の欠点、短所および問題に対処し、以下の明細書を読んで理解することによって理解されるであろう。
1つまたは複数の実施形態では、超音波データを取得することと、超音波データを取得するプロセス中に対象物体の対象物体品質パラメータを取得することとを含む超音波撮像の方法が提供される。方法はまた、1つまたは複数のプロセッサにより、対象物体品質パラメータに基づいて対象物体の対象物体品質レベルを決定することと、対象物体品質レベルに基づいて対象物体品質インジケータを自動的に選択することとを含む。方法はまた、超音波データに基づいて、対象物体に関連付けられた対象物体品質インジケータを含む画像を生成することと、画像を表示装置に表示することとを含む。
1つまたは複数の実施形態では、プローブと、表示装置と、プローブおよび表示装置と電子通信する1つまたは複数のプロセッサとを含む超音波撮像システムが提供される。1つまたは複数のプロセッサは、プローブを制御して超音波データを取得し、超音波データを取得するプロセス中に対象物体品質パラメータを取得し、対象物体品質パラメータに基づいて対象物体品質レベルを決定するように構成される。1つまたは複数のプロセッサはまた、対象物体品質レベルに基づいて、対象物体に関連付けられた対象物体品質インジケータを選択し、超音波データに基づいて対象物体品質インジケータを対象物体に関連付ける画像を表示装置に表示するように構成される。
1つまたは複数の実施形態では、少なくとも1つのコードセクションを有するコンピュータプログラムが記憶された非一時的コンピュータ可読媒体が提供され、前記少なくとも1つのコードセクションは、超音波データを取得するステップと、超音波データを取得するプロセス中にセグメント化された画像から第1の対象物体品質パラメータおよび第2の対象物体品質パラメータを取得するステップとを含む1つまたは複数のステップを機械に実行させるように、前記機械によって実施可能である。機械はまた、1つまたは複数のプロセッサにより、第1の対象物体品質パラメータに基づいて第1の対象物体品質レベル、および第2の対象物体品質パラメータに基づいて第2の対象物体品質レベルを決定するステップと、第1の対象物体品質レベルに基づいて第1の対象物体の第1の不透明度、および第2の対象物体品質レベルに基づいて第2の対象物体の第2の不透明度を自動的に選択するステップと、セグメント化された画像を合成し、第1の不透明度である第1の対象物体を有し、かつ第2の不透明度である第2の対象物体を有する表示画像を形成するステップとを実行する。任意選択で、セグメント化された画像は、3D超音波システムから受信される。
一実施形態による超音波撮像システムの概略図である。 一実施形態による超音波撮像のための方法のフローチャートである。 一実施形態による画像の概略図である。 一実施形態による異なるビューからの図3の画像の概略図である。 一実施形態による異なるビューからの図3の画像の概略図である。 一実施形態による図3〜図5の画像から形成された三次元画像の概略図である。
前述の概要、ならびに様々な実施形態の以下の詳細な説明は、添付の図面と併せて読むとよりよく理解されるであろう。図が様々な実施形態の機能ブロックの図を示す限り、機能ブロックは、必ずしもハードウェア回路間の分割を示すものではない。したがって、例えば、機能ブロック(例えば、プロセッサまたはメモリ)の1つまたは複数は、単一のハードウェア(例えば、汎用信号プロセッサまたはランダムアクセスメモリ、ハードディスクなどのブロック)、または複数のハードウェアで実現することができる。同様に、プログラムは、スタンドアロンのプログラムであってもよいし、オペレーティングシステム内のサブルーチンとして組み込まれてもよいし、あるいはインストールされたソフトウェアパッケージの機能などであってもよい。様々な実施形態は、図面に示す配置および手段に限定されないことを理解されたい。
以下の詳細な説明では、本明細書の一部を形成し、実施され得る特定の実施形態を例示として示している添付の図面を参照する。これらの実施形態は、当業者が実施形態を実施することができるように十分詳細に記載されており、他の実施形態も利用することができること、ならびに論理的、機械的、電気的および他の変更を、実施形態の範囲から逸脱せずに行うことができることを理解されたい。したがって、以下の詳細な説明は、本発明の範囲を限定するものと解釈されるべきではない。
図1は、一実施形態による超音波撮像システム100の概略図である。超音波撮像システム100は、プローブ106内の素子104を駆動してパルス超音波信号を体(図示せず)に放出する、送信ビーム形成器101および送信器102を含む。プローブ106は、様々な実施形態による線形プローブ、湾曲アレイプローブ、1.25Dアレイ、1.5Dアレイ、1.75Dアレイ、または2Dアレイプローブを含む、任意の種類のプローブであり得る。プローブ106はまた、他の実施形態による機械的4Dプローブまたはハイブリッドプローブなどの機械的プローブであってもよい。プローブ106を使用して、ボリュームが時間と共にどのように変化するかに関する情報を含む4D超音波データを取得することができる。ボリュームの各々は、複数の2D画像またはスライスを含み得る。さらに図1を参照すると、パルス超音波信号は、血球または筋肉組織のような体内の構造から後方散乱され、素子104に戻るエコーを発生する。エコーは、素子104によって電気信号または超音波データに変換され、電気信号は、受信器108によって受信される。
受信されたエコーを表す電気信号は、超音波データを出力する受信ビーム形成器110を通過する。いくつかの実施形態によれば、プローブ106は、送信ビーム形成および/または受信ビーム形成のすべてまたは一部を行う電子回路を含むことができる。例えば、送信ビーム形成器101、送信器102、受信器108および受信ビーム形成器110のすべてまたは一部は、プローブ106内に位置付けすることができる。「スキャン」または「スキャニング」という用語は、超音波信号を送信および受信するプロセスを通じてデータを取得することを指すこともできる。「データ」および「超音波データ」という用語は、超音波撮像システムで取得された1つまたは複数のデータセットを指すことができる。ユーザインターフェース115を使用して、超音波撮像システム100の動作を制御することが可能である。ユーザインターフェースを使用して、患者データの入力を制御したり、または様々なモード、動作、およびパラメータなどを選択してもよい。ユーザインターフェース115は、キーボード、ハードキー、タッチパッド、タッチスクリーン、トラックボール、ロータリーコントロール、スライダ、ソフトキー、または任意の他のユーザ入力装置などの1つまたは複数のユーザ入力装置を含んでもよい。
超音波撮像システム100はまた、送信ビーム形成器101、送信器102、受信器108および受信ビーム形成器110を制御するためのプロセッサ116を含む。受信ビーム形成器110は、従来のハードウェアビーム形成器、または様々な実施形態によるソフトウェアビーム形成器であってもよい。受信ビーム形成器110がソフトウェアビーム形成器である場合、以下の構成要素:グラフィックス処理装置(GPU)、マイクロプロセッサ、中央処理装置(CPU)、デジタル信号プロセッサ(DSP)、または論理演算を実行することが可能な任意の他の種類のプロセッサの1つまたは複数を備えてもよい。
ビーム形成器110は、従来のビーム形成技法ならびにレトロスペクティブ送信ビーム形成(RTB)などの技法を実行するように構成されてもよい。プロセッサ116は、プローブ106を制御して超音波データを取得することができる。プロセッサ116は、素子104のどれがアクティブであるか、およびプローブ106から放出されるビームの形状を制御する。プロセッサ116はまた、表示装置118と電子通信し、プロセッサ116は、表示装置118に表示するために超音波データを画像に処理することができる。本開示の目的のために、「電子通信」という用語は、有線接続と無線接続の両方を含むと定義することができる。
プロセッサ116はまた、一実施形態による中央処理装置(CPU)を含むことができる。他の実施形態によれば、プロセッサ116は、デジタル信号プロセッサ、フィールドプログラマブルゲートアレイ(FPGA)、グラフィックス処理装置(GPU)または任意の他の種類のプロセッサなど、処理機能を行うことが可能な他の電子構成要素を含んでもよい。他の実施形態によれば、プロセッサ116は、処理機能を行うことが可能な複数の電子構成要素を含むことができる。例えば、プロセッサ116は、中央処理装置(CPU)、デジタル信号プロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)、およびグラフィックス処理装置(GPU)を含む電子構成要素のリストから選択された2つ以上の電子構成要素を含んでもよい。
別の実施形態によれば、プロセッサ116はまた、RFデータを復調し、生データを生成する複素復調器(図示せず)を含むことができる。別の実施形態では、復調は、処理チェーンの早期に行うことができる。プロセッサ116は、データの複数の選択可能な超音波モダリティに従って1つまたは複数の処理動作を実行するように適合され得る。データは、エコー信号が受信されると、スキャニングセッション中にリアルタイムで処理することができる。本開示の目的のために、「リアルタイム」という用語は、意図的な遅延なしに実行される手順を含むと定義される。リアルタイムフレームまたはボリュームレートは、データを取得する領域またはボリュームのサイズ、および取得中に使用される特定のパラメータに基づいて変化する場合がある。データは、スキャニングセッション中にバッファ(図示せず)に一時的に記憶され、ライブまたはオフライン動作においてリアルタイムよりも遅く処理される可能性がある。
いくつかの実施形態は、処理タスクを扱うために複数のプロセッサ(図示せず)を含んでもよい。例えば、第1のプロセッサを利用して、RF信号を復調して間引くことができ、第2のプロセッサを使用して、画像として表示する前にデータをさらに処理することができる。他の実施形態は、異なる配置のプロセッサを使用してもよいことを理解されたい。受信ビーム形成器110がソフトウェアビーム形成器である実施形態の場合、上述のプロセッサ116およびソフトウェアビーム形成器に起因する処理機能は、受信ビーム形成器110またはプロセッサ116などの単一のプロセッサによって実行され得る。または、プロセッサ116およびソフトウェアビーム形成器に起因する処理機能は、任意の数の別々の処理構成要素間で異なる方法で割り当てられてもよい。
一実施形態によれば、超音波撮像システム100は、例えば、10Hz〜30Hzのフレームレートで超音波データを連続的に取得することができる。データから生成された画像は、同様のフレームレートでリフレッシュすることができる。他の実施形態は、異なるレートでデータを取得して表示することができる。例えば、いくつかの実施形態は、ボリュームのサイズおよび意図される用途に応じて、10Hz未満または30Hz超のフレームレートで超音波データを取得してもよい。例えば、多くの用途は、50Hzのフレームレートで超音波データを取得することを伴い得る。取得データの処理されたフレームを記憶するために、メモリ120が含まれる。一実施形態では、メモリ120は、少なくとも数秒の長さの期間にわたって取得された超音波データのフレームを記憶するのに十分な容量のものである。データのフレームは、取得の順序または時間によるデータの検索を容易にするような方法で記憶される。メモリ120は、任意の既知のデータ記憶媒体を備えてもよい。
任意選択で、造影剤を利用して実施形態を実現することができる。コントラスト撮像は、マイクロバブルを含む超音波造影剤を使用するとき、体内の解剖学的構造および血流の強調画像を生成する。造影剤を使用しながらデータを取得した後、画像分析は、高調波および線形成分を分離し、高調波成分を強調し、強調高調波成分を利用することによって超音波画像を生成することを含む。受信された信号からの高調波成分の分離は、適切なフィルタを使用して実行される。超音波撮像のための造影剤の使用は、当業者に周知であり、したがってさらに詳細には説明されない。
様々な実施形態において、データは、2Dまたは3D画像またはデータを形成するために、他のまたは異なるモード関連モジュール(例えば、Bモード、カラードプラ、Mモード、カラーMモード、スペクトルドプラ、エラストグラフィ、TVI、歪み、歪み速度など)で、プロセッサ116によって処理されてもよい。例えば、1つまたは複数のモジュールは、Bモード、カラードプラ、Mモード、カラーMモード、スペクトルドプラ、エラストグラフィ、TVI、歪み、歪み速度およびそれらの組合せなどを生成してもよい。画像ビームおよび/またはフレームが記憶され、データがメモリで取得された時間を示すタイミング情報を記録することができる。モジュールは、例えば、画像フレームを座標ビーム空間から表示空間座標に変換するためのスキャン変換動作を実行するスキャン変換モジュールを含むことができる。手順が患者に実行されている間、メモリから画像フレームを読み出し、リアルタイムで画像フレームを表示するビデオプロセッサモジュールを設けることができる。ビデオプロセッサモジュールは、画像フレームを画像メモリに記憶し、そこから画像を読み出して表示することができる。超音波撮像システム100は、コンソールベースのシステム、ラップトップ、ハンドヘルドまたは手持ち式システム、または任意の他の構成であってもよい。
図2は、一実施形態による超音波撮像のための方法200のフローチャートである。フローチャートの個々のブロックは、方法200に従って実行され得る動作を表す。追加の実施形態は、異なるシーケンスで示される動作を実行してもよいし、および/または追加の実施形態は、図2に示されていないプロセスを含んでもよい。方法200の少なくとも1つの技術的効果は、複数の対象物体を含む超音波データから生成された画像の表示であり、表示は、対象物体の色分けの提供、矢印を含む対象物体のマーク付け、異なる不透明度の対象物体の表示などを行い、対象物体画像の品質または忠実度を表す。
図2は、方法200が図1に示されるシステム100によって実行される例示的な実施形態に従って説明される。202において、プロセッサ116は、プローブ106を制御して患者の領域から超音波データを取得する。超音波データは、1D超音波データ、2D超音波データ、3D超音波データまたは4D超音波データを含み得る。超音波データは、「ライブ」超音波撮像手順の一部としてリアルタイムで取得および表示することができる。または、他の実施形態によれば、超音波データは、第1の離散期間中に取得され、処理され、処理後に表示されてもよい。
204において、プロセッサ116は、超音波データを取得するプロセス中に対象物体品質パラメータを取得する。各対象物体品質パラメータは、画像の個々の対象物体の品質と相関する任意のパラメータである。いくつかの実施形態によれば、対象物体品質パラメータを取得することは、超音波データから対象物体品質パラメータを計算することを含み得るが、他の実施形態では、品質パラメータを取得することは、超音波データではないデータに基づいて対象物体品質パラメータを取得することを含んでもよい。例えば、対象物体品質パラメータは、超音波以外のセンサで取得することができる。対象物体品質パラメータは、例えば、画像のノイズレベル、経時的フレーム一貫性メトリック、信号強度、ビュー正確性メトリック、フロースペクトル波形の正確性、または物体取得品質に関連付けられた任意の他のパラメータを含んでもよい。一般に、ノイズレベルが低いほど、より高い対象物体取得品質と相関し、プローブの動きの量が少ないほど、より高い対象物体取得品質と相関し、経時的フレーム一貫性が高いほど、より高い対象物体取得品質と相関し、真円度を含む物体サイズおよび形状は、より高い物体取得品質と相関する。ビュー正確性メトリックは、画像相関技法を使用して、取得された画像フレームを標準ビューと比較することによって計算することができる。いくつかの実施形態は、深層学習および/またはニューラルネットワークを用いて、取得された画像フレームが標準ビューにどれだけ綿密に一致するかを決定してもよい。
206において、プロセッサ116は、204で取得された対象物体品質パラメータに基づいて取得対象物体品質レベルを決定する。いくつかの実施形態によれば、プロセッサ116は、2つ以上の異なる品質パラメータに基づいて対象物体取得品質レベルを決定してもよい。または、他の実施形態によれば、プロセッサ116は、単一の対象物体品質パラメータのみに基づいて対象物体取得品質レベルを決定してもよい。
取得対象物体品質レベルは、例えば、画像のノイズレベルによって決定され得る。具体的には、閾値ノイズレベルが提供されてもよく、ノイズレベルが閾値ノイズレベルを超えないとき、優れた品質レベルを有するものとして第1の取得対象物体品質レベルが決定され、ノイズレベルの第1の閾値レベルを上回るが、第2の閾値レベルを下回るとき、第2の取得対象物体品質レベルが、平均品質レベルを有するものなどとして決定される。同様に、第2の閾値レベルを超えるノイズレベルは、低い品質レベルを有するものとして、第3の取得対象物体品質レベルを有する。
さらに別の例では、取得対象物体品質レベルは、プローブの動きの量に基づいて、またはそれに応じて決定される。この例では、方向の変化は、プローブの移動の量を決定するための加速度計などのセンサによって継続的に監視される。この例では、品質レベルは、移動の量に反比例し、時間と共に変化する。
別の例では、経時的フレーム一貫性メトリックは、204で取得された対象物体品質パラメータであり、アルゴリズムが一貫性範囲を決定する。これは、時間の経過に伴うその範囲のサイズまたはフレームの差に基づいている。範囲のサイズ、またはフレーム間の分散に基づいて、取得対象物体品質レベルが決定され、範囲が小さいほど、より高い品質を示し、範囲が大きいほど、より低い品質を示す。あるいは、中間フレーム値からの平均分散が利用され、分散が増加するほど、より低い品質を示し、分散が減少するほど、より高い品質を示す。同様に、中央フレーム値からの平均分散が利用され、分散が増加するほど、より低い品質を示す。あるいは、実施形態では、深層学習および/またはニューラルネットワークを利用して、対象物体品質レベルを決定する。
別の例では、信号強度を使用して対象物体品質レベルを決定する。一例では、単一の閾値レベルが利用される。この例では、閾値強度レベルを上回る強度は、高品質と見なされ、閾値強度レベル以下の信号は、低品質と見なされる。
さらに別の例では、ビュー正確性メトリックを計算して対象物体品質レベルを決定する。一例では、強化学習アルゴリズムが利用され、検討された読み取り値の精度に応じて、異なる重みが異なる変数に提供される。一例では、干渉レベルは変数の1つであるが、ビュー正確性メトリックは別であり、信号強度はさらに別である。反復検討中、重みが各変数に利用される。具体的には、読み取り値が検討中に正確であると見なされるとき、読み取り値が不正確である場合よりも、変数の読み取り値により大きな量の重みが与えられる。したがって、干渉値が閾値を上回り、ビュー正確性メトリックおよび信号強度値も閾値を下回り、読み取り値が正確であると決定される場合、より多くの重みがビュー正確性閾値に置かれ、信号強度閾値およびより少ない重みが干渉閾値に置かれる。次に、これらの新しい重みは、値の次の反復が正確な読み取り値または決定をもたらすかどうかを決定する際に利用される。あるいは、正確な読み取り値に応じて干渉閾値を増加させることができる。したがって、この反復プロセスによって閾値も変更される場合がある。
さらに別の例では、フロースペクトル波形の正確性を利用することができる。再度、強化学習の方法論を利用することができる。あるいは、勾配、ピークツーピーク高さなどの異なる特性を利用して、以前の測定値と比較して対象物体品質レベルを決定してもよい。
各例では、少なくとも1つの対象物体品質パラメータが取得され、その対象物体品質パラメータから対象物体品質レベルが決定される。したがって、画像の検討を支援するために、対象物体に関する追加の情報を臨床医またはユーザに提供することができる。
次に、208において、プロセッサ116は、取得対象物体品質レベルに基づいて対象物体品質インジケータを選択する。1つの例示的な実施形態では、対象物体品質インジケータは、色に基づいている。具体的には、プロセッサ116は、少なくとも第1の色および第2の色から選択することができ、第2の色は、第1の色とは異なる。一実施形態によれば、第1の色は、第1の対象物体取得品質レベルを表すことができ、第2の色は、第2の対象物体取得品質レベルを表すことができる。一実施形態によれば、第1の色は、第1の範囲の対象物体取得品質レベルを表すことができ、第2の色は、第2の範囲の対象物体取得品質レベルを表すことができ、第2の範囲は、第1の範囲と重ならない。第1の色は、例えば、緑色であり得、第1の範囲の取得品質レベルは、許容可能と見なされる取得対象物体品質レベルを表し得る。第2の色は、例えば、赤色であり得、第2の範囲の取得対象物体品質レベルは、許容可能ではない取得品質レベルを表し得る。
他の実施形態によれば、プロセッサ116は、取得品質レベルの3つ以上の離散範囲を表す3つ以上の色から選択してもよい。例えば、緑色などの第1の色は、第1の取得品質レベルを表すことができ、黄色などの第2の色は、第2の取得品質レベルを表すことができ、赤色などの第3の色は、第3の取得品質レベルを表すことができる。または、第1の色は、第1の範囲の取得品質レベルを表すことができ、第2の色は、第2の範囲の取得品質レベルを表すことができ、第3の色は、第3の範囲の取得品質レベルを表すことができる。第1の範囲の取得品質レベル、第2の範囲の取得品質レベル、および第3の範囲の取得品質レベルは各々、一実施形態によれば、離散した重ならない範囲であってもよい。他の実施形態によれば、4つ以上の異なる色を使用して、様々な取得品質レベルまたは様々な範囲の取得品質レベルを表すことができる。
3色を使用する一実施形態によれば、緑色が第1の色であり、高い取得品質レベルを表すために使用されてもよく、赤色が第2の色であり、低い取得品質レベルを表すために使用されてもよく、黄色が第3の色であり、中程度の取得品質レベル(すなわち、高い取得品質レベルと低い取得品質レベルとの間)を表すために使用されてもよい。取得品質レベル(すなわち、一実施形態によれば高、中、および低)は、工場でプロセッサ116に事前設定されてもよく、またはユーザが定義可能であってもよい。ユーザは、例えば、品質パラメータ値の範囲を各取得品質レベルに割り当てることができる。同様に、ユーザは、様々な取得品質レベルを取得品質値に割り当ててもよく、またはユーザは、各色に関連付けられた取得品質レベルの範囲を定義してもよい。
代替の実施形態では、取得対象物体品質レベルは、例えば1〜10などの数値スケールで表される。この実施形態では、矢印などの強調表示された記号は、各矢印に関連付けられた数字で画像の対象物体を指すことができる。したがって、数字1〜3は、臨床医が、対象物体品質レベルが低いと認識し、検討中に対象物体をより詳しく、またはより詳細に確認することが確実となる、対象物体品質レベルが低い対象物体を表すことができる。同様に、数字8〜10は、優れた対象物体品質レベルを表し得る。したがって、臨床医が8〜10の対象物体品質レベルで対象物体を観察するとき、臨床医は、自動化された超音波装置による画像診断が正確である可能性が高いと確信して、これらの対象物体をより迅速かつ効率的にスキャンすることが可能である。
さらに別の代替の実施形態では、対象物体は、異なる不透明度で提示され、再度、異なる不透明度は、診断または読み取り値の異なる品質を表す。したがって、再度、画像の対象物体の不透明度に基づいて、対象物体品質レベルが臨床医に提示され、画像の情報に基づいた検討と、各対象物体の検討における時間の効率的な使用を臨床医に提供する。
全体として、撮像システムは、各対象物体の真円度、サイズ、形状などの対象物体の特性に基づいて、対象物体品質レベル/パラメータ/インジケータを決定するプロセッサを含む。次いで、プロセッサは、少なくとも閾値限界を下回る品質を有する対象物体で、画像の対象物体の対象物体品質インジケータを強調表示するか、または提供する。その結果、臨床医は、低品質の対象物体を検討するためにより多くの時間を費やし、自動化された撮像装置の不正確な診断を修正することが可能である。
これらの対象物体品質インジケータは、異なる不透明度、異なる色で対象物体を提示すること、矢印、色の矢印、単語、数字、他のそのようなインジケータなどで対象物体をマーク付けすることを含み得る。例示的な実施形態では、任意選択で、異なる不透明度を有する対象物体を表示するとき、品質を不透明度の等級にマッピングすることができる。例として、対象物体品質インジケータは、1と0の数字に基づくことができ、1は、固体の第1の不透明度として表示され、0は、不透明でほとんど見えない第2の不透明度として表示される。
加えて、1つの例示的な実施形態では、任意選択で、閾値品質レベルを上回る対象物体を一時的に空白にするか、または画像から削除することができるため、効率を改善するために追加の手動補正が必要になる可能性があるケースのみが表示される。具体的には、補正を必要とし得る対象物体を視覚化および/またはマーク付けすることによって、補正プロセスの速度が向上し、効率が向上し、煩雑さが軽減される。これにより、検査時間が短縮され、患者のスループットが向上する。
次に、210において、プロセッサ116は、超音波データに基づいて画像を生成する。画像は、1D画像、2D画像、3D画像または4D画像であり得る。画像は、超音波データのどのモードからでも生成することができる。例えば、画像は、Bモード画像、カラードプラ画像、Mモード画像、カラーMモード画像、スペクトルドプラ画像、エラストグラフィ画像、TVI画像、または超音波データから生成される任意の他の種類の画像であってもよい。超音波データが取得され得、画像は「ライブ」超音波撮像手順の一部としてリアルタイムで表示することができる。実施形態によれば、画像は、超音波データから生成された静止フレームであってもよい。他の実施形態によれば、プロセッサ116は、超音波データに基づいて、210で2つ以上の異なる撮像モードから画像を生成することができる。例えば、VTIモードでは、プロセッサ116は、超音波データに基づいてBモード画像とスペクトルドプラ画像の両方を生成することができる。IVCモードでは、プロセッサ116は、超音波データに基づいてBモード画像とMモード画像の両方を生成することができる。次に、プロセッサ116は、画像を表示装置118に表示する。
212において、プロセッサ116は、表示装置と通信して画像の各対象物体に関連付けられた対象物体品質インジケータを表示する。上述のように、対象物体品質レベルは、各色、または色の濃淡が異なるレベルの品質を表す色分けされたスキームであってもよい。あるいは、数字、文字、不透明度、矢印インジケータなどを使用して、画像の検討および臨床医による診断の目的で、画像の対象物体の品質を臨床医に伝えることができる。表示され得る情報の種類の例は、図3〜図6に関して以下に説明される。
214において、プロセッサ116は、超音波データの取得を継続することが望ましいかどうかを決定する。超音波データの取得を継続することが望ましい場合、方法200は、202、204、206、208、210、および212を繰り返すことができる。超音波画像がライブ画像である一実施形態によれば、202、204、206、208、210、212、および214は、ライブ画像の取得および表示中に1回以上反復して繰り返され得る。一例では、204、206、208、210、212、および214は、例えば、202で超音波データを取得するプロセス中にすべて複数回実行され得る。
図3は、一実施形態による患者の解剖学的構造の第1の超音波セグメンテーション画像の概略図を示す。図4は、図3の患者の解剖学的構造の第2の超音波セグメンテーション画像の概略図を示す。図5は、図3の患者の解剖学的構造の第3の超音波セグメンテーション画像の概略図を示す。
図3〜図5を参照すると、図は、臨床医によって検査されている患者の内部解剖学的構造の超音波画像を集合的に示しており、図3は、第1の超音波セグメンテーション画像302を表し、図4は、第2の超音波セグメンテーション画像304を表し、図5は、第3の超音波セグメンテーション画像306を表す。各超音波セグメンテーション画像302、304、および306では、複数の対象物体308が提示され、各対象物体308は、患者の内部解剖学的構造に関する。1つの例示的な実施形態では、超音波セグメンテーション画像302、304、および306は卵巣のものであり、対象物体は卵巣の卵胞である。別の例示的な実施形態では、超音波セグメンテーション画像302、304、および306は胎児のものであり、対象物体308は胎児の心臓および肺である。図2の方法に関連して説明したように、各セグメンテーション画像302、304、および306に関連付けられた画像品質パラメータを分析することによって、各対象物体308の対象物体品質パラメータが決定される。このようにして、第1の対象物体は、第1の対象物体品質パラメータを有し、第2の対象物体は、第2の対象品質パラメータを有する。
図6は、図2に関連して説明した方法論を利用する、図3〜図5の第1の超音波セグメンテーション302、第2の超音波セグメンテーション304、および第3の超音波セグメンテーション306を利用する合成画像600の概略図を示す。合成画像600では、複数の対象物体608には、画像の対象物体の品質を医師に示すために提供される対象物体品質インジケータ610が提供される。
図6の例では、対象物体品質インジケータ610は黒色と白色(または不透明)の矢印であり、白色の矢印、または第1の不透明度品質インジケータは、対象物体608を指す高品質のレベルを表し、黒色の矢印、または第2の不透明度品質インジケータは、対象物体を指す低品質のレベルを表す。具体的には、撮像システムのプロセッサは、検出、またはセグメント化された各対象物体608の品質または忠実度パラメータを計算し、対象物体品質パラメータに基づいて決定された対象物体608の品質レベルに基づいて対象物体品質インジケータ610を自動的に選択することによって、この品質情報を視覚化する。その結果、この情報を使用して、検討中、臨床医は低品質または低忠実度のレベルを有する対象物体608に焦点を合わせて修正を行うことができる。加えて、臨床医は、高い対象物体品質レベル、または高忠実度評価を有すると識別された対象物体608の検討に費やす時間を短縮することができる。これにより、ワークフロー効率が向上し、ユーザのフラストレーションが軽減され、テストの信頼性が向上する。
したがって、例示的な実施形態では、対象物体608が卵巣の卵胞であるとき、臨床医は、白色の矢印で指された対象物体608が卵胞である可能性が高く、黒色の矢印で指された対象物体608が卵胞である可能性が低いとすぐに識別することができる。したがって、それらを指す黒色の矢印を有する検出された卵巣の卵胞は、それらの対象物体608が卵胞であることを検証するために臨床医によって綿密に検討される必要がある。対象物体品質インジケータ610は、この例示的な実施形態では白色と黒色の矢印であるが、他の実施形態では、前述の色分け、数字、文字、不透明度、それらの組合せなどを対象物体品質インジケータ610として同様に使用することができ、臨床医に合成画像600を検討する効率的な方法を提供し、確実に画像600の潜在的な問題エリアがより綿密に検査される。
一例として、卵巣の3D取得における刺激された卵胞の自動化された検出およびセグメンテーション中、撮像システムプロセッサは、ボリュームデータセットの暗い空洞を見つけてセグメント化し、暗い空洞に関する品質インジケータ610を自動的に選択して表示するように構成される。1つの例示的な実施形態では、暗い空洞は、色分けされた領域として示され、色分けされた領域は、品質インジケータ610を表す。
したがって、卵胞の例では、丸みを帯びた合成画像600の対象物体608は、卵胞である可能性が高く、白色の矢印の品質インジケータ610によって示される。一方、不規則またはギザギザの形状を有する対象物体608は、潜在的に誤ったセグメンテーションを表し、したがって対象物体608を表す暗い矢印である品質インジケータ610で示されており、臨床医によってより綿密に検討される必要がある。したがって、この例では、品質インジケータ610は、対象物体の所定の形状に基づいており、より滑らかな、かつより丸みを帯びた物体は、不規則またはギザギザの形状よりも高い画像品質を有する。
同様に、代替の例では、自動的に選択される品質インジケータ610は、対象物体608のボリュームである。特に、対象物体品質インジケータ610は、対象物体の形状の閾値ボリュームに基づくことができる。したがって、形状が丸みを帯びていても、一例では1インチ、別の例では表示画面の少なくとも5%など、形状が閾値ボリュームを満たさない場合、画像取得品質は低い。同様に、ボリュームが大きいほど、物体画像品質が高くなる。
さらに別の例示的な実施形態では、自動的に選択される品質インジケータ610は、対象物体の不透明度である。したがって、対象物体608は、暗くあり得る第1の不透明度で表示され、暗い不透明度は、対象物体608の品質インジケータ610である。次に、別の対象物体608は、不透明であり得る第2の不透明度で表示され、不透明性は、対象物体の品質インジケータである。したがって、臨床医は、第1の不透明度を有するより暗い対象物体608が、ほぼ不透明な対象物体である第2の不透明度よりも高い画像取得品質を表すことを理解する。
超音波画像および自動化された超音波装置の結果を迅速かつ効率的に検討するための改善されたシステムおよび方法が提供される。対象物体品質インジケータは、画像の対象物体の品質を臨床医、またはユーザに通知するために利用される。その結果、高品質の対象物体をより迅速に検討することができるが、臨床医は、低品質の対象物体をより綿密に検討し、不正確な読み取り値が検出されないことを検証するために検討により多くの時間を費やすことができる。その結果、検討プロセスがより効率的になり、誤った読み取り値がより簡単に検出され得、自動化された結果に対する臨床医の信頼が高まる。
また、超音波データを取得することと、超音波データを取得するプロセス中に対象物体の対象物体品質パラメータを取得することとを含む超音波撮像の方法が提供される。方法はまた、1つまたは複数のプロセッサにより、対象物体品質パラメータに基づいて対象物体の対象物体品質レベルを決定することと、対象物体品質レベルに基づいて対象物体品質インジケータを自動的に選択することとを含む。方法はまた、超音波データに基づいて、対象物体に関連付けられた対象物体品質インジケータを含む画像を生成することと、画像を表示装置に表示することとを含む。
任意選択で、方法において、対象物体品質インジケータは、画像の対象物体の色によって表される。また、任意選択で、対象物体は、第1の対象物体であり、対象物体品質インジケータは、第1の対象物体品質インジケータである。この例では、方法はまた、超音波データを取得するプロセス中に第2の対象物体の第2の対象物体品質パラメータを取得することと、プロセッサにより、第2の対象物体品質パラメータに基づいて第2の対象物体の第2の対象物体品質レベルを決定することとを含む。この例では、方法はまた、第2の目標品質レベルに基づいて第2の対象物体品質インジケータを自動的に選択することと、第2の対象物体に関連付けられた第2の対象物体品質インジケータを含む画像を生成することとを含む。この例では、第1の対象物体品質インジケータは、第1の対象物体の色であり、第2の対象物体品質インジケータは、第2の対象物体の色である。また、この方法では、第1の対象物体の色は、第2の対象物体の色とは異なる。
任意選択で、対象物体品質インジケータは、数字である。また、任意選択で、対象物体品質パラメータは、対象物体の形状である。そのような例では、対象物体品質インジケータは、対象物体の形状と所定の形状との間の差に基づいている。あるいは、例示的な実施形態では、対象物体品質インジケータは、対象物体の形状が所定の形状の閾値ボリュームよりも大きいボリュームを有するかどうかにさらに基づいている。任意選択で、画像は、一次元超音波画像、二次元超音波画像、三次元超音波画像、または四次元超音波画像のうちの1つである。また、任意選択で、対象物体品質パラメータは、複数のセグメント化された超音波画像を分析することによって取得される。
また、プローブと、表示装置と、プローブおよび表示装置と電子通信するプロセッサとを含む超音波撮像システムが提供される。プロセッサは、プローブを制御して超音波データを取得し、超音波データを取得するプロセス中に対象物体品質パラメータを取得し、対象物体品質パラメータに基づいて対象物体品質レベルを決定するように構成される。プロセッサはまた、対象物体品質レベルに基づいて、対象物体に関連付けられた対象物体品質インジケータを選択し、超音波データに基づいて対象物体品質インジケータを対象物体に関連付ける画像を表示装置に表示するように構成される。
任意選択で、対象物体品質インジケータは、色であり、対象物体は、色で表示されて対象物体品質インジケータを対象物体に関連付ける。また、任意選択で、プロセッサは、超音波データからのセグメント化された画像データを合成して画像を形成するようにさらに構成され、対象物体品質パラメータは、セグメント化された画像データに基づいている。この例示的な実施形態では、合成されたセグメント化された画像データから形成された画像は、レンダリング画像であり、品質パラメータは、レンダリング画像の対象物体の形状である。
任意選択で、対象物体は、第1の対象物体であり、対象物体品質インジケータは、第1の対象物体品質インジケータであり、プロセッサは、第2の対象物体品質インジケータを第2の対象物体に関連付ける超音波データに基づいて画像を表示装置に表示するようにさらに構成される。この例示的な実施形態では、第1の対象物体品質インジケータと第2の対象物体品質インジケータは、異なっている。また、この例示的な実施形態では、第1の対象物体品質インジケータは、第1の色であり、第1の対象物体は、第1の色で表示されて第1の対象物体品質インジケータを第1の対象物体に関連付け、第2の対象物体品質インジケータは、第2の色であり、第2の対象物体は、第2の色で表示されて第2の対象物体品質インジケータを第2の対象物体に関連付ける。
1つまたは複数の実施形態では、少なくとも1つのコードセクションを有するコンピュータプログラムが記憶された非一時的コンピュータ可読媒体が提供され、前記少なくとも1つのコードセクションは、超音波データを取得するステップと、超音波データを取得するプロセス中にセグメント化された画像から第1の対象物体品質パラメータおよび第2の対象物体品質パラメータを取得するステップとを含む1つまたは複数のステップを機械に実行させるように、前記機械によって実施可能である。機械はまた、プロセッサにより、第1の対象物体品質パラメータに基づいて第1の対象物体品質レベル、および第2の対象物体品質パラメータに基づいて第2の対象物体品質レベルを決定するステップと、第1の対象物体品質レベルに基づいて第1の対象物体の第1の不透明度、および第2の対象物体品質レベルに基づいて第2の対象物体の第2の不透明度を自動的に選択するステップと、セグメント化された画像を合成し、第1の不透明度である第1の対象物体を有し、かつ第2の不透明度である第2の対象物体を有する表示画像を形成するステップとを実行する。任意選択で、セグメント化された画像は、3D超音波システムから受信される。
本明細書で使用する場合、単数形で書かれた要素またはステップおよび単語「1つの(a)」もしくは「1つの(an)」が前に付く要素またはステップは、例外であることが明示されない限り、前記要素またはステップが複数である可能性を除外しないことを理解すべきである。さらに、本発明の「一実施形態」への言及は、列挙された特徴をも組み込む追加の実施形態の存在を除外するものとして解釈されることを意図しない。さらに、明示的に反対のことが言及されない限り、特定の性質を有する一要素または複数の要素を「備える(comprising)」または「有する(having)」実施形態は、その性質を有さない、追加の要素を含む可能性がある。
上記の説明は例示するものであって、限定することを意図したものではないことを理解されたい。例えば、上述の実施形態(および/またはその態様)は、互いに組み合わせて使用されてもよい。加えて、本発明の範囲を逸脱せずに特定の状況または材料を本発明の主題の教示に適応させるために、多くの修正を行い得る。本明細書に記載の様々な構成要素の寸法、材料の種類、向き、ならびに数および位置は、ある特定の実施形態のパラメータを定義することを意図しており、決して限定するものではなく、単に例示的な実施形態にすぎない。特許請求の範囲の趣旨および範囲に含まれる多くの他の実施形態および修正は、上記の説明を検討すれば、当業者にとって明らかであろう。したがって、本発明の範囲は、添付の特許請求の範囲を参照して、そのような特許請求の範囲が権利を与えられる等価物の全範囲と共に決定されるべきである。添付の特許請求の範囲において、「含む(including)」および「ここにおいて(in which)」という用語は、「備える(comprising)」および「ここにおいて(wherein)」というそれぞれの用語の平易な英語(plain−English)の均等物として使用される。さらに、以下の特許請求の範囲において、「第1の(first)」「第2の(second)」、および「第3の(third)」などの用語は、単に標識として使用され、その対象に数値的な必要条件を与えることを意図するものではない。さらに、以下の特許請求の範囲の限定は、そのような特許請求の範囲の限定が「のための手段(means for)」の後にさらなる構造のない機能についての記載が続くフレーズを明白に用いない限り、そしてそうするまでは、ミーンズプラスファンクション形式で書かれたものではなく、米国特許法第112条(f)に基づいて解釈されることを意図するものではない。
本明細書は、本発明の様々な実施形態を開示するために実施例を用いており、また、任意の装置またはシステムを製作し使用し、任意の組み込まれた方法を実行することを含めて、いかなる当業者も本発明の様々な実施形態を実施することが可能となるように実施例を用いている。本発明の様々な実施形態の特許可能な範囲は、特許請求の範囲によって定義され、当業者が想到する他の実施例を含むことができる。このような他の実施例は、特許請求の範囲の文言との差がない構造要素を有する場合、または特許請求の範囲の文言との実質的な差がない等価の構造要素を含む場合には、特許請求の範囲内にあることを意図している。
[実施態様1]
超音波撮像の方法(200)であって、
超音波データを取得すること(202)と、
前記超音波データを取得するプロセス(202)中に対象物体(308、608)の対象物体品質パラメータを取得すること(204)と、
1つまたは複数のプロセッサ(116)により、前記対象物体品質パラメータに基づいて前記対象物体(308、608)の対象物体品質レベルを決定すること(206)と、
前記対象物体品質レベルに基づいて対象物体品質インジケータ(610)を自動的に選択すること(208)と、
前記超音波データに基づいて、前記対象物体(308、608)に関連付けられた前記対象物体品質インジケータ(610)を含む画像(600)を生成すること(210)と、
前記画像(600)を表示装置(118)に表示すること(212)と
を含む、方法(200)。
[実施態様2]
前記対象物体品質インジケータ(610)は、前記画像(600)の前記対象物体(308、608)の色によって表される、実施態様1に記載の方法(200)。
[実施態様3]
前記対象物体(308、608)は、第1の対象物体(308、608)であり、前記対象物体品質インジケータ(610)は、第1の対象物体品質インジケータ(610)であり、
前記超音波データを取得するプロセス(202)中に第2の対象物体(308、608)の第2の対象物体品質パラメータを取得することと、
前記1つまたは複数のプロセッサ(116)により、前記第2の対象物体品質パラメータに基づいて前記第2の対象物体(308、608)の第2の対象物体品質レベルを決定することと、
前記第2の目標品質レベルに基づいて第2の対象物体品質インジケータ(610)を自動的に選択することと、
前記第2の対象物体(308、608)に関連付けられた前記第2の対象物体品質インジケータ(610)を含む前記画像(600)を生成することと
をさらに含む、実施態様1に記載の方法(200)。
[実施態様4]
前記第1の対象物体品質インジケータ(610)は、前記第1の対象物体(308、608)の色であり、前記第2の対象物体品質インジケータ(610)は、前記第2の対象物体(308、608)の色である、実施態様3に記載の方法(200)。
[実施態様5]
前記第1の対象物体(308、608)の前記色は、前記第2の対象物体(308、608)の前記色とは異なる、実施態様4に記載の方法(200)。
[実施態様6]
前記対象物体品質インジケータ(610)は、数字である、実施態様1に記載の方法(200)。
[実施態様7]
前記対象物体品質パラメータは、前記対象物体(308、608)の形状である、実施態様1に記載の方法(200)。
[実施態様8]
前記対象物体品質インジケータ(610)は、前記対象物体(308、608)の前記形状と所定の形状との間の差に基づいている、実施態様7に記載の方法(200)。
[実施態様9]
前記対象物体品質インジケータ(610)は、前記形状の閾値ボリュームにさらに基づいている、実施態様8に記載の方法(200)。
[実施態様10]
前記画像(600)は、一次元超音波画像、二次元超音波画像、三次元超音波画像、または四次元超音波画像のうちの1つである、実施態様1に記載の方法(200)。
[実施態様11]
前記対象物体品質パラメータは、複数のセグメント化された超音波画像(302、304、306)を分析することによって取得される、実施態様1に記載の方法(200)。
[実施態様12]
プローブ(106)と、
表示装置(118)と、
前記プローブ(106)および前記表示装置(118)と電子通信する1つまたは複数のプロセッサ(116)であって、
前記プローブ(106)を制御して超音波データを取得し、
前記超音波データを取得するプロセス中に対象物体品質パラメータを取得し、
前記対象物体品質パラメータに基づいて対象物体品質レベルを決定し、
前記対象物体品質レベルに基づいて、前記対象物体(308、608)に関連付けられた対象物体品質インジケータ(610)を選択し、
前記取得された超音波データに基づいて前記対象物体品質インジケータ(610)を前記対象物体(308、608)に関連付ける画像(600)を前記表示装置(118)に表示する
ように構成される1つまたは複数のプロセッサ(116)と
を備える、超音波撮像システム(100)。
[実施態様13]
前記対象物体品質インジケータ(610)は、色であり、前記対象物体(308、608)は、前記色で表示されて前記対象物体品質インジケータ(610)を前記対象物体(308、608)に関連付ける、実施態様12に記載の超音波撮像システム(100)。
[実施態様14]
前記1つまたは複数のプロセッサ(116)は、
前記超音波データからのセグメント化された画像データを合成して前記画像(600)を形成する
ようにさらに構成され、
前記対象物体品質パラメータは、前記セグメント化された画像データに基づいている、実施態様12に記載の超音波撮像システム(100)。
[実施態様15]
前記合成されたセグメント化された画像データから形成された前記画像(600)は、レンダリング画像であり、前記品質パラメータは、前記レンダリング画像の前記対象物体(308、608)の形状である、実施態様14に記載の超音波撮像システム(100)。
[実施態様16]
前記対象物体(308、608)は、第1の対象物体(308、608)であり、前記対象物体品質インジケータ(610)は、第1の対象物体品質インジケータ(610)であり、前記1つまたは複数のプロセッサ(116)は、
第2の対象物体品質インジケータ(610)を第2の対象物体(308、608)に関連付ける前記超音波データに基づいて前記画像(600)を前記表示装置(118)に表示する
ようにさらに構成される、実施態様12に記載の超音波撮像システム(100)。
[実施態様17]
前記第1の対象物体品質インジケータ(610)と第2の対象物体品質インジケータ(610)は、異なっている、実施態様16に記載の超音波撮像システム(100)。
[実施態様18]
前記第1の対象物体品質インジケータ(610)は、第1の色であり、前記第1の対象物体(308、608)は、前記第1の色で表示されて前記第1の対象物体品質インジケータ(610)を前記第1の対象物体(308、608)に関連付け、前記第2の対象物体品質インジケータ(610)は、第2の色であり、前記第2の対象物体(308、608)は、前記第2の色で表示されて前記第2の対象物体品質インジケータ(610)を前記第2の対象物体(308、608)に関連付ける、実施態様16に記載の超音波撮像システム(100)。
[実施態様19]
少なくとも1つのコードセクションを有するコンピュータプログラムが記憶された非一時的コンピュータ可読媒体であって、前記少なくとも1つのコードセクションは、
超音波データを取得するステップと、
前記超音波データを取得するプロセス中にセグメント化された画像(302、304、306)から第1の対象物体品質パラメータおよび第2の対象物体品質パラメータを取得するステップと、
1つまたは複数のプロセッサ(116)により、前記第1の対象物体品質パラメータに基づいて第1の対象物体品質レベル、および前記第2の対象物体品質パラメータに基づいて第2の対象物体品質レベルを決定するステップと、
前記第1の対象物体品質レベルに基づいて第1の対象物体(308、608)の第1の不透明度、および前記第2の対象物体品質レベルに基づいて第2の対象物体(308、608)の第2の不透明度を自動的に選択するステップと、
前記セグメント化された画像(302、304、306)を合成し、前記第1の不透明度である前記第1の対象物体(308、608)を有し、かつ前記第2の不透明度である前記第2の対象物体(308、608)を有する表示画像(600)を形成するステップと
を含む1つまたは複数のステップを機械に実行させるように、前記機械によって実施可能である、非一時的コンピュータ可読媒体。
[実施態様20]
前記セグメント化された画像(302、304、306)は、3D超音波システムから受信される、実施態様19に記載の非一時的コンピュータ可読媒体。
100 超音波撮像システム
101 送信ビーム形成器
102 送信器
104 素子
106 プローブ
108 受信器
110 受信ビーム形成器
115 ユーザインターフェース
116 プロセッサ
118 表示装置
120 メモリ
200 方法
302 第1の超音波セグメンテーション画像、第1の超音波セグメンテーション
304 第2の超音波セグメンテーション画像、第2の超音波セグメンテーション
306 第3の超音波セグメンテーション画像、第3の超音波セグメンテーション
308 対象物体
600 合成画像
608 対象物体
610 対象物体品質インジケータ

Claims (10)

  1. 超音波撮像の方法(200)であって、
    超音波データを取得すること(202)と、
    前記超音波データを取得するプロセス(202)中に対象物体(308、608)の対象物体品質パラメータを取得すること(204)と、
    1つまたは複数のプロセッサ(116)により、前記対象物体品質パラメータに基づいて前記対象物体(308、608)の対象物体品質レベルを決定すること(206)と、
    前記対象物体品質レベルに基づいて対象物体品質インジケータ(610)を自動的に選択すること(208)と、
    前記超音波データに基づいて、前記対象物体(308、608)に関連付けられた前記対象物体品質インジケータ(610)を含む画像(600)を生成すること(210)と、
    前記画像(600)を表示装置(118)に表示すること(212)と
    を含む、方法(200)。
  2. 前記対象物体品質インジケータ(610)は、前記画像(600)の前記対象物体(308、608)の色によって表される、請求項1に記載の方法(200)。
  3. 前記対象物体(308、608)は、第1の対象物体(308、608)であり、前記対象物体品質インジケータ(610)は、第1の対象物体品質インジケータ(610)であり、
    前記超音波データを取得するプロセス(202)中に第2の対象物体(308、608)の第2の対象物体品質パラメータを取得することと、
    前記1つまたは複数のプロセッサ(116)により、前記第2の対象物体品質パラメータに基づいて前記第2の対象物体(308、608)の第2の対象物体品質レベルを決定することと、
    前記第2の目標品質レベルに基づいて第2の対象物体品質インジケータ(610)を自動的に選択することと、
    前記第2の対象物体(308、608)に関連付けられた前記第2の対象物体品質インジケータ(610)を含む前記画像(600)を生成することと
    をさらに含み、
    前記第1の対象物体品質インジケータ(610)は、前記第1の対象物体(308、608)の色であり、前記第2の対象物体品質インジケータ(610)は、前記第2の対象物体(308、608)の色である、請求項1に記載の方法(200)。
  4. 前記画像(600)は、一次元超音波画像、二次元超音波画像、三次元超音波画像、または四次元超音波画像のうちの1つである、請求項1に記載の方法(200)。
  5. 前記対象物体品質パラメータは、複数のセグメント化された超音波画像(302、304、306)を分析することによって取得される、請求項1に記載の方法(200)。
  6. プローブ(106)と、
    表示装置(118)と、
    前記プローブ(106)および前記表示装置(118)と電子通信する1つまたは複数のプロセッサ(116)であって、
    前記プローブ(106)を制御して超音波データを取得し、
    前記超音波データを取得するプロセス中に対象物体品質パラメータを取得し、
    前記対象物体品質パラメータに基づいて対象物体品質レベルを決定し、
    前記対象物体品質レベルに基づいて、前記対象物体(308、608)に関連付けられた対象物体品質インジケータ(610)を選択し、
    前記取得された超音波データに基づいて前記対象物体品質インジケータ(610)を前記対象物体(308、608)に関連付ける画像(600)を前記表示装置(118)に表示する
    ように構成される1つまたは複数のプロセッサ(116)と
    を備える、超音波撮像システム(100)。
  7. 前記対象物体品質インジケータ(610)は、色であり、前記対象物体(308、608)は、前記色で表示されて前記対象物体品質インジケータ(610)を前記対象物体(308、608)に関連付ける、請求項6に記載の超音波撮像システム(100)。
  8. 前記1つまたは複数のプロセッサ(116)は、
    前記超音波データからのセグメント化された画像データを合成して前記画像(600)を形成する
    ようにさらに構成され、
    前記対象物体品質パラメータは、前記セグメント化された画像データに基づいており、
    前記合成されたセグメント化された画像データから形成された前記画像(600)は、レンダリング画像であり、前記品質パラメータは、前記レンダリング画像の前記対象物体(308、608)の形状である、請求項6に記載の超音波撮像システム(100)。
  9. 前記対象物体(308、608)は、第1の対象物体(308、608)であり、前記対象物体品質インジケータ(610)は、第1の対象物体品質インジケータ(610)であり、前記1つまたは複数のプロセッサ(116)は、
    第2の対象物体品質インジケータ(610)を第2の対象物体(308、608)に関連付ける前記超音波データに基づいて前記画像(600)を前記表示装置(118)に表示する
    ようにさらに構成される、請求項6に記載の超音波撮像システム(100)。
  10. 前記第1の対象物体品質インジケータ(610)は、第1の色であり、前記第1の対象物体(308、608)は、前記第1の色で表示されて前記第1の対象物体品質インジケータ(610)を前記第1の対象物体(308、608)に関連付け、前記第2の対象物体品質インジケータ(610)は、第2の色であり、前記第2の対象物体(308、608)は、前記第2の色で表示されて前記第2の対象物体品質インジケータ(610)を前記第2の対象物体(308、608)に関連付ける、請求項9に記載の超音波撮像システム(100)。
JP2019219573A 2018-12-10 2019-12-04 超音波撮像システムおよび対象物体品質レベルを表示するための方法 Active JP7346266B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/215,126 2018-12-10
US16/215,126 US20200178934A1 (en) 2018-12-10 2018-12-10 Ultrasound imaging system and method for displaying a target object quality level

Publications (2)

Publication Number Publication Date
JP2020103883A true JP2020103883A (ja) 2020-07-09
JP7346266B2 JP7346266B2 (ja) 2023-09-19

Family

ID=70970364

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019219573A Active JP7346266B2 (ja) 2018-12-10 2019-12-04 超音波撮像システムおよび対象物体品質レベルを表示するための方法

Country Status (3)

Country Link
US (1) US20200178934A1 (ja)
JP (1) JP7346266B2 (ja)
CN (1) CN111281425B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220142614A1 (en) * 2020-11-09 2022-05-12 Siemens Medical Solutions Usa, Inc. Ultrasound-derived proxy for physical quantity
US12036071B2 (en) * 2021-12-30 2024-07-16 GE Precision Healthcare LLC Method and system for automatically setting an elevational tilt angle of a mechanically wobbling ultrasound probe
CN114612462B (zh) * 2022-03-25 2024-11-01 成都爱迦飞诗特科技有限公司 乳腺超声图像采集方法、装置、设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016041117A (ja) * 2014-08-15 2016-03-31 日立アロカメディカル株式会社 超音波診断装置
JP2017000364A (ja) * 2015-06-09 2017-01-05 コニカミノルタ株式会社 超音波診断装置、及び超音波画像処理方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7713205B2 (en) * 2005-06-29 2010-05-11 Accuray Incorporated Dynamic tracking of soft tissue targets with ultrasound images, without using fiducial markers
US20120065510A1 (en) * 2010-09-09 2012-03-15 General Electric Company Ultrasound system and method for calculating quality-of-fit
JP6058306B2 (ja) * 2011-07-20 2017-01-11 東芝メディカルシステムズ株式会社 画像処理システム、装置、方法及び医用画像診断装置
US20150011886A1 (en) * 2011-12-12 2015-01-08 Koninklijke Philips N.V. Automatic imaging plane selection for echocardiography
US8891881B2 (en) * 2012-01-25 2014-11-18 General Electric Company System and method for identifying an optimal image frame for ultrasound imaging
WO2013183051A1 (en) * 2012-06-04 2013-12-12 Tel Hashomer Medical Research Infrastructure And Services Ltd. Ultrasonographic images processing
WO2014084286A1 (ja) * 2012-11-29 2014-06-05 株式会社東芝 医用情報処理装置、医用画像診断装置及び医用情報処理方法
WO2014155272A1 (en) * 2013-03-28 2014-10-02 Koninklijke Philips N.V. Real-time quality control for acquisition of 3d ultrasound images
BR112015025074B1 (pt) * 2013-04-03 2022-03-22 Koninklijke Philips N.V. Sistema de imageamento por ultrassom e método para gerar e avaliar vistas bidimensionais padrão a partir de dados de volume ultrassônico tridimensional
KR20150108701A (ko) * 2014-03-18 2015-09-30 삼성전자주식회사 의료 영상 내 해부학적 요소 시각화 시스템 및 방법
US9740710B2 (en) * 2014-09-02 2017-08-22 Elekta Inc. Systems and methods for segmenting medical images based on anatomical landmark-based features
US10799219B2 (en) * 2017-04-28 2020-10-13 General Electric Company Ultrasound imaging system and method for displaying an acquisition quality level

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016041117A (ja) * 2014-08-15 2016-03-31 日立アロカメディカル株式会社 超音波診断装置
JP2017000364A (ja) * 2015-06-09 2017-01-05 コニカミノルタ株式会社 超音波診断装置、及び超音波画像処理方法

Also Published As

Publication number Publication date
CN111281425A (zh) 2020-06-16
CN111281425B (zh) 2023-05-02
US20200178934A1 (en) 2020-06-11
JP7346266B2 (ja) 2023-09-19

Similar Documents

Publication Publication Date Title
US11344278B2 (en) Ovarian follicle count and size determination using transvaginal ultrasound scans
US8187187B2 (en) Shear wave imaging
US10937155B2 (en) Imaging system and method for generating a medical image
CN111629670A (zh) 用于超声系统的回波窗口伪影分类和视觉指示符
US11337677B2 (en) Volume rendered ultrasound imaging
JP2020503099A (ja) 出産前超音波イメージング
JP7346266B2 (ja) 超音波撮像システムおよび対象物体品質レベルを表示するための方法
CN113397589A (zh) 用于超声图像质量确定的系统和方法
US20070255138A1 (en) Method and apparatus for 3D visualization of flow jets
JP2023053346A (ja) 解析装置及び解析プログラム
JP4847003B2 (ja) 対象物の輪郭を検出するためのユーザ対話式方法およびユーザ・インターフェース
JP2022111140A (ja) 超音波診断装置
JP2023160986A (ja) 超音波診断装置及び解析装置
KR20210081243A (ko) 탄성초음파영상에 대한 변형률 계산 및 변형량의 자동 측정을 위한 방법 및 시스템
US20220202395A1 (en) Ultrasonic imaging system and ultrasonic imaging method
CN113939236B (zh) 一种超声成像设备及其超声回波信号的处理方法
KR102704209B1 (ko) 초음파 영상장치 및 그 제어방법
CN117392050A (zh) 学习模型、超声波诊断装置及其系统、图像诊断装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210520

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230906

R150 Certificate of patent or registration of utility model

Ref document number: 7346266

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150