JP2021185969A - Medical information processing device, x-ray diagnostic device, and program - Google Patents
Medical information processing device, x-ray diagnostic device, and program Download PDFInfo
- Publication number
- JP2021185969A JP2021185969A JP2020090854A JP2020090854A JP2021185969A JP 2021185969 A JP2021185969 A JP 2021185969A JP 2020090854 A JP2020090854 A JP 2020090854A JP 2020090854 A JP2020090854 A JP 2020090854A JP 2021185969 A JP2021185969 A JP 2021185969A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- data
- image
- ray image
- ray
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 54
- 239000002131 composite material Substances 0.000 claims abstract description 67
- 238000012545 processing Methods 0.000 claims description 85
- 239000011159 matrix material Substances 0.000 claims description 35
- 230000009466 transformation Effects 0.000 claims description 34
- 238000000034 method Methods 0.000 claims description 30
- 230000008569 process Effects 0.000 claims description 20
- 238000012549 training Methods 0.000 claims description 12
- 238000010801 machine learning Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 description 224
- 230000015654 memory Effects 0.000 description 69
- 238000013528 artificial neural network Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 10
- 230000007246 mechanism Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 7
- 238000002591 computed tomography Methods 0.000 description 7
- 230000002194 synthesizing effect Effects 0.000 description 7
- 210000004204 blood vessel Anatomy 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 210000000056 organ Anatomy 0.000 description 3
- 241001669679 Eleotris Species 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013523 data management Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000012276 Endovascular treatment Methods 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000003187 abdominal effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Description
本明細書等に開示の実施形態は、医用情報処理装置、X線診断装置及びプログラムに関する。 The embodiments disclosed in the present specification and the like relate to a medical information processing device, an X-ray diagnostic device, and a program.
被検体の血管や臓器等について3次元データを収集し、2次元で収集されたX線画像に対して3次元データに基づく画像を合成表示する技術が知られている。また、このような合成表示を行なう際には、2次元X線画像に対する3次元データの位置や向き、大きさ等の調整が行われる。 There is known a technique of collecting three-dimensional data on blood vessels and organs of a subject and synthesizing and displaying an image based on the three-dimensional data on an X-ray image collected in two dimensions. Further, when performing such a composite display, the position, orientation, size, etc. of the three-dimensional data with respect to the two-dimensional X-ray image are adjusted.
本明細書等に開示の実施形態が解決しようとする課題の一つは、2次元X線画像と3次元データとの合成表示の精度を向上させることである。ただし、本明細書等に開示の実施形態により解決される課題は上記課題に限られない。後述する実施形態に示す各構成による各効果に対応する課題を、本明細書等に開示の実施形態が解決する他の課題として位置付けることもできる。 One of the problems to be solved by the embodiments disclosed in the present specification and the like is to improve the accuracy of the composite display of the two-dimensional X-ray image and the three-dimensional data. However, the problems solved by the embodiments disclosed in the present specification and the like are not limited to the above problems. The problem corresponding to each effect by each configuration shown in the embodiment described later can be positioned as another problem to be solved by the embodiment disclosed in the present specification and the like.
実施形態の医用情報処理装置は、表示制御部と、受付部と、制御部とを備える。表示制御部は、3次元データに基づく画像と2次元X線画像とを合成した合成画像を表示させる。受付部は、前記合成画像を参照したユーザから、前記2次元X線画像に対する前記3次元データの配置を調整する調整操作を受け付ける。制御部は、前記3次元データと、前記2次元X線画像と、前記調整操作の結果とを記憶部に保存させる。 The medical information processing apparatus of the embodiment includes a display control unit, a reception unit, and a control unit. The display control unit displays a composite image in which an image based on 3D data and a 2D X-ray image are combined. The reception unit receives an adjustment operation for adjusting the arrangement of the three-dimensional data with respect to the two-dimensional X-ray image from the user who has referred to the composite image. The control unit stores the three-dimensional data, the two-dimensional X-ray image, and the result of the adjustment operation in the storage unit.
以下、添付図面を参照して、医用情報処理装置、X線診断装置及びプログラムの実施形態について詳細に説明する。 Hereinafter, embodiments of a medical information processing apparatus, an X-ray diagnostic apparatus, and a program will be described in detail with reference to the accompanying drawings.
(第1の実施形態)
第1の実施形態では、図1に示す医用情報処理システム1を例として説明する。例えば、医用情報処理システム1は、X線診断装置10と、医用情報処理装置30とを備える。また、X線診断装置10と医用情報処理装置30とは、ネットワークNWを介して相互に接続される。なお、図1は、第1の実施形態に係る医用情報処理システム1の構成の一例を示すブロック図である。
(First Embodiment)
In the first embodiment, the medical information processing system 1 shown in FIG. 1 will be described as an example. For example, the medical information processing system 1 includes an X-ray
X線診断装置10は、被検体P1からX線画像を収集する装置である。例えば、X線診断装置10は、被検体P1に対する血管内治療の手技が行なわれている間、被検体P1から経時的に2次元X線画像を収集し、収集した2次元X線画像を医用情報処理装置30に順次送信する。なお、X線診断装置10の構成については後述する。
The X-ray
医用情報処理装置30は、X線診断装置10によって収集された2次元X線画像に基づいて、後述する各種の処理を行なう。例えば、医用情報処理装置30は、図1に示すように、入力インタフェース31と、ディスプレイ32と、メモリ33と、処理回路34とを有する。
The medical information processing apparatus 30 performs various processes described later based on the two-dimensional X-ray image collected by the X-ray
入力インタフェース31は、ユーザからの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路34に出力する。例えば、入力インタフェース31は、マウスやキーボード、トラックボール、スイッチ、ボタン、ジョイスティック、操作面へ触れることで入力操作を行なうタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、音声入力回路等により実現される。なお、入力インタフェース31は、処理回路34と無線通信可能なタブレット端末等で構成されることにしても構わない。また、入力インタフェース31は、モーションキャプチャによりユーザからの入力操作を受け付ける回路であっても構わない。一例を挙げると、入力インタフェース31は、トラッカーを介して取得した信号やユーザについて収集された画像を処理することにより、ユーザの体動や視線等を入力操作として受け付けることができる。また、入力インタフェース31は、マウスやキーボード等の物理的な操作部品を備えるものだけに限られない。例えば、医用情報処理装置30本体とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を医用情報処理装置30本体へ出力する電気信号の処理回路も入力インタフェース31の例に含まれる。
The
ディスプレイ32は、各種の情報を表示する。例えば、ディスプレイ32は、処理回路34による制御の下、各種の医用画像を表示する。一例を挙げると、ディスプレイ32は、3次元データに基づく画像と、2次元X線画像とを合成した合成画像を表示する。なお、ディスプレイ32における合成画像の表示については後述する。また、例えば、ディスプレイ32は、入力インタフェース31を介してユーザから各種の指示や設定等を受け付けるためのGUI(Graphical User Interface)を表示する。例えば、ディスプレイ32は、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイである。ディスプレイ32は、デスクトップ型でもよいし、医用情報処理装置30本体と無線通信可能なタブレット端末等で構成されることにしても構わない。
The display 32 displays various information. For example, the display 32 displays various medical images under the control of the processing circuit 34. As an example, the display 32 displays a composite image in which an image based on three-dimensional data and a two-dimensional X-ray image are combined. The display of the composite image on the display 32 will be described later. Further, for example, the display 32 displays a GUI (Graphical User Interface) for receiving various instructions and settings from the user via the
なお、図1においては医用情報処理装置30がディスプレイ32を備えるものとして説明するが、医用情報処理装置30は、ディスプレイ32に代えて又は加えて、プロジェクタを備えてもよい。プロジェクタは、処理回路34による制御の下、スクリーンや壁、床、被検体P1の体表面等に対して投影を行なうことができる。一例を挙げると、プロジェクタは、プロジェクションマッピングによって、任意の平面や物体、空間等への投影を行なうこともできる。例えば、処理回路34は、後述する合成画像をプロジェクタに表示させることとしても構わない。 Although the medical information processing apparatus 30 will be described as including the display 32 in FIG. 1, the medical information processing apparatus 30 may include a projector in place of or in addition to the display 32. The projector can project onto a screen, a wall, a floor, a body surface of the subject P1 or the like under the control of the processing circuit 34. As an example, the projector can also project onto an arbitrary plane, object, space, etc. by projection mapping. For example, the processing circuit 34 may display a composite image described later on the projector.
メモリ33は、処理回路34による制御の下、各種データの保存を行なう。なお、メモリ33におけるデータの保存については後述する。また、メモリ33は、医用情報処理装置30に含まれる回路がその機能を実現するためのプログラムを記憶することもできる。例えば、メモリ33は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。或いは、メモリ33は、医用情報処理装置30とネットワークを介して接続されたサーバ群(クラウド)により実現されることとしてもよい。 The memory 33 stores various data under the control of the processing circuit 34. The storage of data in the memory 33 will be described later. Further, the memory 33 can also store a program for the circuit included in the medical information processing apparatus 30 to realize its function. For example, the memory 33 is realized by a RAM (Random Access Memory), a semiconductor memory element such as a flash memory, a hard disk, an optical disk, or the like. Alternatively, the memory 33 may be realized by a server group (cloud) connected to the medical information processing device 30 via a network.
処理回路34は、制御機能34a、表示制御機能34b、受付機能34c及びモデル生成機能34dを実行することで、医用情報処理装置30全体の動作を制御する。ここで、制御機能34aは、制御部の一例である。また、表示制御機能34bは、表示制御部の一例である。また、受付機能34cは、受付部の一例である。また、モデル生成機能34dは、モデル生成部の一例である。
The processing circuit 34 controls the operation of the entire medical information processing apparatus 30 by executing the control function 34a, the
例えば、処理回路34は、制御機能34aに対応するプログラムをメモリ33から読み出して実行することにより、ネットワークNWを介したデータの送受信、及び、メモリ33におけるデータ管理を制御する。また、処理回路34は、表示制御機能34bに対応するプログラムをメモリ33から読み出して実行することにより、ディスプレイ32における表示を制御する。また、処理回路34は、受付機能34cに対応するプログラムをメモリ33から読み出して実行することにより、入力インタフェース31を介してユーザから入力操作を受け付ける。また、処理回路34は、モデル生成機能34dに対応するプログラムをメモリ33から読み出して実行することにより、機械学習を実行して、学習済みモデルの生成処理を行なう。なお、制御機能34a、表示制御機能34b、受付機能34c及びモデル生成機能34dによる処理の詳細については後述する。
For example, the processing circuit 34 controls the transmission / reception of data via the network NW and the data management in the memory 33 by reading the program corresponding to the control function 34a from the memory 33 and executing the program. Further, the processing circuit 34 controls the display on the display 32 by reading the program corresponding to the
図1に示す医用情報処理装置30においては、各処理機能がコンピュータによって実行可能なプログラムの形態でメモリ33へ記憶されている。処理回路34は、メモリ33からプログラムを読み出して実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、プログラムを読み出した状態の処理回路34は、読み出したプログラムに対応する機能を有することとなる。 In the medical information processing apparatus 30 shown in FIG. 1, each processing function is stored in the memory 33 in the form of a program that can be executed by a computer. The processing circuit 34 is a processor that realizes a function corresponding to each program by reading a program from the memory 33 and executing the program. In other words, the processing circuit 34 in the state where the program is read has a function corresponding to the read program.
なお、図1においては単一の処理回路34にて、制御機能34a、表示制御機能34b、受付機能34c及びモデル生成機能34dが実現するものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路34を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。また、処理回路34が有する各処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。
Although it has been described in FIG. 1 that the control function 34a, the
また、処理回路34は、ネットワークNWを介して接続された外部装置のプロセッサを利用して、機能を実現することとしてもよい。例えば、処理回路34は、メモリ33から各機能に対応するプログラムを読み出して実行するとともに、医用情報処理装置30とネットワークNWを介して接続されたサーバ群(クラウド)を計算資源として利用することにより、図1に示す各機能を実現する。 Further, the processing circuit 34 may realize the function by using the processor of the external device connected via the network NW. For example, the processing circuit 34 reads a program corresponding to each function from the memory 33 and executes it, and also uses a server group (cloud) connected to the medical information processing apparatus 30 via a network NW as a computational resource. , Each function shown in FIG. 1 is realized.
次に、X線診断装置10について、図2を用いて説明する。図2は、第1の実施形態に係るX線診断装置10の構成の一例を示すブロック図である。図2に示すように、X線診断装置10は、X線高電圧装置101と、X線管102と、X線絞り器103と、天板104と、Cアーム105と、X線検出器106と、入力インタフェース107と、ディスプレイ108と、メモリ109と、処理回路110とを備える。
Next, the X-ray
X線高電圧装置101は、処理回路110による制御の下、X線管102に高電圧を供給する。例えば、X線高電圧装置101は、変圧器(トランス)及び整流器等の電気回路を有し、X線管102に印加する高電圧を発生する高電圧発生装置と、X線管102が照射するX線に応じた出力電圧の制御を行うX線制御装置とを有する。なお、高電圧発生装置は、変圧器方式であってもよいし、インバータ方式であってもよい。
The X-ray
X線管102は、熱電子を発生する陰極(フィラメント)と、熱電子の衝突を受けてX線を発生する陽極(ターゲット)とを有する真空管である。X線管102は、X線高電圧装置101から供給される高電圧を用いて、陰極から陽極に向けて熱電子を照射することにより、X線を発生する。
The
X線絞り器103は、X線管102により発生されたX線の照射範囲を絞り込むコリメータと、X線管102から曝射されたX線を調節するフィルタとを有する。
The
X線絞り器103におけるコリメータは、例えば、スライド可能な4枚の絞り羽根を有する。コリメータは、絞り羽根をスライドさせることで、X線管102が発生したX線を絞り込んで被検体P1に照射させる。ここで、絞り羽根は、鉛などで構成された板状部材であり、X線の照射範囲を調整するためにX線管102のX線照射口付近に設けられる。
The collimator in the
X線絞り器103におけるフィルタは、被検体P1に対する被曝線量の低減とX線画像の画質向上を目的として、その材質や厚みによって透過するX線の線質を変化させ、被検体P1に吸収されやすい軟線成分を低減したり、X線画像のコントラスト低下を招く高エネルギー成分を低減したりする。また、フィルタは、その材質や厚み、位置などによってX線の線量及び照射範囲を変化させ、X線管102から被検体P1へ照射されるX線が予め定められた分布になるようにX線を減衰させる。
The filter in the
例えば、X線絞り器103は、モータ及びアクチュエータ等の駆動機構を有し、後述する処理回路110による制御の下、駆動機構を動作させることによりX線の照射を制御する。例えば、X線絞り器103は、処理回路110から受け付けた制御信号に応じて駆動電圧を駆動機構に付加することにより、コリメータの絞り羽根の開度を調整して、被検体P1に対して照射されるX線の照射範囲を制御する。また、例えば、X線絞り器103は、処理回路110から受け付けた制御信号に応じて駆動電圧を駆動機構に付加することにより、フィルタの位置を調整することで、被検体P1に対して照射されるX線の線量の分布を制御する。
For example, the
天板104は、被検体P1を載せるベッドであり、図示しない寝台の上に配置される。なお、被検体P1は、X線診断装置10に含まれない。例えば、寝台は、モータ及びアクチュエータ等の駆動機構を有し、後述する処理回路110による制御の下、駆動機構を動作させることにより、天板104の移動・傾斜を制御する。例えば、寝台は、処理回路110から受け付けた制御信号に応じて駆動電圧を駆動機構に付加することにより、天板104を移動させたり、傾斜させたりする。
The
Cアーム105は、X線管102及びX線絞り器103と、X線検出器106とを、被検体P1を挟んで対向するように保持する。例えば、Cアーム105は、モータ及びアクチュエータ等の駆動機構を有し、後述する処理回路110による制御の下、駆動機構を動作させることにより、回転したり移動したりする。例えば、Cアーム105は、処理回路110から受け付けた制御信号に応じて駆動電圧を駆動機構に付加することにより、X線管102及びX線絞り器103と、X線検出器106とを被検体P1に対して回転・移動させ、X線の照射位置や照射角度を制御する。なお、図2では、X線診断装置10がシングルプレーンの場合を例に挙げて説明しているが、実施形態はこれに限定されるものではなく、バイプレーンの場合であってもよい。
The C-
X線検出器106は、例えば、マトリクス状に配列された検出素子を有するX線平面検出器(Flat Panel Detector:FPD)である。X線検出器106は、X線管102から照射されて被検体P1を透過したX線を検出して、検出したX線量に対応した検出信号を処理回路110へと出力する。なお、X線検出器106は、グリッド、シンチレータアレイ及び光センサアレイを有する間接変換型の検出器であってもよいし、入射したX線を電気信号に変換する半導体素子を有する直接変換型の検出器であっても構わない。
The
入力インタフェース107は、上述した入力インタフェース31と同様にして構成することができる。例えば、入力インタフェース107は、ユーザからの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路110に出力する。
The
ディスプレイ108は、上述したディスプレイ32と同様にして構成することができる。例えば、ディスプレイ108は、処理回路110による制御の下、医用画像やGUIの表示を行なう。また、X線診断装置10は、ディスプレイ108に代えて又は加えて、プロジェクタを備えることとしてもよい。
The
メモリ109は、上述したメモリ33と同様にして構成することができる。例えば、メモリ109は、処理回路110による制御の下で各種データの保存を行なったり、X線診断装置10に含まれる回路がその機能を実現するためのプログラムを記憶したりする。
The
処理回路110は、制御機能110a、表示制御機能110b及び収集機能110cを実行することで、X線診断装置10全体の動作を制御する。なお、制御機能110aは、制御部の一例である。また、表示制御機能110bは、表示制御部の一例である。また、収集機能110cは、収集部の一例である。
The
例えば、処理回路110は、制御機能110aに対応するプログラムをメモリ109から読み出して実行することにより、ネットワークNWを介したデータの送受信、及び、メモリ109におけるデータ管理を制御する。また、例えば、処理回路110は、表示制御機能110bに対応するプログラムをメモリ109から読み出して実行することにより、ディスプレイ108における表示を制御する。また、例えば、処理回路110は、収集機能110cに対応するプログラムをメモリ109から読み出して実行することにより、被検体P1からの画像収集を実行する。なお、制御機能110a、表示制御機能110b及び収集機能110cによる処理の詳細については後述する。
For example, the
図2に示すX線診断装置10においては、各処理機能がコンピュータによって実行可能なプログラムの形態でメモリ109へ記憶されている。処理回路110は、メモリ109からプログラムを読み出して実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、プログラムを読み出した状態の処理回路110は、読み出したプログラムに対応する機能を有することとなる。
In the X-ray
なお、図2においては単一の処理回路110にて、制御機能110a、表示制御機能110b及び収集機能110cが実現するものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路110を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。また、処理回路110が有する各処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。
Although it has been described in FIG. 2 that the
また、処理回路110は、ネットワークNWを介して接続された外部装置のプロセッサを利用して、機能を実現することとしてもよい。例えば、処理回路110は、メモリ109から各機能に対応するプログラムを読み出して実行するとともに、X線診断装置10とネットワークNWを介して接続されたサーバ群を計算資源として利用することにより、図2に示す各機能を実現する。
Further, the
以上、医用情報処理システム1の構成例について説明した。かかる構成の下、医用情報処理システム1における医用情報処理装置30は、処理回路34による処理によって、2次元X線画像と3次元データとの合成表示の精度を向上させる。 The configuration example of the medical information processing system 1 has been described above. Under such a configuration, the medical information processing apparatus 30 in the medical information processing system 1 improves the accuracy of the combined display of the two-dimensional X-ray image and the three-dimensional data by the processing by the processing circuit 34.
まず、3次元データについて説明する。3次元データとは、例えば、被検体P1の血管や臓器等を示す3次元モデルである。例えば、3次元データは、被検体P1から収集された3次元医用画像に基づいて生成される。ここで、3次元医用画像は、例えば、図示しないX線CT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置等によって収集される。 First, three-dimensional data will be described. The three-dimensional data is, for example, a three-dimensional model showing blood vessels, organs, and the like of the subject P1. For example, 3D data is generated based on a 3D medical image collected from subject P1. Here, the three-dimensional medical image is collected by, for example, an X-ray CT (Computed Tomography) device, an MRI (Magnetic Resolution Imaging) device, or the like (not shown).
一例を挙げると、3次元データは、医用情報処理装置30において生成される。例えば、制御機能34aは、まず、ネットワークNWを介して3次元医用画像を取得し、メモリ33に保存させる。例えば、X線CT装置やMRI装置等によって収集された被検体P1の3次元医用画像は、患者情報等の付帯情報とともに、図示しない画像保管装置において保管される。このような画像保管装置の例としては、例えば、PACS(Picture Archiving and Communication System)のサーバが挙げられる。この場合、制御機能34aは、ネットワークNWを介して画像保管装置から3次元医用画像を取得し、メモリ33に保存させることができる。なお、制御機能34aは、他の装置を介することなく、X線CT装置やMRI装置等から直接的に3次元医用画像を取得しても構わない。 As an example, the three-dimensional data is generated in the medical information processing apparatus 30. For example, the control function 34a first acquires a three-dimensional medical image via the network NW and stores it in the memory 33. For example, the three-dimensional medical image of the subject P1 collected by an X-ray CT device, an MRI device, or the like is stored in an image storage device (not shown) together with incidental information such as patient information. Examples of such an image storage device include a PACS (Picture Archiving and Communication System) server. In this case, the control function 34a can acquire a three-dimensional medical image from the image storage device via the network NW and store it in the memory 33. The control function 34a may acquire a three-dimensional medical image directly from an X-ray CT device, an MRI device, or the like without going through another device.
次に、制御機能34aは、取得した3次元医用画像に基づいて、3次元データの生成処理を行なう。例えば、制御機能34aは、3次元医用画像におけるボクセル値について閾値処理を行ない、血管に相当するボクセルを抽出することで、血管を示す3次元モデルを生成する。また、制御機能34aは、生成した3次元データをメモリ33に保存させる。 Next, the control function 34a performs a three-dimensional data generation process based on the acquired three-dimensional medical image. For example, the control function 34a performs threshold processing on the voxel value in the three-dimensional medical image and extracts the voxel corresponding to the blood vessel to generate a three-dimensional model showing the blood vessel. Further, the control function 34a stores the generated three-dimensional data in the memory 33.
なお、3次元データは、X線診断装置10によって収集された3次元X線画像に基づいて生成されても構わない。例えば、収集機能110cは、Cアーム105の動作を制御して被検体P1の周囲でX線管102を回転させつつ、所定のフレームレートでX線パルスを照射させることで、X線照射方向を変化させた複数の投影データを収集する。即ち、収集機能110cは、被検体P1に対する回転撮影を実行する。そして、収集機能110cは、複数の投影データに基づいて3次元X線画像を再構成する。この場合、制御機能34aは、ネットワークNWを介して3次元X線画像を取得し、3次元データの生成処理を行なうことができる。なお、3次元X線画像以外の3次元医用画像に基づいて3次元データを生成し、2次元X線画像に合成して表示する技術については、MMR(Multi Modality Roadmap)とも呼ばれる。
The three-dimensional data may be generated based on the three-dimensional X-ray image collected by the X-ray
また、3次元データは、医用情報処理装置30以外の他の装置において生成されてもよい。例えば、X線CT装置やMRI装置、X線診断装置10等の医用画像診断装置が、3次元医用画像の収集を行なうとともに、3次元医用画像に基づく3次元データの生成処理を実行しても構わない。この場合、制御機能34aは、ネットワークNWを介して3次元データを取得し、メモリ33に保存させることができる。
Further, the three-dimensional data may be generated by a device other than the medical information processing device 30. For example, even if a medical image diagnostic device such as an X-ray CT device, an MRI device, or an X-ray
制御機能34aが3次元データを取得してメモリ33に保存させた後、X線診断装置10は、被検体P1からの2次元X線画像の収集を実行する。例えば、収集機能110cは、被検体P1の腹部血管内へのステントグラフト留置術が実行される間において、2次元X線画像を経時的に収集する。
After the control function 34a acquires the three-dimensional data and stores it in the memory 33, the X-ray
具体的には、収集機能110cは、X線高電圧装置101を制御し、X線管102に供給する電圧を調整することで、被検体P1に対して照射されるX線量やオン/オフを制御する。また、収集機能110cは、X線絞り器103の動作を制御し、コリメータが有する絞り羽根の開度を調整することで、被検体P1に対して照射されるX線の照射範囲を制御する。また、収集機能110cは、X線絞り器103の動作を制御し、フィルタの位置を調整することで、X線の線量の分布を制御する。また、収集機能110cは、Cアーム105の動作を制御することで、Cアーム105を回転させたり、移動させたりする。また、例えば、収集機能110cは、寝台の動作を制御することで、天板104を移動させたり、傾斜させたりする。また、収集機能110cは、X線検出器106から受信した検出信号に基づいて2次元X線画像を生成する。なお、収集機能110cは、生成した2次元X線画像に対して各種画像処理を行なってもよい。例えば、収集機能110cは、2次元X線画像に対して、画像処理フィルタによるノイズ低減処理や、散乱線補正を実行することができる。
Specifically, the
次に、制御機能34aは、X線診断装置10によって収集された2次元X線画像を、ネットワークNWを介して取得する。例えば、まず、制御機能110aは、収集機能110cによって収集された2次元X線画像を、ネットワークNWを介して画像保管装置に送信する。この場合、制御機能34aは、ネットワークNWを介して画像保管装置から2次元X線画像を取得し、メモリ33に保存させることができる。或いは、制御機能34aは、他の装置を介することなく、X線診断装置10から直接的に2次元X線画像を取得しても構わない。
Next, the control function 34a acquires the two-dimensional X-ray image collected by the X-ray
次に、表示制御機能34bは、3次元データに基づく画像と2次元X線画像とを合成した合成画像を表示させる。言い換えると、表示制御機能34bは、3次元データに基づく画像と2次元X線画像との重畳画像を表示させる。例えば、表示制御機能34bは、まず、2次元X線画像に対する3次元データの配置を自動調整する。具体的には、表示制御機能34bは、3次元データの配置として、2次元X線画像に対する3次元データの位置、向き、及び大きさの少なくとも1つを調整する。
Next, the
なお、2次元X線画像に対する3次元データの位置とは、2次元X線画像の縦方向、横方向及び奥行き方向の位置である。例えば、表示制御機能34bは、2次元X線画像における注目部位の3次元空間上での位置を推定し、推定した位置に合わせて3次元データの配置を3次元的に調整する。また、以下では、2次元X線画像に対する3次元データの配置を調整する処理を、単に位置合わせとも記載する。
The position of the three-dimensional data with respect to the two-dimensional X-ray image is the position in the vertical direction, the horizontal direction, and the depth direction of the two-dimensional X-ray image. For example, the
ここで、表示制御機能34bは、任意の手法により、3次元データと2次元X線画像とを自動で位置合わせすることができる。例えば、表示制御機能34bは、3次元データ及び2次元X線画像のそれぞれから解剖学的特徴点を抽出し、特徴点の対応関係に基づいて変換行列を算出する。具体的には、表示制御機能34bは、3次元データを、2次元X線画像と同じ位置、向き、及び大きさの2次元画像に変換するための変換行列を算出する。そして、表示制御機能34bは、変換行列によって3次元データ上の各点を座標変換した2次元画像を生成し、2次元X線画像と合成して、ディスプレイ32に表示させる。
Here, the
また、3次元X線画像に基づいて3次元データが生成されている場合、表示制御機能34bは、天板104等の制御情報に基づいて変換行列を算出することもできる。即ち、3次元データの生成に用いた3次元X線画像と2次元X線画像とが同じ装置によって収集されている場合、表示制御機能34bは、天板104等の制御情報に基づいて3次元データと2次元X線画像との位置関係を取得し、変換行列を算出することができる。そして、表示制御機能34bは、変換行列によって3次元データ上の各点を座標変換した2次元画像を生成し、2次元X線画像と合成して、ディスプレイ32に表示させる。
Further, when the three-dimensional data is generated based on the three-dimensional X-ray image, the
なお、表示制御機能34bは、変換行列によって、3次元データの表面領域のみを座標変換することとしてもよいし、内部領域を含めて座標変換することとしてもよい。即ち、表示制御機能34bは、3次元データに基づく画像として、サーフェスレンダリング画像を生成してもよいし、ボリュームレンダリング画像を生成してもよい。
The
上述した通り、表示制御機能34bは、3次元データと2次元X線画像とを自動で位置合わせし、3次元データに基づく画像と2次元X線画像とを合成した合成画像を表示させることができる。例えば、手技が行なわれている間、収集機能110cは経時的に2次元X線画像を収集する。また、表示制御機能34bは、収集された2次元X線画像に対して、3次元データに基づく画像を順次合成し、生成した合成画像をディスプレイ32に順次表示させる。即ち、表示制御機能34bは、合成画像をリアルタイム表示させることができる。
As described above, the
しかしながら、種々の要因により、3次元データと2次元X線画像とを適切に位置合わせすることができない場合がある。例えば、3次元医用画像と2次元X線画像とでは、画像のコントラストや明るさ、生じるノイズの種類等が異なっているため、対応する特徴点を特定できない場合がある。特に、X線CT画像やMR画像等に基づいて3次元データが生成されている場合、モダリティ種別が異なるため、対応する特徴点を特定することは容易でない。また、3次元X線画像に基づいて3次元データが生成され、天板104等の制御情報に基づいて位置合わせを行なう場合であっても、被検体P1の体動等によって位置合わせの精度が低下してしまう場合がある。
However, due to various factors, it may not be possible to properly align the 3D data and the 2D X-ray image. For example, since the contrast and brightness of the image, the type of noise generated, and the like are different between the three-dimensional medical image and the two-dimensional X-ray image, it may not be possible to specify the corresponding feature points. In particular, when three-dimensional data is generated based on an X-ray CT image, an MR image, or the like, it is not easy to specify the corresponding feature points because the modality types are different. Further, even when the 3D data is generated based on the 3D X-ray image and the alignment is performed based on the control information of the
また、3次元データの作成条件も、位置合わせの精度に影響を及ぼす場合がある。例えば、3次元データを閾値処理により作成する場合において、閾値を変更すれば、生成される3次元データの形状やサイズも変化する。その他、3次元データの作成時においては、技師等が経験的に作成条件を調整する場合もある所、作成者によって3次元データの形状やサイズにばらつきが生じる。そして、3次元データの形状やサイズが変化することにより、2次元X線画像に対する位置合わせの精度が低下してしまう場合がある。 In addition, the conditions for creating three-dimensional data may also affect the accuracy of alignment. For example, when three-dimensional data is created by threshold processing, if the threshold is changed, the shape and size of the generated three-dimensional data also change. In addition, when creating 3D data, the shape and size of the 3D data may vary depending on the creator, where the engineer or the like may empirically adjust the creation conditions. Then, the accuracy of alignment with respect to the two-dimensional X-ray image may decrease due to changes in the shape and size of the three-dimensional data.
また、2次元X線画像の縦方向及び横方向について適切に位置合わせできているケースであっても、奥行方向の推定誤差が生じてしまう場合がある。このような場合、例えばCアーム105を回転させて2次元X線画像の撮影角度を変化させた際に、3次元データが奥行方向にずれて表示されてしまうこととなる。
Further, even in the case where the vertical and horizontal directions of the two-dimensional X-ray image can be properly aligned, an estimation error in the depth direction may occur. In such a case, for example, when the
自動での位置合わせが適切に行われていない場合、ユーザは、手動で位置合わせを行なうことができる。例えば、ユーザは、ディスプレイ32に表示されている合成画像を参照しつつ、3次元データを平行移動させたり回転させたり拡大/縮小させたりして、2次元X線画像に対する3次元データの配置を調整する。しかしながら、手技の間にこのような手動操作を行なうことはユーザにとって負担となる。また、手動での位置合わせの精度については、ユーザの経験の多寡による差も生じる。特に、奥行方向の位置合わせについては経験によるところが大きく、ユーザごとに精度がばらつきやすい。 If the automatic alignment is not done properly, the user can do the alignment manually. For example, the user refers to the composite image displayed on the display 32 and translates, rotates, or enlarges / reduces the three-dimensional data to arrange the three-dimensional data with respect to the two-dimensional X-ray image. adjust. However, performing such a manual operation during the procedure is burdensome for the user. In addition, the accuracy of manual alignment also varies depending on the amount of experience of the user. In particular, the alignment in the depth direction depends largely on experience, and the accuracy tends to vary from user to user.
ここで、2次元X線画像に対する3次元データの位置合わせを、機械学習の手法によって実行することが考えられる。しかしながら、どのようなデータが学習データとして適切であるかの判断は難しく、また、学習済みモデルの品質を担保するために必要な数の学習データを収集することは容易ではない。 Here, it is conceivable to perform the alignment of the three-dimensional data with respect to the two-dimensional X-ray image by a machine learning method. However, it is difficult to determine what kind of data is appropriate as training data, and it is not easy to collect the required number of training data to ensure the quality of the trained model.
そこで、処理回路34は、以下で説明する処理によって、2次元X線画像と3次元データとの合成表示の精度を向上させる。具体的には、処理回路34は、合成画像を参照したユーザから、2次元X線画像に対する3次元データの配置を調整する調整操作を受け付け、3次元データと2次元X線画像と調整操作の結果とを保存させる。これにより、処理回路34は、2次元X線画像に対する3次元データの配置を調整する学習済みモデルについて適切な学習を行なわせることを可能とし、合成表示の精度を向上させる。 Therefore, the processing circuit 34 improves the accuracy of the combined display of the two-dimensional X-ray image and the three-dimensional data by the processing described below. Specifically, the processing circuit 34 receives an adjustment operation for adjusting the arrangement of the three-dimensional data with respect to the two-dimensional X-ray image from the user who has referred to the composite image, and performs the adjustment operation with the three-dimensional data and the two-dimensional X-ray image. Save the results. As a result, the processing circuit 34 makes it possible to perform appropriate learning on the trained model that adjusts the arrangement of the three-dimensional data with respect to the two-dimensional X-ray image, and improves the accuracy of the composite display.
以下、処理回路34が行なう処理について、図3を用いて説明する。図3は、第1の実施形態に係る調整操作の受け付けについて説明するための図である。例えば、表示制御機能34bは、まず、2次元X線画像I11に対して3次元データD11を自動で位置合わせする。例えば、表示制御機能34bは、3次元データD11を、2次元X線画像I11と同じ位置、向き、及び大きさの2次元画像に変換するための変換行列Aを算出する。また、表示制御機能34bは、変換行列Aを3次元データD11に適用することで、3次元データD11に基づく画像I21を生成し、2次元X線画像I11と画像I21とを合成した合成画像I31をディスプレイ32に表示させる。
Hereinafter, the processing performed by the processing circuit 34 will be described with reference to FIG. FIG. 3 is a diagram for explaining acceptance of the adjustment operation according to the first embodiment. For example, the
なお、自動位置合わせの手法については特に限定されるものではない。例えば、表示制御機能34bは、3次元データD11及び2次元X線画像I11のそれぞれから解剖学的特徴点を抽出し、対応する特徴点の組み合わせに基づいて、変換行列Aを算出する。また、例えば、3次元X線画像に基づいて3次元データD11が生成されている場合、表示制御機能34bは、天板104等の制御情報に基づいて変換行列Aを算出することもできる。
The method of automatic alignment is not particularly limited. For example, the
ここで、受付機能34cは、合成画像I31を参照したユーザから、2次元X線画像I11に対する3次元データD11の配置を調整する調整操作を受け付けることができる。例えば、合成画像I31を参照したユーザは、位置合わせが適切になされていないと判断した場合、入力インタフェース31を介して、2次元X線画像I11に対する3次元データD11の配置を調整する調整操作を入力する。
Here, the reception function 34c can receive an adjustment operation for adjusting the arrangement of the three-dimensional data D11 with respect to the two-dimensional X-ray image I11 from the user who has referred to the composite image I31. For example, when the user who refers to the composite image I31 determines that the alignment is not properly performed, the user adjusts the arrangement of the three-dimensional data D11 with respect to the two-dimensional X-ray image I11 via the
具体的には、ユーザは、2次元X線画像I11に対して3次元データD11の位置がずれていると判断した場合、3次元データD11を平行移動させて、3次元データD11の位置を調整する。ここで、ユーザは、2次元X線画像I11の縦方向、横方向、及び奥行き方向といった任意の方向に、3次元データD11を平行移動させることができる。また、ユーザは、2次元X線画像I11に対する3次元データD11の向きがずれていると判断した場合、3次元データD11を回転させて、3次元データD11の角度を調整する。ここで、ユーザは、2次元X線画像I11の縦方向、横方向、及び奥行き方向といった任意方向の回転軸で、3次元データD11を3次元的に回転させることができる。また、ユーザは、2次元X線画像I11と3次元データD11との間で拡大率が一致していないと判断した場合、3次元データD11を拡大又は縮小させて、3次元データD11のサイズを調整する。 Specifically, when the user determines that the position of the 3D data D11 is displaced with respect to the 2D X-ray image I11, the user moves the 3D data D11 in parallel and adjusts the position of the 3D data D11. do. Here, the user can translate the three-dimensional data D11 in any direction such as the vertical direction, the horizontal direction, and the depth direction of the two-dimensional X-ray image I11. Further, when the user determines that the orientation of the three-dimensional data D11 with respect to the two-dimensional X-ray image I11 is deviated, the user rotates the three-dimensional data D11 to adjust the angle of the three-dimensional data D11. Here, the user can rotate the three-dimensional data D11 three-dimensionally on the rotation axes in arbitrary directions such as the vertical direction, the horizontal direction, and the depth direction of the two-dimensional X-ray image I11. Further, when the user determines that the enlargement ratios do not match between the two-dimensional X-ray image I11 and the three-dimensional data D11, the three-dimensional data D11 is enlarged or reduced to reduce the size of the three-dimensional data D11. adjust.
受付機能34cがユーザから調整操作を受け付けている間、表示制御機能34bは、調整された3次元データの配置に応じて、変換行列を変化させる。即ち、表示制御機能34bは、2次元X線画像I11に対する3次元データD11の配置がユーザの所望する通りに変化するよう、変換行列を変化させる。また、表示制御機能34bは、変換行列を変化させるごとに変換行列を3次元データD11に適用し、ディスプレイ32に表示させる合成画像を更新する。
While the reception function 34c is receiving the adjustment operation from the user, the
図3においては、手動位置合わせの結果が合成画像I41であるものとして説明する。例えば、表示制御機能34bは、ユーザから受け付けた調整操作に基づく変換行列A’を3次元データD11に適用して合成画像I41を生成し、ディスプレイ32に表示させる。また、制御機能34aは、合成画像I41が表示されている間にユーザによる調整操作が完了したと判定した場合、調整操作の結果として変換行列A’を取得し、メモリ33に保存させる。また、制御機能34aは、変換行列A’とともに、2次元X線画像I11及び3次元データD11を、メモリ33に保存させる。即ち、制御機能34aは、学習済みモデルM1の生成に使用可能な学習データとして、変換行列A’、2次元X線画像I11及び3次元データD11をデータベースに登録する。なお、学習済みモデルM1の生成処理については後述する。
In FIG. 3, the result of manual alignment will be described as the composite image I41. For example, the
ここで、ユーザによる調整操作が完了したか否かを判定する処理の一例を、図4を用いて説明する。図4は、第1の実施形態に係る医用情報処理装置30の処理の一連の流れを説明するためのフローチャートである。 Here, an example of a process for determining whether or not the adjustment operation by the user has been completed will be described with reference to FIG. FIG. 4 is a flowchart for explaining a series of processes of the medical information processing apparatus 30 according to the first embodiment.
まず、表示制御機能34bは、2次元X線画像I11に対して3次元データD11を自動位置合わせし、3次元データD11に基づく画像と2次元X線画像I11とを合成した合成画像をディスプレイに表示させる(ステップS101)。次に、表示制御機能34bは、合成画像の表示を継続するか否かを判定し(ステップS102)、継続する場合には(ステップS102肯定)、ステップS103に移行する。
First, the
ステップS103において、受付機能34cは、手動で位置合わせしたか否かを判定する。即ち、受付機能34cは、合成画像を参照したユーザから、2次元X線画像I11に対する3次元データD11の配置を調整する調整操作を受け付けたか否かを判定する。なお、手動で位置合わせされない場合(ステップS103否定)、受付機能34cは、ステップS102に再度移行する。 In step S103, the reception function 34c determines whether or not the alignment is manually performed. That is, the reception function 34c determines whether or not the user who has referred to the composite image has received the adjustment operation for adjusting the arrangement of the three-dimensional data D11 with respect to the two-dimensional X-ray image I11. If the alignment is not performed manually (denial in step S103), the reception function 34c shifts to step S102 again.
手動で位置合わせされた場合(ステップS103肯定)、制御機能34aは、一定時間指定の操作がないかを判定する(ステップS104)。より具体的には、受付機能34cは、合成画像を参照したユーザから、2次元X線画像I11に対する3次元データD11の配置を調整する調整操作を受け付け、表示制御機能34bは、調整操作に応じて変化させた変換行列を3次元データD11に適用してディスプレイ32に表示させる合成画像を更新し、制御機能34aは、更新された合成画像がディスプレイ32に表示された状態において一定時間指定の操作がないかを判定する。
When the position is manually aligned (affirmation in step S103), the control function 34a determines whether or not there is an operation specified for a certain period of time (step S104). More specifically, the reception function 34c receives an adjustment operation for adjusting the arrangement of the three-dimensional data D11 with respect to the two-dimensional X-ray image I11 from the user who has referred to the composite image, and the
ここで、ステップS104の判定に用いる一定時間については、プリセットされた長さの時間であってもよいし、ユーザが設定した長さの時間であってもよい。また、一定時間については、過去にユーザが調整操作を再入力した際に要した時間の長さ等に基づいて、制御機能34aが自動で調整してもよい。なお、ステップS104の一定時間は、所定時間の一例である。 Here, the fixed time used for the determination in step S104 may be a preset length of time or a user-set length of time. Further, the control function 34a may automatically adjust the fixed time based on the length of time required when the user re-inputs the adjustment operation in the past. The fixed time in step S104 is an example of a predetermined time.
また、ステップS104の判定に用いる指定の操作とは、例えば、2次元X線画像I11に対する3次元データD11の配置を調整する調整操作である。即ち、ステップS104において、制御機能34aは、調整操作が再入力されたか否かを判定する。また、ステップS104の判定に用いる指定の操作とは、例えば、Cアーム105を回転させる操作や、天板104を移動させる操作である。
Further, the designated operation used for the determination in step S104 is, for example, an adjustment operation for adjusting the arrangement of the three-dimensional data D11 with respect to the two-dimensional X-ray image I11. That is, in step S104, the control function 34a determines whether or not the adjustment operation has been re-input. Further, the designated operation used for the determination in step S104 is, for example, an operation of rotating the
例えば、ユーザは、Cアーム105を回転させることで、奥行方向の位置合わせが適切になされているか否かを判断することができる。即ち、ユーザは、アーム105を回転させて2次元X線画像I11の撮影角度を変化させる。また、表示制御機能34bは、撮影角度の変化に応じて3次元データD11を回転移動させ、ディスプレイ32に表示させる合成画像を更新する。ここで、奥行方向の位置合わせが適切になされていない場合には3次元データD11が奥行方向にずれて表示されてしまう所、Cアーム105を回転させてもずれが生じなければ、ユーザは、奥行方向の位置合わせが適切になされていると判断することができる。なお、ステップS104の指定の操作は、特定操作の一例である。
For example, the user can determine whether or not the alignment in the depth direction is properly performed by rotating the
ステップS104において一定時間指定の操作がなかった場合(ステップS104肯定)、制御機能34aは、3次元データD11、2次元X線画像I11及び変換行列A’をデータベースに登録する(ステップS105)。即ち、合成画像I41が表示されている間に一定時間指定の操作がなかった場合、制御機能34aは、ユーザによる調整操作が完了したと判定し、調整操作の結果として変換行列A’を特定して、3次元データD11及び2次元X線画像I11とともにデータベースに登録する。例えば、制御機能34aは、3次元データD11及び2次元X線画像I11を特定するための付帯情報を変換行列A’に付して、メモリ33に保存させる。なお、ステップS105の後、制御機能34aは、ステップS102に再度移行する。 When there is no operation specified for a certain period of time in step S104 (affirmation in step S104), the control function 34a registers the three-dimensional data D11, the two-dimensional X-ray image I11, and the transformation matrix A'in the database (step S105). That is, if there is no operation specified for a certain period of time while the composite image I41 is displayed, the control function 34a determines that the adjustment operation by the user has been completed, and specifies the transformation matrix A'as a result of the adjustment operation. And register it in the database together with the 3D data D11 and the 2D X-ray image I11. For example, the control function 34a attaches incidental information for specifying the three-dimensional data D11 and the two-dimensional X-ray image I11 to the transformation matrix A'and stores them in the memory 33. After step S105, the control function 34a shifts to step S102 again.
一方で、一定時間内に指定の操作がなされた場合(ステップS104否定)、制御機能34aは、ステップS104の判定を継続するか否かを判定し(ステップS106)、継続する場合には(ステップS106肯定)、ステップS104に再度移行する。一方で、ステップS104の判定を継続しない場合(ステップS106否定)、制御機能34aは、ステップS102に再度移行する。例えば、アーチファクト等によって3次元データD11と2次元X線画像I11との位置合わせが困難であるとユーザが判断した場合、制御機能34aは、データベースへの登録を行なうことなく、ステップS102に再度移行する。また、ステップS102において表示を継続しないと判定した場合(ステップS102否定)、処理回路34は、処理を終了する。 On the other hand, if the designated operation is performed within a certain period of time (step S104 negative), the control function 34a determines whether or not to continue the determination in step S104 (step S106), and if it continues (step S106). S106 affirmative), the process proceeds to step S104 again. On the other hand, if the determination in step S104 is not continued (negation in step S106), the control function 34a shifts to step S102 again. For example, when the user determines that it is difficult to align the 3D data D11 and the 2D X-ray image I11 due to an artifact or the like, the control function 34a shifts to step S102 again without registering in the database. do. If it is determined in step S102 that the display is not continued (negation in step S102), the processing circuit 34 ends the processing.
上述した通り、制御機能34aは、ユーザによる調整操作が完了したか否かを判定し、完了したと判定した場合には、学習済みモデルM1の生成に使用可能な学習データとして、変換行列A’、2次元X線画像I11及び3次元データD11をデータベースに登録する。これにより、制御機能34aは、学習済みモデルM1について適切な学習を行なわせることを可能とし、合成表示の精度を向上させることができる。 As described above, the control function 34a determines whether or not the adjustment operation by the user is completed, and if it is determined that the adjustment operation is completed, the transformation matrix A'is used as training data that can be used to generate the trained model M1. The two-dimensional X-ray image I11 and the three-dimensional data D11 are registered in the database. As a result, the control function 34a makes it possible to perform appropriate learning on the trained model M1 and can improve the accuracy of the composite display.
なお、図4のフローチャートは一例であり、種々の変形が可能である。例えば、制御機能34aは、調整操作が完了した旨の入力操作が行われた場合に調整操作が完了したと判定し、データベースへの登録を行なうこととしてもよい。 The flowchart of FIG. 4 is an example, and various modifications can be made. For example, the control function 34a may determine that the adjustment operation has been completed when the input operation to the effect that the adjustment operation has been completed is performed, and may perform registration in the database.
次に、図5を用いて、学習済みモデルM1の生成処理について説明する。図5は、第1の実施形態に係る学習済みモデルM1の生成処理の一例を示す図である。なお、本実施形態においては、医用情報処理装置30におけるモデル生成機能34dが学習済みモデルM1を生成するものとして説明する。 Next, the generation process of the trained model M1 will be described with reference to FIG. FIG. 5 is a diagram showing an example of the generation process of the trained model M1 according to the first embodiment. In this embodiment, it is assumed that the model generation function 34d in the medical information processing apparatus 30 generates the trained model M1.
また、図5においては、機械学習手法の一例として、ニューラルネットワークについて説明する。即ち、モデル生成機能34dは、3次元データD11及び2次元X線画像I11を入力側データ(Input)とし、変換行列A’を出力側データ(Output)としてニューラルネットワークを学習させることにより、学習済みモデルM1を生成する。なお、図5においては説明の便宜のため、入力側データと出力側データとの組み合わせを1つのみ示すが、モデル生成機能34dは、入力側データと出力側データとの組み合わせを複数用いて、ニューラルネットワークを繰り返し学習させることができる。 Further, in FIG. 5, a neural network will be described as an example of a machine learning method. That is, the model generation function 34d has been trained by training the neural network with the three-dimensional data D11 and the two-dimensional X-ray image I11 as input side data (Input) and the transformation matrix A'as output side data (Output). Generate model M1. In FIG. 5, for convenience of explanation, only one combination of the input side data and the output side data is shown, but the model generation function 34d uses a plurality of combinations of the input side data and the output side data. The neural network can be trained repeatedly.
具体的には、モデル生成機能34dは、3次元データD11及び2次元X線画像I11をニューラルネットワークに入力する。ここで、ニューラルネットワークにおいては、入力層側から出力層側に向かって一方向に隣接層間でのみ結合しながら情報が伝播し、出力層からは、変換行列の推定結果が出力される。例えば、ニューラルネットワークの出力層からは、2次元X線画像I11に対して3次元データD11を適切に配置するために使用される変換行列の推定結果が出力される。なお、入力層側から出力層側に向かって一方向に情報が伝播するニューラルネットワークについては、畳み込みニューラルネットワーク(Convlutional Neural Network:CNN)とも呼ばれる。 Specifically, the model generation function 34d inputs the three-dimensional data D11 and the two-dimensional X-ray image I11 into the neural network. Here, in the neural network, information is propagated while being coupled only between adjacent layers in one direction from the input layer side to the output layer side, and the estimation result of the transformation matrix is output from the output layer. For example, the output layer of the neural network outputs the estimation result of the transformation matrix used for appropriately arranging the three-dimensional data D11 with respect to the two-dimensional X-ray image I11. A neural network in which information propagates in one direction from the input layer side to the output layer side is also called a convolutional neural network (CNN).
モデル生成機能34dは、入力側データを入力した際にニューラルネットワークが好ましい結果を出力することができるよう、ニューラルネットワークのパラメータを調整することで、学習済みモデルM1を生成する。例えば、モデル生成機能34dは、入力側データに基づいて推定された変換行列と、出力側データとして入力した変換行列A’との差が閾値を下回るまで、ニューラルネットワークのパラメータを調整しながら処理を繰り返す。これにより、モデル生成機能34dは、2次元X線画像に対する3次元データの配置を調整するよう機能付けられた学習済みモデルM1を生成することができる。例えば、図5に示す場合、学習済みモデルM1は、3次元データ及び2次元X線画像の入力を受けて、入力された2次元X線画像に対して3次元データを適切に配置するための変換行列を推定するように機能付けられる。 The model generation function 34d generates the trained model M1 by adjusting the parameters of the neural network so that the neural network can output a preferable result when the input side data is input. For example, the model generation function 34d processes while adjusting the parameters of the neural network until the difference between the transformation matrix estimated based on the input side data and the transformation matrix A'input as the output side data falls below the threshold value. repeat. As a result, the model generation function 34d can generate a trained model M1 functionalized to adjust the arrangement of the three-dimensional data with respect to the two-dimensional X-ray image. For example, in the case shown in FIG. 5, the trained model M1 receives the input of the three-dimensional data and the two-dimensional X-ray image, and appropriately arranges the three-dimensional data with respect to the input two-dimensional X-ray image. It is functionalized to estimate the transformation matrix.
なお、学習済みモデルM1が畳み込みニューラルネットワーク(CNN)により構成されるものとして説明したが、モデル生成機能34dは、全結合ニューラルネットワークや、再帰型ニューラルネットワーク(Recurrent Neural Network:RNN)等の他種のニューラルネットワークにより学習済みモデルM1を構成してもよい。また、モデル生成機能34dは、ニューラルネットワーク以外の機械学習手法により、学習済みモデルM1を生成してもよい。例えば、モデル生成機能34dは、ロジスティック(Logistic)回帰分析、非線形判別分析、サポートベクターマシン(Support Vector Machine:SVM)、ランダムフォレスト(Random Forest)、ナイーブベイズ(Naive Bayes)等のアルゴリズムを用いて機械学習を行ない、学習済みモデルM1を生成することとしても構わない。 Although the trained model M1 has been described as being composed of a convolutional neural network (CNN), the model generation function 34d has other types such as a fully coupled neural network and a recurrent neural network (RNN). The trained model M1 may be constructed by the neural network of. Further, the model generation function 34d may generate the trained model M1 by a machine learning method other than the neural network. For example, the model generation function 34d uses algorithms such as logistic regression analysis, nonlinear discriminant analysis, support vector machine (SVM), random forest (Random Forest), and naive bayes (Naive Bayes). It may be possible to perform training and generate a trained model M1.
また、モデル生成機能34dは、複数種類の学習済みモデルM1を生成することとしても構わない。例えば、モデル生成機能34dは、血管や臓器といった部位ごとに、学習済みモデルM1を生成してもよい。また、例えば、モデル生成機能34dは、3次元X線画像に基づく3次元データを学習データとして用いた学習済みモデルM11、X線CT画像に基づく3次元データを学習データとして用いた学習済みモデルM12、MRI画像に基づく3次元データを学習データとして用いた学習済みモデルM13等をそれぞれ生成してもよい。 Further, the model generation function 34d may generate a plurality of types of trained models M1. For example, the model generation function 34d may generate a trained model M1 for each site such as a blood vessel or an organ. Further, for example, the model generation function 34d has a trained model M11 using 3D data based on a 3D X-ray image as training data, and a trained model M12 using 3D data based on an X-ray CT image as training data. , A trained model M13 or the like using three-dimensional data based on an MRI image as training data may be generated.
制御機能34aは、生成された学習済みモデルM1をメモリ33に記憶させる。その後、被検体P1又は他の被検体について2次元X線画像と3次元データとの合成表示を行なう際、表示制御機能34bは、学習済みモデルM1をメモリ33から読み出して使用することができる。
The control function 34a stores the generated trained model M1 in the memory 33. After that, when the two-dimensional X-ray image and the three-dimensional data are combined and displayed for the subject P1 or another subject, the
以下、図6を参照して、学習済みモデルM1を用いて2次元X線画像と3次元データとの合成表示を行なう場合の処理について説明する。図6は、第1の実施形態に係る医用情報処理装置30の処理の一連の流れを説明するためのフローチャートである。なお、図6においては、被検体P1と異なる被検体P2について、2次元X線画像I12と3次元データD12との合成表示を行なうものとして説明する。3次元データD12は、例えば、被検体P2から収集された3次元医用画像に基づいて生成される。また、2次元X線画像I12は、例えば、被検体P2に対する手技において、X線診断装置10によって経時的に収集される。
Hereinafter, processing in the case of performing a composite display of a two-dimensional X-ray image and three-dimensional data using the trained model M1 will be described with reference to FIG. FIG. 6 is a flowchart for explaining a series of processes of the medical information processing apparatus 30 according to the first embodiment. In FIG. 6, the subject P2 different from the subject P1 will be described as a composite display of the two-dimensional X-ray image I12 and the three-dimensional data D12. The 3D data D12 is generated, for example, based on a 3D medical image collected from the subject P2. Further, the two-dimensional X-ray image I12 is collected over time by the X-ray
まず、表示制御機能34bは、3次元データD12の状態を取得し(ステップS201)、学習済みモデルM1をメモリ33から読み出す。例えば、表示制御機能34bは、3次元データD12の状態として、3次元データD12が示す部位や、3次元データD12の生成に使用した3次元医用画像の種別等の情報を取得する。そして、表示制御機能34bは、3次元データD12の状態に応じた学習済みモデルM1をメモリ33から読み出す。
First, the
次に、表示制御機能34bは、3次元データD12及び2次元X線画像I12を学習済みモデルM1に対して入力する(ステップS202)。ここで、学習済みモデルM1は、2次元X線画像I12に対して3次元データD12を適切に配置するための変換行列を推定して出力する。次に、表示制御機能34bは、学習済みモデルM1から出力された変換行列を3次元データD12に適用することで、3次元データD12に基づく画像を生成する(ステップS203)。そして、表示制御機能34bは、3次元データD12に基づく画像と2次元X線画像I12とを合成した合成画像をディスプレイ32に表示させる(ステップS204)。即ち、表示制御機能34bは、学習済みモデルM1に対して3次元データD12及び2次元X線画像I12を入力し、2次元X線画像I12に対する3次元データD12の配置の調整結果の出力を受けて、3次元データD12に基づく画像と2次元X線画像I12とを合成した合成画像を表示させる。
Next, the
次に、表示制御機能34bは、合成画像の表示を継続するか否かを判定する(ステップS205)。ここで、表示を継続する場合(ステップS205肯定)、表示制御機能34bは、再度ステップS204に移行する。
Next, the
なお、合成画像の表示を継続している間において、天板104やCアーム105の移動・回転をユーザが指示する場合がある。例えば、ユーザは、手技における注目部位を別角度で観察するため、アーム105を回転させて2次元X線画像の撮影角度を変化させる場合がある。このような場合、表示制御機能34bは、撮影角度の変化に応じて3次元データD12を回転移動させ、ディスプレイ32に表示させる合成画像を更新することができる。
While continuing to display the composite image, the user may instruct the movement / rotation of the
例えば、X線診断装置10は、撮影システムにおける座標系の情報を2次元X線画像I12に付帯させた状態で、医用情報処理装置30に送信する。ここで、座標系の情報とは、例えば天板104やCアーム105等、撮影位置や撮影角度を制御する機械系の制御情報である。表示制御機能34bは、2次元X線画像I12に付帯した座標系の情報に基づいて、合成画像を更新することができる。例えば、アーム105を回転する制御が行なわれた場合、表示制御機能34bは、座標系の情報に基づき、アーム105の回転量に応じて3次元データD12を回転移動させる。そして、表示制御機能34bは、回転移動後の3次元データD12に基づく画像と2次元X線画像I12とを合成した合成画像を、ディスプレイ32に表示させる。
For example, the X-ray
即ち、手技中に2次元X線画像I12の撮影位置や撮影角度が変化した場合において学習済みモデルM1を繰り返し使用する必要はなく、表示制御機能34bは、座標系の情報に基づいて2次元X線画像I12に対する3次元データD12の配置を再調整し、合成画像を迅速に更新することができる。
That is, it is not necessary to repeatedly use the trained model M1 when the shooting position or shooting angle of the two-dimensional X-ray image I12 changes during the procedure, and the
なお、被検体P2の体動があった場合等、座標系の情報に基づいて配置の再調整を行なうことができないケースも想定される。このような場合においては、表示制御機能34bは、ステップS202に再度移行し、学習済みモデルM1を使用して、2次元X線画像I12に対する3次元データD12の配置を再調整することができる。例えば、医用情報処理装置30は、再調整用のボタンを有する。また、ユーザは、被検体P2の体動があったと判断した場合に、再調整用のボタンを押下する。そして、再調整用のボタンが押下された場合、表示制御機能34bは、学習済みモデルM1を使用した再調整を実行する。
In addition, it is assumed that the arrangement cannot be readjusted based on the information in the coordinate system, such as when the subject P2 moves. In such a case, the
上述したように、第1の実施形態によれば、表示制御機能34bは、3次元データに基づく画像と2次元X線画像とを合成した合成画像を表示させる。また、受付機能34cは、合成画像を参照したユーザから、2次元X線画像に対する3次元データの配置を調整する調整操作を受け付ける。また、制御機能34aは、3次元データと、2次元X線画像と、受付機能34cが受け付けた調整操作の結果とをメモリ33に保存させる。これにより、医用情報処理装置30は、2次元X線画像に対する3次元データの配置を調整する学習済みモデルM1について適切な学習を行なわせることを可能とし、合成表示の精度を向上させることができる。
As described above, according to the first embodiment, the
即ち、解剖学的特徴点を抽出して位置合わせを行なう場合等、一定のルールで、3次元データと2次元X線画像との位置合わせを精度良く行なうことは難しい。例えば、2次元画像同士の位置合わせでは奥行方向を考慮する必要がなく、縦及び横の2方向のみ調整すればよいため、一定のルールでの位置合わせを行なう場合でも高い精度を担保することが可能である。また、例えば、3次元画像同士の位置合わせでは、各画像が3次元の情報を有しているため、一定のルールでの位置合わせを行なう場合でも高い精度を担保することが可能である。これに対し、3次元データと2次元X線画像との位置合わせでは、2次元X線画像に対する3次元データの奥行方向の位置を推定する必要があり、位置合わせの精度を担保することは容易でない。また、医師や技師等のユーザであれば、感覚や経験に基づいて、2次元X線画像と3次元データとの位置合わせを適当に行なうことが可能である。しかしながら、合成表示を行なうごと手動位置合わせを行なうことは、ユーザにとって負担となる。 That is, it is difficult to accurately align the 3D data and the 2D X-ray image with certain rules, such as when extracting anatomical feature points and performing alignment. For example, when aligning two-dimensional images, it is not necessary to consider the depth direction, and only two directions, vertical and horizontal, need to be adjusted. Therefore, high accuracy can be ensured even when alignment is performed according to certain rules. It is possible. Further, for example, in the alignment of three-dimensional images, since each image has three-dimensional information, it is possible to ensure high accuracy even when the alignment is performed according to a certain rule. On the other hand, in the alignment between the 3D data and the 2D X-ray image, it is necessary to estimate the position of the 3D data in the depth direction with respect to the 2D X-ray image, and it is easy to guarantee the accuracy of the alignment. Not. Further, a user such as a doctor or a technician can appropriately align the two-dimensional X-ray image and the three-dimensional data based on his / her sense and experience. However, it is a burden for the user to perform manual alignment every time the composite display is performed.
これに対し、第1の実施形態に係る医用情報処理装置30によれば、ユーザによる手動位置合わせの結果を、学習データとして収集することができる。ひいては、医用情報処理装置30は、ユーザの感覚や経験を学習済みモデルM1に学習させ、一定ルールの位置合わせ処理では得られない高い精度で、3次元データと2次元X線画像との位置合わせを実現することができる。 On the other hand, according to the medical information processing apparatus 30 according to the first embodiment, the result of manual alignment by the user can be collected as learning data. As a result, the medical information processing apparatus 30 trains the trained model M1 on the user's feelings and experiences, and aligns the 3D data with the 2D X-ray image with high accuracy that cannot be obtained by the alignment processing of a certain rule. Can be realized.
また、医用情報処理装置30は、位置合わせの精度を向上させることで、被ばく量の低減を実現することができる。例えば、3次元データと2次元X線画像とが適切に位置合わせされていない場合、ユーザは、ディスプレイ32に表示された2次元X線画像を参照しつつ、手動で3次元データを位置合わせする。これに対し、位置合わせが十分に高い精度で実現されれば、手動での位置合わせを行なう機会は減少すると言える。そして、手動での位置合わせを行なうための2次元X線画像を収集する必要がなくなり、2次元X線画像の収集枚数が減少することで、被ばく量を低減することができる。 In addition, the medical information processing apparatus 30 can reduce the exposure dose by improving the alignment accuracy. For example, if the 3D data and the 2D X-ray image are not properly aligned, the user manually aligns the 3D data while referring to the 2D X-ray image displayed on the display 32. .. On the other hand, if the alignment is realized with sufficiently high accuracy, it can be said that the opportunity for manual alignment is reduced. Then, it is not necessary to collect two-dimensional X-ray images for manual positioning, and the number of collected two-dimensional X-ray images is reduced, so that the exposure amount can be reduced.
また、学習済みモデルM1を生成した後、3次元データと2次元X線画像との位置合わせは、学習済みモデルM1に対して3次元データ及び2次元X線画像とを入力することで実現される。即ち、医用情報処理装置30は、例えば位置ずれ検知や描画処理などの複雑な処理を行なうことなく、高い精度での位置合わせを実現することができる。従って、医用情報処理装置30は、2次元X線画像と3次元データとの合成表示を行なう際の計算コストを低減することができる。 Further, after the trained model M1 is generated, the alignment between the 3D data and the 2D X-ray image is realized by inputting the 3D data and the 2D X-ray image to the trained model M1. To. That is, the medical information processing apparatus 30 can realize highly accurate positioning without performing complicated processing such as position shift detection and drawing processing. Therefore, the medical information processing apparatus 30 can reduce the calculation cost when performing the combined display of the two-dimensional X-ray image and the three-dimensional data.
(第2の実施形態)
さて、これまで第1の実施形態について説明したが、上述した実施形態以外にも、種々の異なる形態にて実施されてよいものである。
(Second embodiment)
By the way, although the first embodiment has been described so far, various different embodiments may be implemented in addition to the above-described embodiment.
例えば、上述した実施形態では、調整操作の結果の一例として変換行列について説明した。例えば、図3において、制御機能34aは、受付機能34cが受け付けた調整操作の結果として変換行列A’を取得し、メモリ33に保存させるものと説明した。しかしながら、実施形態はこれに限定されるものではない。例えば、制御機能34aは、受付機能34cが受け付けた調整操作の結果として、図3の合成画像I41をメモリ33に保存させてもよい。即ち、制御機能34aは、ユーザによって調整され3次元データの配置に応じて生成された合成画像を、調整操作の結果としてメモリ33に保存させてもよい。この場合、学習済みモデルM1は、例えば、合成画像I41を出力側データ(Output)としてニューラルネットワークを学習させることにより生成される。 For example, in the above-described embodiment, the transformation matrix has been described as an example of the result of the adjustment operation. For example, in FIG. 3, it has been described that the control function 34a acquires the transformation matrix A'as a result of the adjustment operation received by the reception function 34c and stores it in the memory 33. However, the embodiments are not limited to this. For example, the control function 34a may store the composite image I41 of FIG. 3 in the memory 33 as a result of the adjustment operation received by the reception function 34c. That is, the control function 34a may store the composite image adjusted by the user and generated according to the arrangement of the three-dimensional data in the memory 33 as a result of the adjustment operation. In this case, the trained model M1 is generated, for example, by training the neural network using the composite image I41 as output side data (Autoput).
また、上述した実施形態において、制御機能34aは、3次元データと、2次元X線画像と、受付機能34cが受け付けた調整操作の結果とをメモリ33に保存させるものとして説明した。即ち、上述した実施形態では、3次元データと2次元X線画像と調整操作の結果とを保存する記憶部の一例として、メモリ33について説明した。しかしながら、実施形態はこれに限定されるものではない。例えば、制御機能34aは、ネットワークNWを介して接続された外部装置に、3次元データと2次元X線画像と調整操作の結果とを保存させることとしても構わない。かかる外部装置は、記憶部の一例である。 Further, in the above-described embodiment, the control function 34a has been described as storing the three-dimensional data, the two-dimensional X-ray image, and the result of the adjustment operation received by the reception function 34c in the memory 33. That is, in the above-described embodiment, the memory 33 has been described as an example of a storage unit that stores three-dimensional data, a two-dimensional X-ray image, and the result of an adjustment operation. However, the embodiments are not limited to this. For example, the control function 34a may store the three-dimensional data, the two-dimensional X-ray image, and the result of the adjustment operation in an external device connected via the network NW. Such an external device is an example of a storage unit.
また、上述した実施形態において、制御機能34aは、学習済みモデルM1をメモリ33に保存させるものとして説明した。即ち、上述した実施形態では、学習済みモデルM1を保存するモデル記憶部の一例として、メモリ33について説明した。しかしながら、実施形態はこれに限定されるものではない。例えば、制御機能34aは、ネットワークNWを介して接続された外部装置に、学習済みモデルM1を保存させることとしても構わない。かかる外部装置は、モデル記憶部の一例である。 Further, in the above-described embodiment, the control function 34a has been described as storing the trained model M1 in the memory 33. That is, in the above-described embodiment, the memory 33 has been described as an example of the model storage unit that stores the trained model M1. However, the embodiments are not limited to this. For example, the control function 34a may store the trained model M1 in an external device connected via the network NW. Such an external device is an example of a model storage unit.
また、図1においては単一のメモリ33を示したが、複数のメモリ33を分散して配置することとしても構わない。例えば、医用情報処理装置30は、メモリ33として、第1のメモリ331と、第2のメモリ332と、第3のメモリ333とを備える。ここで、第1のメモリ331は、例えば、医用情報処理装置30に含まれる回路がその機能を実現するためのプログラムを保存する。また、第2のメモリ332は、制御機能34aによる制御の下、3次元データと、2次元X線画像と、受付機能34cが受け付けた調整操作の結果とを保存する。また、第3のメモリ333は、制御機能34aによる制御の下、学習済みモデルM1を保存する。かかる場合において、第2のメモリ332は、記憶部の一例である。また、第3のメモリ333は、モデル記憶部の一例である。 Further, although a single memory 33 is shown in FIG. 1, a plurality of memories 33 may be distributed and arranged. For example, the medical information processing apparatus 30 includes a first memory 331, a second memory 332, and a third memory 333 as the memory 33. Here, the first memory 331 stores, for example, a program for the circuit included in the medical information processing apparatus 30 to realize its function. Further, the second memory 332 stores the three-dimensional data, the two-dimensional X-ray image, and the result of the adjustment operation accepted by the reception function 34c under the control of the control function 34a. Further, the third memory 333 stores the trained model M1 under the control of the control function 34a. In such a case, the second memory 332 is an example of the storage unit. Further, the third memory 333 is an example of the model storage unit.
また、上述した実施形態では、学習済みモデルM1の生成処理を、医用情報処理装置30のモデル生成機能34dが実行するものとして説明した。しかしながら、実施形態はこれに限定されるものではない。例えば、学習済みモデルM1は、図示しない他の装置において生成されても構わない。この場合、制御機能34aは、ネットワークNWを介して学習済みモデルM1を取得し、メモリ33等のモデル記憶部に保存させることができる。 Further, in the above-described embodiment, the generation process of the trained model M1 has been described as being executed by the model generation function 34d of the medical information processing apparatus 30. However, the embodiments are not limited to this. For example, the trained model M1 may be generated in another device (not shown). In this case, the control function 34a can acquire the trained model M1 via the network NW and store it in a model storage unit such as a memory 33.
また、上述した実施形態では、医用情報処理装置30が合成画像の表示を行なうものとして説明した。しかしながら、実施形態はこれに限定されるものではない。例えば、上述した制御機能34a、表示制御機能34b、受付機能34c、モデル生成機能34dに相当する機能を、X線診断装置10の処理回路110が実行しても構わない。以下、この点について図7を用いて説明する。図7は、第2の実施形態に係るX線診断装置10の構成の一例を示すブロック図である。図7に示すように、処理回路110は、制御機能110a、表示制御機能110b、収集機能110c、受付機能110d、及びモデル生成機能110eを実行する。なお、受付機能110dは、受付部の一例である。また、モデル生成機能110eは、モデル生成部の一例である。
Further, in the above-described embodiment, the medical information processing apparatus 30 has been described as displaying a composite image. However, the embodiments are not limited to this. For example, the
例えば、表示制御機能110bは、まず、3次元データD11に基づく画像と2次元X線画像I11とを合成した合成画像をディスプレイ108に表示させる。次に、受付機能110dは、合成画像を参照したユーザから、2次元X線画像I11に対する3次元データD11の配置を調整する調整操作を受け付ける。次に、制御機能110aは、3次元データD11と、2次元X線画像I11と、受付機能110dが受け付けた調整操作の結果とを、メモリ109に保存させる。そして、モデル生成機能110eは、3次元データD11と2次元X線画像I11と調整操作の結果とを学習データとした機械学習を実行することにより、学習済みモデルM1を生成する。
For example, the
また、制御機能110aは、学習済みモデルM1を、例えば、メモリ109に保存させる。その後、収集機能110cは、2次元X線画像I12を収集する。例えば、図7に示す被検体P1に代えて被検体P2が天板104に載置され、収集機能110cは、被検体P2から2次元X線画像I12を収集する。また、表示制御機能110bは、メモリ109から学習済みモデルM1を読み出し、学習済みモデルM1に対して、3次元データD12及び2次元X線画像I12を入力する。ここで、学習済みモデルM1は、2次元X線画像I12に対する3次元データD12の配置の調整結果を出力する。また、表示制御機能110bは、学習済みモデルM1からの出力を受けて3次元データD12に基づく画像を生成し、2次元X線画像I12と合成して、合成画像をディスプレイ108に表示させる。
Further, the
上記説明において用いた「プロセッサ」という文言は、例えば、CPU、GPU(Graphics Processing Unit)、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサが例えばCPUである場合、プロセッサは記憶回路に保存されたプログラムを読み出し実行することで機能を実現する。一方、プロセッサが例えばASICである場合、記憶回路にプログラムを保存する代わりに、当該機能がプロセッサの回路内に論理回路として直接組み込まれる。なお、実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて1つのプロセッサとして構成し、その機能を実現するようにしてもよい。さらに、各図における複数の構成要素を1つのプロセッサへ統合してその機能を実現するようにしてもよい。 The term "processor" used in the above description refers to, for example, a CPU, a GPU (Graphics Processing Unit), an integrated circuit for a specific application (Application Specific Integrated Circuit: ASIC), a programmable logic device (for example, a simple programmable logic device (Simple Program)). It means a circuit such as a Logic Device (SPLD), a composite programmable logic device (Complex Programmable Logic Device: CPLD), and a field programmable gate array (Field Programmable Gate Array: FPGA). When the processor is, for example, a CPU, the processor realizes a function by reading and executing a program stored in a storage circuit. On the other hand, when the processor is, for example, an ASIC, the function is directly incorporated as a logic circuit in the circuit of the processor instead of storing the program in the storage circuit. It should be noted that each processor of the embodiment is not limited to the case where each processor is configured as a single circuit, and a plurality of independent circuits may be combined to form one processor to realize its function. .. Further, a plurality of components in each figure may be integrated into one processor to realize the function.
また、図1においては、単一のメモリ33が処理回路34の各処理機能に対応するプログラムを記憶するものとして説明した。また、図2及び図7においては、単一のメモリ109が処理回路110の各処理機能に対応するプログラムを記憶するものとして説明した。しかしながら、実施形態はこれに限定されるものではない。例えば、複数のメモリ33を分散して配置し、処理回路34は、個別のメモリ33から対応するプログラムを読み出す構成としても構わない。同様に、複数のメモリ109を分散して配置し、処理回路110は、個別のメモリ109から対応するプログラムを読み出す構成としても構わない。また、メモリにプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。
Further, in FIG. 1, a single memory 33 has been described as storing a program corresponding to each processing function of the processing circuit 34. Further, in FIGS. 2 and 7, a
上述した実施形態に係る各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。即ち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。更に、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現されうる。 Each component of each device according to the above-described embodiment is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of them may be functionally or physically distributed / physically in arbitrary units according to various loads and usage conditions. Can be integrated and configured. Further, each processing function performed by each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.
また、上述した実施形態で説明した医用情報処理方法は、予め用意されたプログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することによって実現することができる。このプログラムは、インターネット等のネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO、DVD等のコンピュータで読み取り可能な非一過性の記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。 Further, the medical information processing method described in the above-described embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. This program can be distributed via a network such as the Internet. Further, this program is recorded on a non-transient recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, or a DVD that can be read by a computer, and is executed by being read from the recording medium by the computer. You can also do it.
以上説明した少なくとも1つの実施形態によれば、2次元X線画像と3次元データとの合成表示の精度を向上させることができる。 According to at least one embodiment described above, the accuracy of the combined display of the two-dimensional X-ray image and the three-dimensional data can be improved.
いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、実施形態同士の組み合わせを行なうことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although some embodiments have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other embodiments, and various omissions, replacements, changes, and combinations of embodiments can be made without departing from the gist of the invention. These embodiments and variations thereof are included in the scope of the invention described in the claims and the equivalent scope thereof, as are included in the scope and gist of the invention.
1 医用情報処理システム
10 X線診断装置
110 処理回路
110a 制御機能
110b 表示制御機能
110c 収集機能
110d 受付機能
110e モデル生成機能
30 医用情報処理装置
34 処理回路
34a 制御機能
34b 表示制御機能
34c 受付機能
34d モデル生成機能
1 Medical
Claims (10)
前記合成画像を参照したユーザから、前記2次元X線画像に対する前記3次元データの配置を調整する調整操作を受け付ける受付部と、
前記3次元データと、前記2次元X線画像と、前記調整操作の結果とを記憶部に保存させる制御部と
を備える、医用情報処理装置。 A display control unit that displays a composite image that combines an image based on 3D data and a 2D X-ray image,
A reception unit that receives an adjustment operation for adjusting the arrangement of the three-dimensional data with respect to the two-dimensional X-ray image from a user who has referred to the composite image.
A medical information processing apparatus including a control unit that stores the three-dimensional data, the two-dimensional X-ray image, and the result of the adjustment operation in a storage unit.
前記学習済みモデルに対して3次元データ及び2次元X線画像を入力し、当該2次元X線画像に対する当該3次元データの配置の調整結果の出力を受けて、当該3次元データに基づく画像と当該2次元X線画像とを合成した合成画像を表示させる表示制御部と、
を備える、医用情報処理装置。 A model storage unit that stores a trained model functionalized to adjust the placement of the input 3D data with respect to the input 2D X-ray image based on the input 3D data and the input 2D X-ray image.
The 3D data and the 2D X-ray image are input to the trained model, the adjustment result of the arrangement of the 3D data with respect to the 2D X-ray image is output, and the image is based on the 3D data. A display control unit that displays a composite image that is a composite of the two-dimensional X-ray image,
A medical information processing device.
3次元データに基づく画像と前記2次元X線画像とを合成した合成画像を表示させる表示制御部と、
前記合成画像を参照したユーザから、前記2次元X線画像に対する前記3次元データの配置を調整する調整操作を受け付ける受付部と、
前記3次元データと、前記2次元X線画像と、前記調整操作の結果とを記憶部に保存させる制御部と
を備える、X線診断装置。 A collection unit that collects 2D X-ray images,
A display control unit that displays a composite image that combines an image based on 3D data and the 2D X-ray image.
A reception unit that receives an adjustment operation for adjusting the arrangement of the three-dimensional data with respect to the two-dimensional X-ray image from a user who has referred to the composite image.
An X-ray diagnostic apparatus including a control unit that stores the three-dimensional data, the two-dimensional X-ray image, and the result of the adjustment operation in a storage unit.
2次元X線画像を収集する収集部と、
前記学習済みモデルに対して3次元データ及び前記2次元X線画像を入力し、当該2次元X線画像に対する当該3次元データの配置の調整結果の出力を受けて、当該3次元データに基づく画像と当該2次元X線画像とを合成した合成画像を表示させる表示制御部と、
を備える、X線診断装置。 A model storage unit that stores a trained model functionalized to adjust the placement of the input 3D data with respect to the input 2D X-ray image based on the input 3D data and the input 2D X-ray image.
A collection unit that collects 2D X-ray images,
The 3D data and the 2D X-ray image are input to the trained model, the adjustment result of the arrangement of the 3D data with respect to the 2D X-ray image is output, and the image based on the 3D data is received. And a display control unit that displays a composite image that combines the two-dimensional X-ray image and
X-ray diagnostic device.
前記合成画像を参照したユーザから、前記2次元X線画像に対する前記3次元データの配置を調整する調整操作を受け付け、
前記3次元データと、前記2次元X線画像と、前記調整操作の結果とを記憶部に保存させる
各処理をコンピュータに実行させる、プログラム。 Display a composite image that combines an image based on 3D data and a 2D X-ray image.
The user who referred to the composite image receives an adjustment operation for adjusting the arrangement of the three-dimensional data with respect to the two-dimensional X-ray image.
A program for causing a computer to execute each process of storing the three-dimensional data, the two-dimensional X-ray image, and the result of the adjustment operation in a storage unit.
前記学習済みモデルに対して3次元データ及び2次元X線画像を入力し、当該2次元X線画像に対する当該3次元データの配置の調整結果の出力を受けて、当該3次元データに基づく画像と当該2次元X線画像とを合成した合成画像を表示させる
各処理をコンピュータに実行させる、プログラム。 A trained model functionalized to adjust the arrangement of the input 3D data with respect to the input 2D X-ray image based on the input 3D data and the input 2D X-ray image is read from the model storage unit.
The 3D data and the 2D X-ray image are input to the trained model, the adjustment result of the arrangement of the 3D data with respect to the 2D X-ray image is output, and the image is based on the 3D data. A program that causes a computer to execute each process to display a composite image that is a composite of the two-dimensional X-ray image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020090854A JP7568426B2 (en) | 2020-05-25 | 2020-05-25 | Medical information processing device, X-ray diagnostic device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020090854A JP7568426B2 (en) | 2020-05-25 | 2020-05-25 | Medical information processing device, X-ray diagnostic device, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021185969A true JP2021185969A (en) | 2021-12-13 |
JP7568426B2 JP7568426B2 (en) | 2024-10-16 |
Family
ID=78850079
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020090854A Active JP7568426B2 (en) | 2020-05-25 | 2020-05-25 | Medical information processing device, X-ray diagnostic device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7568426B2 (en) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080037702A1 (en) * | 2002-04-05 | 2008-02-14 | Jean-Noel Vallee | Real-Time Navigational Aid System for Radiography |
JP2010035940A (en) * | 2008-08-07 | 2010-02-18 | Toshiba Corp | Medical image display apparatus |
US20110052033A1 (en) * | 2007-12-07 | 2011-03-03 | University Of Maryland, Baltimore | Composite images for medical procedures |
JP2012515964A (en) * | 2009-01-22 | 2012-07-12 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Pixel future hybrid fusion for PET / CT images |
JP2017202583A (en) * | 2016-05-09 | 2017-11-16 | 東芝メディカルシステムズ株式会社 | Medical information processor |
JP2017202307A (en) * | 2016-05-09 | 2017-11-16 | 東芝メディカルシステムズ株式会社 | Medical imaging diagnostic apparatus and medical information management apparatus |
JP2019076192A (en) * | 2017-10-20 | 2019-05-23 | 株式会社島津製作所 | Radiographic apparatus |
JP2020005785A (en) * | 2018-07-05 | 2020-01-16 | キヤノンメディカルシステムズ株式会社 | Medical information processing system, medical information processing apparatus, and ultrasonic diagnostic apparatus |
JP2020058779A (en) * | 2018-09-19 | 2020-04-16 | シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング | Method for supporting user, computer program product, data storage medium, and imaging system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5587614B2 (en) | 2010-01-13 | 2014-09-10 | 富士フイルム株式会社 | MEDICAL IMAGE DISPLAY DEVICE AND METHOD, AND PROGRAM |
DE102010022266A1 (en) | 2010-05-31 | 2011-12-01 | Siemens Aktiengesellschaft | Method for registering e.g. two-dimensional medical image data of thorax of patient before therapeutic interventions, involves registering image data on another image data using selected registration parameter set |
JP6129310B2 (en) | 2013-06-06 | 2017-05-17 | 株式会社日立製作所 | Image processing apparatus and image processing method |
-
2020
- 2020-05-25 JP JP2020090854A patent/JP7568426B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080037702A1 (en) * | 2002-04-05 | 2008-02-14 | Jean-Noel Vallee | Real-Time Navigational Aid System for Radiography |
US20110052033A1 (en) * | 2007-12-07 | 2011-03-03 | University Of Maryland, Baltimore | Composite images for medical procedures |
JP2010035940A (en) * | 2008-08-07 | 2010-02-18 | Toshiba Corp | Medical image display apparatus |
JP2012515964A (en) * | 2009-01-22 | 2012-07-12 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Pixel future hybrid fusion for PET / CT images |
JP2017202583A (en) * | 2016-05-09 | 2017-11-16 | 東芝メディカルシステムズ株式会社 | Medical information processor |
JP2017202307A (en) * | 2016-05-09 | 2017-11-16 | 東芝メディカルシステムズ株式会社 | Medical imaging diagnostic apparatus and medical information management apparatus |
JP2019076192A (en) * | 2017-10-20 | 2019-05-23 | 株式会社島津製作所 | Radiographic apparatus |
JP2020005785A (en) * | 2018-07-05 | 2020-01-16 | キヤノンメディカルシステムズ株式会社 | Medical information processing system, medical information processing apparatus, and ultrasonic diagnostic apparatus |
JP2020058779A (en) * | 2018-09-19 | 2020-04-16 | シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング | Method for supporting user, computer program product, data storage medium, and imaging system |
Also Published As
Publication number | Publication date |
---|---|
JP7568426B2 (en) | 2024-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7098485B2 (en) | Virtual alignment image used for imaging | |
US7933380B2 (en) | Radiation systems and methods using deformable image registration | |
JP2019030637A (en) | Variable-distance imaging | |
US8184765B2 (en) | Radiography apparatus | |
JP7262933B2 (en) | Medical information processing system, medical information processing device, radiological diagnostic device, ultrasonic diagnostic device, learning data production method and program | |
US11883206B2 (en) | Personalized breast imaging system | |
JP2016198262A (en) | X-ray diagnostic apparatus | |
JP4901159B2 (en) | X-ray CT apparatus and X-ray imaging method | |
US11730438B2 (en) | Positional information acquisition device, positional information acquisition method, positional information acquisition program, and radiography apparatus | |
JP2008029828A (en) | Medical image diagnosis device, and control method and program for the same | |
CN114502075B (en) | User interface for X-ray tube detector calibration | |
JP2020156823A (en) | Imaging support apparatus, method, and program | |
JP7568426B2 (en) | Medical information processing device, X-ray diagnostic device, and program | |
US20190239859A1 (en) | Medical image diagnostic apparatus and x-ray irradiation controller | |
JP7341667B2 (en) | Medical image processing equipment, X-ray diagnostic equipment, and medical information processing systems | |
JP7225008B2 (en) | medical image processor | |
JP7019377B2 (en) | Medical diagnostic imaging equipment, treatment planning system and radiation therapy support program | |
JP2020192274A (en) | Medical processing apparatus and radiotherapy apparatus | |
US20240362782A1 (en) | Medical image processing device, treatment system, medical image processing method, and storage medium | |
JP7267727B2 (en) | X-ray diagnostic equipment | |
US11801019B2 (en) | Positional information display device, positional information display method, positional information display program, and radiography apparatus | |
JP2024002127A (en) | Medical information processing device, medical image diagnosis system, and program | |
JP2020188991A (en) | Medical image processor, medical image processing program, x-ray diagnostic device, and x-ray diagnostic system | |
JP2020099583A (en) | Medical information processing apparatus and X-ray diagnostic apparatus | |
JP2021133036A (en) | Medical image processing apparatus, x-ray diagnostic apparatus and medical image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230325 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231013 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240605 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240731 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240904 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20241003 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7568426 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |