JP2020188991A - Medical image processor, medical image processing program, x-ray diagnostic device, and x-ray diagnostic system - Google Patents
Medical image processor, medical image processing program, x-ray diagnostic device, and x-ray diagnostic system Download PDFInfo
- Publication number
- JP2020188991A JP2020188991A JP2019097046A JP2019097046A JP2020188991A JP 2020188991 A JP2020188991 A JP 2020188991A JP 2019097046 A JP2019097046 A JP 2019097046A JP 2019097046 A JP2019097046 A JP 2019097046A JP 2020188991 A JP2020188991 A JP 2020188991A
- Authority
- JP
- Japan
- Prior art keywords
- image
- reconstructed image
- timing
- data set
- projection data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000002872 contrast media Substances 0.000 claims abstract description 39
- 230000009467 reduction Effects 0.000 claims abstract description 31
- 238000012545 processing Methods 0.000 claims description 118
- 230000033001 locomotion Effects 0.000 claims description 99
- 238000003384 imaging method Methods 0.000 claims description 93
- 206010028980 Neoplasm Diseases 0.000 claims description 67
- 230000017531 blood circulation Effects 0.000 claims description 8
- 231100000588 tumorigenic Toxicity 0.000 claims description 3
- 230000000381 tumorigenic effect Effects 0.000 claims description 3
- 208000005623 Carcinogenesis Diseases 0.000 claims 1
- 230000036952 cancer formation Effects 0.000 claims 1
- 231100000504 carcinogenesis Toxicity 0.000 claims 1
- 230000006870 function Effects 0.000 description 58
- 238000000034 method Methods 0.000 description 37
- 210000004185 liver Anatomy 0.000 description 33
- 230000008569 process Effects 0.000 description 27
- 238000010586 diagram Methods 0.000 description 26
- 238000010801 machine learning Methods 0.000 description 19
- 238000012549 training Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 12
- 239000011159 matrix material Substances 0.000 description 12
- 238000010186 staining Methods 0.000 description 12
- 201000011510 cancer Diseases 0.000 description 11
- 241001669679 Eleotris Species 0.000 description 8
- 201000007270 liver cancer Diseases 0.000 description 7
- 208000014018 liver neoplasm Diseases 0.000 description 7
- 238000003745 diagnosis Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000002601 radiography Methods 0.000 description 4
- 206010006322 Breath holding Diseases 0.000 description 3
- 230000036772 blood pressure Effects 0.000 description 2
- 230000037237 body shape Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 238000013170 computed tomography imaging Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 210000003484 anatomy Anatomy 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000002526 effect on cardiovascular system Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005748 tumor development Effects 0.000 description 1
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Description
本発明の実施形態は、医用画像処理装置、医用画像処理プログラム、X線診断装置及びX線診断システムに関する。 Embodiments of the present invention relate to a medical image processing apparatus, a medical image processing program, an X-ray diagnostic apparatus, and an X-ray diagnostic system.
X線循環器診断装置には肝臓内の癌などを診断するため、回転撮影を用いた多相撮影による観察技術がある。多相撮影では同一部位を2回以上撮影するため、被検体は撮影のたびに息止めしなければならない。被検体が特に高齢者である場合、息止が負担になり、息止不良によるモーションアーチファクトが再構成画像に発生してしまうことがある。 The X-ray circulatory organ diagnostic apparatus has an observation technique by polymorphic imaging using rotary imaging in order to diagnose cancer in the liver. In polyphasic imaging, the same site is photographed more than once, so the subject must hold his breath each time. When the subject is particularly elderly, breath-holding becomes a burden, and motion artifacts due to poor breath-holding may occur in the reconstructed image.
本発明が解決しようとする課題は、回転撮影を用いた多相撮影に伴うアーチファクトを効率的に低減することである。 An object to be solved by the present invention is to efficiently reduce artifacts associated with polymorphic imaging using rotary imaging.
実施形態に係る医用画像処理装置は、造影剤が注入された被検体に対して第1のタイミングで実行された回転撮影により生成される第1の投影データセットと、前記被検体に対して前記第1のタイミングとは異なる第2のタイミングで実行された回転撮影により生成される第2の投影データセットとを取得する取得部と、前記第1の投影データセットに基づいて第1の再構成画像を生成し、前記第2の投影データセットに基づいて第2の再構成画像を生成する再構成部と、前記第1の再構成画像と前記第2の再構成画像とに基づいて、前記第2のタイミングに対応し、前記第2の再構成画像よりもアーチファクトが低減された第3の再構成画像を生成する低減部と、を具備する。 The medical image processing apparatus according to the embodiment includes a first projection data set generated by rotational imaging performed at a first timing on a subject injected with a contrast agent, and the subject. An acquisition unit that acquires a second projection data set generated by rotation imaging executed at a second timing different from the first timing, and a first reconstruction based on the first projection data set. The reconstruction unit that generates an image and generates a second reconstruction image based on the second projection data set, and the first reconstruction image and the second reconstruction image. It includes a reduction unit that generates a third reconstructed image that corresponds to the second timing and has fewer artifacts than the second reconstructed image.
以下、図面を参照しながら本実施形態に係る医用画像処理装置、医用画像処理プログラム、X線診断装置及びX線診断システムを説明する。 Hereinafter, the medical image processing apparatus, the medical image processing program, the X-ray diagnostic apparatus, and the X-ray diagnostic system according to the present embodiment will be described with reference to the drawings.
本実施形態に係る医用画像処理装置は、X線診断装置により収集されるデータを処理するコンピュータである。本実施形態に係る医用画像処理装置は、X線診断装置に含まれるコンピュータでもよいし、X線診断装置とは別体のコンピュータでもよい。以下、医用画像処理装置は、X線診断装置に含まれるコンピュータであるとする。 The medical image processing apparatus according to the present embodiment is a computer that processes data collected by the X-ray diagnostic apparatus. The medical image processing apparatus according to the present embodiment may be a computer included in the X-ray diagnostic apparatus or a computer separate from the X-ray diagnostic apparatus. Hereinafter, the medical image processing apparatus is assumed to be a computer included in the X-ray diagnostic apparatus.
図1は、本実施形態に係るX線診断装置1の構成を示す図である。図1に示すように、X線診断装置1は、X線撮影部3とコンソール5とを有する。コンソール5は医用画像処理装置として機能する。例えば、X線撮影部3は撮影室に設置され、コンソール5は撮影室に隣接する制御室に設置される。 FIG. 1 is a diagram showing a configuration of an X-ray diagnostic apparatus 1 according to the present embodiment. As shown in FIG. 1, the X-ray diagnostic apparatus 1 has an X-ray photographing unit 3 and a console 5. The console 5 functions as a medical image processing device. For example, the X-ray imaging unit 3 is installed in an imaging room, and the console 5 is installed in a control room adjacent to the imaging room.
図1に示すように、X線撮影部3は、X線管保持装置10と寝台装置30とを有する。図1に示すように、X線管保持装置10は、X線管11とX線検出器13とを保持する機械装置である。X線管保持装置10としては、天井吊りタイプと床置きタイプとの何れでも良い。床置きタイプとしては、X線管11とX線検出器13とを装備するCアーム15を移動自在に保持する循環器撮影タイプが好適である。また、X線管保持装置10は、床置きタイプのX線管保持装置と天井吊りタイプのX線管保持装置との何れかを備えるシングルプレーン方式であっても良いし、床置きタイプのX線管保持装置と天井吊りタイプのX線管保持装置との両方を備えるバイプレーン方式の何れの方式でもよい。以下、X線管保持装置は、一例としてシングルプレーン方式の床置きタイプであるとする。 As shown in FIG. 1, the X-ray photographing unit 3 has an X-ray tube holding device 10 and a sleeper device 30. As shown in FIG. 1, the X-ray tube holding device 10 is a mechanical device that holds the X-ray tube 11 and the X-ray detector 13. The X-ray tube holding device 10 may be either a ceiling-mounted type or a floor-standing type. As the floor-standing type, a cardiovascular radiography type that movably holds the C-arm 15 equipped with the X-ray tube 11 and the X-ray detector 13 is preferable. Further, the X-ray tube holding device 10 may be a single plane type including either a floor-standing type X-ray tube holding device or a ceiling-suspended type X-ray tube holding device, or a floor-standing type X-ray tube holding device 10. Any biplane method including both a wire tube holding device and a ceiling-suspended type X-ray tube holding device may be used. Hereinafter, the X-ray tube holding device is assumed to be a single plane type floor-standing type as an example.
図2は、本実施形態に係るX線診断装置1のX線撮影部3の外観を示す図である。図1及び図2に示すように、X線管保持装置10は、例えば、X線管11、X線検出器13、Cアーム15及びCアーム保持系17を有している。X線管11は、高圧ケーブルを介して高電圧発生器12に接続されている。高電圧発生器12は、コンソール5のシステム制御回路56からの制御信号に応じて、X線に印加する高電圧を発生する。X線管11は、高電圧発生器12からの高電圧の印加を受けてX線を発生する。X線検出器13は、X線管11から発生されたX線を検出する。具体的には、X線検出器13は、2次元平面状に配列された複数の検出器画素と読出回路とA/D変換回路とを有するFPD(Flat Panel Detector)であるとする。各検出器画素は、X線管11から発生されたX線を検出し、検出されたX線の強度に応じた電気信号(検出信号)を生成する。読出回路は、複数の検出器画素から所定のタイミングで検出信号をフレーム単位で読み出す。A/D変換回路は、複数の検出器画素から読み出された検出信号をA/D変換し、被検体に関する投影データをフレーム単位で生成する。生成された投影データは、コンソール5の記憶装置52に伝送される。 FIG. 2 is a diagram showing the appearance of the X-ray imaging unit 3 of the X-ray diagnostic apparatus 1 according to the present embodiment. As shown in FIGS. 1 and 2, the X-ray tube holding device 10 includes, for example, an X-ray tube 11, an X-ray detector 13, a C arm 15, and a C arm holding system 17. The X-ray tube 11 is connected to the high voltage generator 12 via a high voltage cable. The high voltage generator 12 generates a high voltage to be applied to X-rays in response to a control signal from the system control circuit 56 of the console 5. The X-ray tube 11 generates X-rays by receiving a high voltage applied from the high voltage generator 12. The X-ray detector 13 detects the X-rays generated from the X-ray tube 11. Specifically, it is assumed that the X-ray detector 13 is an FPD (Flat Panel Detector) having a plurality of detector pixels arranged in a two-dimensional plane, a reading circuit, and an A / D conversion circuit. Each detector pixel detects X-rays generated from the X-ray tube 11 and generates an electric signal (detection signal) according to the intensity of the detected X-rays. The read circuit reads a detection signal from a plurality of detector pixels at a predetermined timing in frame units. The A / D conversion circuit A / D-converts the detection signals read from the plurality of detector pixels and generates projection data related to the subject in frame units. The generated projection data is transmitted to the storage device 52 of the console 5.
図1及び図2に示すように、X線管11とX線検出器13とはCアーム15に取り付けられている。Cアーム15は、X線管11とX線検出器13とを装備する支持構造体である。Cアーム15の一端にX線管11が取り付けられ、X線管11に対向するCアーム15の他端にX線検出器13が取り付けられている。Cアーム15は、Cアーム保持系17に移動自在に保持されている。Cアーム保持系17は、Cアーム15を3次元的に移動自在に保持する。Cアーム保持系17は、Cアーム15の可動の自由度に応じて設計され、互いに係り合う複数の構造体(以下、保持構造体と呼ぶ)から構成される。Cアーム保持系17は、少なくとも回転撮影を行うため、Cアーム15を介して、回転軸AR回りにX線管11とX線検出器13とを回転可能に支持する。X線管11の焦点とX線検出器13の検出面中心とを結ぶ軸は撮影軸AIと称される。回転軸ARと撮影軸AIとの交点ICはアイソセンタと称される。 As shown in FIGS. 1 and 2, the X-ray tube 11 and the X-ray detector 13 are attached to the C arm 15. The C-arm 15 is a support structure equipped with an X-ray tube 11 and an X-ray detector 13. An X-ray tube 11 is attached to one end of the C arm 15, and an X-ray detector 13 is attached to the other end of the C arm 15 facing the X-ray tube 11. The C-arm 15 is movably held by the C-arm holding system 17. The C-arm holding system 17 holds the C-arm 15 three-dimensionally so as to be movable. The C-arm holding system 17 is designed according to the degree of freedom of movement of the C-arm 15, and is composed of a plurality of structures (hereinafter, referred to as holding structures) that are intertwined with each other. The C-arm holding system 17 rotatably supports the X-ray tube 11 and the X-ray detector 13 around the rotation axis AR via the C-arm 15 in order to perform at least rotational imaging. The axis connecting the focal point of the X-ray tube 11 and the center of the detection surface of the X-ray detector 13 is called the imaging axis AI. The intersection IC between the rotation axis AR and the imaging axis AI is called an isocenter.
回転軸AR回りのX線管11とX線検出器13との回転は、Cアーム15のいわゆるプロペラ回転により実現されてもよいし、Cアーム15のC形状に沿ってスライドするオービタル回転により実現されてもよい。 The rotation of the X-ray tube 11 and the X-ray detector 13 around the rotation axis AR may be realized by the so-called propeller rotation of the C arm 15, or by the orbital rotation that slides along the C shape of the C arm 15. May be done.
図1に示すように、X線管保持装置10は、X線管保持装置10を駆動するための動力を発生するCアーム駆動系19を有している。典型的には、Cアーム駆動系19は、Cアーム保持系17に搭載されている。例えば、図2に例示するCアーム保持系17に対応するCアーム駆動系19としては、Cアーム15を回転軸AR回りに回転するための駆動装置を有する。駆動装置は、例えば、コンソール5のシステム制御回路56からの駆動信号を受けて駆動する。各駆動装置は、例えば、サーボモータ等の既存のモータが用いられる。 As shown in FIG. 1, the X-ray tube holding device 10 has a C-arm drive system 19 that generates power for driving the X-ray tube holding device 10. Typically, the C-arm drive system 19 is mounted on the C-arm holding system 17. For example, the C-arm drive system 19 corresponding to the C-arm holding system 17 illustrated in FIG. 2 has a drive device for rotating the C-arm 15 around the rotation axis AR. The drive device receives, for example, a drive signal from the system control circuit 56 of the console 5 and drives the drive device. For each drive device, for example, an existing motor such as a servo motor is used.
図1及び図2に示すように、撮影室には寝台31が設けられている。寝台31は、基台37と天板39とを有している。基台37は床面に設置され、天板39を移動自在に支持する。天板39には被検体が載置される。基台37には寝台駆動系33が搭載されている。寝台駆動系33は、例えば、天板39を長手方向にスライドするための駆動装置、天板39を鉛直方向に昇降するための駆動装置を有している。各駆動装置は、例えば、コンソール5のシステム制御回路56からの駆動信号を受けて駆動する。 As shown in FIGS. 1 and 2, a sleeper 31 is provided in the photographing room. The sleeper 31 has a base 37 and a top plate 39. The base 37 is installed on the floor surface and movably supports the top plate 39. The subject is placed on the top plate 39. A sleeper drive system 33 is mounted on the base 37. The sleeper drive system 33 has, for example, a drive device for sliding the top plate 39 in the longitudinal direction and a drive device for raising and lowering the top plate 39 in the vertical direction. Each drive device receives, for example, a drive signal from the system control circuit 56 of the console 5 and drives the device.
本実施形態に係るX線撮影部3は、上記の通り回転撮影を使用した多相撮影を実行する。回転撮影においてCアーム駆動系19は、システム制御回路56の指示に従いCアーム15を所定速度で回転し、Cアーム15の回転時において高電圧発生器12は、システム制御回路56の指示に従いX線管11からX線を発生させる。Cアーム15を画像再構成に必要な回転角度範囲だけ回転する。画像再構成に必要な回転角度範囲(以下、再構成角度範囲と呼ぶ)は、例えば、360度であるが、180度+ファン角以上であれば如何なる角度範囲でもよい。X線検出器13は、X線管11から発生され被検体を透過したX線を検出し、検出されたX線の強度に応じた投影データを生成する。再構成角度範囲分の投影データを投影データセットと呼ぶことにする。投影データセットに画像再構成処理が施されることにより再構成画像が生成される。 The X-ray imaging unit 3 according to the present embodiment executes multi-phase imaging using rotation imaging as described above. In the rotation imaging, the C-arm drive system 19 rotates the C-arm 15 at a predetermined speed according to the instruction of the system control circuit 56, and when the C-arm 15 is rotating, the high voltage generator 12 emits X-rays according to the instruction of the system control circuit 56. X-rays are generated from the tube 11. The C-arm 15 is rotated by the rotation angle range required for image reconstruction. The rotation angle range (hereinafter referred to as the reconstruction angle range) required for image reconstruction is, for example, 360 degrees, but any angle range may be used as long as it is 180 degrees + fan angle or more. The X-ray detector 13 detects the X-rays generated from the X-ray tube 11 and transmitted through the subject, and generates projection data according to the intensity of the detected X-rays. The projection data for the reconstruction angle range will be called the projection data set. A reconstructed image is generated by performing an image reconstruction process on the projection data set.
多相撮影は、例えば、肝臓等の臓器内に発生する癌を、造影剤により造影して観察するために用いられる。多相撮影では、被検体に造影剤が注入された後、複数のタイミングで回転撮影が行われる。例えば、肝臓を検査対象とする多相撮影においては早期相のタイミングと後期相のタイミングとで回転撮影が行われる。早期相で造影剤が栄養血管を介して癌に集積し、腫瘍濃染として可視化され、後期相で造影剤が癌から流れ出てコロナ濃染又はウォッシュアウト(washout)として可視化される。 Polymorphic imaging is used, for example, to contrast and observe cancer that develops in an organ such as the liver with a contrast medium. In polymorphic imaging, after the contrast medium is injected into the subject, rotational imaging is performed at a plurality of timings. For example, in polyphase imaging in which the liver is the subject of examination, rotational imaging is performed at the timing of the early phase and the timing of the late phase. In the early phase, the contrast agent accumulates in the cancer via the feeding vessels and is visualized as a deep tumor stain, and in the late phase, the contrast agent flows out of the cancer and is visualized as a deep corona stain or washout.
図3は、早期相に関する再構成画像I1を模式的に示す図である。図4は、後期相に関する再構成画像I2を模式的に示す図である。図3及び図4は、一例として、肝臓癌を撮影対象にする再構成画像を例示している。図3及び図4に示すように、再構成画像I1及びI2は、肝臓に関する画像領域(以下、肝臓領域と呼ぶ)R1を有する。肝臓領域には肝臓癌に関する画像領域(以下、癌領域と呼ぶ)R2を有する。再構成画像I1は早期相において収集されているので、再構成画像I1における癌領域R2は、再構成画像I2の癌領域R2に比して、造影剤により強く造影されている。早期相に関する再構成画像I1における癌領域を腫瘍濃染領域と呼ぶこともある。再構成画像I2は後期相において収集されているので、再構成画像I2における癌領域R2は、再構成画像I1の癌領域R2に比して、造影されない。再構成画像I2は癌領域R2の周囲に、コロナ濃染に関する画像領域(以下、コロナ濃染領域と呼ぶ)R3を有する。多相撮影による造影剤濃染パターンに基づいて肝臓癌等が診断される。 FIG. 3 is a diagram schematically showing a reconstructed image I1 regarding the early phase. FIG. 4 is a diagram schematically showing a reconstructed image I2 relating to the late phase. 3 and 4 show, as an example, a reconstructed image of liver cancer as an imaging target. As shown in FIGS. 3 and 4, the reconstructed images I1 and I2 have an image region (hereinafter, referred to as a liver region) R1 relating to the liver. The liver region has an image region (hereinafter referred to as a cancer region) R2 relating to liver cancer. Since the reconstructed image I1 is collected in the early phase, the cancer region R2 in the reconstructed image I1 is more strongly imaged by the contrast agent than the cancer region R2 in the reconstructed image I2. The cancerous region in the reconstructed image I1 relating to the early phase is sometimes referred to as a tumor-dense region. Since the reconstructed image I2 is collected in the late phase, the cancer region R2 in the reconstructed image I2 is not contrasted with the cancer region R2 in the reconstructed image I1. The reconstructed image I2 has an image region related to corona deep staining (hereinafter referred to as corona deep staining region) R3 around the cancer region R2. Liver cancer and the like are diagnosed based on the contrast medium deep staining pattern by polymorphic imaging.
図1に示すように、コンソール5は、X線診断装置を統括するコンピュータである。コンソール5は、システム制御回路56を中枢として、処理回路51、記憶装置52、入力機器53、通信機器54及び表示機器55を有する。処理回路51、記憶装置52、入力機器53、通信機器54及び表示機器55及びシステム制御回路56は互いにバス(bus)を介して通信可能に接続されている。 As shown in FIG. 1, the console 5 is a computer that controls an X-ray diagnostic apparatus. The console 5 has a processing circuit 51, a storage device 52, an input device 53, a communication device 54, and a display device 55, with the system control circuit 56 as the center. The processing circuit 51, the storage device 52, the input device 53, the communication device 54, the display device 55, and the system control circuit 56 are communicably connected to each other via a bus.
処理回路51は、ハードウェア資源としてプロセッサを有する。処理回路51は、本実施形態に係る処理プログラムを実行し、取得機能511、再構成機能512、位置特定機能513、アーチファクト低減機能514及び表示制御機能515を実現する。なお、各機能511〜515は単一の処理回路で実現される場合に限らない。複数の独立したプロセッサを組み合わせて処理回路を構成し、各プロセッサがプログラムを実行することにより各機能511〜515を実現するものとしても構わない。 The processing circuit 51 has a processor as a hardware resource. The processing circuit 51 executes the processing program according to the present embodiment, and realizes the acquisition function 511, the reconstruction function 512, the position identification function 513, the artifact reduction function 514, and the display control function 515. It should be noted that each function 511 to 515 is not limited to the case where it is realized by a single processing circuit. A processing circuit may be configured by combining a plurality of independent processors, and each function 511 to 515 may be realized by executing a program by each processor.
取得機能511において処理回路51は、造影剤が注入された被検体に対して第1のタイミングで実行された回転撮影により生成される第1の投影データセットと、前記被検体に対して第1のタイミングとは異なる第2のタイミングで実行された回転撮影により生成される第2の投影データセットとを取得する。例えば、第1のタイミングは早期相であり、第2のタイミングは後期相である。第2のタイミングの投影データセットは、第1のタイミングの投影データセットに比して強い及び/又は多いアーチファクト成分を含むものとする。 In the acquisition function 511, the processing circuit 51 includes the first projection data set generated by the rotation imaging performed at the first timing on the subject into which the contrast medium is injected, and the first projection data set on the subject. Acquires the second projection data set generated by the rotation imaging executed at the second timing different from the timing of. For example, the first timing is the early phase and the second timing is the late phase. The second-timing projection dataset shall contain stronger and / or more artifact components than the first-timing projection dataset.
再構成機能512において処理回路51は、投影データセットに再構成処理を施して再構成画像を生成する。具体的には、処理回路51は、X線検出器13からの投影データセットにゲイン補正やオフセット補正等の前処理を施し、前処理後の投影データセットに再構成処理を施す。再構成処理としては、フィルタ補正逆投影法や逐次近似再構成法、機械学習を使用した画像再構成等が適宜使用可能である。処理回路51は、第1のタイミングの投影データセットに基づいて第1のタイミングの再構成画像を生成し、第2のタイミングの投影データセットに基づいて第2のタイミングの再構成画像を生成する。第2のタイミングの再構成画像は、第1のタイミングの再構成画像に比して強い及び/又は多いアーチファクトを含むものとする。 In the reconstruction function 512, the processing circuit 51 performs reconstruction processing on the projection data set to generate a reconstruction image. Specifically, the processing circuit 51 performs preprocessing such as gain correction and offset correction on the projection data set from the X-ray detector 13, and reconstructs the projection data set after the preprocessing. As the reconstruction process, a filter correction back projection method, a successive approximation reconstruction method, an image reconstruction using machine learning, or the like can be appropriately used. The processing circuit 51 generates a reconstructed image of the first timing based on the projection data set of the first timing, and generates a reconstructed image of the second timing based on the projection data set of the second timing. .. The reconstructed image of the second timing shall contain stronger and / or more artifacts than the reconstructed image of the first timing.
本実施形態に係る再構成画像は、特に言及しない限り、投影データに再構成処理を施して生成された3次元画像データ(ボリュームデータ)と当該3次元画像データに3次元画像処理を施して生成された2次元画像データとの双方を含む概念であるとする。3次元画像処理としては、MPR処理やボリュームレンダリング処理、サーフェスレンダリング処理、画素値投影処理等、3次元画像データを2次元画像データに変換する任意の処理である。3次元画像処理は再構成機能512により実現されるものとする。 Unless otherwise specified, the reconstructed image according to the present embodiment is generated by performing three-dimensional image processing on the three-dimensional image data (volume data) generated by performing reconstruction processing on the projection data and the three-dimensional image data. It is assumed that the concept includes both the two-dimensional image data obtained. The three-dimensional image processing is an arbitrary process for converting three-dimensional image data into two-dimensional image data, such as MPR processing, volume rendering processing, surface rendering processing, and pixel value projection processing. It is assumed that the three-dimensional image processing is realized by the reconstruction function 512.
位置特定機能513において処理回路51は、再構成画像に含まれる各種の画像領域を画像処理により特定する。例えば、処理回路51は、第1のタイミングの再構成画像における腫瘍発生組織領域の位置と第2のタイミングの再構成画像における腫瘍発生組織領域の位置とを特定する。腫瘍発生組織領域は、腫瘍が発生している組織に関する画像領域である。例えば、肝臓に癌が発生している場合、腫瘍発生組織領域は、肝臓領域である。また、処理回路51は、第1のタイミングの再構成画像に含まれる腫瘍濃染領域の位置と第2のタイミングの再構成画像に含まれるコロナ濃染領域の位置とを特定する。 In the position specifying function 513, the processing circuit 51 identifies various image regions included in the reconstructed image by image processing. For example, the processing circuit 51 identifies the position of the tumor-developing tissue region in the reconstructed image of the first timing and the position of the tumor-developing tissue region in the reconstructed image of the second timing. The tumorigenic tissue area is an image area relating to the tissue in which the tumor has developed. For example, when cancer develops in the liver, the tumorigenic tissue region is the liver region. In addition, the processing circuit 51 specifies the position of the tumor deep-staining region included in the reconstructed image of the first timing and the position of the corona deep-staining region included in the reconstructed image of the second timing.
アーチファクト低減機能514において処理回路51は、第1のタイミングの再構成画像と第2のタイミングの再構成画像とに基づいて、第2のタイミングに対応し、第2のタイミングの再構成画像よりもアーチファクトが低減された再構成画像を生成する。以下、アーチファクト低減機能514により生成される再構成画像を補正画像と呼ぶことにする。処理回路51は、第1のタイミングの再構成画像と第2のタイミングの再構成画像と第1のタイミングの再構成画像における腫瘍発生組織領域の位置と第2のタイミングの再構成画像における腫瘍発生組織領域の位置とに基づいて、第2のタイミングに関する補正画像を生成してもよい。処理回路51は、第1のタイミングの再構成画像と第2のタイミングの再構成画像と第1のタイミングの再構成画像における腫瘍濃染領域の位置と第2のタイミングの再構成画像におけるコロナ濃染領域の位置とに基づいて、第2のタイミングに関する補正画像を生成してもよい。 In the artifact reduction function 514, the processing circuit 51 corresponds to the second timing based on the reconstructed image of the first timing and the reconstructed image of the second timing, and is more than the reconstructed image of the second timing. Generate a reconstructed image with reduced artifacts. Hereinafter, the reconstructed image generated by the artifact reduction function 514 will be referred to as a corrected image. The processing circuit 51 determines the position of the tumor-developing tissue region in the reconstructed image of the first timing, the reconstructed image of the second timing, and the reconstructed image of the first timing, and the tumor development in the reconstructed image of the second timing. A corrected image for the second timing may be generated based on the position of the tissue area. The processing circuit 51 determines the position of the tumor-dense region in the reconstructed image of the first timing, the reconstructed image of the second timing, and the reconstructed image of the first timing, and the corona density in the reconstructed image of the second timing. A corrected image for the second timing may be generated based on the position of the dyed area.
表示制御機能515において処理回路51は、種々のデータを表示機器55を介して表示する。例えば、処理回路51は、再構成機能512により生成された再構成画像やアーチファクト低減機能514により生成された補正画像等を、表示機器55を介して表示する。 In the display control function 515, the processing circuit 51 displays various data via the display device 55. For example, the processing circuit 51 displays the reconstructed image generated by the reconstructed function 512, the corrected image generated by the artifact reduction function 514, and the like via the display device 55.
記憶装置52は、種々のデータを記憶するHDD(Hard Disk Drive)やSSD(Solid State Drive)、集積回路記憶装置等の記憶装置である。例えば、記憶装置52は、X線検出器13から伝送された投影データ、再構成機能512により生成された再構成画像、アーチファクト低減機能514により生成された補正画像を記憶する。 The storage device 52 is a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or an integrated circuit storage device that stores various data. For example, the storage device 52 stores the projection data transmitted from the X-ray detector 13, the reconstructed image generated by the reconstructed function 512, and the corrected image generated by the artifact reduction function 514.
入力機器53は、操作者からの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して出力する。入力機器53としては、例えば、マウス、キーボード、トラックボール、スイッチ、ボタン、ジョイスティック、タッチパッド及びタッチパネルディスプレイ等が適宜使用可能である。入力機器53は、物理的な機器だけでなく、通信機器54を介して接続されたコンピュータ端末や無線通信可能なタブレット端末等でもよい。 The input device 53 receives various input operations from the operator, converts the received input operations into electric signals, and outputs the received input operations. As the input device 53, for example, a mouse, a keyboard, a trackball, a switch, a button, a joystick, a touch pad, a touch panel display, or the like can be appropriately used. The input device 53 may be not only a physical device but also a computer terminal connected via the communication device 54, a tablet terminal capable of wireless communication, and the like.
通信機器54は、図示しない有線又は無線を介して、他のコンピュータとの間でデータ通信を行う。例えば、通信機器54は、投影データや再構成画像、補正画像等を通信する。 The communication device 54 performs data communication with another computer via a wired or wireless device (not shown). For example, the communication device 54 communicates projection data, a reconstructed image, a corrected image, and the like.
表示機器55は、処理回路51の表示制御機能515の実現により、種々のデータを表示する。表示機器55としては、例えば、CRTディスプレイや液晶ディスプレイ、有機ELディスプレイ、LEDディスプレイ、プラズマディスプレイ、又は当技術分野で知られている他の任意のディスプレイが適宜使用可能である。また、表示機器55は、プロジェクタであってもよい。例えば、表示機器55は、再構成機能512により生成された再構成画像やアーチファクト低減機能514により生成された補正画像等を表示する。 The display device 55 displays various data by realizing the display control function 515 of the processing circuit 51. As the display device 55, for example, a CRT display, a liquid crystal display, an organic EL display, an LED display, a plasma display, or any other display known in the art can be appropriately used. Further, the display device 55 may be a projector. For example, the display device 55 displays a reconstructed image generated by the reconstructed function 512, a corrected image generated by the artifact reduction function 514, and the like.
システム制御回路56は、ハードウェア資源としてプロセッサを有する。システム制御回路56は、多相撮影プログラムの実行によりX線診断装置1の全体を制御する。システム制御回路56は、回転撮影を行うために高電圧発生器12とCアーム駆動系19とを連動して制御する。回転撮影においてシステム制御回路56は、予め設定されたX線条件に対応するX線曝射を行うように高電圧発生器12に制御信号を供給する。制御信号の供給を受けた高電圧発生器12は、当該制御信号に応じた高電圧をX線管11に印加し、高電圧の印加を受けてX線管11はX線を発生する。回転撮影においてシステム制御回路56は、Cアームを回転するためにCアーム駆動系19を制御する。また、システム制御回路56は、天板39の位置決めのために寝台駆動系33を制御してもよい。 The system control circuit 56 has a processor as a hardware resource. The system control circuit 56 controls the entire X-ray diagnostic apparatus 1 by executing a multiphase radiography program. The system control circuit 56 controls the high voltage generator 12 and the C-arm drive system 19 in conjunction with each other in order to perform rotational imaging. In rotary imaging, the system control circuit 56 supplies a control signal to the high voltage generator 12 so as to perform X-ray exposure corresponding to preset X-ray conditions. The high voltage generator 12 to which the control signal is supplied applies a high voltage corresponding to the control signal to the X-ray tube 11, and the X-ray tube 11 generates X-rays when the high voltage is applied. In the rotation imaging, the system control circuit 56 controls the C-arm drive system 19 in order to rotate the C-arm. Further, the system control circuit 56 may control the bed drive system 33 for positioning the top plate 39.
なお、上記のX線診断装置1の構成は一例であり、これに限定されず、種々の変形が可能である。例えば、システム制御回路56と処理回路51とは別個の回路ではなく、単一の回路により構成されてもよい。また、処理回路51、記憶装置52、入力機器53、通信機器54及び表示機器55及びシステム制御回路56の全てが単一のコンピュータに搭載されている必要はなく、複数のコンピュータに分散して搭載されても良い。 The configuration of the X-ray diagnostic apparatus 1 is an example, and the present invention is not limited to this, and various modifications are possible. For example, the system control circuit 56 and the processing circuit 51 may be configured by a single circuit instead of a separate circuit. Further, the processing circuit 51, the storage device 52, the input device 53, the communication device 54, the display device 55, and the system control circuit 56 do not all have to be mounted on a single computer, but are mounted on a plurality of computers in a distributed manner. May be done.
次に、X線診断装置1の動作例について説明する。 Next, an operation example of the X-ray diagnostic apparatus 1 will be described.
以下の動作例において多相撮影における第1のタイミングは早期相であるとし、第2のタイミングは後期相であるとする。アーチファクト低減機能514による低減対象のアーチファクトは、如何なるアーチファクトでもよいが、回転撮影時における被検体の体動等に起因するモーションアーチファクトであるとする。モーションアーチファクトは、早期相に関する再構成画像と後期相に関する再構成画像との何れにも生じ得る。早期相の回転撮影から数秒から数十秒経過後に後期相の回転撮影が行われる。よって後期相の回転撮影時の方が、早期相の回転撮影時に比して被検体が動きやすい。よって以下の動作例においては、後期相に関する再構成画像にモーションアーチファクトが有意に発生しているものとする。なお、以下、早期相に関する再構成画像を早期相画像、後期相に関する再構成画像を後期相画像と呼ぶ。 In the following operation example, it is assumed that the first timing in polyphase imaging is the early phase and the second timing is the late phase. The artifact to be reduced by the artifact reduction function 514 may be any artifact, but it is assumed that the artifact is a motion artifact caused by the body movement of the subject during rotational photography. Motion artifacts can occur in both the reconstructed image for the early phase and the reconstructed image for the late phase. Rotational imaging of the late phase is performed several seconds to several tens of seconds after the rotational imaging of the early phase. Therefore, the subject is more likely to move during the late phase rotary imaging than during the early phase rotary imaging. Therefore, in the following operation example, it is assumed that motion artifacts are significantly generated in the reconstructed image related to the late phase. Hereinafter, the reconstructed image relating to the early phase is referred to as an early phase image, and the reconstructed image relating to the late phase is referred to as a late phase image.
上記の通り、アーチファクト低減機能514において処理回路51は、早期相画像と後期相画像とに基づいて、当該後期相画像に比してモーションアーチファクトが低減された、後期相に関する補正画像を生成する。具体的には、処理回路51は、予め生成された、モーションアーチファクトを含まない早期相画像とモーションアーチファクトを含まない後期相画像との相関と、モーションアーチファクトを含む後期相画像とモーションアーチファクトを含まない後期相画像との相関とを使用して、被検体に関する早期相画像及び後期相画像から後期相に関する補正画像を生成する。当該相関は、例えば、機械学習の手法により学習される。このような機械学習のアルゴリズムとしては、生物の脳の神経回路を模した多層のネットワークモデルである深層ニューラルネットワーク(DNN:Deep Neural Network)であるとする。DNNは、複数の調整可能な関数及びパラメータの組合せにより定義されるパラメータ付きの合成関数を含む。パラメータが学習された機械学習モデル又はDNNを学習済モデルと呼ぶことにする。本実施形態に係る学習済モデルは、様々な構造を取り得る。例えば、本実施形態に係る学習済モデルは、入力層、出力層及び中間層を含む。中間層としては、少なくとも一以上の畳み込み層(Convolutional Layer)や全結合層(Fully Connected Layer)、プーリング層(Pooling Layer)等を含む。学習済モデルは、ResNet(Residual Network)やDenseNet(Dense Convolutional Network)、U-Net等のネットワーク構造でもよい。なお、「学習済モデル」という語は、追加の学習がなされることを排除するものではない。例えば、学習済モデルに対して適宜追加の学習を施すことにより、調整済みのパラメータをさらに更新してもよい。 As described above, in the artifact reduction function 514, the processing circuit 51 generates a corrected image relating to the late phase in which motion artifacts are reduced as compared with the late phase image, based on the early phase image and the late phase image. Specifically, the processing circuit 51 does not include the correlation between the pre-generated early phase image containing no motion artifact and the late phase image not containing the motion artifact, and the late phase image including the motion artifact and the motion artifact. Correlation with the late phase image is used to generate a corrected image for the late phase from the early phase image and the late phase image for the subject. The correlation is learned by, for example, a machine learning method. As such a machine learning algorithm, it is assumed that a deep neural network (DNN), which is a multi-layer network model that imitates a neural circuit of a living organism's brain. DNN includes a composite function with parameters defined by a combination of multiple adjustable functions and parameters. A machine learning model or DNN in which parameters are trained will be referred to as a trained model. The trained model according to this embodiment can have various structures. For example, the trained model according to this embodiment includes an input layer, an output layer, and an intermediate layer. The intermediate layer includes at least one convolutional layer, a fully connected layer, a pooling layer, and the like. The trained model may be a network structure such as ResNet (Residual Network), DenseNet (Dense Convolutional Network), or U-Net. The term "trained model" does not preclude additional learning. For example, the adjusted parameters may be further updated by subjecting the trained model to additional training as appropriate.
図5は、アーチファクト低減機能514において使用される学習済モデルの入出力の一例を示す図である。図5に示すように、学習済モデルは、入力データとして、モーションアーチファクト無しの早期相画像とモーションアーチファクト有りの後期相画像とを入力する。上記の通り早期相画像には腫瘍濃染が描出され、後期相画像にはコロナ濃染が描出される。出力データとして、学習済モデルは、モーションアーチファクトを含まない後期相画像を出力する。なお、以下の説明において、アーチファクト無しの画像とは他の画像に比して弱い及び/又は少ないアーチファクトを含む又は所定基準よりも弱い及び/又は少ないアーチファクトを含むことを意味し、アーチファクト有りの画像とは他の画像に比して強い及び/又は多いアーチファクトを含む又は所定基準よりも強い及び/又は多いアーチファクトを含むことを意味するものとする。 FIG. 5 is a diagram showing an example of input / output of the trained model used in the artifact reduction function 514. As shown in FIG. 5, the trained model inputs an early phase image without motion artifacts and a late phase image with motion artifacts as input data. As described above, the early phase image depicts a deep tumor stain, and the late phase image depicts a deep corona stain. As output data, the trained model outputs a late phase image that does not include motion artifacts. In the following description, an image without artifacts means that the image contains weak and / or less artifacts as compared with other images, or contains weaker and / or less artifacts than a predetermined standard, and is an image with artifacts. Means that it contains strong and / or more artifacts than other images or contains stronger and / or more artifacts than a predetermined standard.
ここで、図5を参照しながら、図5の学習済モデルの生成について説明する。学習済モデルは、処理回路51や他のコンピュータにより生成される。学習済モデルを生成する処理回路51又は他のコンピュータを学習装置と呼ぶことにする。 Here, the generation of the trained model of FIG. 5 will be described with reference to FIG. The trained model is generated by the processing circuit 51 or another computer. The processing circuit 51 or another computer that generates the trained model will be referred to as a learning device.
学習装置は、複数の学習サンプルに基づいてDNNのパラメータを学習する。各学習サンプルは、入力データとして、モーションアーチファクト無しの早期相画像とモーションアーチファクト有りの後期相画像との組合せを含み、教師データとして、モーションアーチファクト無しの後期相画像(以下、正解後期相画像と呼ぶ)を含む。これら学習サンプルは、被検体をX線診断装置により回転撮影することにより生成される。同一の学習サンプルに含まれる各画像は全て同一の被検体を回転撮影することにより生成される。複数の学習サンプル間について同一の被検体である必要はなく、様々な被検体を回転撮影することにより学習サンプルが収集されればよい。 The learning device learns DNN parameters based on a plurality of learning samples. Each training sample includes a combination of an early phase image without motion artifacts and a late phase image with motion artifacts as input data, and a late phase image without motion artifacts as teacher data (hereinafter referred to as a correct late phase image). )including. These learning samples are generated by rotating the subject with an X-ray diagnostic apparatus. Each image included in the same learning sample is generated by rotating the same subject. It is not necessary for the plurality of learning samples to be the same subject, and the learning samples may be collected by rotating and photographing various subjects.
各学習サンプルとしては、例えば、再撮影が行われた場合のデータを用いることができる。すなわち、早期相及び後期相の回転撮影を実施した後に、さらに後期相の回転撮影を再度行った場合、モーションアーチファクト無しの早期相画像と、モーションアーチファクト有りの後期相画像と、モーションアーチファクト無しの後期相画像とが得られる。これらの組を学習サンプルとすることができる。 As each learning sample, for example, data when re-imaging is performed can be used. That is, when the rotation imaging of the early phase and the late phase is performed and then the rotation imaging of the late phase is performed again, the early phase image without motion artifact, the late phase image with motion artifact, and the late phase without motion artifact are performed. A phase image is obtained. These sets can be used as learning samples.
なお、全ての学習サンプルが回転撮影により収集されたものである必要はない。例えば、回転撮影と略同一の撮像原理であるCT撮影を行うX線コンピュータ断層撮影装置により学習サンプルが収集されてもよい。また、全ての学習サンプルが実測の学習サンプルである必要はなく、回転撮影又はCT撮影を模擬するコンピュータシミュレーションにより計算された、計算上の学習サンプルでもよい。また、実測の学習サンプルに任意の画像処理を施すことにより生成された半実測の学習サンプルでもよい。 It should be noted that not all the learning samples need to be collected by rotary photography. For example, a learning sample may be collected by an X-ray computed tomography apparatus that performs CT imaging, which has substantially the same imaging principle as rotation imaging. Further, not all the learning samples need to be actually measured learning samples, and may be a calculated learning sample calculated by a computer simulation simulating rotation imaging or CT imaging. Further, a semi-actually measured learning sample generated by subjecting the actually measured learning sample to arbitrary image processing may be used.
学習サンプルに含まれる早期相画像、後期相画像及び正解後期相画像は、3次元画像データでもよいし、2次元画像データでもよい。2次元画像データである場合、断面はアキシャル断面、サジタル断面、コロナル断面及びオブリーク断面の如何なる向きでもよい。また、腫瘍濃染領域やコロナ濃染領域に交差する一断面の2次元画像データが入力及び出力に用いられてもよいし、腫瘍濃染領域やコロナ濃染領域に様々な位置及び向きで交差する複数断面の2次元画像データが入力及び出力に用いられてもよい。複数断面の2次元画像データに基づく最大値投影画像や平均値投影画像等の画素値投影画像が入力及び出力に用いられてもよい。 The early phase image, the late phase image, and the correct late phase image included in the training sample may be three-dimensional image data or two-dimensional image data. In the case of two-dimensional image data, the cross section may be in any direction of an axial cross section, a sagittal cross section, a coronal cross section, and an oblique cross section. In addition, two-dimensional image data of one cross section intersecting the tumor deep staining region or corona deep staining region may be used for input and output, or intersects the tumor deep staining region or corona deep staining region at various positions and orientations. Two-dimensional image data of a plurality of cross sections may be used for input and output. Pixel value projection images such as maximum value projection images and average value projection images based on two-dimensional image data of a plurality of cross sections may be used for input and output.
学習済モデルの生成過程において学習装置は、モーションアーチファクト無しの早期相画像とモーションアーチファクト有りの後期相画像とを機械学習モデルに適用して順伝播処理を行い、推定後期相画像を出力する。次に学習装置は、推定後期相画像と正解後期相画像との差分(誤差)に当該機械学習モデルを適用して逆伝播処理を行い、勾配ベクトルを計算する。次に学習装置は、勾配ベクトルに基づいて当該機械学習モデルの重み付き行列やバイアス等のパラメータを更新する。多数の学習サンプルについて順伝播処理及び逆伝播処理を繰り返してパラメータを更新することにより学習済モデルが完成する。完成後の学習済モデルは記憶装置52に記憶される。 In the process of generating the trained model, the learning device applies the early phase image without motion artifacts and the late phase image with motion artifacts to the machine learning model, performs forward propagation processing, and outputs the estimated late phase image. Next, the learning device applies the machine learning model to the difference (error) between the estimated late phase image and the correct late phase image, performs back propagation processing, and calculates the gradient vector. The learning device then updates parameters such as the weighted matrix and bias of the machine learning model based on the gradient vector. The trained model is completed by repeating the forward propagation process and the back propagation process for a large number of training samples and updating the parameters. The trained model after completion is stored in the storage device 52.
早期相画像と後期相画像との双方にモーションアーチファクトが無い場合、早期相画像と後期相画像との違いは、理想的には、早期相から後期相までの期間における造影剤の流れに起因する画素値の相違である。また、モーションアーチファクト有りの後期相画像とモーションアーチファクト無しの後期相画像との違いは、理想的には、モーションアーチファクトの有無に起因する画素値の相違である。従って、モーションアーチファクト無しの早期相画像とモーションアーチファクト有りの後期相画像との組合せと、モーションアーチファクト無しの後期相画像とに基づいて機械学習を行うことにより、早期相から後期相までの期間における造影剤の流れに起因する画素値の相違とモーションアーチファクトの有無に起因する画素値の相違とをDNNに学習させることができる。このように生成された学習済モデルを使用することにより処理回路51は、後期相画像に含まれる造影剤領域を維持しつつ、後期相で実行された回転撮影での体動に起因するモーションアーチファクトを低減することができる。 If there are no motion artifacts in both the early and late phase images, the difference between the early and late phase images is ideally due to the flow of contrast agent during the period from early to late phase. This is the difference in pixel values. Further, the difference between the late phase image with motion artifacts and the late phase image without motion artifacts is ideally the difference in pixel values due to the presence or absence of motion artifacts. Therefore, by performing machine learning based on the combination of the early phase image without motion artifact and the late phase image with motion artifact and the late phase image without motion artifact, contrast in the period from the early phase to the late phase is performed. It is possible to make the DNN learn the difference in the pixel value due to the flow of the agent and the difference in the pixel value due to the presence or absence of the motion artifact. By using the trained model thus generated, the processing circuit 51 maintains the contrast agent region contained in the late phase image and is a motion artifact caused by the body movement in the rotational imaging performed in the late phase. Can be reduced.
ところで、モーションアーチファクト無しの早期相画像を入力せずモーションアーチファクト有りの後期相画像のみを入力としてモーションアーチファクト無しの後期相画像を出力するような学習済モデルを作成することも考えられる。この場合でも、モーションアーチファクトの低減は可能であるが、学習済モデルにおける処理によるアーチファクトが生じるリスクがある。これに対し、本実施形態による学習済モデルは、モーションアーチファクト無しの早期相画像をさらに入力することにより、学習済モデルにおける処理によるアーチファクトが生じるリスクを低減することができる。 By the way, it is also conceivable to create a trained model that outputs a late phase image without motion artifacts by inputting only a late phase image with motion artifacts without inputting an early phase image without motion artifacts. Even in this case, it is possible to reduce motion artifacts, but there is a risk that processing artifacts will occur in the trained model. On the other hand, the trained model according to the present embodiment can reduce the risk of processing artifacts in the trained model by further inputting an early phase image without motion artifacts.
なお、学習済モデルの生成方法は、教師有り学習に限定されず、敵対的生成ネットワーク(GAN:Generative Adversarial Nets)やpix2pix等の手法を使用して学習済モデルが生成されてもよい。 The method of generating the trained model is not limited to supervised learning, and the trained model may be generated using a method such as a hostile generation network (GAN: Generative Adversarial Nets) or pix2pix.
図5の学習済モデルは一例であり、入出力関係等は図5に示すもののみに限定されない。例えば、学習済モデルは、モーションアーチファクト無しの後期相画像とモーションアーチファクト有りの早期相画像とを入力とし、モーションアーチファクト無しの(モーションアーチファクトが低減された)早期相画像を出力してもよい。また、入力及び出力の各画像は、3次元画像データでもよいし、2次元画像データでもよい。 The trained model of FIG. 5 is an example, and the input / output relationship and the like are not limited to those shown in FIG. For example, the trained model may input a late phase image without motion artifacts and an early phase image with motion artifacts, and output an early phase image without motion artifacts (with reduced motion artifacts). Further, each of the input and output images may be three-dimensional image data or two-dimensional image data.
また、学習済モデルの入力は、早期相画像及び後期相画像のみに限定されず、位置特定機能513により特定された腫瘍濃染領域の位置、コロナ濃染領域の位置及び腫瘍発生組織領域の位置のうちの少なくとも1つに関する情報が補助的に入力されてもよい。これにより、造影剤の影響の無い、早期相画像と補正後の後期相画像とにおいて略一致するべき領域が特定され、より精度の高いアーチファクトの補正が可能となる。 In addition, the input of the trained model is not limited to the early phase image and the late phase image, but the position of the tumor deeply stained region, the position of the corona deeply stained region, and the position of the tumor-developing tissue region specified by the position identification function 513. Information about at least one of them may be supplementarily entered. As a result, a region to be substantially matched between the early phase image and the corrected late phase image, which is not affected by the contrast medium, is specified, and more accurate correction of artifacts becomes possible.
次に、X線診断装置1による多相撮影を、肝臓癌を臨床例に挙げて説明する。 Next, multiphase radiography with the X-ray diagnostic apparatus 1 will be described with liver cancer as a clinical example.
図6は、X線診断装置1による多相撮影の典型的な流れを示す図である。図6に示す多相撮影において学習済モデルは、早期相画像、後期相画像、腫瘍濃染領域の位置、コロナ濃染領域の位置及び腫瘍発生組織領域の位置を入力とする。当該学習済モデルの詳細については後述する。被検体が寝台31に載置され造影剤が注入され造影剤が早期相のタイミングにあると判断した場合、医療従事者であるユーザは、撮影スイッチを押下する。撮影スイッチの押下を契機としてシステム制御回路56は、多相撮影プログラムを実行し、図6に示す処理を開始する。 FIG. 6 is a diagram showing a typical flow of multiphase radiography by the X-ray diagnostic apparatus 1. In the multiphase imaging shown in FIG. 6, the trained model inputs the early phase image, the late phase image, the position of the tumor deeply stained region, the position of the corona deeply stained region, and the position of the tumor-developing tissue region. The details of the trained model will be described later. When the subject is placed on the bed 31 and the contrast medium is injected and it is determined that the contrast medium is in the early phase timing, the user who is a medical worker presses the imaging switch. When the imaging switch is pressed, the system control circuit 56 executes the polyphase imaging program and starts the process shown in FIG.
まずシステム制御回路56は、高電圧発生器12とCアーム駆動系19とを制御し、早期相で回転撮影を行い、X線検出器13を介して早期相に関する投影データセットを収集する(ステップS1)。収集された投影データセットは記憶装置52に記憶され、処理回路51の取得機能511の実現により処理回路51により取得される。 First, the system control circuit 56 controls the high voltage generator 12 and the C-arm drive system 19, performs rotational imaging in the early phase, and collects a projection data set related to the early phase via the X-ray detector 13 (step). S1). The collected projection data set is stored in the storage device 52, and is acquired by the processing circuit 51 when the acquisition function 511 of the processing circuit 51 is realized.
ステップS1が行われると処理回路51は、再構成機能512の実現により、早期相に関する投影データセットに基づいて早期相画像を生成する(ステップS2)。より詳細には、ステップS2において処理回路51は、早期相に関する投影データセットに基づいて3次元画像データを生成し、3次元画像データの中から腫瘍濃染領域を画像処理により抽出し、抽出された腫瘍濃染領域を含む断面に関する断面画像を生成する。断面は、アキシャル断面、コロナル断面及びサジタル断面の何れかでもよいし、オブリーク断面でもよい。本実施形態において断面は、特に言及しない限り、厚さが1ボクセルであるスライスと厚さが2ボクセル以上のスラブとの双方の概念を含むものとする。断面がスラブである場合、断面画像として、スラブに限定して最大値投影処理を行うことにより生成された最大値投影画像が生成されるとよい。なお、最大値投影処理のみに限定されず、造影剤の性質等に応じ、平均値投影処理や中間値装置処理、最小値投影処理が行われてもよい。以下、早期相画像は、腫瘍濃染領域を含むスライスに関する2次元画像であるとする。 When step S1 is performed, the processing circuit 51 generates an early phase image based on the projection data set regarding the early phase by realizing the reconstruction function 512 (step S2). More specifically, in step S2, the processing circuit 51 generates three-dimensional image data based on the projection data set for the early phase, extracts the tumor-dense region from the three-dimensional image data by image processing, and extracts the three-dimensional image data. Generate a cross-sectional image of the cross-section including the tumor-dense area. The cross section may be any of an axial cross section, a coronal cross section and a sagittal cross section, and may be an oblique cross section. In this embodiment, the cross section includes the concept of both a slice having a thickness of 1 voxel and a slab having a thickness of 2 voxels or more, unless otherwise specified. When the cross section is a slab, it is preferable that the maximum value projection image generated by performing the maximum value projection process only on the slab is generated as the cross section image. The maximum value projection process is not limited to the maximum value projection process, and the average value projection process, the intermediate value device process, and the minimum value projection process may be performed depending on the properties of the contrast medium and the like. Hereinafter, the early phase image is assumed to be a two-dimensional image relating to a slice containing a tumor-dense region.
システム制御回路56は、早期相の回転撮影からある時間間隔後、再び高電圧発生器12とCアーム駆動系19とを制御し、後期相で回転撮影を行い、X線検出器13を介して早期相に関する投影データセットを収集する(ステップS3)。当該ある時間間隔は、早期相から後期相までの時間間隔として経験的に定められた値でもよいし、シミュレーションにより計算された値でもよいし、造影剤濃度のモニタリングによりリアルタイムに定められた値でもよい。収集された投影データセットは記憶装置52に記憶され、処理回路51の取得機能511の実現により処理回路51により取得される。 The system control circuit 56 controls the high voltage generator 12 and the C-arm drive system 19 again after a certain time interval from the rotation imaging of the early phase, performs the rotation imaging in the late phase, and performs the rotation imaging via the X-ray detector 13. A projection dataset for the early phase is collected (step S3). The certain time interval may be a value empirically determined as the time interval from the early phase to the late phase, a value calculated by simulation, or a value determined in real time by monitoring the contrast medium concentration. Good. The collected projection data set is stored in the storage device 52, and is acquired by the processing circuit 51 when the acquisition function 511 of the processing circuit 51 is realized.
ステップS3が行われると処理回路51は、再構成機能512の実現により、後期相に関する投影データセットに基づいて後期相画像を生成する(ステップS4)。より詳細には、ステップS4において処理回路51は、後期相に関する投影データセットに基づいて3次元画像データを生成し、3次元画像データの中からコロナ濃染領域を画像処理により抽出し、抽出されたコロナ濃染領域を含む断面に関する断面画像を生成する。以下、後期相画像は、コロナ濃染領域を含むスライスに関する2次元画像であるとする。 When step S3 is performed, the processing circuit 51 generates a late phase image based on the projection data set for the late phase by realizing the reconstruction function 512 (step S4). More specifically, in step S4, the processing circuit 51 generates three-dimensional image data based on the projection data set for the late phase, extracts the corona dark-stained region from the three-dimensional image data by image processing, and extracts the three-dimensional image data. Generate a cross-sectional image of the cross section including the corona dark dyed area. Hereinafter, the late phase image is assumed to be a two-dimensional image relating to a slice including a corona deep-stained region.
ステップS4が行われると処理回路51は、表示制御機能515の実現により、ステップS2において生成された早期相画像とステップS4において生成された後期相画像とを表示する(ステップS5)。 When step S4 is performed, the processing circuit 51 displays the early phase image generated in step S2 and the late phase image generated in step S4 by realizing the display control function 515 (step S5).
図7は、早期相画像I1と後期相画像I2との表示画面IS1の一例を示す図である。図7に示すように、表示画面IS1には早期相画像I1と後期相画像I2とが並べて配置される。ユーザは、早期相画像I1と後期相画像I2とを見比べて肝臓癌の診断を行う。表示画面IS1には早期相画像I1についての「動きあり」ボタンB11及び「動きなし」ボタンB12、後期相画像I2についての「動きあり」ボタンB21及び「動きなし」ボタンB22が配置される。ボタンB11、B12、B21及びB22は、マウス等の入力機器53を介して押下可能な、グラフィカルユーザインタフェース(GUI:Graphical User Interface)ボタンである。ユーザは、早期相画像I1を観察して、早期相画像I1にモーションアーチファクトが発生していると判断した場合、「動きあり」ボタンB11を押下し、モーションアーチファクトが発生していないと判断した場合、「動きなし」ボタンB12を押下する。同様に、ユーザは、後期相画像I2を観察して、後期相画像I2にモーションアーチファクトが発生していると判断した場合、「動きあり」ボタンB21を押下し、モーションアーチファクトが発生していないと判断した場合、「動きなし」ボタンB22を押下する。 FIG. 7 is a diagram showing an example of the display screen IS1 of the early phase image I1 and the late phase image I2. As shown in FIG. 7, the early phase image I1 and the late phase image I2 are arranged side by side on the display screen IS1. The user makes a diagnosis of liver cancer by comparing the early phase image I1 and the late phase image I2. On the display screen IS1, a "moving" button B11 and a "no movement" button B12 for the early phase image I1 and a "moving" button B21 and a "no movement" button B22 for the late phase image I2 are arranged. Buttons B11, B12, B21 and B22 are graphical user interface (GUI) buttons that can be pressed via an input device 53 such as a mouse. When the user observes the early phase image I1 and determines that a motion artifact has occurred in the early phase image I1, the user presses the "moving" button B11 and determines that no motion artifact has occurred. , Press the "no movement" button B12. Similarly, when the user observes the late phase image I2 and determines that a motion artifact has occurred in the late phase image I2, he presses the "moving" button B21 and says that no motion artifact has occurred. If it is determined, the "no movement" button B22 is pressed.
処理回路51は、「動きあり」ボタンB11及び「動きなし」ボタンB22が押下された場合、早期相画像I1のモーションアーチファクトを低減すると判断し、「動きあり」ボタンB21及び「動きなし」ボタンB12が押下された場合、後期相画像I2のモーションアーチファクトを低減すると判断する(ステップS6:YES)。一方、処理回路51は、「動きなし」ボタンB12及び「動きなし」ボタンB22が押下された場合、早期相画像I1及び後期相画像I2の双方にモーションアーチファクトが発生していないことを意味し、モーションアーチファクトを低減しないと判断する(ステップS6:NO)。 The processing circuit 51 determines that the motion artifact of the early phase image I1 is reduced when the "moving" button B11 and the "no moving" button B22 are pressed, and the "moving" button B21 and the "no movement" button B12. When is pressed, it is determined that the motion artifact of the late phase image I2 is reduced (step S6: YES). On the other hand, the processing circuit 51 means that when the "no movement" button B12 and the "no movement" button B22 are pressed, no motion artifact occurs in both the early phase image I1 and the late phase image I2. It is determined that the motion artifact is not reduced (step S6: NO).
一方、処理回路51は、「動きあり」ボタンB11及び「動きあり」ボタンB21が押下された場合、早期相画像I1及び後期相画像I2の双方にモーションアーチファクトが発生していることを意味し、モーションアーチファクトを低減しないと判断する(ステップS6:NO)。この場合、ユーザは、システム制御回路56は、再度、Cアーム15を初期位置に移動させ、ステップS1からステップS4を実行することにより、早期相及び後期相について回転撮影を行う。なお、図7に示すように、表示画面IS2には「再撮影」ボタンB3が配置されてもよい。「再撮影」ボタンB3は、マウス等の入力機器53を介して押下可能なGUIボタンである。「再撮影」ボタンB3が押下された場合にも、システム制御回路56は、再度、Cアーム15を初期位置に移動させ、ステップS1からステップS4を実行することにより、早期相及び後期相について回転撮影を行う。なお、このとき、再撮影前の回転撮影により得られた早期相画像I1及び後期相画像I2と、再撮影により得られる再構成画像とを学習サンプルとして記憶装置52に保存し、又は、通信機器54を通じてサーバ等の他の装置へ出力してもよい。 On the other hand, the processing circuit 51 means that when the "moving" button B11 and the "moving" button B21 are pressed, motion artifacts occur in both the early phase image I1 and the late phase image I2. It is determined that the motion artifact is not reduced (step S6: NO). In this case, the user causes the system control circuit 56 to move the C arm 15 to the initial position again and execute steps S1 to S4 to perform rotational imaging for the early phase and the late phase. As shown in FIG. 7, the "re-shooting" button B3 may be arranged on the display screen IS2. The "re-shooting" button B3 is a GUI button that can be pressed via an input device 53 such as a mouse. Even when the "reshoot" button B3 is pressed, the system control circuit 56 rotates the C arm 15 to the initial position again and executes steps S1 to S4 to rotate the early phase and the late phase. Take a picture. At this time, the early phase image I1 and the late phase image I2 obtained by the rotation imaging before the re-imaging and the reconstructed image obtained by the re-imaging are stored in the storage device 52 as learning samples, or a communication device. It may be output to another device such as a server through 54.
なお、以下では、早期相画像がモーションアーチファクト無し、後期相画像がモーションアーチファクト有りであるものとする。 In the following, it is assumed that the early phase image has no motion artifact and the late phase image has motion artifact.
ステップS6においてモーションアーチファクトを低減すると判定された場合(ステップS6:YES)、処理回路51は、位置特定機能513の実現により、早期相画像から肝臓領域及び腫瘍濃染領域の位置データ(以下、早期相位置データと呼ぶ)を生成する(ステップS7)。 When it is determined in step S6 to reduce the motion artifact (step S6: YES), the processing circuit 51 realizes the position identification function 513, and the position data of the liver region and the tumor deeply stained region from the early phase image (hereinafter, early stage). (Called phase position data) is generated (step S7).
図8は、早期相位置データI3の一例を示す図である。ステップS7において処理回路51は、早期相画像に画像処理を施して肝臓領域の位置と腫瘍濃染領域の位置とを特定し、早期相画像における肝臓領域の位置と腫瘍濃染領域の位置との空間分布を示す画像データを、早期相位置データとして生成する。例えば、腫瘍濃染領域に対応する画素には「2」が割り当てられ、肝臓領域に対応する画素には「1」が割り当てられ、それ以外の背景領域に対応する画素には「0」が割り当てられる。早期相位置データI3は、記憶装置52に記憶される。画像処理としては、各領域を特定できるのであれば特に限定されず、テンプレートマッチングや閾値処理、画像認識、機械学習等の如何なる方法でもよい。早期相位置データI3のマトリクスサイズは、典型的には、早期相画像のマトリクスサイズと同一である。 FIG. 8 is a diagram showing an example of early phase position data I3. In step S7, the processing circuit 51 performs image processing on the early phase image to identify the position of the liver region and the position of the tumor deeply stained region, and determines the position of the liver region and the position of the tumor deeply stained region in the early phase image. Image data showing the spatial distribution is generated as early phase position data. For example, "2" is assigned to the pixel corresponding to the tumor deep staining region, "1" is assigned to the pixel corresponding to the liver region, and "0" is assigned to the pixel corresponding to the other background region. Be done. The early phase position data I3 is stored in the storage device 52. The image processing is not particularly limited as long as each area can be specified, and any method such as template matching, threshold value processing, image recognition, and machine learning may be used. The matrix size of the early phase position data I3 is typically the same as the matrix size of the early phase image.
なお、画素値「2」、「1」及び「0」は一例であり、腫瘍濃染領域、肝臓領域及び背景領域が区別できるのであれば如何なる値でもよい。また、早期相位置データI3のマトリクスサイズは、早期相画像のマトリクスサイズと同一であることに限定されず、所定の倍率で縮小又は拡大されてもよい。また、早期相位置データI3は、画像データである必要もなく、腫瘍濃染領域、肝臓領域及び背景領域の座標を示す数値データでもよい。 The pixel values "2", "1" and "0" are examples, and any value may be used as long as the tumor dark staining region, the liver region and the background region can be distinguished. Further, the matrix size of the early phase position data I3 is not limited to the same as the matrix size of the early phase image, and may be reduced or enlarged by a predetermined magnification. Further, the early phase position data I3 does not have to be image data, and may be numerical data indicating the coordinates of the tumor-dense region, the liver region, and the background region.
ステップS7が行われると処理回路51は、位置特定機能513の実現により、後期相画像から肝臓領域及びコロナ濃染領域の位置データ(以下、後期相位置データと呼ぶ)を生成する(ステップS8)。 When step S7 is performed, the processing circuit 51 generates position data (hereinafter, referred to as late phase position data) of the liver region and the corona deep-stained region from the late phase image by realizing the position identification function 513 (step S8). ..
図9は、後期相位置データI4の一例を示す図である。ステップS8において処理回路51は、後期相画像に画像処理を施して肝臓領域の位置とコロナ濃染領域の位置とを特定し、後期相画像における肝臓領域の位置とコロナ濃染領域の位置との空間分布を示す画像データを、後期相位置データとして生成する。例えば、コロナ濃染領域に対応する画素には「3」が割り当てられ、肝臓領域に対応する画素には「1」が割り当てられ、それ以外の背景領域に対応する画素には「0」が割り当てられる。後期相位置データI4は、記憶装置52に記憶される。ステップS8における画像処理はステップS7における画像処理と同様である。後期相位置データI4のマトリクスサイズは、典型的には、後期相画像のマトリクスサイズと同一である。 FIG. 9 is a diagram showing an example of late phase position data I4. In step S8, the processing circuit 51 performs image processing on the late phase image to specify the position of the liver region and the position of the corona deep-stained region, and determines the position of the liver region and the position of the corona deep-stained region in the late-phase image. Image data showing the spatial distribution is generated as late phase position data. For example, "3" is assigned to the pixel corresponding to the corona dark dyed region, "1" is assigned to the pixel corresponding to the liver region, and "0" is assigned to the pixel corresponding to the other background region. Be done. The late phase position data I4 is stored in the storage device 52. The image processing in step S8 is the same as the image processing in step S7. The matrix size of the late phase position data I4 is typically the same as the matrix size of the late phase image.
なお、画素値「3」、「1」及び「0」は一例であり、コロナ濃染領域、肝臓領域及び背景領域が区別できるのであれば如何なる値でもよい。また、後期相位置データI4のマトリクスサイズは、後期相画像のマトリクスサイズと同一であることに限定されず、所定の倍率で縮小又は拡大されてもよい。また、早期相位置データI3は、画像データである必要もなく、コロナ濃染領域、肝臓領域及び背景領域の座標を示す数値データでもよい。 The pixel values "3", "1", and "0" are examples, and any value may be used as long as the corona deep-stained region, the liver region, and the background region can be distinguished. Further, the matrix size of the late phase position data I4 is not limited to the same as the matrix size of the late phase image, and may be reduced or enlarged by a predetermined magnification. Further, the early phase position data I3 does not have to be image data, and may be numerical data indicating the coordinates of the corona deep-stained region, the liver region, and the background region.
ステップS8が行われると処理回路51は、アーチファクト低減機能514の実現により、学習済モデルを、早期相画像と後期相画像と早期相位置データと後期相位置データとに適用し、モーションアーチファクトが低減された、後期相に関する補正画像を生成する(ステップS9)。 When step S8 is performed, the processing circuit 51 applies the trained model to the early phase image, the late phase image, the early phase position data, and the late phase position data by realizing the artifact reduction function 514, and the motion artifact is reduced. A corrected image relating to the late phase is generated (step S9).
図10は、ステップS9において使用される学習済モデルの入出力の一例を示す図である。図10に示すように、学習済モデルは、入力データとして、モーションアーチファクト無しの早期相画像とモーションアーチファクト有りの後期相画像と早期相位置データと後期相位置データとを入力する。出力データとして、学習済モデルは、モーションアーチファクト無しの(モーションアーチファクトが低減された)後期相画像を出力する。 FIG. 10 is a diagram showing an example of input / output of the trained model used in step S9. As shown in FIG. 10, the trained model inputs early phase images without motion artifacts, late phase images with motion artifacts, early phase position data, and late phase position data as input data. As output data, the trained model outputs a late phase image without motion artifacts (with reduced motion artifacts).
ここで、図10を参照しながら、図10の学習済モデルの生成について説明する。なお、図10の学習済モデルの生成方法は、学習サンプルの内容以外、図5の学習済モデルと同様である。説明の簡単のため、図5の学習済モデルとの差分のみを説明する。 Here, the generation of the trained model of FIG. 10 will be described with reference to FIG. The method of generating the trained model of FIG. 10 is the same as that of the trained model of FIG. 5, except for the contents of the training sample. For the sake of simplicity, only the difference from the trained model of FIG. 5 will be described.
学習装置は、複数の学習サンプルに基づいてDNNのパラメータを学習する。各学習サンプルは、入力データとして、モーションアーチファクト無しの早期相画像とモーションアーチファクト有りの後期相画像と早期相位置データと後期相位置データとの組合せを含み、教師データとして、モーションアーチファクト無しの後期相画像(正解後期相画像)を含む。学習済モデルの生成過程において学習装置は、モーションアーチファクト無しの早期相画像とモーションアーチファクト有りの後期相画像と早期相位置データと後期相位置データとを機械学習モデルに適用して順伝播処理を行い、推定後期相画像を出力する。次に学習装置は、推定後期相画像と正解後期相画像との差分(誤差)に当該機械学習モデルを適用して逆伝播処理を行い、勾配ベクトルを計算する。次に学習装置は、勾配ベクトルに基づいて当該機械学習モデルの重み付き行列やバイアス等のパラメータを更新する。多数の学習サンプルについて順伝播処理及び逆伝播処理を繰り返してパラメータを更新することにより学習済モデルが完成する。完成後の学習済モデルは記憶装置52に記憶される。 The learning device learns DNN parameters based on a plurality of learning samples. Each training sample contains a combination of an early phase image without motion artifacts, a late phase image with motion artifacts, an early phase position data, and a late phase position data as input data, and a late phase without motion artifacts as teacher data. Includes images (correct late phase images). In the process of generating the trained model, the learning device applies the early phase image without motion artifact, the late phase image with motion artifact, the early phase position data, and the late phase position data to the machine learning model to perform forward propagation processing. , Output the estimated late phase image. Next, the learning device applies the machine learning model to the difference (error) between the estimated late phase image and the correct late phase image, performs back propagation processing, and calculates the gradient vector. The learning device then updates parameters such as the weighted matrix and bias of the machine learning model based on the gradient vector. The trained model is completed by repeating the forward propagation process and the back propagation process for a large number of training samples and updating the parameters. The trained model after completion is stored in the storage device 52.
図10の学習済モデルは、図5の学習済モデルに比して、入力データとして更に、肝臓領域及び腫瘍濃染領域の位置を示す早期相位置データと、肝臓領域及びコロナ濃染領域の位置を示す後期相位置データとを入力する。これにより学習済モデルに、早期相における肝臓領域及び腫瘍濃染領域の位置と後期相における肝臓領域及びコロナ濃染領域の位置とを容易に判別させることにより、モーションアーチファクト低減の精度を向上させたり、学習効率を高めたりすることができる。このように生成された学習済モデルを使用することにより処理回路51は、後期相画像に含まれる造影剤領域を維持しつつ、後期相で実行された回転撮影での体動に起因するモーションアーチファクトを高精度で低減することができる。 Compared to the trained model of FIG. 5, the trained model of FIG. 10 further includes early phase position data indicating the positions of the liver region and the tumor deeply stained region as input data, and the positions of the liver region and the corona deeply stained region. Enter the late phase position data indicating. As a result, the trained model can easily distinguish the positions of the liver region and the tumor deeply stained region in the early phase from the positions of the liver region and the corona deeply stained region in the late phase, thereby improving the accuracy of motion artifact reduction. , Learning efficiency can be improved. By using the trained model thus generated, the processing circuit 51 maintains the contrast agent region contained in the late phase image, while maintaining the motion artifacts caused by the body movements in the rotational imaging performed in the late phase. Can be reduced with high accuracy.
ステップS9が行われると処理回路51は、表示制御機能515の実現により、後期相に関する補正画像を表示機器55に表示させる(ステップS10)。ステップS10において表示機器55は、例えば、ステップS2において生成された早期相画像とステップS9において生成された後期相に関する補正画像とを並べて表示する。ステップS9において生成された補正画像は、ステップS4において生成された後期相画像に比してモーションアーチファクトが低減されているので、より正確且つ効率的に肝臓癌の診断が行われることが期待される。 When step S9 is performed, the processing circuit 51 causes the display device 55 to display the corrected image relating to the late phase by realizing the display control function 515 (step S10). In step S10, the display device 55 displays, for example, the early phase image generated in step S2 and the corrected image related to the late phase generated in step S9 side by side. Since the corrected image generated in step S9 has less motion artifacts than the late phase image generated in step S4, it is expected that liver cancer can be diagnosed more accurately and efficiently. ..
以上により図6に示す多相撮影が終了する。 This completes the polymorphic imaging shown in FIG.
なお、図6に示す処理の流れは一例であり、これに限定されるものではない。例えば、ステップS7がステップS2の後に行われてもよく、同様にステップS8がステップS4の後に行われてもよい。また、ステップS8の後にステップS7が行われてもよい。 The processing flow shown in FIG. 6 is an example, and is not limited to this. For example, step S7 may be performed after step S2, and similarly step S8 may be performed after step S4. Further, step S7 may be performed after step S8.
図6においては、早期相位置データは肝臓領域及び腫瘍濃染領域の双方の位置を示すデータであるとしたが、肝臓領域及び腫瘍濃染領域の何れか一方のみの位置を示すデータであってもよい。同様に、後期相位置データは肝臓領域及びコロナ濃染領域の双方の位置を示すデータであるとしたが、肝臓領域及びコロナ濃染領域の何れか一方のみの位置を示すデータであってもよい。 In FIG. 6, the early phase position data is data showing the positions of both the liver region and the tumor-dense region, but it is the data showing the positions of only one of the liver region and the tumor-dense region. May be good. Similarly, although the late phase position data is data indicating the positions of both the liver region and the corona deeply stained region, it may be data indicating the positions of only one of the liver region and the corona deeply stained region. ..
上記の実施形態において、学習済モデルには、2次元画像データが入力されるものとしたが、3次元画像データが入力されてもよい。また、学習済モデルに2次元画像データが入力される場合であっても、診断に用いられる複数の断面に関する2次元画像データが学習済モデルに一断面ずつ入力されてもよい。あるいは、診断に用いられる単一の断面に関する2次元画像データが学習済モデルに入力されてもよい。これにより効率良く診断を行うことが可能になる。 In the above embodiment, two-dimensional image data is input to the trained model, but three-dimensional image data may be input. Further, even when the two-dimensional image data is input to the trained model, the two-dimensional image data relating to a plurality of cross sections used for diagnosis may be input to the trained model one by one. Alternatively, two-dimensional image data relating to a single cross section used for diagnosis may be input to the trained model. This makes it possible to make a diagnosis efficiently.
上記の実施形態において、早期相位置データは早期相画像から生成され、後期相位置データは後期相画像から生成されるものとした。しかしながら、後期相位置データと早期相位置データとの双方が早期相画像から生成されてもよい。当該処理は、例えば、機械学習処理により実現される。 In the above embodiment, it is assumed that the early phase position data is generated from the early phase image and the late phase position data is generated from the late phase image. However, both late phase position data and early phase position data may be generated from the early phase image. This process is realized by, for example, a machine learning process.
図11は、位置データの生成のための学習済モデルの入出力の一例を示す図である。図11に示すように、学習済モデルは、入力データとして、腫瘍濃染が描出された早期画像を入力する。出力データとして、学習済モデルは、早期相位置データと後期相位置データとを出力する。出力の早期相位置データは、入力の早期相画像に含まれる肝臓領域及び腫瘍濃染領域の位置に対応し、出力の後期相位置データは、入力の早期相画像から推測される後期相の肝臓領域及びコロナ濃染領域の位置に対応する。 FIG. 11 is a diagram showing an example of input / output of a trained model for generating position data. As shown in FIG. 11, the trained model inputs an early image in which the tumor deep staining is visualized as input data. As output data, the trained model outputs early phase position data and late phase position data. The output early phase position data corresponds to the positions of the liver region and the tumor-dense region included in the input early phase image, and the output late phase position data is the late phase liver inferred from the input early phase image. Corresponds to the location of the area and the corona dark dyed area.
ここで、図11を参照しながら、図11の学習済モデルの生成について説明する。なお、図11の学習済モデルの生成方法は、学習サンプルの内容以外、図5や図10の学習済モデルと同様である。説明の簡単のため、図5や図10の学習済モデルとの差分のみを説明する。 Here, the generation of the trained model of FIG. 11 will be described with reference to FIG. The method of generating the trained model of FIG. 11 is the same as that of the trained model of FIGS. 5 and 10 except for the contents of the training sample. For the sake of simplicity, only the differences from the trained models of FIGS. 5 and 10 will be described.
学習装置は、複数の学習サンプルに基づいてDNNのパラメータを学習する。各学習サンプルは、入力データとして、早期相画像を含み、教師データとして、早期相位置データ(以下、正解早期相位置データと呼ぶ)と後期相位置データ(以下、正解後期相位置データと呼ぶ)との組合せを含む。学習サンプルの早期相画像は、例えば、回転撮影を使用した多相撮影により得られた早期相画像である。学習サンプルの早期相画像は、モーションアーチファクト有りでもよいし、モーションアーチファクト無しでもよい。学習サンプルの早期相位置データは、入力の早期相画像から画像処理又はユーザ指示に従い生成される。学習サンプルの後期相位置データは、回転撮影を使用した多相撮影により得られた後期相画像であり、入力の早期相画像に続き収集されたものが望ましい。なお、学習サンプルの早期相画像及び後期相画像は同一の多相撮影に属する必要はなく、別々の多相撮影により収集されたものでもよい。 The learning device learns DNN parameters based on a plurality of learning samples. Each learning sample includes an early phase image as input data, and as teacher data, early phase position data (hereinafter referred to as correct early phase position data) and late phase position data (hereinafter referred to as correct late phase position data). Including combinations with. The early phase image of the training sample is, for example, an early phase image obtained by polyphase imaging using rotary imaging. The early phase image of the training sample may have motion artifacts or no motion artifacts. The early phase position data of the training sample is generated from the input early phase image according to image processing or user instruction. The late phase position data of the training sample is a late phase image obtained by polyphase imaging using rotation imaging, and it is desirable that the data is collected following the input early phase image. The early phase image and the late phase image of the learning sample do not have to belong to the same polyphase imaging, and may be collected by separate polyphase imaging.
学習済モデルの生成過程において学習装置は、早期相画像を機械学習モデルに適用して順伝播処理を行い、推定早期相位置データ及び推定後期相位置データを出力する。次に学習装置は、推定早期相位置データ及び推定後期相位置データの組合せと正解早期相位置データ及び正解後期相位置データの組合せとの差分(誤差)に当該機械学習モデルを適用して逆伝播処理を行い、勾配ベクトルを計算する。次に学習装置は、勾配ベクトルに基づいて当該機械学習モデルの重み付き行列やバイアス等のパラメータを更新する。多数の学習サンプルについて順伝播処理及び逆伝播処理を繰り返してパラメータを更新することにより学習済モデルが完成する。完成後の学習済モデルは記憶装置52に記憶される。 In the process of generating the trained model, the learning device applies the early phase image to the machine learning model, performs forward propagation processing, and outputs the estimated early phase position data and the estimated late phase position data. Next, the learning device applies the machine learning model to the difference (error) between the combination of the estimated early phase position data and the estimated late phase position data and the combination of the correct early phase position data and the correct late phase position data, and back-propagates. Perform processing and calculate the gradient vector. The learning device then updates parameters such as the weighted matrix and bias of the machine learning model based on the gradient vector. The trained model is completed by repeating the forward propagation process and the back propagation process for a large number of training samples and updating the parameters. The trained model after completion is stored in the storage device 52.
早期相画像には肝臓領域と腫瘍濃染領域とが含まれているので、早期相画像と早期相位置データとには相関があるといえる。早期相画像に含まれる肝臓領域及び腫瘍濃染領域と後期相位置データとの違いは、理想的には、肝臓領域の位置は不動であるので、早期相から後期相までの期間における造影剤の流れに起因する造影剤領域の変化である。このように生成された学習済モデルを使用することにより処理回路51は、早期相画像から早期相位置データと後期相位置データとを出力することができる。 Since the early phase image includes the liver region and the tumor deeply stained region, it can be said that there is a correlation between the early phase image and the early phase position data. The difference between the liver region and the tumor-dense region included in the early phase image and the late phase position data is that the position of the liver region is ideally immobile, so that the contrast medium in the period from the early phase to the late phase It is a change in the contrast agent region due to the flow. By using the trained model generated in this way, the processing circuit 51 can output the early phase position data and the late phase position data from the early phase image.
なお、位置データの生成のための学習済モデルは、早期相画像を入力として、後期相位置データを出力するように構成されてもよい。この場合、早期相位置データは、早期相画像に閾値処理等の画像処理又は入力機器53を介したユーザ指示に従い生成されればよい。また、位置データの生成のための学習済モデルは、後期相画像を入力して後期相位置データと早期相位置データとを出力するように構成されてもよいし、後期相画像を入力して早期相位置データを出力するように構成されてもよい。また、早期相の腫瘍濃染領域の位置は、腫瘍及び血管のセグメンテーションを行うアプリケーションにより得られた結果が用いられてもよい。 The trained model for generating position data may be configured to input an early phase image and output late phase position data. In this case, the early phase position data may be generated in the early phase image according to image processing such as threshold processing or a user instruction via the input device 53. Further, the trained model for generating position data may be configured to input a late phase image and output late phase position data and early phase position data, or input a late phase image. It may be configured to output early phase position data. In addition, the results obtained by an application for segmentation of tumors and blood vessels may be used for the position of the tumor-dense region in the early phase.
モーションアーチファクト無しの(モーションアーチファクトが低減された)後期相画像を出力する学習済モデルは、入力データとして、位置データの代わりに、付加情報が入力されてもよい。 In the trained model that outputs a late phase image without motion artifacts (with reduced motion artifacts), additional information may be input as input data instead of position data.
図12は、モーションアーチファクト無しの(モーションアーチファクトが低減された)後期相画像を出力する他の学習済モデルの入出力の一例を示す図である。図12に示すように、学習済モデルは、入力データとして、モーションアーチファクト無しの早期相画像とモーションアーチファクト有りの後期相画像と付加情報とを入力する。上記の通り早期相画像には腫瘍濃染が描出され、後期相画像にはコロナ濃染が描出される。付加情報としては、造影剤の流れに影響するあらゆる情報が該当する。例えば、付加情報は、解剖学的情報、造影剤情報及び血流情報を含む。解剖学的情報は、被検体のCT画像やMR画像等の形態画像や標準的な解剖学的構造に関する人体モデルが挙げられる。学習済モデルに入力される解剖学的情報としては、早期相画像及び後期相画像と同じ撮影部位のものが用いられるとよい。造影剤情報は、被検体に注入される造影剤の特性等に関する情報であり、具体的には、濃度、種類、流速等である。血流情報は、被検体の血流に関する情報であり、具体的には、血圧や超音波ドプラの計測情報である。学習済モデルには付加情報として、解剖学的情報、造影剤情報及び血流情報の全ての情報が入力される必要はなく、少なくとも一種の情報が入力されればよい。出力データとして、学習済モデルは、モーションアーチファクト無しの後期相画像を出力する。 FIG. 12 is a diagram showing an example of input / output of another trained model that outputs a late phase image without motion artifacts (with reduced motion artifacts). As shown in FIG. 12, the trained model inputs an early phase image without motion artifacts, a late phase image with motion artifacts, and additional information as input data. As described above, the early phase image depicts a deep tumor stain, and the late phase image depicts a deep corona stain. As additional information, any information that affects the flow of the contrast medium is applicable. For example, additional information includes anatomical information, contrast agent information and blood flow information. Examples of anatomical information include morphological images such as CT images and MR images of subjects, and human body models relating to standard anatomical structures. As the anatomical information input to the trained model, it is preferable to use the same imaging site as the early phase image and the late phase image. The contrast medium information is information on the characteristics of the contrast medium injected into the subject, and specifically, the concentration, type, flow velocity, and the like. The blood flow information is information on the blood flow of the subject, and specifically, it is measurement information of blood pressure and ultrasonic Doppler. It is not necessary to input all the anatomical information, the contrast medium information, and the blood flow information as additional information to the trained model, but at least one kind of information may be input. As output data, the trained model outputs a late phase image without motion artifacts.
ここで、図12を参照しながら、図12の学習済モデルの生成について説明する。なお、図12の学習済モデルの生成方法は、学習サンプルの内容以外、図5や図10の学習済モデルと同様である。説明の簡単のため、図5や図10の学習済モデルとの差分のみを説明する。 Here, the generation of the trained model of FIG. 12 will be described with reference to FIG. The method of generating the trained model of FIG. 12 is the same as that of the trained model of FIGS. 5 and 10 except for the contents of the training sample. For the sake of simplicity, only the differences from the trained models of FIGS. 5 and 10 will be described.
学習装置は、複数の学習サンプルに基づいてDNNのパラメータを学習する。各学習サンプルは、入力データとして、モーションアーチファクト無しの早期相画像とモーションアーチファクト有りの後期相画像と付加情報との組合せを含み、教師データとして、モーションアーチファクト無しの後期相画像(正解後期相画像)を含む。学習済モデルの生成過程において学習装置は、モーションアーチファクト無しの早期相画像とモーションアーチファクト有りの後期相画像と付加情報とを機械学習モデルに適用して順伝播処理を行い、推定後期相画像を出力する。次に学習装置は、推定後期相画像と正解後期相画像との差分(誤差)に当該機械学習モデルを適用して逆伝播処理を行い、勾配ベクトルを計算する。次に学習装置は、勾配ベクトルに基づいて当該機械学習モデルの重み付き行列やバイアス等のパラメータを更新する。多数の学習サンプルについて順伝播処理及び逆伝播処理を繰り返してパラメータを更新することにより学習済モデルが完成する。完成後の学習済モデルは記憶装置52に記憶される。 The learning device learns DNN parameters based on a plurality of learning samples. Each training sample contains a combination of an early phase image without motion artifacts, a late phase image with motion artifacts, and additional information as input data, and a late phase image without motion artifacts as teacher data (correct late phase image). including. In the process of generating the trained model, the learning device applies the early phase image without motion artifacts, the late phase image with motion artifacts, and additional information to the machine learning model, performs forward propagation processing, and outputs the estimated late phase image. To do. Next, the learning device applies the machine learning model to the difference (error) between the estimated late phase image and the correct late phase image, performs back propagation processing, and calculates the gradient vector. The learning device then updates parameters such as the weighted matrix and bias of the machine learning model based on the gradient vector. The trained model is completed by repeating the forward propagation process and the back propagation process for a large number of training samples and updating the parameters. The trained model after completion is stored in the storage device 52.
図12の学習済モデルは、図5の学習済モデルに比して、更に付加情報を入力する。付加情報を入力することにより、学習済モデルに、早期相画像及び後期相画像からは得られない情報を取り込むことが可能になる。このように生成された学習済モデルを使用することにより処理回路51は、後期相画像に含まれる造影剤領域を維持しつつ、後期相で実行された回転撮影での体動に起因するモーションアーチファクトを高精度で低減することができる。 The trained model of FIG. 12 inputs additional information as compared with the trained model of FIG. By inputting additional information, it becomes possible to incorporate information that cannot be obtained from the early phase image and the late phase image into the trained model. By using the trained model thus generated, the processing circuit 51 maintains the contrast agent region contained in the late phase image, while maintaining the motion artifacts caused by the body movements in the rotational imaging performed in the late phase. Can be reduced with high accuracy.
上記の実施形態において学習済モデルは、腫瘍の大きさに応じて生成されてもよい。すなわち、記憶装置52は、腫瘍の大きさに応じた複数の学習済モデルを記憶する。典型的には、腫瘍の大きさの区分毎に学習済モデルが生成される。腫瘍の大きさの区分としては、例えば、2cm未満の小さい腫瘍、2cm以上の大きい腫瘍、の2区分に分けられるとよい。腫瘍の大きさに応じて学習済モデルを使い分けることにより、学習済モデルが腫瘍領域や造影剤領域、アーチファクトをより正確に識別することができるので、補正画像の画質を向上させることが期待される。 In the above embodiments, the trained model may be generated depending on the size of the tumor. That is, the storage device 52 stores a plurality of learned models according to the size of the tumor. Typically, a trained model is generated for each tumor size segment. The size of the tumor may be divided into two categories, for example, a small tumor less than 2 cm and a large tumor 2 cm or more. By properly using the trained model according to the size of the tumor, the trained model can more accurately identify the tumor region, contrast agent region, and artifact, which is expected to improve the image quality of the corrected image. ..
学習済モデルの使用時において処理回路51は、早期相画像、後期相画像、早期相位置データ又は後期相位置データから腫瘍領域の大きさを特定する。例えば、早期相画像又は早期相位置データから腫瘍濃染領域の大きさを計算し、当該大きさを腫瘍領域の大きさとして特定する。また、後期相画像又は後期相位置データからコロナ濃染領域に囲まれた画像領域の大きさを計算し、当該大きさを腫瘍領域の大きさとして特定する。大きさは、腫瘍領域の画素数により規定してもよいし、腫瘍領域の短軸や長軸の長さにより規定されてもよい。あるいは、被検体の電子カルテ等に記載された腫瘍の大きさの情報が用いられてもよい。そして処理回路51は、特定された大きさに対応する上記区分を判別し、当該区分に関連付けられた学習済モデルを読み出し、読み出した学習済モデルを早期相画像と後期相画像とに適用して補正画像を生成する。 When using the trained model, the processing circuit 51 identifies the size of the tumor region from the early phase image, the late phase image, the early phase position data or the late phase position data. For example, the size of the tumor densely stained area is calculated from the early phase image or the early phase position data, and the size is specified as the size of the tumor area. In addition, the size of the image region surrounded by the corona deep-stained region is calculated from the late phase image or the late phase position data, and the size is specified as the size of the tumor region. The size may be defined by the number of pixels of the tumor region, or may be defined by the length of the minor axis or the major axis of the tumor region. Alternatively, information on the size of the tumor described in the electronic medical record of the subject or the like may be used. Then, the processing circuit 51 discriminates the above-mentioned division corresponding to the specified size, reads out the trained model associated with the division, and applies the read-out learned model to the early phase image and the late phase image. Generate a corrected image.
学習済モデルは、被検体の体型、造影剤情報又は血流情報に応じて生成されてもよい。被検体の体型は、具体的には、被検体の身長や体重、性別、年齢等である。造影剤情報は、被検体に注入される造影剤の特性等に関する情報であり、具体的には、濃度、種類、流速等である。血流情報は、被検体の血流に関する情報であり、具体的には、血圧や超音波ドプラの計測情報である。これら情報に応じて学習済モデルを使い分けることにより、学習済モデルが腫瘍領域や造影剤領域、アーチファクトをより正確に識別することができるので、補正画像の画質を向上させることが期待される。 The trained model may be generated according to the body shape of the subject, contrast agent information, or blood flow information. Specifically, the body shape of the subject is the height, weight, sex, age, etc. of the subject. The contrast medium information is information on the characteristics of the contrast medium injected into the subject, and specifically, the concentration, type, flow velocity, and the like. The blood flow information is information on the blood flow of the subject, and specifically, it is measurement information of blood pressure and ultrasonic Doppler. By properly using the trained model according to this information, the trained model can more accurately identify the tumor region, the contrast agent region, and the artifact, and it is expected that the image quality of the corrected image will be improved.
上記の説明の通り、本実施形態に係るX線診断装置1は、処理回路51を有する処理回路51は、取得機能511、再構成機能512及びアーチファクト低減機能514を実現する。取得機能511は、造影剤が注入された被検体に対して第1のタイミングで実行された回転撮影により生成される第1の投影データセットと、前記被検体に対して前記第1のタイミングとは異なる第2のタイミングで実行された回転撮影により生成される第2の投影データセットとを取得する。再構成機能512は、前記第1の投影データセットに基づいて第1の再構成画像を生成し、前記第2の投影データセットに基づいて第2の再構成画像を生成する。アーチファクト低減機能514は、前記第1の再構成画像と前記第2の再構成画像とに基づいて、前記第2のタイミングに対応し、前記第2の再構成画像よりもアーチファクトが低減された第3の再構成画像を生成する。 As described above, in the X-ray diagnostic apparatus 1 according to the present embodiment, the processing circuit 51 having the processing circuit 51 realizes the acquisition function 511, the reconstruction function 512, and the artifact reduction function 514. The acquisition function 511 includes a first projection data set generated by rotation imaging performed at the first timing on the subject injected with the contrast medium, and the first timing on the subject. Acquires a second projection data set generated by rotational imaging performed at different second timings. The reconstruction function 512 generates a first reconstruction image based on the first projection data set and a second reconstruction image based on the second projection data set. The artifact reduction function 514 corresponds to the second timing based on the first reconstructed image and the second reconstructed image, and the artifacts are reduced as compared with the second reconstructed image. Generate the reconstructed image of 3.
上記の構成によれば、例えば、同一被検体に関するモーションアーチファクトが低減された早期相画像とモーションアーチファクト有りの後期相画像とに基づいて、当該被検体に関するモーションアーチファクト無しの後期相画像を生成することができるので、回転撮影を使用した多相撮影においてモーションアーチファクト等のアーチファクトが発生した場合、再撮影を回避することができる。したがって息止不良の患者を対象とした回転撮影を使用した多相撮影のワークフローを改善し、且つ正確な診断を支援することができる。 According to the above configuration, for example, a late phase image without motion artifacts for the subject is generated based on an early phase image with reduced motion artifacts for the same subject and a late phase image with motion artifacts. Therefore, when an artifact such as a motion artifact occurs in the multi-phase imaging using the rotation imaging, it is possible to avoid the re-imaging. Therefore, it is possible to improve the workflow of polymorphic imaging using rotary imaging for patients with poor breath holding and to support accurate diagnosis.
上記の説明において、本実施形態に係る医用画像処理装置は、X線診断装置に搭載されるものとした。しかしながら、本実施形態はこれに限定されず、X線診断装置と同様に複数角度に関する複数の投影データセットを収集可能なX線コンピュータ断層撮影装置に搭載されてもよい。 In the above description, the medical image processing apparatus according to the present embodiment is assumed to be mounted on the X-ray diagnostic apparatus. However, the present embodiment is not limited to this, and may be mounted on an X-ray computed tomography apparatus capable of collecting a plurality of projection data sets relating to a plurality of angles as in the X-ray diagnostic apparatus.
本実施形態に係る医用画像処理装置は、X線診断装置により収集されるデータを処理するコンピュータである。本実施形態に係る医用画像処理装置は、X線診断装置に含まれるコンピュータでもよいし、X線診断装置とは別体のコンピュータでもよい。以下、医用画像処理装置は、X線診断装置に含まれるコンピュータであるとする。 The medical image processing apparatus according to the present embodiment is a computer that processes data collected by the X-ray diagnostic apparatus. The medical image processing apparatus according to the present embodiment may be a computer included in the X-ray diagnostic apparatus or a computer separate from the X-ray diagnostic apparatus. Hereinafter, the medical image processing apparatus is assumed to be a computer included in the X-ray diagnostic apparatus.
上記の実施形態において回転撮影、画像再構成、アーチファクト低減及び画像表示がX線診断装置1で行われるものとした。しかしながら、本実施形態はこれに限定されない。回転撮影、画像再構成、アーチファクト低減及び画像表示が、X線診断システムを構成する複数の装置に分散して行われてもよい。 In the above embodiment, it is assumed that the X-ray diagnostic apparatus 1 performs rotation imaging, image reconstruction, artifact reduction, and image display. However, this embodiment is not limited to this. Rotational imaging, image reconstruction, artifact reduction, and image display may be performed in a distributed manner among a plurality of devices constituting the X-ray diagnostic system.
図13は、本実施形態に係るX線診断システム100の構成を示す図である。図13に示すように、X線撮影部3、コンソール5、画像処理コンピュータ7及び表示装置9を有する。X線撮影部3とコンソール5とはX線診断装置を構成する。コンソール5、画像処理コンピュータ7及び表示装置9はネットワークを介して通信可能に接続されている。ネットワークの通信規格としては、例えば、DICOM(Digital Imaging and Communications and in Medicine)が用いられる。 FIG. 13 is a diagram showing a configuration of an X-ray diagnostic system 100 according to the present embodiment. As shown in FIG. 13, it has an X-ray photographing unit 3, a console 5, an image processing computer 7, and a display device 9. The X-ray imaging unit 3 and the console 5 form an X-ray diagnostic apparatus. The console 5, the image processing computer 7, and the display device 9 are communicably connected via a network. As a network communication standard, for example, DICOM (Digital Imaging and Communications and in Medicine) is used.
上記の通り、X線撮影部3により回転撮影が行われ、早期相に関する投影データセットと後期相に関する投影データセットとが収集されコンソール5に伝送される。コンソール5には再構成機能512が搭載される。コンソール5により、早期相に関する投影データセットに画像再構成処理が施され早期相画像が生成され、後期相に関する投影データセットに画像再構成処理が施され後期相画像が生成される。早期相画像と後期相画像とはネットワークを介して画像処理コンピュータ7に送信される。画像処理コンピュータ7は、ワークステーション等のコンピュータである。画像処理コンピュータ7には、学習済モデルが格納され、また、アーチファクト低減機能514が搭載される。画像処理コンピュータ7は、当該学習済モデルを早期相画像と後期相画像とに適用し、アーチファクトが低減された補正画像を生成する。補正画像は表示装置9に送信される。表示装置9は、ビューワと呼ばれるコンピュータである。表示装置9には、表示制御機能515が搭載される。表示装置9は、補正画像を表示する。読影医等の医療従事者は、表示された補正画像を観察し、肝臓癌等の診断を行う。 As described above, the X-ray imaging unit 3 performs rotational imaging, and the projection data set for the early phase and the projection data set for the late phase are collected and transmitted to the console 5. The console 5 is equipped with a reconstruction function 512. The console 5 performs image reconstruction processing on the projection data set for the early phase to generate an early phase image, and image reconstruction processing for the projection data set for the late phase to generate a late phase image. The early phase image and the late phase image are transmitted to the image processing computer 7 via the network. The image processing computer 7 is a computer such as a workstation. The trained model is stored in the image processing computer 7, and the artifact reduction function 514 is installed. The image processing computer 7 applies the trained model to the early phase image and the late phase image to generate a corrected image with reduced artifacts. The corrected image is transmitted to the display device 9. The display device 9 is a computer called a viewer. The display device 9 is equipped with a display control function 515. The display device 9 displays the corrected image. A medical worker such as an image interpreting doctor observes the displayed corrected image and diagnoses liver cancer or the like.
上記の構成によれば、アーチファクト低減機能514が画像処理コンピュータ7に搭載されるので、X線診断装置を既存の構成にすることができる。なお、図13においてネットワークにはX線撮影部3及びコンソール5を含むX線診断装置1台が接続されているが、複数台のX線診断装置が接続されてもよい。 According to the above configuration, since the artifact reduction function 514 is mounted on the image processing computer 7, the X-ray diagnostic apparatus can be made into an existing configuration. In FIG. 13, one X-ray diagnostic device including the X-ray imaging unit 3 and the console 5 is connected to the network, but a plurality of X-ray diagnostic devices may be connected.
なお、上記の実施形態によれば、学習済モデルは、第1のタイミングに対応する再構成画像と第2のタイミングに対応する再構成画像とを入力し、第2のタイミングに対応し且つアーチファクトが低減された再構成画像を出力するものとした。しかしながら、本実施形態はこれに限定されない。学習済モデルは、第1のタイミングに対応する投影データセットと第2のタイミングに対応する投影データセットとを入力し、第2のタイミングに対応し且つアーチファクトが低減された再構成画像を出力するように学習されてもよい。この学習済モデルによれば、例えば、早期相の投影データセットと後期相の投影データセットとを入力し、後期相に対応し且つモーションアーチファクトが低減された補正画像を出力することが可能になる。よって、補正画像を生成する処理において、投影データセットから再構成画像を生成する工程を省くことが可能になる。 According to the above embodiment, the trained model inputs the reconstructed image corresponding to the first timing and the reconstructed image corresponding to the second timing, and corresponds to the second timing and is an artifact. Is supposed to be output as a reconstructed image with reduced. However, this embodiment is not limited to this. The trained model inputs a projection data set corresponding to the first timing and a projection data set corresponding to the second timing, and outputs a reconstructed image corresponding to the second timing and with reduced artifacts. It may be learned as follows. According to this trained model, for example, it is possible to input a projection data set of an early phase and a projection data set of a late phase, and output a corrected image corresponding to the late phase and with reduced motion artifacts. .. Therefore, in the process of generating the corrected image, it is possible to omit the step of generating the reconstructed image from the projection data set.
以上説明した少なくとも1つの実施形態によれば、回転撮影を用いた多相撮影に伴うアーチファクトを効率的に低減することができる。 According to at least one embodiment described above, it is possible to efficiently reduce the artifacts associated with the polymorphic imaging using the rotation imaging.
上記説明において用いた「プロセッサ」という文言は、例えば、CPU、GPU、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC))、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは記憶回路に保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶回路にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。また、プログラムを実行するのではなく、論理回路の組合せにより当該プログラムに対応する機能を実現しても良い。なお、本実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて1つのプロセッサとして構成し、その機能を実現するようにしてもよい。さらに、図1及び図13における複数の構成要素を1つのプロセッサへ統合してその機能を実現するようにしてもよい。 The term "processor" used in the above description refers to, for example, a CPU, a GPU, or an application specific integrated circuit (ASIC), a programmable logic device (for example, a simple programmable logic device (Simple Programmable Logic Device)). : SPLD), Complex Programmable Logic Device (CPLD), and Field Programmable Gate Array (FPGA)). The processor realizes the function by reading and executing the program stored in the storage circuit. Instead of storing the program in the storage circuit, the program may be directly embedded in the circuit of the processor. In this case, the processor realizes the function by reading and executing the program embedded in the circuit. Further, instead of executing the program, the function corresponding to the program may be realized by a combination of logic circuits. It should be noted that each processor of the present embodiment is not limited to the case where each processor is configured as a single circuit, and a plurality of independent circuits may be combined to form one processor to realize its function. Good. Further, the plurality of components in FIGS. 1 and 13 may be integrated into one processor to realize the function.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, as well as in the scope of the invention described in the claims and the equivalent scope thereof.
1 X線診断装置
3 X線撮影部
5 コンソール
7 画像処理コンピュータ
9 表示装置
10 X線管保持装置
11 X線管
12 高電圧発生器
13 X線検出器
15 Cアーム
17 Cアーム保持系
19 Cアーム駆動系
30 寝台装置
31 寝台
33 寝台駆動系
37 基台
39 天板
51 処理回路
52 記憶装置
53 入力機器
54 通信機器
55 表示機器
56 システム制御回路
100 X線診断システム
511 取得機能
512 再構成機能
513 位置特定機能
514 アーチファクト低減機能
515 表示制御機能
1 X-ray diagnostic device 3 X-ray imaging unit 5 Console 7 Image processing computer 9 Display device 10 X-ray tube holding device 11 X-ray tube 12 High voltage generator 13 X-ray detector 15 C arm 17 C arm holding system 19 C arm Drive system 30 Sleeper device 31 Sleeper 33 Sleeper drive system 37 Base 39 Top plate 51 Processing circuit 52 Storage device 53 Input device 54 Communication device 55 Display device 56 System control circuit 100 X-ray diagnostic system 511 Acquisition function 512 Reconstruction function 513 Position Specific function 514 Artist reduction function 515 Display control function
Claims (15)
前記第1の投影データセットに基づいて第1の再構成画像を生成し、前記第2の投影データセットに基づいて第2の再構成画像を生成する再構成部と、
前記第1の再構成画像と前記第2の再構成画像とに基づいて、前記第2のタイミングに対応し、前記第2の再構成画像よりもアーチファクトが低減された第3の再構成画像を生成する低減部と、
を具備する医用画像処理装置。 A first projection data set generated by rotation imaging performed at the first timing on a subject injected with a contrast medium and a second projection data set different from the first timing on the subject. An acquisition unit that acquires a second projection data set generated by rotational photography executed at the timing,
A reconstruction unit that generates a first reconstruction image based on the first projection data set and a second reconstruction image based on the second projection data set.
Based on the first reconstructed image and the second reconstructed image, a third reconstructed image corresponding to the second timing and having less artifacts than the second reconstructed image is obtained. The reduction part to be generated and
A medical image processing device comprising.
前記低減部は、前記複数のモデルの中から、前記被検体に含まれる腫瘍の大きさに対応するモデルを選択し、前記選択されたモデルを、前記第1の再構成画像と前記第2の再構成画像とに適用し、前記第3の再構成画像を生成する、
請求項3記載の医用画像処理装置。 The trained model has a plurality of models according to the size of the tumor.
The reduction unit selects a model corresponding to the size of the tumor contained in the subject from the plurality of models, and uses the selected model as the first reconstructed image and the second reconstruction image. The third reconstructed image is generated by applying to the reconstructed image.
The medical image processing apparatus according to claim 3.
前記低減部は、前記学習済モデルを、前記第1の再構成画像と前記第2の再構成画像と前記被検体に関する付加情報とに適用し、前記第3の再構成画像を生成する、
請求項3記載の医用画像処理装置。 The trained model further inputs at least one additional information of anatomical information, contrast agent information, and blood flow information.
The reduction unit applies the trained model to the first reconstructed image, the second reconstructed image, and additional information about the subject to generate the third reconstructed image.
The medical image processing apparatus according to claim 3.
前記第2のタイミングは、前記早期相及び前記後期相のうちの他の相である、
請求項1記載の医用画像処理装置。 The first timing is any one of the early phase and the late phase in polyphase imaging.
The second timing is the other phase of the early phase and the late phase.
The medical image processing apparatus according to claim 1.
前記第2の再構成画像は、前記腫瘍濃染領域又は前記コロナ濃染領域のうちの他の領域を含む、
請求項1記載の医用画像処理装置。 The first reconstructed image includes any one of a tumor deeply stained region and a corona deeply stained region by a contrast medium.
The second reconstructed image includes the tumor-dense region or the other region of the corona-dense region.
The medical image processing apparatus according to claim 1.
前記低減部は、前記第1の再構成画像と前記第2の再構成画像と前記第1の位置と前記第2の位置とに基づいて、前記第3の再構成画像を生成する、
請求項1記載の医用画像処理装置。 Further comprising a specific portion for identifying the first position of the tumorigenic tissue region in the first reconstructed image and the second position of the tumorigenesis tissue region in the second reconstructed image.
The reduction unit generates the third reconstructed image based on the first reconstructed image, the second reconstructed image, the first position, and the second position.
The medical image processing apparatus according to claim 1.
前記低減部は、前記第1の再構成画像と前記第2の再構成画像と前記第1の位置と前記第2の位置とに基づいて、前記第3の再構成画像を生成する、
請求項1記載の医用画像処理装置。 Further provided with a specific portion for identifying the first position of the tumor deep-stained area included in the first reconstructed image and the second position of the corona deep-stained area included in the second reconstructed image.
The reduction unit generates the third reconstructed image based on the first reconstructed image, the second reconstructed image, the first position, and the second position.
The medical image processing apparatus according to claim 1.
前記低減部は、前記第1の表示要素が操作された事を契機として、前記第3の再構成画像を生成する、
請求項1記載の医用画像処理装置。 A display unit for displaying the second reconstructed image and the first display element for instructing the generation of the third reconstructed image is further provided.
The reduction unit generates the third reconstructed image when the first display element is operated.
The medical image processing apparatus according to claim 1.
造影剤が注入された被検体に対して第1のタイミングで実行される回転撮影により生成された第1の投影データセットに基づいて第1の再構成画像を生成する機能と、
前記被検体に対して前記第1のタイミングとは異なる第2のタイミングで実行された回転撮影により生成される第2の投影データセットに基づいて第2の再構成画像を生成する機能と、
前記第1の再構成画像と前記第2の再構成画像とに基づいて、前記第2のタイミングに対応し、前記第2の再構成画像よりもアーチファクトが低減された第3の再構成画像を生成する機能と、
を実現させる医用画像処理プログラム。 On the computer
A function to generate a first reconstructed image based on a first projection data set generated by a rotation imaging performed at a first timing on a subject injected with a contrast medium.
A function of generating a second reconstructed image based on a second projection data set generated by a rotation imaging performed on the subject at a second timing different from the first timing.
Based on the first reconstructed image and the second reconstructed image, a third reconstructed image corresponding to the second timing and having less artifacts than the second reconstructed image is obtained. The function to generate and
A medical image processing program that realizes.
前記X線管と前記X線検出器と前記支持機構とを制御し、造影剤が注入された被検体に対して第1のタイミングで回転撮影を実行して第1の投影データセットを収集し、前記被検体に対して前記第1のタイミングとは異なる第2のタイミングで回転撮影を実行して第2の投影データセットを収集する撮影制御部と、
前記第1の投影データセットに基づいて第1の再構成画像を生成し、前記第2の投影データセットに基づいて第2の再構成画像を生成する再構成部と、
前記第1の再構成画像と前記第2の再構成画像とに基づいて、前記第2のタイミングに対応し、前記第2の再構成画像よりもアーチファクトが低減された第3の再構成画像を生成する低減部と、
を具備するX線診断装置。 A support mechanism that rotatably supports the X-ray tube and the X-ray detector,
The X-ray tube, the X-ray detector, and the support mechanism are controlled, and a rotation image is executed at the first timing on the subject into which the contrast medium is injected to collect the first projection data set. An imaging control unit that executes rotary imaging on the subject at a second timing different from the first timing and collects a second projection data set.
A reconstruction unit that generates a first reconstruction image based on the first projection data set and a second reconstruction image based on the second projection data set.
Based on the first reconstructed image and the second reconstructed image, a third reconstructed image corresponding to the second timing and having less artifacts than the second reconstructed image is obtained. The reduction part to be generated and
An X-ray diagnostic apparatus comprising.
前記第1の投影データセットに基づいて第1の再構成画像を生成し、前記第2の投影データセットに基づいて第2の再構成画像を生成する再構成部と、
前記第1の再構成画像と前記第2の再構成画像とに基づいて、前記第2のタイミングに対応し、前記第2の再構成画像よりもアーチファクトが低減された第3の再構成画像を生成する低減部と、
前記第3の再構成画像を表示する表示部と、
を具備するX線診断システム。 A first rotational imaging is performed on the subject injected with the contrast medium at the first timing to collect the first projection data set, and the subject is different from the first timing. An imaging unit that executes a second rotation imaging at the timing of 2 and collects a second projection data set,
A reconstruction unit that generates a first reconstruction image based on the first projection data set and a second reconstruction image based on the second projection data set.
Based on the first reconstructed image and the second reconstructed image, a third reconstructed image corresponding to the second timing and having less artifacts than the second reconstructed image is obtained. The reduction part to be generated and
A display unit that displays the third reconstructed image and
An X-ray diagnostic system comprising.
前記第1の投影データセットと前記第2の投影データセットとに基づいて、前記第2のタイミングに対応し、アーチファクトが低減された再構成画像を生成する低減部と、
を具備する医用画像処理装置。 The first projection data set generated by the first rotational imaging performed at the first timing on the subject injected with the contrast medium is different from the first timing on the subject. An acquisition unit that acquires a second projection data set generated by the second rotation imaging executed at the second timing, and an acquisition unit.
A reduction unit that generates a reconstructed image with reduced artifacts corresponding to the second timing based on the first projection data set and the second projection data set.
A medical image processing device comprising.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019097046A JP2020188991A (en) | 2019-05-23 | 2019-05-23 | Medical image processor, medical image processing program, x-ray diagnostic device, and x-ray diagnostic system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019097046A JP2020188991A (en) | 2019-05-23 | 2019-05-23 | Medical image processor, medical image processing program, x-ray diagnostic device, and x-ray diagnostic system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020188991A true JP2020188991A (en) | 2020-11-26 |
Family
ID=73453035
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019097046A Pending JP2020188991A (en) | 2019-05-23 | 2019-05-23 | Medical image processor, medical image processing program, x-ray diagnostic device, and x-ray diagnostic system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020188991A (en) |
-
2019
- 2019-05-23 JP JP2019097046A patent/JP2020188991A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220117570A1 (en) | Systems and methods for contrast flow modeling with deep learning | |
KR102522539B1 (en) | Medical image displaying apparatus and medical image processing method thereof | |
US10098602B2 (en) | Apparatus and method for processing a medical image of a body lumen | |
US9230334B2 (en) | X-ray CT apparatus and image processing method | |
JP5068516B2 (en) | Method and system for displaying medical images | |
EP3264985B1 (en) | Tomography imaging apparatus and method of reconstructing tomography image | |
US10537293B2 (en) | X-ray CT system, image display device, and image display method | |
CN106163405B (en) | Tomographic apparatus and method of displaying tomographic image by tomographic apparatus | |
US20170042494A1 (en) | Computed tomography apparatus and method of reconstructing a computed tomography image by the computed tomography apparatus | |
US10032293B2 (en) | Computed tomography (CT) apparatus and method of reconstructing CT image | |
KR20170060698A (en) | Computed tomography apparatus and control method for the same | |
KR20170095695A (en) | Image processing apparatus, image processing method thereof and recording medium | |
JP2005103263A (en) | Method of operating image formation inspecting apparatus with tomographic ability, and x-ray computerized tomographic apparatus | |
KR101686635B1 (en) | Apparatus for photographing medical image and method for processing an medical image thereof | |
JP6929695B2 (en) | Medical diagnostic imaging equipment and management equipment | |
CN112005314A (en) | System and method for training a deep learning model of an imaging system | |
US9636076B2 (en) | X-ray CT apparatus and image processing method | |
JP7483437B2 (en) | Radiation irradiation control device, radiation therapy system, and radiation irradiation control method | |
JP6956514B2 (en) | X-ray CT device and medical information management device | |
CN111919264A (en) | System and method for synchronizing an imaging system and an edge calculation system | |
JP2020188991A (en) | Medical image processor, medical image processing program, x-ray diagnostic device, and x-ray diagnostic system | |
US20240127450A1 (en) | Medical image processing apparatus and non-transitory computer readable medium | |
JP7387399B2 (en) | Nuclear medicine diagnostic equipment and control program | |
US11955228B2 (en) | Methods and system for simulated radiology studies based on prior imaging data | |
JP7568426B2 (en) | Medical information processing device, X-ray diagnostic device, and program |