[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2021153952A - Accuracy verification device, radiation treatment system, accuracy verification method and computer program - Google Patents

Accuracy verification device, radiation treatment system, accuracy verification method and computer program Download PDF

Info

Publication number
JP2021153952A
JP2021153952A JP2020058288A JP2020058288A JP2021153952A JP 2021153952 A JP2021153952 A JP 2021153952A JP 2020058288 A JP2020058288 A JP 2020058288A JP 2020058288 A JP2020058288 A JP 2020058288A JP 2021153952 A JP2021153952 A JP 2021153952A
Authority
JP
Japan
Prior art keywords
patient
image
tracking
accuracy
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020058288A
Other languages
Japanese (ja)
Inventor
康一 宮崎
Koichi Miyazaki
康一 宮崎
菊男 梅垣
Kikuo Umegaki
菊男 梅垣
直樹 宮本
Naoki Miyamoto
直樹 宮本
徹 梅川
Toru Umekawa
徹 梅川
孝明 藤井
Takaaki Fujii
孝明 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hokkaido University NUC
Hitachi Ltd
Original Assignee
Hokkaido University NUC
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hokkaido University NUC, Hitachi Ltd filed Critical Hokkaido University NUC
Priority to JP2020058288A priority Critical patent/JP2021153952A/en
Publication of JP2021153952A publication Critical patent/JP2021153952A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Radiation-Therapy Devices (AREA)

Abstract

To enable verifying calculation accuracy of an affected part position every patient every perspective angle.SOLUTION: An accuracy verification device 10 is applied to a radiation treatment system 100, acquires a patient's transparent image obtained by photographing a patient 2 by the X-ray fluoroscopy, and calculates a position of a tracking target of a moving body tracking device 60 from the patient's transparent image. The accuracy verification device creates a synthetic transparent image by synthesizing a model transparent image obtained by photographing a tracking target model simulating a tracking target by the X-ray fluoroscopy and the patient's transparent image, and calculates the tracking position accuracy for the tracking target of the moving body tracking device 60 on the basis of the synthetic transparent image.SELECTED DRAWING: Figure 1

Description

本発明は、精度検証装置、放射線治療システム、精度検証方法及びコンピュータプログラムに関する。 The present invention relates to an accuracy verification device, a radiotherapy system, an accuracy verification method and a computer program.

X線または陽子線をはじめとする粒子線等の各種放射線を患部に照射する放射線治療が広く実施されている。放射線治療では、患部に対して放射線を正確に照射する必要がある。呼吸や心拍などの体内の動きにより患部の位置や形状が変化する場合、それらの変化に応じて照射する放射線を制御することが求められる。放射線を高精度に照射する方法として、動体追跡放射線治療がある。 Radiation therapy that irradiates the affected area with various types of radiation such as particle beams such as X-rays and protons is widely used. In radiation therapy, it is necessary to accurately irradiate the affected area. When the position and shape of the affected area change due to internal movements such as breathing and heartbeat, it is required to control the radiation to be irradiated according to those changes. As a method of irradiating radiation with high accuracy, there is moving body tracking radiotherapy.

動体追跡放射線治療では、X線等を用いて撮影した患者の透視画像から患部の位置を計測する。計測した患部の位置に応じて放射線の照射位置や照射タイミングを制御することで、患者体内の患部に対して放射線を正確に照射できる。 In moving body tracking radiotherapy, the position of the affected area is measured from a fluoroscopic image of the patient taken by using X-rays or the like. By controlling the irradiation position and irradiation timing of the radiation according to the measured position of the affected area, it is possible to accurately irradiate the affected area in the patient's body.

透視画像から患部の位置を計測する方法として、患者体内に留置された金属マーカを追跡する方法がある。金属マーカは人体組織より密度が高く、透視画像に高コントラスト物体として映るため、テンプレートマッチング法などの手法により追跡できる。
また近年では金属マーカを用いずに透視画像から患部位置を算出するマーカレストラッキングと呼称される方法も提案されている。
As a method of measuring the position of the affected part from the fluoroscopic image, there is a method of tracking a metal marker placed in the patient's body. Since the metal marker has a higher density than the human tissue and appears as a high-contrast object in the fluoroscopic image, it can be tracked by a method such as a template matching method.
Further, in recent years, a method called markerless tracking has been proposed in which the position of the affected area is calculated from a fluoroscopic image without using a metal marker.

本技術分野の一般技術として、特許文献1に記載の技術がある。 As a general technique in this technical field, there is a technique described in Patent Document 1.

特許文献1には、「治療計画時に導出したターゲット位置を学習し、透視画像TIにおけるターゲット位置の導出時に用いる変換パラメータCPと逆変換パラメータRCP、および透視画像における尤度導出に用いる尤度計算パラメータLPを導出する学習装置110と、治療ビームB照射時に取得する透視画像TIと学習装置110の導出した各種パラメータを用いて、治療ビームB照射時に取得する透視画像TIにおける尤度を用いてターゲット位置の導出を行う動体追跡装置120とによって、放射線治療において、照射中の患者Pの透視画像TIからターゲットの位置を、高速・高精度に追跡することができる。」と記載されている。 Patent Document 1 states, "The conversion parameter CP and the inverse conversion parameter RCP used when deriving the target position in the fluoroscopic image TI by learning the target position derived at the time of treatment planning, and the likelihood calculation parameter used for deriving the likelihood in the fluoroscopic image. Using the learning device 110 for deriving the LP, the fluoroscopic image TI acquired when the treatment beam B is irradiated, and various parameters derived by the learning device 110, the target position is used using the likelihood in the fluoroscopic image TI acquired when the treatment beam B is irradiated. With the moving body tracking device 120 that derives the above, the position of the target can be tracked from the fluoroscopic image TI of the patient P under irradiation at high speed and with high accuracy in the radiotherapy. "

特開2019−180799号公報JP-A-2019-180799

特許文献1では、患者のCT画像を仮想投影したDRR画像(Digitally Reconstructed Radiograph)から機械学習により尤度計算パラメータを算出し、実際の患者の透視画像から尤度(患部が存在する位置であるという確からしさ)を算出する技術が記載されている。 In Patent Document 1, the likelihood calculation parameters are calculated by machine learning from a DRR image (Digitally Reconstructed Radiograph) that is a virtual projection of a CT image of a patient, and the likelihood (the position where the affected part exists) is said to be calculated from a fluoroscopic image of an actual patient. The technique for calculating the certainty) is described.

しかしながら、特許文献1に開示された技術には以下のような課題が存在する。 However, the technique disclosed in Patent Document 1 has the following problems.

すなわち、特許文献1に記載の技術では、患者毎・透視角度毎に患部位置の算出精度を検証する方法がない、との問題がある。 That is, the technique described in Patent Document 1 has a problem that there is no method for verifying the calculation accuracy of the affected portion position for each patient and each perspective angle.

体型や患部位置は患者毎に異なるため、透視画像に写る人体構造のコントラストや画像中のノイズ量は患者毎に変化する。また、患者を透視する透視角度によっては、尤度の算出に寄与しない人体構造が主として透視画像に写ってしまい、患部位置を正しく算出できない可能性がある。また、DRR画像は患者のCT画像を物理モデルに基づき仮想投影したものであり、CT画像の解像度の制限や物理モデルの不完全性などから、実際の透視画像とは画質が異なる。そのため、DRR画像を使って学習したパラメータはDRR画像に対しては最適に近い値になっていると考えられるが、実際の患者の透視画像に対して最適でない可能性がある。このような理由から患部位置の算出精度は患者毎・透視角度毎に変化しうるが、その算出精度の変化量を知る方法はこれまで存在しなかった。 Since the body shape and the position of the affected area differ from patient to patient, the contrast of the human body structure reflected in the fluoroscopic image and the amount of noise in the image vary from patient to patient. In addition, depending on the perspective angle at which the patient is seen through, the human body structure that does not contribute to the calculation of the likelihood may be mainly reflected in the fluoroscopic image, and the position of the affected area may not be calculated correctly. Further, the DRR image is a virtual projection of the CT image of the patient based on the physical model, and the image quality is different from the actual perspective image due to the limitation of the resolution of the CT image and the incompleteness of the physical model. Therefore, it is considered that the parameters learned using the DRR image are close to the optimum values for the DRR image, but may not be optimal for the fluoroscopic image of the actual patient. For this reason, the calculation accuracy of the affected area position can change for each patient and each perspective angle, but there has been no method for knowing the amount of change in the calculation accuracy.

本発明は上記の課題に鑑みてなされたもので、患者毎・透視角度毎に患部位置の算出精度を検証することが可能な精度検証装置、放射線治療システム、精度検証方法及びコンピュータプログラムを提供することにある。 The present invention has been made in view of the above problems, and provides an accuracy verification device, a radiotherapy system, an accuracy verification method, and a computer program capable of verifying the calculation accuracy of the affected portion position for each patient and each perspective angle. There is.

上記課題を解決すべく、本発明の一つの観点に従う精度検証装置は、放射線治療システムに適用され、患者をX線透視により撮影した患者透視画像を取得し、患者透視画像から追跡対象の位置を算出する精度検証装置であって、追跡対象を模擬した追跡対象模型をX線透視により撮影した模型透視画像と、患者透視画像と、を合成することで合成透視画像を作成し、合成透視画像に基づき 動体追跡装置の追跡対象の追跡位置精度を算出することを特徴とする。 In order to solve the above problems, an accuracy verification device according to one aspect of the present invention is applied to a radiotherapy system, acquires a patient perspective image obtained by photographing a patient by X-ray fluoroscopy, and determines the position of a tracking target from the patient perspective image. It is an accuracy verification device that calculates, and a composite perspective image is created by synthesizing a model perspective image obtained by X-ray fluoroscopy of a tracking target model simulating a tracking target and a patient perspective image, and the composite perspective image is used. Based on this, the tracking position accuracy of the tracking target of the moving object tracking device is calculated.

本発明によれば、患者毎・透視角度毎に患部位置の算出精度を検証することができる。 According to the present invention, it is possible to verify the calculation accuracy of the affected portion position for each patient and each perspective angle.

実施形態に係る放射線治療システムの全体概略構成を示す図である。It is a figure which shows the whole outline structure of the radiotherapy system which concerns on embodiment. 実施形態に係る精度検証装置の概略の機能構成を示す図である。It is a figure which shows the schematic functional structure of the accuracy verification apparatus which concerns on embodiment. 実施例に係る精度検証装置の造形部で作成した患部模型の一例を示す図である。It is a figure which shows an example of the affected part model created in the modeling part of the accuracy verification apparatus which concerns on Example. 実施形態に係る精度検証装置による合成透視画像の作成方法の概略を示す図である。It is a figure which shows the outline of the method of making a composite fluoroscopic image by the accuracy verification apparatus which concerns on embodiment. 実施例に係る精度検証装置の合成部で作成した合成透視画像と正解データの一例を示す図である。It is a figure which shows an example of the composite fluoroscopic image and correct answer data created by the synthesis part of the accuracy verification apparatus which concerns on Example. 実施形態に係る精度検証装置の処理フローの一例を示す図である。It is a figure which shows an example of the processing flow of the accuracy verification apparatus which concerns on embodiment. 実施形態に係る放射線治療システムによる動体追跡放射線治療の処理フローの一例を示す図である。It is a figure which shows an example of the processing flow of the moving body tracking radiotherapy by the radiotherapy system which concerns on embodiment. 実施形態に係る精度検証装置を用いた実験の一例を示す図である。It is a figure which shows an example of the experiment using the accuracy verification apparatus which concerns on embodiment. 実施形態に係る精度検証装置を用いた実験結果の一例を示す図である。It is a figure which shows an example of the experimental result using the accuracy verification apparatus which concerns on embodiment.

以下、図面を参照して本発明の実施形態を説明する。以下の記載および図面は、本発明を説明するための例示であって、説明の明確化のため、適宜、省略および簡略化がなされている。本発明は、他の種々の形態でも実施する事が可能である。特に限定しない限り、各構成要素は単数でも複数でも構わない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The following description and drawings are examples for explaining the present invention, and are appropriately omitted and simplified for the sake of clarification of the description. The present invention can also be implemented in various other forms. Unless otherwise specified, each component may be singular or plural.

なお、実施例を説明する図において、同一の機能を有する箇所には同一の符号を付し、その繰り返しの説明は省略する。 In the figure for explaining the embodiment, the same reference numerals are given to the parts having the same function, and the repeated description thereof will be omitted.

図面において示す各構成要素の位置、大きさ、形状、範囲などは、発明の理解を容易にするため、実際の位置、大きさ、形状、範囲などを表していない場合がある。このため、本発明は、必ずしも、図面に開示された位置、大きさ、形状、範囲などに限定されない。 The position, size, shape, range, etc. of each component shown in the drawings may not represent the actual position, size, shape, range, etc., in order to facilitate understanding of the invention. Therefore, the present invention is not necessarily limited to the position, size, shape, range and the like disclosed in the drawings.

同一あるいは同様な機能を有する構成要素が複数ある場合には、同一の符号に異なる添字を付して説明する場合がある。ただし、これらの複数の構成要素を区別する必要がない場合には、添字を省略して説明する場合がある。 When there are a plurality of components having the same or similar functions, they may be described by adding different subscripts to the same reference numerals. However, when it is not necessary to distinguish between these plurality of components, the subscripts may be omitted for explanation.

実施形態に係る放射線治療システムについて、図1乃至図9を用いて説明する。 The radiation therapy system according to the embodiment will be described with reference to FIGS. 1 to 9.

最初に、放射線治療システム100の全体構成について図1を用いて説明する。図1は本実施形態における放射線治療システムの全体概略構成を示す図である。 First, the overall configuration of the radiation therapy system 100 will be described with reference to FIG. FIG. 1 is a diagram showing an overall schematic configuration of a radiotherapy system according to the present embodiment.

図1において、放射線治療システム100は、患者2内の患部3に対して炭素線等の重粒子線や陽子線からなる粒子線を照射するための装置である。この放射線治療システム100は、加速器101、ビーム輸送装置102、患者2の位置決めが可能な治療台1、加速器101から供給された粒子線を患者2内の患部3に照射する放射線照射装置7を備えている。 In FIG. 1, the radiation therapy system 100 is a device for irradiating the affected portion 3 in the patient 2 with a particle beam composed of a heavy particle beam such as a carbon beam or a proton beam. The radiotherapy system 100 includes an accelerator 101, a beam transport device 102, a treatment table 1 capable of positioning the patient 2, and a radiation irradiation device 7 that irradiates the affected portion 3 in the patient 2 with particle beams supplied from the accelerator 101. ing.

粒子線は、加速器101にて必要なエネルギーまで加速された後、ビーム輸送装置102により放射線照射装置7まで導かれる。加速器101は、シンクロトロン型加速器やサイクロトロン型加速器、他の様々な加速器とすることができる。 The particle beam is accelerated to the required energy by the accelerator 101, and then guided to the radiation irradiation device 7 by the beam transport device 102. The accelerator 101 can be a synchrotron type accelerator, a cyclotron type accelerator, or various other accelerators.

放射線照射装置7は2対の走査電磁石と、線量モニタと、位置モニタとを備えている(いずれも図示省略)。2対の走査電磁石は、互いに直行する方向に設置されており、患部3の位置においてビーム軸に垂直な面内の所望の位置に粒子線が到達するように粒子線を偏向することができる。線量モニタは照射された粒子線の量を計測する。位置モニタは粒子線が通過した位置を検出する。放射線照射装置7を通過した粒子線は患部3に到達する。 The radiation irradiation device 7 includes two pairs of scanning electromagnets, a dose monitor, and a position monitor (all of which are not shown). The two pairs of scanning electromagnets are installed in a direction perpendicular to each other, and can deflect the particle beam so that the particle beam reaches a desired position in the plane perpendicular to the beam axis at the position of the affected portion 3. The dose monitor measures the amount of irradiated particle beams. The position monitor detects the position where the particle beam has passed. The particle beam that has passed through the radiation irradiation device 7 reaches the affected area 3.

粒子線の照射方法は特に限定されず、細い粒子線が形成する線量分布を並べて患部3の形状に合わせた線量分布を照射するラスタースキャニング法やラインスキャニング法を用いることができる。 The particle beam irradiation method is not particularly limited, and a raster scanning method or a line scanning method can be used in which the dose distributions formed by the fine particle beams are arranged and the dose distribution is irradiated according to the shape of the affected area 3.

また、上述のようなスキャニング法の他に、ワブラー法や二重散乱体法など粒子線の分布を広げた後、コリメータやボーラスを用いて患部3の形状に合わせた線量分布を形成する照射方法にも本発明を適用することができる。 In addition to the scanning method as described above, an irradiation method such as a wobbler method or a double scatterer method is used to expand the distribution of particle beams and then use a collimator or a bolus to form a dose distribution that matches the shape of the affected area 3. The present invention can also be applied to the above.

なお、治療に用いる放射線として、炭素線や陽子線などの粒子線の代わりにX線を用いる場合は、加速器101やビーム輸送装置102の代わりにX線を発生させるX線照射装置を設ける。γ線を用いる場合は、加速器101やビーム輸送装置102の代わりにγ線を発生させるγ線照射装置を設ける。電子線を用いる場合は、加速器101やビーム輸送装置102の代わりに電子線を発生させる電子線照射装置を設ける。 When X-rays are used instead of particle beams such as carbon beams and proton beams as the radiation used for treatment, an X-ray irradiation device that generates X-rays is provided instead of the accelerator 101 and the beam transport device 102. When γ-rays are used, a γ-ray irradiation device that generates γ-rays is provided instead of the accelerator 101 and the beam transport device 102. When an electron beam is used, an electron beam irradiation device for generating an electron beam is provided instead of the accelerator 101 and the beam transport device 102.

放射線治療システム100は、治療計画の策定に関わる構成要素として、CT撮影装置20、治療計画装置30、および患者データベース(DB)40を備えている。 The radiotherapy system 100 includes a CT imaging device 20, a treatment planning device 30, and a patient database (DB) 40 as components involved in formulating a treatment plan.

CT撮影装置20は、治療計画の策定のために予め患者2のCT画像を撮影する。治療計画装置30は、CT撮影装置20の撮像結果に基づいて治療計画を策定する。患者DB40は、患者2に関する情報を記憶する。なお、本実施形態においては、CT撮影装置20で撮影されたCT画像を用いた例を示すが、MRI(Magnetic Resonance Imaging)撮影装置で撮影されたMRI画像や、超音波撮影装置で撮影された超音波画像等、他の撮影装置で撮影された他の3次元画像を用いてもよい。 The CT imaging device 20 captures a CT image of the patient 2 in advance for formulating a treatment plan. The treatment planning device 30 formulates a treatment plan based on the imaging result of the CT imaging device 20. The patient DB 40 stores information about patient 2. In this embodiment, an example using a CT image taken by the CT imaging device 20 is shown, but the MRI image captured by the MRI (Magnetic Resonance Imaging) imaging device or the ultrasonic imaging device was used. Other three-dimensional images taken by another imaging device, such as an ultrasonic image, may be used.

放射線治療システム100は、患部3の位置測定に関わる構成要素として、X線撮影装置6Aおよび6B、動体追跡装置60、および精度検証装置10を備えている。 The radiotherapy system 100 includes X-ray imaging devices 6A and 6B, a moving body tracking device 60, and an accuracy verification device 10 as components related to the position measurement of the affected area 3.

X線撮影装置6Aおよび6Bは、患者2のX線透視画像を撮影する。動体追跡装置60は、X線透視画像を取得し、予め作成した追跡用パラメータに基づき画像処理を実施し、患部3の位置を算出する。精度検証装置10は、動体追跡装置60が算出する患部3の位置の算出精度を検証する。精度検証装置10の詳細については後述する。 The X-ray imaging devices 6A and 6B capture an X-ray fluoroscopic image of patient 2. The moving body tracking device 60 acquires an X-ray fluoroscopic image, performs image processing based on the tracking parameters created in advance, and calculates the position of the affected area 3. The accuracy verification device 10 verifies the calculation accuracy of the position of the affected portion 3 calculated by the moving object tracking device 60. Details of the accuracy verification device 10 will be described later.

X線撮影装置6Aおよび6Bは、患者2に向けてX線を発生させるX線発生装置5Aおよび5Bと、X線発生装置5Aおよび5Bから発生して患者2を透過したX線の2次元線量分布を検出する2次元X線検出器4Aおよび4Bと、信号処理回路(図示せず)とを備えている。 The X-ray imaging devices 6A and 6B are a two-dimensional dose of X-ray generators 5A and 5B that generate X-rays toward the patient 2 and X-rays generated from the X-ray generators 5A and 5B and transmitted through the patient 2. It includes two-dimensional X-ray detectors 4A and 4B for detecting the distribution, and a signal processing circuit (not shown).

2次元X線検出器4Aおよび4Bには、例えばフラットパネル検出器(FPD:Flat Panel Detector)やイメージ・インテンシファイヤ(I.I.:Image Intensifier)が用いられる。2次元X線検出器4Aおよび4Bは、2次元画像を取得するものであればよく、FPDやI.I.以外の2次元検出器であってもよい。 For the two-dimensional X-ray detectors 4A and 4B, for example, a flat panel detector (FPD) or an image intensifier (I.I .: Image Intensifier) is used. The two-dimensional X-ray detectors 4A and 4B may be any two-dimensional detector other than the FPD or I.I., as long as they acquire a two-dimensional image.

なお、本実施形態では、X線撮影装置の台数は2台であるが、これに限定されない。X線撮影装置の台数は、1台以上であれば何台であってもよい。患部3の位置を治療室座標系に対する3次元位置として算出する場合、2台以上のX線撮影装置が用いられてよい。 In the present embodiment, the number of X-ray imaging devices is two, but the number is not limited to this. The number of X-ray imaging devices may be any number as long as it is one or more. When calculating the position of the affected area 3 as a three-dimensional position with respect to the treatment room coordinate system, two or more X-ray imaging devices may be used.

動体追跡装置60が実施する画像処理としては、例えばテンプレートマッチング法がある。この場合、動体追跡装置60は追跡用パラメータとして、DRR画像やX線透視画像から患部3が写っている範囲を切り抜いたテンプレート画像を予め作成する。 As the image processing performed by the moving object tracking device 60, for example, there is a template matching method. In this case, the moving object tracking device 60 creates in advance a template image in which the area in which the affected portion 3 is shown is cut out from the DRR image or the fluoroscopic image as a tracking parameter.

動体追跡装置60は、X線撮影装置6Aおよび6Bで撮影したX線透視画像とテンプレート画像を比較し、もっとも類似度が高くなる位置を各X線透視画像上の患部3の位置として算出する。類似度としては、正規化相互相関(NCC:Normalized Cross Correlation)等が用いられる。その後、動体追跡装置60は三角測量の原理を用いて、各X線透視画像上の患部3の位置から、患部3の位置を治療室座標系に対する3次元位置として算出する。 The moving body tracking device 60 compares the X-ray perspective images taken by the X-ray imaging devices 6A and 6B with the template image, and calculates the position having the highest degree of similarity as the position of the affected portion 3 on each X-ray fluoroscopic image. Normalized cross-correlation (NCC) or the like is used as the degree of similarity. After that, the moving body tracking device 60 calculates the position of the affected part 3 as a three-dimensional position with respect to the treatment room coordinate system from the position of the affected part 3 on each X-ray perspective image using the principle of triangulation.

なお、本実施形態における動体追跡装置60は患部3の位置を治療室座標系に対する3次元位置として算出するが、これに限定されない。動体追跡装置60は患部3の位置として、X線撮影装置6Aおよび6Bで撮影した各X線透視画像上の2次元位置だけを算出してもよい。また、動体追跡装置60は患部3の位置として、X線透視画像上に写る患部3の輪郭を算出してもよい。さらに、動体追跡装置60は患部3の位置として、患部3が存在する位置であるという確からしさを表す尤度を算出してもよい。 The moving body tracking device 60 in the present embodiment calculates the position of the affected area 3 as a three-dimensional position with respect to the treatment room coordinate system, but the present invention is not limited to this. The moving body tracking device 60 may calculate only the two-dimensional position on each fluoroscopic image taken by the X-ray imaging devices 6A and 6B as the position of the affected portion 3. Further, the moving body tracking device 60 may calculate the contour of the affected portion 3 reflected on the fluoroscopic image as the position of the affected portion 3. Further, the moving body tracking device 60 may calculate the likelihood indicating the certainty that the affected part 3 is present as the position of the affected part 3.

患部3の位置としてX線透視画像上の2次元位置を算出する場合、動体追跡装置60は、例えば前述のテンプレートマッチング法を用いた画像処理を実施してもよい。この場合、動体追跡装置60は追跡用パラメータとしてテンプレート画像を予め作成する。 When calculating the two-dimensional position on the fluoroscopic image as the position of the affected part 3, the moving object tracking device 60 may perform image processing using, for example, the above-mentioned template matching method. In this case, the moving object tracking device 60 creates a template image in advance as a tracking parameter.

また、患部3の位置としてX線透視画像上に写る患部3の輪郭を算出する場合、動体追跡装置60は、例えば患部3を含む学習画像と患部特徴を含む教師画像に基づいて機械学習により識別器を作成し、作成した識別器にX線透視画像を入力することで、患部3の輪郭を算出する、という画像処理を実施してもよい。この場合、動体追跡装置60は追跡用パラメータとして、識別器のパラメータを機械学習により予め作成する。なお、ここでの機械学習手法としては、ニューラルネットワーク、畳み込みニューラルネットワーク、SVM(Support Vector Machine)、決定木等が適用できる。 Further, when calculating the contour of the affected part 3 reflected on the perspective X-ray image as the position of the affected part 3, the moving body tracking device 60 identifies by machine learning based on, for example, a learning image including the affected part 3 and a teacher image including the affected part features. Image processing may be performed in which a device is created and an X-ray perspective image is input to the created classifier to calculate the contour of the affected area 3. In this case, the moving object tracking device 60 creates a parameter of the classifier as a tracking parameter in advance by machine learning. As the machine learning method here, a neural network, a convolutional neural network, an SVM (Support Vector Machine), a decision tree, or the like can be applied.

さらに、患部3の位置として、患部3が存在する位置であるという確からしさを表す尤度を算出する場合、動体追跡装置60は、例えば特許文献1に記載の技術を使用した画像処理を実施してもよい。この場合、動体追跡装置60は追跡用パラメータとして、尤度計算パラメータとX線透視画像と学習装置の導出した各種パラメ―タを予め作成する。 Further, when calculating the likelihood indicating the certainty that the affected part 3 exists as the position of the affected part 3, the moving object tracking device 60 performs image processing using, for example, the technique described in Patent Document 1. You may. In this case, the moving object tracking device 60 creates in advance the likelihood calculation parameters, the X-ray fluoroscopic image, and various parameters derived from the learning device as tracking parameters.

放射線治療システム100には、治療台1に乗った患者2の位置と、治療計画で定められた所定の位置と、を合わせるための仮想的な基準点が定められている。基準点は、X線撮影装置6Aおよび6BによってX線透視が撮影される平面に含まれていてよい。 The radiotherapy system 100 defines a virtual reference point for aligning the position of the patient 2 on the treatment table 1 with the predetermined position defined in the treatment plan. The reference point may be included in a plane on which fluoroscopy is taken by the radiographers 6A and 6B.

その他、放射線治療システム100は、各種装置を相互に通信接続するネットワーク50を備えている。 In addition, the radiotherapy system 100 includes a network 50 for communicating and connecting various devices to each other.

図1、及び実施形態に係る精度検証装置10の概略の機能構成を示す図2を参照して、本実施形態の精度検証装置10について詳細に説明する。 The accuracy verification device 10 of the present embodiment will be described in detail with reference to FIG. 1 and FIG. 2 showing a schematic functional configuration of the accuracy verification device 10 according to the embodiment.

精度検証装置10は、演算部11、表示部12、入力部13、記憶部14、および通信部15を備えている。演算部11は、造形部110、調整部111、合成部112、検証部113を備えている。 The accuracy verification device 10 includes a calculation unit 11, a display unit 12, an input unit 13, a storage unit 14, and a communication unit 15. The calculation unit 11 includes a modeling unit 110, an adjustment unit 111, a synthesis unit 112, and a verification unit 113.

造形部110は、例えばCT撮影装置20により撮影されたCT画像上で定められた患部3の形状に基づき、患部模型を作成する。調整部111は、入力部13の入力結果に基づき、患部模型をX線透視により撮影した透視画像(以下、模型透視画像と呼称する)の位置を調整する。合成部112は、調整部111で調整した模型透視画像と、患者2をX線透視により撮影した透視画像(以下、患者透視画像と呼称する)と、を合成し、合成画像を作成する。検証部113は、合成部112で作成した合成透視画像を用いて動体追跡装置60の患部3の位置の算出精度を算出する。 The modeling unit 110 creates a model of the affected area based on the shape of the affected area 3 defined on the CT image taken by the CT imaging device 20, for example. The adjusting unit 111 adjusts the position of a fluoroscopic image (hereinafter, referred to as a model fluoroscopic image) obtained by X-ray fluoroscopy of the affected area model based on the input result of the input unit 13. The synthesizing unit 112 synthesizes the model fluoroscopy image adjusted by the adjusting unit 111 and the fluoroscopic image of the patient 2 taken by X-ray fluoroscopy (hereinafter referred to as a patient fluoroscopy image) to create a composite image. The verification unit 113 calculates the calculation accuracy of the position of the affected portion 3 of the moving object tracking device 60 by using the composite fluoroscopic image created by the composite unit 112.

表示部12は患者透視画像や模型透視画像、合成透視画像等を表示装置(図示せず)に表示する。入力部13は、マウス、キーボード、スイッチ等のインターフェースを備えており、ユーザの操作に応じて精度検証装置10に情報を入力する。記憶部14は、合成部112で用いる合成パラメータや、合成部112で作成した合成透視画像等を記憶する。通信部15は、動体追跡装置60やCT撮影装置20などと相互通信する。 The display unit 12 displays a patient perspective image, a model perspective image, a composite perspective image, and the like on a display device (not shown). The input unit 13 includes an interface such as a mouse, a keyboard, and a switch, and inputs information to the accuracy verification device 10 according to a user operation. The storage unit 14 stores the synthesis parameters used by the synthesis unit 112, the composite fluoroscopic image created by the synthesis unit 112, and the like. The communication unit 15 communicates with the moving object tracking device 60, the CT imaging device 20, and the like.

精度検証装置10の各構成要素が実行する処理を以下に具体的に説明する。 The processing executed by each component of the accuracy verification device 10 will be specifically described below.

造形部110は、まずCT撮影装置20によって撮影したCT画像と、治療計画装置30によって作成した治療計画を患者DB40から読み出す。その後、治療計画によってCT画像上に指定された患部領域の構造情報に基づき、患部3と同様の構造を持つ患部模型を造形する。 First, the modeling unit 110 reads out the CT image taken by the CT imaging device 20 and the treatment plan created by the treatment planning apparatus 30 from the patient DB 40. Then, based on the structural information of the affected area designated on the CT image by the treatment plan, a model of the affected area having the same structure as that of the affected area 3 is modeled.

図3に、造形部110が作成した患部模型の一例として、肺がん患者の治療計画とCT画像に基づき作成した患部模型200を示す。 FIG. 3 shows an affected area model 200 created based on a treatment plan of a lung cancer patient and a CT image as an example of the affected area model created by the modeling unit 110.

患部模型200の造形には、例えば3Dプリンターが用いられる。以下に、患部模型200の造形に3Dプリンターを用いた場合の作成手順を示す。まず治療計画によってCT画像上に指定された患部領域の構造情報に基づき、CT画像中の患部領域だけを抽出した、患部抽出CT画像を作成する。その後、患部抽出CT画像を3Dプリンターの入力データ形式(例えばSTL形式:Stereolithography)に変換し、患部抽出造形データを作成する。最終的に変換した患部抽出造形データを3Dプリンターに入力し、患部模型200を作成する。 For example, a 3D printer is used for modeling the affected area model 200. The procedure for creating the affected area model 200 when a 3D printer is used for modeling is shown below. First, based on the structural information of the affected area designated on the CT image by the treatment plan, an affected CT image is created by extracting only the affected area in the CT image. After that, the affected CT image is converted into an input data format (for example, STL format: Stereolithography) of a 3D printer, and the affected area extraction modeling data is created. The finally converted affected part extraction modeling data is input to a 3D printer to create an affected part model 200.

なお、本実施形態では、患部模型200の造形に3Dプリンターを用いたが、これに限定されない。例えば患部模型200は、患部3と同様の構造となるよう樹脂塊を削り出すことで作成してもよい。また、本実施形態では、患部模型200を患者毎に作成するとしたが、これに限定されない。例えば患部模型200は、患者毎に患部模型200を作成せず、予め作成しておいた数種類の患部模型200を使いまわすことも可能である。 In the present embodiment, a 3D printer is used for modeling the affected area model 200, but the present invention is not limited to this. For example, the affected part model 200 may be created by carving out a resin mass so as to have a structure similar to that of the affected part 3. Further, in the present embodiment, the affected area model 200 is created for each patient, but the present invention is not limited to this. For example, in the affected area model 200, it is possible to reuse several types of affected area models 200 prepared in advance without creating the affected area model 200 for each patient.

調整部111は、入力部13でユーザが入力した位置情報に基づき、造形部110で作成した患部模型200をX線透視により撮影した模型透視画像を平行移動することで、模型透視画像上に投影された患部模型200の位置を調整した、調整後模型透視画像を作成する。 Based on the position information input by the user in the input unit 13, the adjustment unit 111 projects the affected part model 200 created by the modeling unit 110 onto the model perspective image by moving in parallel the model perspective image taken by X-ray fluoroscopy. An adjusted model perspective image is created by adjusting the position of the affected area model 200.

合成部112は、調整部111が作成した調整後模型透視画像と、患者2をX線透視により撮影した患者透視画像とを合成し、合成透視画像を作成する。合成透視画像は、動体追跡装置60の患部3の位置の算出精度を測定するために用いられる。 The synthesizing unit 112 synthesizes the adjusted model fluoroscopy image created by the adjusting unit 111 and the patient fluoroscopy image of the patient 2 taken by X-ray fluoroscopy to create a composite fluoroscopy image. The composite fluoroscopic image is used to measure the calculation accuracy of the position of the affected portion 3 of the moving object tracking device 60.

図4に、合成透視画像の作成方法を概念的に示す。合成透視画像の作成では、以下の4つの状況(状況300、320、340,360)で撮影された4つの透視画像(透視画像304、324、344、364)を考える。 FIG. 4 conceptually shows a method of creating a composite fluoroscopic image. In the creation of the composite fluoroscopic image, four fluoroscopic images (perspective images 304, 324, 344, 364) taken in the following four situations (situations 300, 320, 340, 360) are considered.

状況300は被写体がないケースである。入射X線301は空気中を通過し、透過X線302となる。この場合、2次元X線検出器4Aまたは4Bで検出された透視画像304には明確な物体が投影されず、入射X線301の二次元強度分布が直に反映された画像になる。 Situation 300 is a case where there is no subject. The incident X-ray 301 passes through the air and becomes a transmitted X-ray 302. In this case, a clear object is not projected on the perspective image 304 detected by the two-dimensional X-ray detector 4A or 4B, and the two-dimensional intensity distribution of the incident X-ray 301 is directly reflected in the image.

状況320は、被写体として患者2が存在するケースである。入射X線321は患者2を通過し、透過X線322となる。この場合、2次元X線検出器4Aまたは4Bで検出された透視画像324には患者2の体内構造と、患者2内にある患部3の投影像である患部投影像3'が投影される。 Situation 320 is a case where the patient 2 is present as a subject. The incident X-ray 321 passes through the patient 2 and becomes a transmitted X-ray 322. In this case, the fluoroscopic image 324 detected by the two-dimensional X-ray detector 4A or 4B projects the internal structure of the patient 2 and the affected area projection image 3', which is a projection image of the affected area 3 in the patient 2.

状況340は、被写体として患部模型200が存在するケースである。入射X線341は患部模型200を通過し、透過X線342となる。この場合、2次元X線検出器4Aまたは4Bで検出された透視画像344には、患部模型200の投影像である患部模型投影像200'が投影される。 Situation 340 is a case where the affected part model 200 exists as a subject. The incident X-ray 341 passes through the affected area model 200 and becomes a transmitted X-ray 342. In this case, the affected part model projected image 200', which is a projected image of the affected part model 200, is projected on the perspective image 344 detected by the two-dimensional X-ray detector 4A or 4B.

最後に、状況360は被写体として患者2と患部模型200が存在するという仮想的に想定したケースである。入射X線361は患者2と患部模型200を通過し、透過X線362となる。この場合、2次元X線検出器4Aまたは4Bで検出された透視画像364には、患者2の体内構造と、患者2内にある患部3の投影像である患部投影像3'と、患部模型200の投影像である患部模型投影像200'が投影される。 Finally, the situation 360 is a virtually assumed case in which the patient 2 and the affected area model 200 exist as subjects. The incident X-ray 361 passes through the patient 2 and the affected area model 200, and becomes a transmitted X-ray 362. In this case, the perspective image 364 detected by the two-dimensional X-ray detector 4A or 4B includes the internal structure of the patient 2, the affected part projection image 3'which is a projection image of the affected part 3 in the patient 2, and the affected part model. The affected area model projection image 200', which is a projection image of 200, is projected.

合成部112は、透視画像304と透視画像324と透視画像344から、状況360を仮想的に想定した状況で得られる透視画像364を、下記の数式に基づき算出する。

Figure 2021153952
Figure 2021153952
Figure 2021153952
The compositing unit 112 calculates the perspective image 364 obtained from the perspective image 304, the perspective image 324, and the perspective image 344 in a situation in which the situation 360 is virtually assumed, based on the following mathematical formula.
Figure 2021153952
Figure 2021153952
Figure 2021153952

ここで、I0は透視画像304の画素値、I1は透視画像324の画素値、I2は透視画像344の画素値、μ1は患者2内でのX線の線減弱係数、T1は患者2の厚み、μ2は患部模型200内でのX線の線減弱係数、T2は患部模型200の厚みを表す。つまり各透視画像から各物体の線減弱係数と厚みの積をそれぞれ算出し、それらの和を用いてX線の減衰を推定することで、2つの物体を別々に撮影した透視画像から、2つの物体を同時に撮影した透視画像を合成できる。 Here, I 0 is the pixel value of the perspective image 304, I 1 is the pixel value of the perspective image 324, I 2 is the pixel value of the perspective image 344, μ 1 is the X-ray attenuation coefficient in the patient 2, and T 1 is. The thickness of patient 2 and μ 2 represent the X-ray attenuation coefficient in the affected area model 200, and T 2 represents the thickness of the affected area model 200. That is, by calculating the product of the line attenuation coefficient and the thickness of each object from each perspective image and estimating the X-ray attenuation using the sum of them, two perspective images of the two objects taken separately are used. Perspective images of objects taken at the same time can be combined.

また、透視画像364を、下記の数式に基づき算出することもできる。

Figure 2021153952
Further, the fluoroscopic image 364 can be calculated based on the following mathematical formula.
Figure 2021153952

ここで、αはX線のビームハードニングの影響により、後方にある物体ほどX線減衰が低下する効果を表すパラメータである。αの値は0〜1を取り、入力部13がユーザの操作に基づき決定する。 Here, α is a parameter representing the effect that the X-ray attenuation decreases as the object is behind due to the influence of the X-ray beam hardening. The value of α takes 0 to 1, and the input unit 13 determines it based on the user's operation.

また、透視画像364を、下記の数式に基づき算出することもできる。

Figure 2021153952
Further, the fluoroscopic image 364 can be calculated based on the following mathematical formula.
Figure 2021153952

ここで、βは患部模型200と患者2内にある患部3の密度の違いによるX線減衰量の差を補正するパラメータである。 Here, β is a parameter for correcting the difference in the amount of X-ray attenuation due to the difference in density between the affected part model 200 and the affected part 3 in the patient 2.

例えば患者2内にある患部3が肺腫瘍だとすると、肺腫瘍のCT値(CT画像上での肺腫瘍の画素値で、凡そ物体の密度に比例する値)は−100前後の値をとる。一方で患部模型200を例えば一般的な樹脂材料を用いて作成したとすると、患部模型200のCT値は100前後の値をとる。βはこのような患部模型200のCT値と患者2内の患部3のCT値の違いを補正するためのパラメータであり、患部模型200と患部3のCT値が異なる場合でも、より患部模型200のCT値が患部3に近い状況での追跡精度を算出することができる。βは任意の値をとり、例えば患部模型200と患部3のCT値の比などを用いて算出することができる。またはβは、入力部13がユーザの操作に基づき決定してもよい。 For example, assuming that the affected area 3 in the patient 2 is a lung tumor, the CT value of the lung tumor (the pixel value of the lung tumor on the CT image, which is approximately proportional to the density of the object) is around -100. On the other hand, if the affected area model 200 is created using, for example, a general resin material, the CT value of the affected area model 200 is around 100. β is a parameter for correcting such a difference between the CT value of the affected part model 200 and the CT value of the affected part 3 in the patient 2, and even if the CT values of the affected part model 200 and the affected part 3 are different, the affected part model 200 is more. It is possible to calculate the tracking accuracy in a situation where the CT value of is close to that of the affected area 3. β takes an arbitrary value and can be calculated using, for example, the ratio of the CT values of the affected area model 200 and the affected area 3. Alternatively, β may be determined by the input unit 13 based on the user's operation.

さらに、数式(1)、数式(4)または数式(5)で作成した合成透視画像に対し、下記の数式に基づきノイズ効果を付与することもできる。

Figure 2021153952
Further, a noise effect can be added to the composite perspective image created by the mathematical formula (1), the mathematical formula (4) or the mathematical formula (5) based on the following mathematical formula.
Figure 2021153952

ここで、I1+2は数式(1)、数式(4)または数式(5)により算出した合成透視画像であり、I'1+2はノイズ効果を付与したノイズ合成透視画像であり、η(0、σ2)は平均0、分散σのガウス分布に従う確率変数である。σの値は任意の大きさをとり、入力部13がユーザの操作に基づき決定する。数式(6)により、合成透視画像にノイズ効果を付与することで、より追跡が困難な状況での追跡精度を算出することができる。 Here, I 1 + 2 is a composite perspective image calculated by the formula (1), the formula (4), or the formula (5), and I'1 + 2 is a noise composite perspective image to which the noise effect is added, and η. (0, σ 2 ) is a random variable that follows a Gaussian distribution with mean 0 and variance σ. The value of σ has an arbitrary size, and the input unit 13 determines it based on the operation of the user. By adding a noise effect to the composite fluoroscopic image by the mathematical formula (6), it is possible to calculate the tracking accuracy in a situation where tracking is more difficult.

合成透視画像に投影された患部模型200の正解データは、例えば閾値を使って透視画像344を患部模型200が投影された領域と、患部模型200が投影されていない領域の2値に分離することで作成できる。閾値の算出方法には大津の2値化法などが適用できる。 The correct answer data of the affected area model 200 projected on the composite fluoroscopic image is, for example, using a threshold to separate the fluoroscopic image 344 into two values, that is, the area where the affected area model 200 is projected and the area where the affected area model 200 is not projected. Can be created with. Otsu's binarization method or the like can be applied to the threshold calculation method.

図5に、合成部112で作成した合成透視画像と正解データの一例を示す。 FIG. 5 shows an example of the composite fluoroscopic image and the correct answer data created by the synthesis unit 112.

合成透視画像には、患者2の体内構造と、患部3の投影像である患部投影像3'と、患部模型200の投影像である200'が投影されている。また、正解データは、患部模型200が投影された領域401と、患部模型200が投影されていない領域402に2値化されている。なお正解データは2つの領域として作成したが、これに限定されない。例えば患部模型200が投影された領域と、患部模型200が投影されていない領域と、それらの境界領域などの3つの領域として正解データを作成してもよい。また、患部模型200が投影された領域の重心位置などの二次元情報として正解データを作成してもよい。 In the composite fluoroscopic image, the internal structure of the patient 2, the affected part projection image 3'which is a projection image of the affected part 3, and 200', which is a projection image of the affected part model 200, are projected. Further, the correct answer data is binarized into the area 401 on which the affected area model 200 is projected and the area 402 on which the affected area model 200 is not projected. The correct answer data was created as two areas, but it is not limited to this. For example, correct answer data may be created as three areas such as an area on which the affected area model 200 is projected, an area on which the affected area model 200 is not projected, and a boundary area between them. Further, correct answer data may be created as two-dimensional information such as the position of the center of gravity of the area where the affected area model 200 is projected.

検証部113は、まず、合成部112が作成した合成透視画像を動体追跡装置60に送信する。検証部113は動体追跡装置60を操作し、動体追跡装置60は合成透視画像上の患部模型200を追跡し、合成透視画像上での患部模型200の2次元位置を算出する。その後、検証部113は、動体追跡装置60が算出した追跡位置と合成部112が作成した正解データの比較結果を算出する。比較結果としては、例えば動体追跡装置60が算出した合成透視画像上での患部模型200の2次元位置と、正解データ上での患部模型200が投影された領域401の重心位置との二乗誤差などが用いられる。 First, the verification unit 113 transmits the composite fluoroscopic image created by the synthesis unit 112 to the moving object tracking device 60. The verification unit 113 operates the moving body tracking device 60, and the moving body tracking device 60 tracks the affected part model 200 on the synthetic fluoroscopic image and calculates the two-dimensional position of the affected part model 200 on the synthetic fluoroscopic image. After that, the verification unit 113 calculates a comparison result between the tracking position calculated by the moving object tracking device 60 and the correct answer data created by the synthesis unit 112. As a comparison result, for example, a square error between the two-dimensional position of the affected part model 200 on the synthetic fluoroscopic image calculated by the moving object tracking device 60 and the position of the center of gravity of the region 401 on which the affected part model 200 is projected on the correct answer data, etc. Is used.

表示部12は、患者透視画像や合成透視画像など各種画像や、検証部113が算出した比較結果などを表示装置(図示せず)に表示する。入力部13は、マウス、キーボード、スイッチ等のインターフェースを備えており、ユーザの操作に応じて精度検証装置10に情報を入力する。入力部13は、ユーザの操作に応じて調整部111で模型透視画像を平行移動する際の位置情報を決定する。入力部13が決定する位置情報は、例えば2次元位置が用いられる。この場合、調整部111が作成する調整後模型透視画像は1種類になる。 The display unit 12 displays various images such as a patient perspective image and a composite perspective image, a comparison result calculated by the verification unit 113, and the like on a display device (not shown). The input unit 13 includes an interface such as a mouse, a keyboard, and a switch, and inputs information to the accuracy verification device 10 according to a user operation. The input unit 13 determines the position information when the model fluoroscopic image is translated by the adjustment unit 111 according to the operation of the user. For example, a two-dimensional position is used as the position information determined by the input unit 13. In this case, there is only one type of adjusted model perspective image created by the adjusting unit 111.

また、入力部13が決定する位置情報は、複数の2次元位置などであってもよい。この場合、調整部111は、投影される患部模型200の位置が異なる複数種類の調整後模型透視画像を作成し、同時に合成部112が作成する合成透視画像も複数種類作成される。 Further, the position information determined by the input unit 13 may be a plurality of two-dimensional positions or the like. In this case, the adjusting unit 111 creates a plurality of types of adjusted model fluoroscopic images in which the positions of the projected affected area model 200 are different, and at the same time, a plurality of types of composite fluoroscopic images created by the composite unit 112 are also created.

記憶部14は、合成部112で用いる合成パラメータや、合成部112で作成した合成透視画像等を記憶する。通信部15は、動体追跡装置60やCT撮影装置20などと相互通信する。 The storage unit 14 stores the synthesis parameters used by the synthesis unit 112, the composite fluoroscopic image created by the synthesis unit 112, and the like. The communication unit 15 communicates with the moving object tracking device 60, the CT imaging device 20, and the like.

精度検証装置10や動体追跡装置60等は、演算装置である演算部11にプログラムを実行させることで実現されてよい。この演算装置は、CPUやメモリ、インターフェース等を備えたコンピュータや、FPGA(Field Programmable Gate Array)等のプログラム可能な演算デバイスであってよい。演算装置に読み込まれるプログラムは、内部記録媒体や外部記録媒体MM(図1参照)に記憶されており、演算装置によって読み出される。 The accuracy verification device 10, the moving object tracking device 60, and the like may be realized by causing the arithmetic unit 11, which is an arithmetic unit, to execute a program. This arithmetic unit may be a computer provided with a CPU, memory, an interface, or the like, or a programmable arithmetic device such as an FPGA (Field Programmable Gate Array). The program read into the arithmetic unit is stored in the internal recording medium or the external recording medium MM (see FIG. 1), and is read by the arithmetic unit.

また、精度検証装置10や動体追跡装置60等に対する動作指令は、1つのプログラムにまとめられていても、複数のプログラムに分かれていてもよく、それらの組み合わせでもよい。また、プログラムの一部または総ては専用のハードウェアで実現されてもよく、モジュール化されていてもよい。さらには、各種プログラムは、プログラム配布サーバや内部記憶媒体や外部記憶媒体MMから各装置にインストールされてもよい。また、精度検証装置10や動体追跡装置60等は独立している必要はなく、2つ以上を一体化、共通化して処理のみを分担してもよい。 Further, the operation commands for the accuracy verification device 10, the moving object tracking device 60, and the like may be combined into one program, divided into a plurality of programs, or a combination thereof. In addition, part or all of the program may be realized by dedicated hardware, or may be modularized. Further, various programs may be installed in each device from the program distribution server, the internal storage medium, or the external storage medium MM. Further, the accuracy verification device 10 and the moving object tracking device 60 and the like do not have to be independent, and two or more of them may be integrated and shared to share only the processing.

精度検証装置10が備える複数の構成要素のうちの一部は、外部のコンピュータによって構成されてもよい。外部のコンピュータは、精度検証装置10に直接接続されたものでもよいし、インターネット等の通信回線に接続されたものでもよい。精度検証装置10が備える複数の構成要素のうちの一部または全部は、ハードウェアとしての電子回路によって個別に構成されてもよい。 A part of the plurality of components included in the accuracy verification device 10 may be configured by an external computer. The external computer may be directly connected to the accuracy verification device 10 or may be connected to a communication line such as the Internet. A part or all of the plurality of components included in the accuracy verification device 10 may be individually configured by an electronic circuit as hardware.

精度検証装置10が備える記憶部14には、例えばRAM、ROM、ハードディスク、USBメモリ、SDカード等が用いられてよい。記憶部14は、インターネット等の通信回線上にあるストレージであってもよい。精度検証装置10が備える1つの構成要素は、分散処理を実行する複数のコンピュータによって構成されてもよい。 For the storage unit 14 included in the accuracy verification device 10, for example, a RAM, a ROM, a hard disk, a USB memory, an SD card, or the like may be used. The storage unit 14 may be a storage on a communication line such as the Internet. One component included in the accuracy verification device 10 may be composed of a plurality of computers that perform distributed processing.

次に、本実施例に係る放射線治療システム100の精度検証装置10の処理についての詳細を説明する。図6は、精度検証装置10の処理手順を示すフローチャートである。 Next, the details of the processing of the accuracy verification device 10 of the radiotherapy system 100 according to this embodiment will be described. FIG. 6 is a flowchart showing a processing procedure of the accuracy verification device 10.

精度検証装置10が処理を開始すると、通信部15は患者DB40からCT画像と治療計画を読み出し、記憶部14に保存する(S501)。 When the accuracy verification device 10 starts processing, the communication unit 15 reads the CT image and the treatment plan from the patient DB 40 and stores them in the storage unit 14 (S501).

次に、造形部110は、記憶部14に保存されたCT画像と治療計画から、治療計画によってCT画像上に指定された患部領域の構造情報に基づき、患部3と同様の構造を持つ患部模型200を造形する(S502)。 Next, the modeling unit 110 has a structure similar to that of the affected area 3 based on the structural information of the affected area designated on the CT image by the treatment plan from the CT image and the treatment plan stored in the storage unit 14. Model 200 (S502).

その後、通信部15は動体追跡装置60と通信し、患部模型200をX線撮影装置6Aおよび6Bで撮影するための撮影パラメータを設定する(S503)。撮影パラメータとは、X線発生装置5Aおよび5Bの管電圧や管電流や、X線透視の角度などのことを指す。 After that, the communication unit 15 communicates with the moving object tracking device 60, and sets imaging parameters for photographing the affected area model 200 with the X-ray imaging devices 6A and 6B (S503). The imaging parameters refer to the tube voltage and tube current of the X-ray generators 5A and 5B, the angle of fluoroscopy, and the like.

続いて、通信部15は動体追跡装置60と通信し、患部模型200のX線透視を撮影し、模型透視画像を取得し、記憶部14に保存する(S504)。さらに、入力部13は、ユーザの操作により模型透視画像を平行移動する際の位置情報を決定する(S505)。続いて、調整部111は、記憶部14から模型透視画像を読み出し、S505で決定した位置情報に基づいて、調整後模型透視画像を作成する(S506)。 Subsequently, the communication unit 15 communicates with the moving object tracking device 60, photographs the X-ray fluoroscopy of the affected model 200, acquires the model fluoroscopy image, and stores it in the storage unit 14 (S504). Further, the input unit 13 determines the position information when the model fluoroscopic image is translated by the user's operation (S505). Subsequently, the adjusting unit 111 reads out the model fluoroscopic image from the storage unit 14 and creates an adjusted model fluoroscopic image based on the position information determined in S505 (S506).

S502乃至S506と並行し、通信部15は動体追跡装置60と通信し、治療台1に乗った患者2の位置決めを実施する(S507)。患者2の位置決めは放射線照射装置7に備え付けられた墨出しレーザー光(図示せず)に基づいて、治療計画上で定められた所定の位置と患者2の位置を合わせてもよい。 In parallel with S502 to S506, the communication unit 15 communicates with the motion tracking device 60 to position the patient 2 on the treatment table 1 (S507). The positioning of the patient 2 may be performed by aligning the position of the patient 2 with a predetermined position determined in the treatment plan based on the marking laser light (not shown) provided in the radiation irradiation device 7.

次に、通信部15は動体追跡装置60と通信し、患部模型200をX線撮影装置6Aおよび6Bで撮影するための撮影パラメータを設定する(S508)。撮影パラメータとは、X線発生装置5Aおよび5Bの管電圧や管電流などのことを指す。続いて、通信部15は動体追跡装置60と通信し、患者2のX線透視を撮影し、患者透視画像を取得し、記憶部14に保存する(S509)。 Next, the communication unit 15 communicates with the moving object tracking device 60, and sets imaging parameters for imaging the affected area model 200 with the X-ray imaging devices 6A and 6B (S508). The imaging parameters refer to the tube voltage and tube current of the X-ray generators 5A and 5B. Subsequently, the communication unit 15 communicates with the moving object tracking device 60, takes an X-ray fluoroscopy of the patient 2, acquires the patient fluoroscopy image, and stores it in the storage unit 14 (S509).

S506乃至S509の後、入力部13は必要に応じてユーザの操作を受け付け、合成パラメータを決定する(S510)。合成パラメータとは、例えば数式(4)にあるαの値である。 After S506 to S509, the input unit 13 accepts the user's operation as necessary and determines the synthesis parameter (S510). The composite parameter is, for example, the value of α in the mathematical formula (4).

次に、合成部112は記憶部14に保存された調整後模型透視画像と患者透視画像を読み出し、合成透視画像と正解データを作成し、記憶部14に保存する(S511)。続いて、通信部15は動体追跡装置60と通信し、予め作成された追跡パラメータを読出し(S512)、記憶部14に保存した合成透視画像を動体追跡装置60に送信し、合成透視画像上の患部模型200の投影像を追跡する(S513)。 Next, the synthesis unit 112 reads out the adjusted model fluoroscopy image and the patient fluoroscopy image stored in the storage unit 14, creates the composite fluoroscopy image and the correct answer data, and stores them in the storage unit 14 (S511). Subsequently, the communication unit 15 communicates with the moving object tracking device 60, reads out the tracking parameters created in advance (S512), transmits the composite fluoroscopic image stored in the storage unit 14 to the moving object tracking device 60, and displays the composite fluoroscopic image on the composite fluoroscopic image. The projected image of the affected area model 200 is tracked (S513).

その後、検証部113は、動体追跡装置60が算出した追跡結果と記憶部14に保存された正解データを比較し、比較結果を表示部12に表示する(S514)。 After that, the verification unit 113 compares the tracking result calculated by the moving object tracking device 60 with the correct answer data stored in the storage unit 14, and displays the comparison result on the display unit 12 (S514).

さらに、通信部15は動体追跡装置60と通信し、他の撮影パラメータで撮影するかどうかを判定する(S515)。複数の透視角度で治療するなどの理由で他の撮影パラメータで撮影する場合(S515においてYES)、S503およびS508に戻り、撮影パラメータを変更して再度処理を進める。 Further, the communication unit 15 communicates with the moving object tracking device 60 and determines whether or not to shoot with other shooting parameters (S515). When imaging with other imaging parameters for reasons such as treatment with a plurality of fluoroscopic angles (YES in S515), the process returns to S503 and S508, the imaging parameters are changed, and the process proceeds again.

本実施例に係る放射線治療システム100による動体追跡放射線治療の処理についての詳細を説明する。図7は、放射線治療システム100による動体追跡放射線治療の処理手順を示すフローチャートである。図7に示すフローチャートは、治療前に実行される治療前フローF600と、患者2が来院し、実際に放射線を照射する際に実行される治療時フローF650に分かれている。 The details of the processing of the moving body tracking radiotherapy by the radiotherapy system 100 according to this embodiment will be described. FIG. 7 is a flowchart showing a processing procedure of moving body tracking radiotherapy by the radiotherapy system 100. The flowchart shown in FIG. 7 is divided into a pretreatment flow F600 executed before treatment and a treatment flow F650 executed when patient 2 visits the hospital and actually irradiates radiation.

放射線治療システム100が処理を開始すると、CT撮影装置20は患者2のCT画像を撮影する(S601)。次に、治療計画装置30はCT画像に基づき治療計画を作成し、患者DB40へ保存する(S602)。 When the radiotherapy system 100 starts processing, the CT imaging device 20 captures a CT image of the patient 2 (S601). Next, the treatment planning device 30 creates a treatment plan based on the CT image and stores it in the patient DB 40 (S602).

続いて、動体追跡装置60は、治療計画とCT画像に基づき、追跡用パラメータを作成する(S603)。さらに、精度検証装置10は、動体追跡装置60が算出した患部3の追跡結果と正解データを比較し、追跡精度を検証する(S604)。 Subsequently, the moving body tracking device 60 creates tracking parameters based on the treatment plan and the CT image (S603). Further, the accuracy verification device 10 compares the tracking result of the affected area 3 calculated by the moving body tracking device 60 with the correct answer data, and verifies the tracking accuracy (S604).

その後、放射線治療システム100は、S604で算出した追跡精度が予め設定された所定の範囲内であるかを判定し(S605)、所定の範囲内であれば(S605においてYES)治療時フローF650へと進む。所定の範囲外と判定した場合(S605においてNO)、S603に戻り、動体追跡装置60は追跡用パラメータを再度作成しなおす。 After that, the radiotherapy system 100 determines whether the tracking accuracy calculated in S604 is within a predetermined range set in advance (S605), and if it is within the predetermined range (YES in S605), the treatment flow F650 is reached. Proceed with. If it is determined that the range is out of the predetermined range (NO in S605), the process returns to S603, and the moving object tracking device 60 recreates the tracking parameter.

なお、S604において複数回追跡精度の検証を行ってもなおS605において追跡精度が所定の範囲内に収まらない場合、治療時フローF650において患者2の患部3に例えば金属製のマーカを用いた治療を提案してもよい。 If the tracking accuracy is still not within the predetermined range in S605 even after the tracking accuracy is verified a plurality of times in S604, the affected part 3 of the patient 2 is treated with, for example, a metal marker in the treatment flow F650. You may make a suggestion.

治療時フローF650では、放射線治療システム100は、治療台1に乗った患者2の位置決めを実施する(S651)。患者2の位置決めは放射線照射装置7に備え付けられた墨出しレーザー光(図示せず)に基づいて、治療計画上で定められた所定の位置と患者2の位置を合わせてもよい。 In the treatment flow F650, the radiotherapy system 100 performs positioning of the patient 2 on the treatment table 1 (S651). The positioning of the patient 2 may be performed by aligning the position of the patient 2 with a predetermined position determined in the treatment plan based on the marking laser light (not shown) provided in the radiation irradiation device 7.

次に、動体追跡装置60は、S603で作成した追跡用パラメータを読出す(S652)。さらに、動体追跡装置60は、X線撮影装置6Aおよび6Bと通信し、患者2をX線透視により撮影した透視画像を取得する(S653)。 Next, the moving object tracking device 60 reads out the tracking parameters created in S603 (S652). Further, the moving body tracking device 60 communicates with the X-ray imaging devices 6A and 6B to acquire a fluoroscopic image of the patient 2 taken by X-ray fluoroscopy (S653).

続いて、動体追跡装置60は、S653で取得した透視画像から患部位置を算出し(S654)、患部位置が予め設定された所定の範囲内であるかを判定する(S655)。所定の範囲内である場合(S655においてYES)、放射線治療システム100は患者2内の患部3へ向けて粒子線を照射する(S656)。S655にて、患部位置が所定の範囲外にある場合(S655においてNO)、S653へと戻る。 Subsequently, the moving body tracking device 60 calculates the affected portion position from the fluoroscopic image acquired in S653 (S654), and determines whether the affected portion position is within a predetermined range set in advance (S655). If it is within the predetermined range (YES in S655), the radiotherapy system 100 irradiates the affected portion 3 in the patient 2 with a particle beam (S656). In S655, when the affected part position is out of the predetermined range (NO in S655), the process returns to S653.

さらに、放射線治療システム100は照射した粒子線量が所定の値に達したかを判定する(S657)。S657にて、照射した粒子線量が所定の値に達した場合(S657においてYES)、治療を終了する。S657にて、照射した粒子線量が所定の値に達しない場合(S657においてNO)、S653へと戻る。 Further, the radiation therapy system 100 determines whether the irradiated particle dose has reached a predetermined value (S657). When the irradiated particle dose reaches a predetermined value in S657 (YES in S657), the treatment is terminated. In S657, when the irradiated particle dose does not reach a predetermined value (NO in S657), the process returns to S653.

本実施例に係る放射線治療システム100及び精度検証装置10の作用について以下に説明する。 The operations of the radiotherapy system 100 and the accuracy verification device 10 according to this embodiment will be described below.

図8は、本実施形態に係る放射線治療システム100の実験例の説明図を示す。図8に示す実透視画像、実施例および比較例の3つの透視画像を使用して動体追跡装置60の追跡精度の検証について実験を実施した。実透視画像は、実際にX線透視により撮影された画像であり、患部3の位置は既知である。実施例は、本実施形態における放射線治療システム100を用いて、実透視画像中に患部模型200の透視画像を合成して作成した画像である。比較例は、CT画像を仮想的にX線透視することで算出した画像である。 FIG. 8 shows an explanatory diagram of an experimental example of the radiotherapy system 100 according to the present embodiment. An experiment was conducted to verify the tracking accuracy of the moving object tracking device 60 using the actual fluoroscopic image shown in FIG. 8 and the three fluoroscopic images of Examples and Comparative Examples. The actual perspective image is an image actually taken by fluoroscopy, and the position of the affected portion 3 is known. An example is an image created by synthesizing a fluoroscopic image of an affected area model 200 in an actual fluoroscopic image using the radiotherapy system 100 of the present embodiment. A comparative example is an image calculated by virtually seeping a CT image through X-rays.

実透視画像と比較例では、画像中に投影された患部3をテンプレートマッチング法により追跡し、追跡精度を算出した。実施例では、本実施形態における放射線治療システム100を用いて、画像中に合成した患部模型200の投影像をテンプレートマッチング法により追跡し、追跡精度を算出した。 In the actual fluoroscopic image and the comparative example, the affected area 3 projected in the image was tracked by the template matching method, and the tracking accuracy was calculated. In the example, using the radiotherapy system 100 of the present embodiment, the projected image of the affected area model 200 synthesized in the image was tracked by the template matching method, and the tracking accuracy was calculated.

図9には、実験例の実験結果の説明図を示す。図9において、実透視画像での追跡誤差は平均5.8(ピクセル)で最大22.1(ピクセル)となった。実施例での追跡誤差は平均6.0(ピクセル)で最大20.0(ピクセル)となり、実透視画像での追跡誤差と同等の結果が得られた。比較例での追跡誤差は平均5.2(ピクセル)で最大14.1(ピクセル)となり、実透視画像や実施例での追跡誤差より最大値が小さい結果となった。 FIG. 9 shows an explanatory diagram of the experimental results of the experimental example. In FIG. 9, the tracking error in the actual fluoroscopic image was 5.8 (pixels) on average and 22.1 (pixels) at the maximum. The tracking error in the examples was 6.0 (pixels) on average and 20.0 (pixels) at the maximum, which was equivalent to the tracking error in the actual fluoroscopic image. The tracking error in the comparative example was 5.2 (pixels) on average and was 14.1 (pixels) at the maximum, which was smaller than the tracking error in the actual fluoroscopic image and the example.

つまり、DRR画像での追跡誤差は、実透視画像での追跡誤差より過少に評価される傾向にある。一方で、実施例では、DRR画像より実透視画像に近い追跡誤差を算出できる。これにより、従来であれば算出できなかった実透視画像での追跡誤差を、本実施形態では合成透視画像を用いて算出することができる。 That is, the tracking error in the DRR image tends to be underestimated than the tracking error in the real fluoroscopic image. On the other hand, in the embodiment, the tracking error closer to the actual fluoroscopic image than the DRR image can be calculated. As a result, the tracking error in the actual fluoroscopic image, which could not be calculated in the past, can be calculated by using the composite fluoroscopic image in the present embodiment.

また、本実施形態では、患者毎に患部模型200を作成することで、患者毎に変化する動体追跡装置60の追跡誤差を評価することができる。 Further, in the present embodiment, by creating the affected area model 200 for each patient, it is possible to evaluate the tracking error of the moving body tracking device 60 that changes for each patient.

さらに、本実施形態では、患者2をX線透視する角度毎に合成透視画像を作成し、各合成透視画像において追跡誤差を算出することで、透視角度毎に変化する動体追跡装置60の追跡誤差を評価することができる。 Further, in the present embodiment, a composite fluoroscopic image is created for each angle of fluoroscopy of the patient 2, and a tracking error is calculated for each composite fluoroscopic image, so that the tracking error of the moving object tracking device 60 that changes for each fluoroscopic angle is obtained. Can be evaluated.

また、本実施形態では、ビームハードニングの効果を補正したうえで合成透視画像を作成することで、患部模型200のコントラストをより現実的にすることができ、動体追跡装置60の追跡誤差をより正確に評価することができる。 Further, in the present embodiment, by creating a composite fluoroscopic image after correcting the effect of beam hardening, the contrast of the affected area model 200 can be made more realistic, and the tracking error of the moving object tracking device 60 can be made more realistic. It can be evaluated accurately.

さらに、本実施形態では、患部模型200と患者2内の患部3のCT値の違いを補正したうえで合成透視画像を作成することで、患部模型200のコントラストをより現実的にすることができ、動体追跡装置60の追跡誤差をより正確に評価することができる。 Further, in the present embodiment, the contrast of the affected area model 200 can be made more realistic by creating a synthetic fluoroscopic image after correcting the difference between the CT values of the affected area model 200 and the affected area 3 in the patient 2. , The tracking error of the moving object tracking device 60 can be evaluated more accurately.

また、本実施形態では、合成透視画像にノイズの効果を付与することで、撮影パラメータが低下した状態での、より追跡が困難な状況での追跡精度を評価することができる。
さらに本実施形態では、患者毎に患部模型200を作成することで、患者毎に変化する患者体内の患部3の形状に合わせた合成透視画像を作成することができ、動体追跡装置60の追跡誤差をより正確に評価することができる。
Further, in the present embodiment, by adding a noise effect to the composite fluoroscopic image, it is possible to evaluate the tracking accuracy in a situation where tracking is more difficult in a state where the photographing parameters are lowered.
Further, in the present embodiment, by creating the affected area model 200 for each patient, it is possible to create a composite fluoroscopic image that matches the shape of the affected area 3 in the patient's body, which changes for each patient, and the tracking error of the moving body tracking device 60. Can be evaluated more accurately.

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 The present invention is not limited to the above-described examples, and includes various modifications. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to those having all the described configurations. Further, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Further, it is possible to add / delete / replace a part of the configuration of each embodiment with another configuration.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。 Further, each of the above configurations, functions, processing units, processing means and the like may be realized by hardware by designing a part or all of them by, for example, an integrated circuit. Further, each of the above configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function. Information such as programs, tables, and files that realize each function can be placed in a memory, a recording device such as a hard disk or SSD, or a recording medium such as an IC card, SD card, or DVD.

また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 In addition, the control lines and information lines indicate those that are considered necessary for explanation, and do not necessarily indicate all the control lines and information lines in the product. In practice, it can be considered that almost all configurations are interconnected.

1…治療台 2…患者 3…患部 3'…患部が透視画像上に投影された投影像 4A、4B…2次元X線検出器 5A、5B…X線発生装置 6A、6B…X線撮影装置 7…粒子線照射装置 10…精度検証装置 11…演算部 12…表示部 13…入力部 14…記憶部 15…通信部 20…CT撮影装置 30…治療計画装置 40…患者DB 50…ネットワーク 100…放射線治療システム 110…造形部 111…調整部 112…合成部 113…検証部 200…患部模型

1 ... Treatment table 2 ... Patient 3 ... Affected area 3'... Projection image of the affected area projected on a fluoroscopic image 4A, 4B ... 2D X-ray detector 5A, 5B ... X-ray generator 6A, 6B ... X-ray imaging device 7 ... Particle beam irradiation device 10 ... Accuracy verification device 11 ... Calculation unit 12 ... Display unit 13 ... Input unit 14 ... Storage unit 15 ... Communication unit 20 ... CT imaging device 30 ... Treatment planning device 40 ... Patient DB 50 ... Network 100 ... Radiation therapy system 110 ... Modeling part 111 ... Adjustment part 112 ... Synthesis part 113 ... Verification part 200 ... Affected part model

Claims (11)

放射線治療システムに適用され、患者をX線透視により撮影した患者透視画像を取得し、前記患者透視画像から動体追跡装置の追跡対象の位置を算出する精度検証装置であって、
前記追跡対象を模擬した追跡対象模型をX線透視により撮影した模型透視画像と、前記患者透視画像と、を合成することで合成透視画像を作成し、
前記合成透視画像に基づき前記動体追跡装置の前記追跡対象の追跡位置精度を算出することを特徴とする精度検証装置。
It is an accuracy verification device applied to a radiotherapy system, which acquires a patient fluoroscopic image of a patient taken by X-ray fluoroscopy and calculates the position of a tracking target of a moving body tracking device from the patient fluoroscopic image.
A composite perspective image is created by synthesizing a model perspective image obtained by photographing the tracking target model simulating the tracking target by X-ray fluoroscopy and the patient perspective image.
An accuracy verification device for calculating the tracking position accuracy of the tracking target of the moving object tracking device based on the composite fluoroscopic image.
前記患者体内におけるX線の減衰を表すパラメータと、前記追跡対象模型内におけるX線の減衰を表すパラメータと、を用いて前記合成透視画像を算出することを特徴とする請求項1に記載の精度検証装置。 The accuracy according to claim 1, wherein the composite fluoroscopic image is calculated using a parameter representing the attenuation of X-rays in the patient's body and a parameter representing the attenuation of X-rays in the model to be tracked. Verification device. 前記患者体内におけるX線の減衰を表すパラメータと、前記追跡対象模型内におけるX線の減衰を表すパラメータと、ビームハードニングの効果を表すパラメータと、を用いて前記合成透視画像を算出することを特徴とする請求項1に記載の精度検証装置。 To calculate the synthetic fluoroscopic image using a parameter representing the attenuation of X-rays in the patient's body, a parameter representing the attenuation of X-rays in the model to be tracked, and a parameter representing the effect of beam hardening. The accuracy verification device according to claim 1. 前記患者体内におけるX線の減衰を表すパラメータと、前記追跡対象模型内におけるX線の減衰を表すパラメータと、前記患者体内における前記追跡対象のX線の減衰を表すパラメータと、を用いて前記合成透視画像を算出することを特徴とする請求項1に記載の精度検証装置。 The synthesis using a parameter representing the attenuation of X-rays in the patient body, a parameter representing the attenuation of X-rays in the tracking target model, and a parameter representing the attenuation of the X-rays of the tracking target in the patient body. The accuracy verification device according to claim 1, wherein a fluoroscopic image is calculated. 前記合成透視画像にノイズ効果を付与することを特徴とする請求項1に記載の精度検証装置。 The accuracy verification device according to claim 1, wherein a noise effect is applied to the composite fluoroscopic image. 前記追跡位置精度を透視パラメータごとに算出することを特徴とする請求項1に記載の精度検証装置。 The accuracy verification device according to claim 1, wherein the tracking position accuracy is calculated for each fluoroscopic parameter. 前記追跡対象模型は患者毎に作成されることを特徴とする請求項1に記載の精度検証装置。 The accuracy verification device according to claim 1, wherein the tracking target model is created for each patient. 前記追跡対象模型は3D造形装置を用いて作成されることを特徴とする請求項1に記載の精度検証装置。 The accuracy verification device according to claim 1, wherein the tracking target model is created by using a 3D modeling device. 患者をX線透視により撮影した患者透視画像を取得し、前記患者透視画像から動体追跡装置の追跡対象の位置を算出する精度検証装置を備えた放射線治療システムであって、
前記精度検証装置は、
前記追跡対象を模擬した追跡対象模型をX線透視により撮影した模型透視画像と、前記患者透視画像と、を合成することで合成透視画像を作成し、
前記合成透視画像に基づき前記動体追跡装置の追跡対象の追跡位置精度を算出する
ことを特徴とする放射線治療システム。
It is a radiotherapy system equipped with an accuracy verification device that acquires a patient fluoroscopy image of a patient by X-ray fluoroscopy and calculates the position of a tracking target of a moving object tracking device from the patient fluoroscopy image.
The accuracy verification device is
A composite perspective image is created by synthesizing a model perspective image obtained by photographing the tracking target model simulating the tracking target by X-ray fluoroscopy and the patient perspective image.
A radiotherapy system characterized in that the tracking position accuracy of a tracking target of the moving object tracking device is calculated based on the composite fluoroscopic image.
放射線治療システムに適用され、患者をX線透視により撮影した患者透視画像を取得し、前記患者透視画像から動体追跡装置の追跡対象の位置を算出する精度検証装置による精度検証方法であって、
前記追跡対象を模擬した追跡対象模型をX線透視により撮影した模型透視画像と、前記患者透視画像と、を合成することで合成透視画像を作成し、
前記合成透視画像に基づき前記動体追跡装置の前記追跡対象の追跡位置精度を算出することを特徴とする精度検証方法。
It is an accuracy verification method by an accuracy verification device applied to a radiotherapy system, which acquires a patient fluoroscopy image of a patient by X-ray fluoroscopy and calculates the position of a tracking target of a moving body tracking device from the patient fluoroscopy image.
A composite perspective image is created by synthesizing a model perspective image obtained by photographing the tracking target model simulating the tracking target by X-ray fluoroscopy and the patient perspective image.
An accuracy verification method for calculating the tracking position accuracy of the tracking target of the moving object tracking device based on the composite fluoroscopic image.
放射線治療システムに適用され、患者をX線透視により撮影した患者透視画像を取得し、前記患者透視画像から動体追跡装置の追跡対象の位置を算出するコンピュータにより実行されるコンピュータプログラムであって、
前記追跡対象を模擬した追跡対象模型をX線透視により撮影した模型透視画像と、前記患者透視画像と、を合成することで合成透視画像を作成する機能と、
前記合成透視画像に基づき前記動体追跡装置の前記追跡対象の追跡位置精度を算出する機能と
を実現させるコンピュータプログラム。
A computer program applied to a radiotherapy system and executed by a computer that acquires a patient fluoroscopic image of a patient taken by X-ray fluoroscopy and calculates the position of a tracking target of a moving body tracking device from the patient fluoroscopic image.
A function of creating a composite perspective image by synthesizing a model perspective image obtained by photographing a tracking target model simulating the tracking target by X-ray fluoroscopy and the patient perspective image.
A computer program that realizes a function of calculating the tracking position accuracy of the tracking target of the moving object tracking device based on the composite fluoroscopic image.
JP2020058288A 2020-03-27 2020-03-27 Accuracy verification device, radiation treatment system, accuracy verification method and computer program Pending JP2021153952A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020058288A JP2021153952A (en) 2020-03-27 2020-03-27 Accuracy verification device, radiation treatment system, accuracy verification method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020058288A JP2021153952A (en) 2020-03-27 2020-03-27 Accuracy verification device, radiation treatment system, accuracy verification method and computer program

Publications (1)

Publication Number Publication Date
JP2021153952A true JP2021153952A (en) 2021-10-07

Family

ID=77916239

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020058288A Pending JP2021153952A (en) 2020-03-27 2020-03-27 Accuracy verification device, radiation treatment system, accuracy verification method and computer program

Country Status (1)

Country Link
JP (1) JP2021153952A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023228461A1 (en) * 2022-05-23 2023-11-30 株式会社 東芝 Radiotherapy system and method for controlling radiotherapy system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023228461A1 (en) * 2022-05-23 2023-11-30 株式会社 東芝 Radiotherapy system and method for controlling radiotherapy system

Similar Documents

Publication Publication Date Title
JP6208535B2 (en) Radiotherapy apparatus and system and method
JP6533991B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, METHOD, PROGRAM, AND RADIATION THERAPY APPARATUS
US10297042B2 (en) Medical image fusion with reduced search space
US9892526B2 (en) Radiotherapy apparatus and radiotherapy method
JP2012254243A (en) Image collator, patient positioner and image verification method
US20220054862A1 (en) Medical image processing device, storage medium, medical device, and treatment system
Malinowski et al. Development of the 4D Phantom for patient-specific end-to-end radiation therapy QA
KR20140100648A (en) Method, apparatus and system for generating model representing deformation of shape and location of organ in respiration cycle
JP2021153952A (en) Accuracy verification device, radiation treatment system, accuracy verification method and computer program
US20230149741A1 (en) Medical image processing device, treatment system, medical image processing method, and storage medium
EP3777686B1 (en) Medical image processing device, medical image processing method, and program
US20220401758A1 (en) Patient anatomical structure change detection method, patient anatomical structure change detection device, and computer program
WO2013129258A1 (en) System for determining particle beam direction, method for determining particle beam direction, and computer program for determining particle beam direction
JP7553264B2 (en) Positioning device, radiation therapy device, positioning method, and computer program
JP7292721B2 (en) Target contour estimator and therapy device
WO2024047915A1 (en) Radiation therapy system, motion tracking device and motion tracking method
JP7577591B2 (en) Positioning device, particle beam therapy device, and positioning method
WO2022107399A1 (en) Positioning device, radiotherapy system, and positioning method
WO2023223614A1 (en) Medical image processing device, treatment system, medical image processing method, program, and storage medium
EP3338860A1 (en) Registration of particle beam radiography data
Shen et al. A Method for Real-Time Patient Positioning Verification in Radiotherapy Using Multi-Angular Images with Conventional Video Cameras
JP2024151221A (en) MOTION TRACKING DEVICE, RADIATION THERAPY SYSTEM, AND MOTION TRACKING METHOD - Patent application
Haga X-Ray Image-Based Patient Positioning