[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2017202315A - Medical image diagnostic device - Google Patents

Medical image diagnostic device Download PDF

Info

Publication number
JP2017202315A
JP2017202315A JP2017092526A JP2017092526A JP2017202315A JP 2017202315 A JP2017202315 A JP 2017202315A JP 2017092526 A JP2017092526 A JP 2017092526A JP 2017092526 A JP2017092526 A JP 2017092526A JP 2017202315 A JP2017202315 A JP 2017202315A
Authority
JP
Japan
Prior art keywords
scan
subject
detection
image
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017092526A
Other languages
Japanese (ja)
Other versions
JP6951117B2 (en
Inventor
塚越 伸介
Shinsuke Tsukagoshi
伸介 塚越
崇博 後藤
Takahiro Goto
崇博 後藤
豪 椋本
Go Mukumoto
豪 椋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Medical Systems Corp filed Critical Toshiba Medical Systems Corp
Priority to US15/590,654 priority Critical patent/US10463328B2/en
Publication of JP2017202315A publication Critical patent/JP2017202315A/en
Application granted granted Critical
Publication of JP6951117B2 publication Critical patent/JP6951117B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a medical image diagnostic device capable of efficiently performing portion detection.SOLUTION: A medical image diagnostic device includes a generation part, a storage part, a detection part, and an output control part. The generation part generates three-dimensional image data of a subject. The storage part stores a plurality of anatomical feature points in the subject in association with a plurality of groups. The detection part selects at least one group of the plurality of groups based on set examination information and a type of scan to be executed, and, based on the anatomical feature point corresponding to the selected group, detects a portion of the subject corresponding to at least one group. The output control part executes control so as to output the information indicating the detected portion.SELECTED DRAWING: Figure 2

Description

本発明の実施形態は、医用画像診断装置に関する。   Embodiments described herein relate generally to a medical image diagnostic apparatus.

従来、X線CT装置(CT;Computed Tomography)を用いた撮影においては、検査部位と検査内容に応じてデータを収集するためのスキャンプロトコルが設定される。上述したスキャンプロトコルは、プリセットされた複数のスキャンプロトコル候補の中から検査部位と検査内容に適したスキャンプロトコル候補が選択され、プリセットされた条件が適宜調整されることにより設定される。ここで、各スキャンプロトコル候補は、例えば、年齢、成人/子供、男性/女性、体重、身長などの体格や、検査目的などに応じて区分けされ、撮影範囲を設定するための位置決め画像(スキャノ画像)の撮影範囲、スキャノ画像の撮影アングル、位置決め画像を撮影する際の管電圧及び管電流、診断に用いられるデータを収集するための本撮影(スキャン)のスキャン方式、スキャン位置、スキャン範囲、スキャンを実行する際の管電圧及び管電流、画像再構成の位置及び範囲などの種々の条件が予め設定される。   Conventionally, in imaging using an X-ray CT apparatus (CT; Computed Tomography), a scan protocol for collecting data is set according to the examination site and examination contents. The scan protocol described above is set by selecting a scan protocol candidate suitable for the examination region and examination contents from a plurality of preset scan protocol candidates and adjusting the preset conditions as appropriate. Here, each scanning protocol candidate is classified according to, for example, physique such as age, adult / child, male / female, weight, height, and inspection purpose, and a positioning image (scan image) for setting an imaging range. ) Shooting range, scan image shooting angle, tube voltage and tube current when shooting the positioning image, scan mode of the main shooting (scan) to collect data used for diagnosis, scan position, scan range, scan Various conditions such as a tube voltage and a tube current and a position and a range of image reconstruction are set in advance.

ここで、スキャノ画像に含まれる部位を認識して、上述した種々の条件設定に利用する手法が知られている。かかる手法では、例えば、スキャノ画像をヘリカルスキャンによって3次元で収集し、収集したスキャノ画像の幾何学的特徴から部位を自動認識し、認識した部位に適した撮影条件を設定する。   Here, a technique is known in which a part included in a scanogram is recognized and used for the various condition settings described above. In such a method, for example, a scanogram is collected in three dimensions by helical scanning, a part is automatically recognized from the geometric features of the collected scanogram, and an imaging condition suitable for the recognized part is set.

特開2008−012229号公報JP 2008-012229 A 特開2005−211514号公報Japanese Patent Laid-Open No. 2005-212514 特開2000−107169号公報JP 2000-107169 A

本発明が解決しようとする課題は、効率よく部位検出を行うことを可能とする医用画像診断装置を提供することである。   The problem to be solved by the present invention is to provide a medical image diagnostic apparatus that enables efficient site detection.

実施形態の医用画像診断装置は、生成部と、記憶部と、検出部と、出力制御部とを備える。生成部は、被検体の3次元画像データを生成する。記憶部は、前記被検体内の複数の解剖学的特徴点を、複数のグループに対応付けて記憶する。検出部は、設定された検査情報および実行するスキャンの種別に基づいて前記複数のグループのうち、少なくとも1つのグループを選択し、選択されたグループに対応する解剖学的特徴点に基づいて、前記少なくとも1つのグループに該当する前記被検体の部位を検出する。出力制御部は、検出された部位を示す情報を出力するように制御する。   The medical image diagnostic apparatus according to the embodiment includes a generation unit, a storage unit, a detection unit, and an output control unit. The generation unit generates three-dimensional image data of the subject. The storage unit stores a plurality of anatomical feature points in the subject in association with a plurality of groups. The detection unit selects at least one group out of the plurality of groups based on the set examination information and the type of scan to be performed, and based on the anatomical feature points corresponding to the selected group, A part of the subject corresponding to at least one group is detected. The output control unit controls to output information indicating the detected part.

図1は、第1の実施形態に係る医用情報処理システムの構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a configuration of a medical information processing system according to the first embodiment. 図2は、第1の実施形態に係るX線CT装置の構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of the configuration of the X-ray CT apparatus according to the first embodiment. 図3は、第1の実施形態に係るスキャン制御部による3次元のスキャノ画像撮影を説明するための図である。FIG. 3 is a view for explaining three-dimensional scano image capturing by the scan control unit according to the first embodiment. 図4Aは、第1の実施形態に係る検出機能による部位の検出処理の一例を説明するための図である。FIG. 4A is a diagram for explaining an example of a part detection process by the detection function according to the first embodiment. 図4Bは、第1の実施形態に係る検出機能による部位の検出処理の一例を説明するための図である。FIG. 4B is a diagram for explaining an example of a part detection process by the detection function according to the first embodiment. 図5は、第1の実施形態に係る検出機能による部位の検出処理の一例を説明するための図である。FIG. 5 is a diagram for explaining an example of a part detection process by the detection function according to the first embodiment. 図6は、第1の実施形態に係る検出機能による部位の検出処理の一例を説明するための図である。FIG. 6 is a diagram for explaining an example of a part detection process by the detection function according to the first embodiment. 図7は、第1の実施形態に係る記憶回路によって記憶される仮想患者画像の一例を示す図である。FIG. 7 is a diagram illustrating an example of a virtual patient image stored by the storage circuit according to the first embodiment. 図8は、第1の実施形態に係る位置照合機能による照合処理の一例を説明するための図である。FIG. 8 is a diagram for explaining an example of collation processing by the position collation function according to the first embodiment. 図9は、第1の実施形態に係る座標変換によるスキャン範囲の変換例を示す図である。FIG. 9 is a diagram illustrating a scan range conversion example by coordinate conversion according to the first embodiment. 図10Aは、第1の実施形態に係る対応情報の一例を示す図である。FIG. 10A is a diagram illustrating an example of correspondence information according to the first embodiment. 図10Bは、第1の実施形態に係る対応情報の一例を示す図である。FIG. 10B is a diagram illustrating an example of correspondence information according to the first embodiment. 図11は、第1の実施形態に係る検出部位の優先順位の一例を説明するための図である。FIG. 11 is a diagram for explaining an example of priorities of detection parts according to the first embodiment. 図12Aは、第1の実施形態に係る表示制御機能による処理の一例を示す図である。FIG. 12A is a diagram illustrating an example of processing by the display control function according to the first embodiment. 図12Bは、第1の実施形態に係る表示制御機能による処理の一例を示す図である。FIG. 12B is a diagram illustrating an example of processing by the display control function according to the first embodiment. 図12Cは、第1の実施形態に係る表示制御機能による処理の一例を示す図である。FIG. 12C is a diagram illustrating an example of processing by the display control function according to the first embodiment. 図13は、第1の実施形態に係る表示制御機能による処理の一例を示す図である。FIG. 13 is a diagram illustrating an example of processing by the display control function according to the first embodiment. 図14は、第1の実施形態に係るスキャン範囲の調整の一例を説明するための図である。FIG. 14 is a diagram for explaining an example of adjustment of the scan range according to the first embodiment. 図15は、第1の実施形態に係るX線CT装置による処理の手順を示すフローチャートである。FIG. 15 is a flowchart illustrating a processing procedure performed by the X-ray CT apparatus according to the first embodiment. 図16Aは、第1の実施形態に係るX線CT装置による処理の手順を示すフローチャートである。FIG. 16A is a flowchart illustrating a processing procedure by the X-ray CT apparatus according to the first embodiment. 図16Bは、第1の実施形態に係るX線CT装置による処理の手順を示すフローチャートである。FIG. 16B is a flowchart illustrating a processing procedure by the X-ray CT apparatus according to the first embodiment. 図17は、第2の実施形態に係る表示制御機能による処理の一例を示す図である。FIG. 17 is a diagram illustrating an example of processing by the display control function according to the second embodiment. 図18は、第2の実施形態に係る表示制御機能による処理の一例を示す図である。FIG. 18 is a diagram illustrating an example of processing by the display control function according to the second embodiment.

以下、添付図面を参照して、本願に係る医用画像診断装置について説明する。なお、以下では、医用画像診断装置としてのX線CT(Computed Tomography)装置を含む医用情報処理システムを例に挙げて説明する。なお、図1に示す医用情報処理システム100においては、サーバ装置と端末装置とがそれぞれ1台のみ示されているが、実際にはさらに複数のサーバ装置と端末装置とを含むことができる。また、医用情報処理システム100は、例えば、X線診断装置、MRI(Magnetic Resonance Imaging)装置、超音波診断装置などの他の医用画像診断装置を含むこともできる。   Hereinafter, a medical image diagnostic apparatus according to the present application will be described with reference to the accompanying drawings. Hereinafter, a medical information processing system including an X-ray CT (Computed Tomography) apparatus as a medical image diagnostic apparatus will be described as an example. In the medical information processing system 100 shown in FIG. 1, only one server device and one terminal device are shown, but actually, a plurality of server devices and terminal devices can be included. The medical information processing system 100 can also include other medical image diagnostic apparatuses such as an X-ray diagnostic apparatus, an MRI (Magnetic Resonance Imaging) apparatus, and an ultrasonic diagnostic apparatus.

(第1の実施形態)
図1は、第1の実施形態に係る医用情報処理システム100の構成の一例を示す図である。図1に示すように、第1の実施形態に係る医用情報処理システム100は、X線CT装置1と、サーバ装置2と、端末装置3とを備える。X線CT装置1と、サーバ装置2と、端末装置3とは、例えば、病院内に設置された院内LAN(Local Area Network)4により、直接的、又は間接的に相互に通信可能な状態となっている。例えば、医用情報処理システム100にPACS(Picture Archiving and Communication System)が導入されている場合、各装置は、DICOM(Digital Imaging and Communications in Medicine)規格に則って、医用画像等を相互に送受信する。
(First embodiment)
FIG. 1 is a diagram illustrating an example of a configuration of a medical information processing system 100 according to the first embodiment. As illustrated in FIG. 1, the medical information processing system 100 according to the first embodiment includes an X-ray CT apparatus 1, a server apparatus 2, and a terminal apparatus 3. The X-ray CT apparatus 1, the server apparatus 2, and the terminal apparatus 3 are in a state in which they can communicate with each other directly or indirectly through, for example, a hospital LAN (Local Area Network) 4 installed in a hospital. It has become. For example, when a PACS (Picture Archiving and Communication System) is introduced in the medical information processing system 100, each device transmits and receives medical images and the like according to the DICOM (Digital Imaging and Communications in Medicine) standard.

また、医用情報処理システム100においては、例えば、HIS(Hospital Information System)や、RIS(Radiology Information System)などが導入され、各種情報が管理される。例えば、端末装置3は、上記したシステムに沿って作成された検査オーダーをX線CT装置1やサーバ装置2に送信する。X線CT装置1は、端末装置3から直接受信した検査オーダー、或いは、検査オーダーを受信したサーバ装置2によって作成されたモダリティごとの患者リスト(モダリティワークリスト)から患者情報を取得して、患者ごとのX線CT画像データを収集する。そして、X線CT装置1は、収集したX線CT画像データや、X線CT画像データに対して各種画像処理を行うことで生成した画像データをサーバ装置2に送信する。サーバ装置2は、X線CT装置1から受信したX線CT画像データ及び画像データを記憶するとともに、X線CT画像データから画像データの生成を行い、端末装置3からの取得要求に応じた画像データを端末装置3に送信する。端末装置3は、サーバ装置2から受信した画像データをモニタなどに表示する。以下、各装置について説明する。   Further, in the medical information processing system 100, for example, HIS (Hospital Information System), RIS (Radiology Information System), etc. are introduced to manage various information. For example, the terminal device 3 transmits an inspection order created along the above-described system to the X-ray CT apparatus 1 or the server apparatus 2. The X-ray CT apparatus 1 acquires patient information from an examination order received directly from the terminal apparatus 3 or a patient list (modality work list) for each modality created by the server apparatus 2 that has received the examination order. X-ray CT image data is collected every time. Then, the X-ray CT apparatus 1 transmits the collected X-ray CT image data and image data generated by performing various image processing on the X-ray CT image data to the server apparatus 2. The server apparatus 2 stores the X-ray CT image data and image data received from the X-ray CT apparatus 1, generates image data from the X-ray CT image data, and responds to an acquisition request from the terminal apparatus 3. Data is transmitted to the terminal device 3. The terminal device 3 displays the image data received from the server device 2 on a monitor or the like. Hereinafter, each device will be described.

端末装置3は、病院内の各診療科に配置され、各診療科に勤務する医師によって操作される装置であり、PC(Personal Computer)やタブレット式PC、PDA(Personal Digital Assistant)、携帯電話等である。例えば、端末装置3は、医師によって患者の症状や医師の所見などのカルテ情報が入力される。また、端末装置3は、X線CT装置1による検査をオーダーするための検査オーダーが入力され、入力された検査オーダーをX線CT装置1やサーバ装置2に送信する。すなわち、診療科の医師は、端末装置3を操作して、来院した患者の受付情報と電子カルテの情報とを読み出し、該当する患者の診察を行い、読み出した電子カルテにカルテ情報を入力する。そして、診療科の医師は、X線CT装置1による検査の要否に応じて、端末操作3を操作して検査オーダーを送信する。   The terminal device 3 is a device that is arranged in each department in the hospital and is operated by a doctor who works in each department, such as a PC (Personal Computer), a tablet PC, a PDA (Personal Digital Assistant), a mobile phone, etc. It is. For example, in the terminal device 3, medical record information such as a patient's symptom and a doctor's findings is input by a doctor. Further, the terminal device 3 receives an inspection order for ordering an inspection by the X-ray CT apparatus 1, and transmits the input inspection order to the X-ray CT apparatus 1 and the server apparatus 2. That is, the doctor in the medical department operates the terminal device 3 to read the reception information of the patient who has visited the hospital and information on the electronic medical record, examines the corresponding patient, and inputs the medical record information to the read electronic medical record. Then, the doctor in the medical department operates the terminal operation 3 according to the necessity of the examination by the X-ray CT apparatus 1 and transmits the examination order.

サーバ装置2は、医用画像診断装置によって収集された医用画像(例えば、X線CT装置1によって収集されたX線CT画像データ及び画像データ)を記憶したり、医用画像に対して各種画像処理を行ったりする装置であり、例えば、PACSサーバなどである。例えば、サーバ装置2は、各診療科に配置された端末装置3から複数の検査オーダーを受信して、医用画像診断装置ごとに患者リストを作成して、作成した患者リストを各医用画像診断装置に送信する。一例を挙げると、サーバ装置2は、X線CT装置1による検査を実施するための検査オーダーを各診療科の端末装置3からそれぞれ受信して患者リストを作成し、作成した患者リストをX線CT装置1に送信する。そして、サーバ装置2は、X線CT装置1によって収集されたX線CT画像データ及び画像データを記憶し、端末装置3からの取得要求に応じて、X線CT画像データ及び画像データを端末装置3に送信する。   The server apparatus 2 stores medical images (for example, X-ray CT image data and image data collected by the X-ray CT apparatus 1) collected by the medical image diagnostic apparatus, and performs various image processing on the medical images. For example, a PACS server or the like. For example, the server device 2 receives a plurality of examination orders from the terminal device 3 arranged in each medical department, creates a patient list for each medical image diagnostic device, and uses the created patient list as each medical image diagnostic device. Send to. For example, the server apparatus 2 receives an examination order for performing an examination by the X-ray CT apparatus 1 from the terminal apparatus 3 of each clinical department, creates a patient list, and creates the created patient list as an X-ray. Transmit to the CT apparatus 1. And the server apparatus 2 memorize | stores the X-ray CT image data and image data which were collected by the X-ray CT apparatus 1, and according to the acquisition request from the terminal device 3, X-ray CT image data and image data are stored in the terminal apparatus. 3 to send.

X線CT装置1は、患者ごとのX線CT画像データを収集して、収集したX線CT画像データや、X線CT画像データに対して各種画像処理を行うことで生成した画像データをサーバ装置2に送信する。図2は、第1の実施形態に係るX線CT装置1の構成の一例を示す図である。図2に示すように、第1の実施形態に係るX線CT装置1は、架台10と、寝台装置20と、コンソール30とを有する。   The X-ray CT apparatus 1 collects X-ray CT image data for each patient and uses the collected X-ray CT image data and image data generated by performing various image processing on the X-ray CT image data as a server. Transmit to device 2. FIG. 2 is a diagram illustrating an example of the configuration of the X-ray CT apparatus 1 according to the first embodiment. As shown in FIG. 2, the X-ray CT apparatus 1 according to the first embodiment includes a gantry 10, a bed apparatus 20, and a console 30.

架台10は、被検体P(患者)にX線を照射し、被検体Pを透過したX線を検出して、コンソール30に出力する装置であり、X線照射制御回路11と、X線発生装置12と、検出器13と、データ収集回路(DAS:Data Acquisition System)14と、回転フレーム15と、架台駆動回路16とを有する。   The gantry 10 is a device that irradiates the subject P (patient) with X-rays, detects the X-rays transmitted through the subject P, and outputs them to the console 30. The gantry 10 and the X-ray irradiation control circuit 11 generate X-rays. The apparatus 12 includes a detector 13, a data acquisition circuit (DAS) 14, a rotating frame 15, and a gantry drive circuit 16.

回転フレーム15は、X線発生装置12と検出器13とを被検体Pを挟んで対向するように支持し、後述する架台駆動回路16によって被検体Pを中心した円軌道にて高速に回転する円環状のフレームである。   The rotating frame 15 supports the X-ray generator 12 and the detector 13 so as to face each other with the subject P interposed therebetween, and is rotated at a high speed in a circular orbit around the subject P by a gantry driving circuit 16 described later. An annular frame.

X線照射制御回路11は、高電圧発生部として、X線管12aに高電圧を供給する装置であり、X線管12aは、X線照射制御回路11から供給される高電圧を用いてX線を発生する。X線照射制御回路11は、後述するスキャン制御回路33の制御により、X線管12aに供給する管電圧や管電流を調整することで、被検体Pに対して照射されるX線量を調整する。   The X-ray irradiation control circuit 11 is a device that supplies a high voltage to the X-ray tube 12 a as a high voltage generator, and the X-ray tube 12 a uses the high voltage supplied from the X-ray irradiation control circuit 11 to Generate a line. The X-ray irradiation control circuit 11 adjusts the X-ray dose irradiated to the subject P by adjusting the tube voltage and tube current supplied to the X-ray tube 12a under the control of the scan control circuit 33 described later. .

また、X線照射制御回路11は、ウェッジ12bの切り替えを行う。また、X線照射制御回路11は、コリメータ12cの開口度を調整することにより、X線の照射範囲(ファン角やコーン角)を調整する。なお、本実施形態は、複数種類のウェッジを、操作者が手動で切り替える場合であっても良い。   The X-ray irradiation control circuit 11 switches the wedge 12b. The X-ray irradiation control circuit 11 adjusts the X-ray irradiation range (fan angle and cone angle) by adjusting the aperture of the collimator 12c. In addition, this embodiment may be a case where an operator manually switches a plurality of types of wedges.

X線発生装置12は、X線を発生し、発生したX線を被検体Pへ照射する装置であり、X線管12aと、ウェッジ12bと、コリメータ12cとを有する。   The X-ray generator 12 is an apparatus that generates X-rays and irradiates the subject P with the generated X-rays, and includes an X-ray tube 12a, a wedge 12b, and a collimator 12c.

X線管12aは、図示しない高電圧発生部により供給される高電圧により被検体PにX線ビームを照射する真空管であり、回転フレーム15の回転にともなって、X線ビームを被検体Pに対して照射する。X線管12aは、ファン角及びコーン角を持って広がるX線ビームを発生する。例えば、X線照射制御回路11の制御により、X線管12aは、フル再構成用に被検体Pの全周囲でX線を連続曝射したり、ハーフ再構成用にハーフ再構成可能な曝射範囲(180度+ファン角)でX線を連続曝射したりすることが可能である。また、X線照射制御回路11の制御により、X線管12aは、予め設定された位置(管球位置)でX線(パルスX線)を間欠曝射したりすることが可能である。また、X線照射制御回路11は、X線管12aから曝射されるX線の強度を変調させることも可能である。例えば、X線照射制御回路11は、特定の管球位置では、X線管12aから曝射されるX線の強度を強くし、特定の管球位置以外の範囲では、X線管12aから曝射されるX線の強度を弱くする。   The X-ray tube 12 a is a vacuum tube that irradiates the subject P with an X-ray beam with a high voltage supplied by a high voltage generator (not shown). The X-ray beam is applied to the subject P as the rotating frame 15 rotates. Irradiate. The X-ray tube 12a generates an X-ray beam that spreads with a fan angle and a cone angle. For example, under the control of the X-ray irradiation control circuit 11, the X-ray tube 12 a continuously exposes X-rays around the subject P for full reconstruction or exposure that can be reconfigured for half reconstruction. It is possible to continuously expose X-rays in the irradiation range (180 degrees + fan angle). Further, the X-ray irradiation control circuit 11 can control the X-ray tube 12a to intermittently emit X-rays (pulse X-rays) at a preset position (tube position). The X-ray irradiation control circuit 11 can also modulate the intensity of the X-rays emitted from the X-ray tube 12a. For example, the X-ray irradiation control circuit 11 increases the intensity of X-rays emitted from the X-ray tube 12a at a specific tube position, and exposes from the X-ray tube 12a at a range other than the specific tube position. Reduce the intensity of the emitted X-rays.

ウェッジ12bは、X線管12aから曝射されたX線のX線量を調節するためのX線フィルタである。具体的には、ウェッジ12bは、X線管12aから被検体Pへ照射されるX線が、予め定められた分布になるように、X線管12aから曝射されたX線を透過して減衰するフィルタである。例えば、ウェッジ12bは、所定のターゲット角度や所定の厚みとなるようにアルミニウムを加工したフィルタである。なお、ウェッジは、ウェッジフィルタ(wedge filter)や、ボウタイフィルタ(bow-tie filter)とも呼ばれる。   The wedge 12b is an X-ray filter for adjusting the X-ray dose of X-rays emitted from the X-ray tube 12a. Specifically, the wedge 12b transmits the X-rays exposed from the X-ray tube 12a so that the X-rays irradiated from the X-ray tube 12a to the subject P have a predetermined distribution. Attenuating filter. For example, the wedge 12b is a filter obtained by processing aluminum so as to have a predetermined target angle or a predetermined thickness. The wedge is also called a wedge filter or a bow-tie filter.

コリメータ12cは、後述するX線照射制御回路11の制御により、ウェッジ12bによってX線量が調節されたX線の照射範囲を絞り込むためのスリットである。   The collimator 12c is a slit for narrowing the X-ray irradiation range in which the X-ray dose is adjusted by the wedge 12b under the control of the X-ray irradiation control circuit 11 described later.

架台駆動回路16は、回転フレーム15を回転駆動させることによって、被検体Pを中心とした円軌道上でX線発生装置12と検出器13とを旋回させる。   The gantry driving circuit 16 rotates the rotary frame 15 to rotate the X-ray generator 12 and the detector 13 on a circular orbit around the subject P.

検出器13は、被検体Pを透過したX線を検出する2次元アレイ型検出器(面検出器)であり、複数チャンネル分のX線検出素子を配してなる検出素子列が被検体Pの体軸方向(図2に示すZ軸方向)に沿って複数列配列されている。具体的には、第1の実施形態における検出器13は、被検体Pの体軸方向に沿って320列など多列に配列されたX線検出素子を有し、例えば、被検体Pの肺や心臓を含む範囲など、広範囲に被検体Pを透過したX線を検出することが可能である。   The detector 13 is a two-dimensional array type detector (surface detector) that detects X-rays transmitted through the subject P, and a detection element array formed by arranging X-ray detection elements for a plurality of channels is the subject P. A plurality of rows are arranged along the body axis direction (Z-axis direction shown in FIG. 2). Specifically, the detector 13 in the first embodiment includes X-ray detection elements arranged in multiple rows such as 320 rows along the body axis direction of the subject P. For example, the lungs of the subject P It is possible to detect X-rays transmitted through the subject P over a wide range, such as a range including the heart and the heart.

データ収集回路14は、DASであり、検出器13が検出したX線の検出データから、投影データを収集する。例えば、データ収集回路14は、検出器13により検出されたX線強度分布データに対して、増幅処理やA/D変換処理、チャンネル間の感度補正処理等を行なって投影データを生成し、生成した投影データを後述するコンソール30に送信する。例えば、回転フレーム15の回転中に、X線管12aからX線が連続曝射されている場合、データ収集回路14は、全周囲分(360度分)の投影データ群を収集する。また、データ収集回路14は、収集した各投影データに管球位置を対応付けて、後述するコンソール30に送信する。管球位置は、投影データの投影方向を示す情報となる。なお、チャンネル間の感度補正処理は、後述する前処理回路34が行なっても良い。   The data collection circuit 14 is a DAS, and collects projection data from the X-ray detection data detected by the detector 13. For example, the data collection circuit 14 generates projection data by performing amplification processing, A / D conversion processing, inter-channel sensitivity correction processing, and the like on the X-ray intensity distribution data detected by the detector 13. The projected data is transmitted to the console 30 described later. For example, when X-rays are continuously emitted from the X-ray tube 12a while the rotary frame 15 is rotating, the data acquisition circuit 14 collects projection data groups for the entire circumference (for 360 degrees). Further, the data collection circuit 14 associates the tube position with each collected projection data and transmits it to the console 30 described later. The tube position is information indicating the projection direction of the projection data. Note that the sensitivity correction processing between channels may be performed by the preprocessing circuit 34 described later.

寝台装置20は、被検体Pを載せる装置であり、図2に示すように、寝台駆動装置21と、天板22とを有する。寝台駆動装置21は、天板22をZ軸方向へ移動して、被検体Pを回転フレーム15内に移動させる。天板22は、被検体Pが載置される板である。   The couch device 20 is a device on which the subject P is placed, and includes a couch driving device 21 and a top plate 22 as shown in FIG. The couch driving device 21 moves the subject P into the rotary frame 15 by moving the couchtop 22 in the Z-axis direction. The top plate 22 is a plate on which the subject P is placed.

なお、架台10は、例えば、天板22を移動させながら回転フレーム15を回転させて被検体Pをらせん状にスキャンするヘリカルスキャンを実行する。または、架台10は、天板22を移動させた後に被検体Pの位置を固定したままで回転フレーム15を回転させて被検体Pを円軌道にてスキャンするコンベンショナルスキャンを実行する。または、架台10は、天板22の位置を一定間隔で移動させてコンベンショナルスキャンを複数のスキャンエリアで行うステップアンドシュート方式を実行する。   For example, the gantry 10 executes a helical scan that rotates the rotating frame 15 while moving the top plate 22 to scan the subject P in a spiral shape. Alternatively, the gantry 10 performs a conventional scan in which the subject P is scanned in a circular orbit by rotating the rotating frame 15 while the position of the subject P is fixed after the top plate 22 is moved. Alternatively, the gantry 10 performs a step-and-shoot method in which the position of the top plate 22 is moved at regular intervals and a conventional scan is performed in a plurality of scan areas.

コンソール30は、操作者によるX線CT装置の操作を受け付けるとともに、架台10によって収集された投影データを用いてX線CT画像データを再構成する装置である。コンソール30は、図2に示すように、入力回路31と、ディスプレイ32と、スキャン制御回路33と、前処理回路34と、記憶回路35と、画像再構成回路36と、処理回路37とを有する。   The console 30 is a device that accepts the operation of the X-ray CT apparatus by the operator and reconstructs X-ray CT image data using the projection data collected by the gantry 10. As shown in FIG. 2, the console 30 includes an input circuit 31, a display 32, a scan control circuit 33, a preprocessing circuit 34, a storage circuit 35, an image reconstruction circuit 36, and a processing circuit 37. .

入力回路31は、X線CT装置1の操作者が各種指示や各種設定の入力に用いるマウスやキーボード、トラックボール、スイッチ、ボタン、ジョイスティック等を有し、操作者から受け付けた指示や設定の情報を、処理回路37に転送する。例えば、入力回路31は、操作者から、X線CT画像データの撮影条件や、X線CT画像データを再構成する際の再構成条件、X線CT画像データに対する画像処理条件等を受け付ける。また、入力回路31は、被検体に対する検査を選択するための操作を受け付ける。また、入力回路31は、画像上の部位を指定するための指定操作を受け付ける。   The input circuit 31 includes a mouse, a keyboard, a trackball, a switch, a button, a joystick, and the like that are used by the operator of the X-ray CT apparatus 1 to input various instructions and settings, and instructions and settings information received from the operator. Is transferred to the processing circuit 37. For example, the input circuit 31 receives imaging conditions for X-ray CT image data, reconstruction conditions for reconstructing X-ray CT image data, image processing conditions for X-ray CT image data, and the like from the operator. The input circuit 31 receives an operation for selecting an examination for the subject. Further, the input circuit 31 accepts a designation operation for designating a part on the image.

ディスプレイ32は、操作者によって参照されるモニタであり、処理回路37による制御のもと、X線CT画像データから生成された画像データを操作者に表示したり、入力回路31を介して操作者から各種指示や各種設定等を受け付けるためのGUI(Graphical User Interface)を表示したりする。また、ディスプレイ32は、スキャン計画の計画画面や、スキャン中の画面などを表示する。また、ディスプレイ32は、被曝情報を含む仮想患者画像や画像データなどを表示する。なお、ディスプレイ32によって表示される仮想患者画像については、後に詳述する。   The display 32 is a monitor that is referred to by the operator, and displays image data generated from the X-ray CT image data to the operator under the control of the processing circuit 37, or the operator via the input circuit 31. A GUI (Graphical User Interface) for accepting various instructions, various settings, and the like is displayed. The display 32 displays a plan screen for a scan plan, a screen being scanned, and the like. Further, the display 32 displays a virtual patient image, image data, and the like including exposure information. The virtual patient image displayed on the display 32 will be described in detail later.

スキャン制御回路33は、処理回路37による制御のもと、X線照射制御回路11、架台駆動回路16、データ収集回路14及び寝台駆動装置21の動作を制御することで、架台10における投影データの収集処理を制御する。具体的には、スキャン制御回路33は、位置決め画像(スキャノ画像)を収集する撮影及び診断に用いる画像を収集する本撮影(スキャン)における投影データの収集処理をそれぞれ制御する。ここで、第1の実施形態に係るX線CT装置1においては、2次元のスキャノ画像及び3次元のスキャノ画像を撮影することができる。   The scan control circuit 33 controls the operations of the X-ray irradiation control circuit 11, the gantry driving circuit 16, the data acquisition circuit 14, and the bed driving device 21 under the control of the processing circuit 37, thereby Control the collection process. Specifically, the scan control circuit 33 controls projection data collection processing in the photographing for collecting the positioning image (scano image) and the main photographing (scanning) for collecting the image used for diagnosis. Here, in the X-ray CT apparatus 1 according to the first embodiment, a two-dimensional scanogram and a three-dimensional scanogram can be taken.

例えば、スキャン制御回路33は、X線管12aを0度の位置(被検体に対して正面方向の位置)に固定して、天板を定速移動させながら連続的に撮影を行うことで2次元のスキャノ画像を撮影する。或いは、スキャン制御回路33は、X線管12aを0度の位置に固定して、天板を断続的に移動させながら、天板移動に同期して断続的に撮影を繰り返すことで2次元のスキャノ画像を撮影する。ここで、スキャン制御回路33は、被検体に対して正面方向だけでなく、任意の方向(例えば、側面方向など)から位置決め画像を撮影することができる。   For example, the scan control circuit 33 fixes the X-ray tube 12a at a position of 0 degree (a position in the front direction with respect to the subject) and continuously performs imaging while moving the top plate at a constant speed. Take a three-dimensional scano image. Alternatively, the scan control circuit 33 fixes the X-ray tube 12a at a 0 degree position, and intermittently repeats imaging while synchronizing the top plate movement while intermittently moving the top plate. Take a scanogram. Here, the scan control circuit 33 can capture a positioning image not only from the front direction but also from an arbitrary direction (for example, a side surface direction) with respect to the subject.

また、スキャン制御回路33は、スキャノ画像の撮影において、被検体に対する全周分の投影データを収集することで、3次元のスキャノ画像を撮影する。図3は、第1の実施形態に係るスキャン制御回路33による3次元のスキャノ画像撮影を説明するための図である。例えば、スキャン制御回路33は、図3に示すように、ヘリカルスキャン或いはノンヘリカルスキャンによって被検体に対する全周分の投影データを収集する。ここで、スキャン制御回路33は、被検体の胸部全体、腹部全体、上半身全体、全身などの広範囲に対して本撮影よりも低線量でヘリカルスキャン或いはノンヘリカルスキャンを実行する。ノンヘリカルスキャンとしては、例えば、上述のステップアンドシュート方式のスキャンが実行される。   The scan control circuit 33 captures a three-dimensional scanogram by collecting projection data for the entire circumference of the subject in the scanogram image capture. FIG. 3 is a view for explaining three-dimensional scano image shooting by the scan control circuit 33 according to the first embodiment. For example, as shown in FIG. 3, the scan control circuit 33 collects projection data for the entire circumference of the subject by a helical scan or a non-helical scan. Here, the scan control circuit 33 executes a helical scan or a non-helical scan with a lower dose than the main imaging over a wide range such as the entire chest, abdomen, the entire upper body, and the whole body of the subject. As the non-helical scan, for example, the above-described step-and-shoot scan is executed.

このように、スキャン制御回路33が被検体に対する全周分の投影データを収集することで、後述する画像再構成回路36が、3次元のX線CT画像データ(ボリュームデータ)を再構成することができ、図3に示すように、再構成したボリュームデータを用いて任意の方向から位置決め画像を生成することが可能になる。ここで、位置決め画像を2次元で撮影するか、或いは、3次元で撮影するかは、操作者によって任意に設定する場合でもよく、或いは、検査内容に応じて予め設定される場合でもよい。   As described above, the scan control circuit 33 collects projection data for the entire circumference of the subject, so that an image reconstruction circuit 36 described later reconstructs three-dimensional X-ray CT image data (volume data). As shown in FIG. 3, a positioning image can be generated from an arbitrary direction using the reconstructed volume data. Here, whether the positioning image is photographed two-dimensionally or three-dimensionally may be set arbitrarily by the operator, or may be preset according to the examination contents.

図2に戻って、前処理回路34は、データ収集回路14によって生成された投影データに対して、対数変換処理と、オフセット補正、感度補正及びビームハードニング補正等の補正処理とを行なって、補正済みの投影データを生成する。具体的には、前処理回路34は、データ収集回路14によって生成された位置決め画像の投影データ及び本撮影によって収集された投影データのそれぞれについて、補正済みの投影データを生成して、記憶回路35に格納する。   Returning to FIG. 2, the preprocessing circuit 34 performs logarithmic conversion processing and correction processing such as offset correction, sensitivity correction, and beam hardening correction on the projection data generated by the data acquisition circuit 14. Generate corrected projection data. Specifically, the preprocessing circuit 34 generates corrected projection data for each of the projection data of the positioning image generated by the data acquisition circuit 14 and the projection data acquired by the main photographing, and the storage circuit 35. To store.

記憶回路35は、前処理回路34により生成された投影データを記憶する。具体的には、記憶回路35は、前処理回路34によって生成された、位置決め画像の投影データ及び本撮影によって収集される診断用の投影データを記憶する。また、記憶回路35は、後述する画像再構成回路36によって生成された画像データや仮想患者画像を記憶する。また、記憶回路35は、後述する処理回路37による処理結果を適宜記憶する。また、記憶回路35は、後述する対応情報を記憶する。なお、仮想患者画像、処理回路37による処理結果、及び、対応情報については、後述する。また、記憶回路35は、特許請求の範囲に記載した記憶部の一例である。   The storage circuit 35 stores the projection data generated by the preprocessing circuit 34. Specifically, the storage circuit 35 stores the projection data of the positioning image generated by the preprocessing circuit 34 and the diagnostic projection data collected by the main imaging. The storage circuit 35 stores image data and a virtual patient image generated by an image reconstruction circuit 36 described later. Further, the storage circuit 35 appropriately stores a processing result by a processing circuit 37 described later. The storage circuit 35 stores correspondence information described later. The virtual patient image, the processing result by the processing circuit 37, and the correspondence information will be described later. The storage circuit 35 is an example of a storage unit described in the claims.

画像再構成回路36は、記憶回路35が記憶する投影データを用いてX線CT画像データを再構成する。具体的には、画像再構成回路36は、位置決め画像の投影データ及び診断に用いられる画像の投影データから、X線CT画像データをそれぞれ再構成する。ここで、再構成方法としては、種々の方法があり、例えば、逆投影処理が挙げられる。また、逆投影処理としては、例えば、FBP(Filtered Back Projection)法による逆投影処理が挙げられる。或いは、画像再構成回路36は、逐次近似法を用いて、X線CT画像データを再構成することもできる。   The image reconstruction circuit 36 reconstructs X-ray CT image data using the projection data stored in the storage circuit 35. Specifically, the image reconstruction circuit 36 reconstructs X-ray CT image data from the projection data of the positioning image and the projection data of the image used for diagnosis. Here, as the reconstruction method, there are various methods, for example, back projection processing. Further, as the back projection process, for example, a back projection process by an FBP (Filtered Back Projection) method can be cited. Alternatively, the image reconstruction circuit 36 can reconstruct the X-ray CT image data using a successive approximation method.

また、画像再構成回路36は、X線CT画像データに対して各種画像処理を行うことで、画像データを生成する。そして、画像再構成回路36は、再構成したX線CT画像データや、各種画像処理により生成した画像データを記憶回路35に格納する。画像再構成回路36は、特許請求の範囲に記載した生成部の一例である。   Further, the image reconstruction circuit 36 generates image data by performing various image processing on the X-ray CT image data. Then, the image reconstruction circuit 36 stores the reconstructed X-ray CT image data and image data generated by various image processes in the storage circuit 35. The image reconstruction circuit 36 is an example of a generation unit described in the claims.

処理回路37は、架台10、寝台装置20及びコンソール30の動作を制御することによって、X線CT装置1の全体制御を行う。具体的には、処理回路37は、スキャン制御回路33を制御することで、架台10で行なわれるCTスキャンを制御する。また、処理回路37は、画像再構成回路36を制御することで、コンソール30における画像再構成処理や画像生成処理を制御する。また、処理回路37は、記憶回路35が記憶する各種画像データを、ディスプレイ32に表示するように制御する。   The processing circuit 37 performs overall control of the X-ray CT apparatus 1 by controlling operations of the gantry 10, the couch device 20, and the console 30. Specifically, the processing circuit 37 controls the CT scan performed on the gantry 10 by controlling the scan control circuit 33. The processing circuit 37 controls the image reconstruction circuit 36 and the image generation process in the console 30 by controlling the image reconstruction circuit 36. In addition, the processing circuit 37 controls the display 32 to display various image data stored in the storage circuit 35.

また、処理回路37は、図2に示すように、検出機能37a、位置照合機能37b、表示制御機能37c及び制御機能37dを実行する。ここで、例えば、図2に示す処理回路37の構成要素である検出機能37a、位置照合機能37b、表示制御機能37c及び制御機能37dが実行する各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路35に記録されている。処理回路37は、各プログラムを記憶回路35から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み出した状態の処理回路37は、図2の処理回路37内に示された各機能を有することとなる。なお、本実施形態で説明する検出機能37aは、特許請求の範囲に記載した検出部の一例である。また、表示制御機能37dは、特許請求の範囲に記載した出力制御部の一例である。   Further, as shown in FIG. 2, the processing circuit 37 executes a detection function 37a, a position matching function 37b, a display control function 37c, and a control function 37d. Here, for example, each processing function executed by the detection function 37a, the position matching function 37b, the display control function 37c, and the control function 37d, which are components of the processing circuit 37 shown in FIG. Is recorded in the memory circuit 35. The processing circuit 37 is a processor that implements a function corresponding to each program by reading each program from the storage circuit 35 and executing the program. In other words, the processing circuit 37 in a state where each program is read has each function shown in the processing circuit 37 of FIG. The detection function 37a described in the present embodiment is an example of a detection unit described in the claims. The display control function 37d is an example of an output control unit described in the claims.

なお、上記説明において用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable GateArray:FPGA))等の回路を意味する。プロセッサは記憶回路に保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶回路にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。なお、本実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて1つのプロセッサとして構成し、その機能を実現するようにしてもよい。   The term “processor” used in the above description is, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an application specific integrated circuit (ASIC), a programmable logic device ( For example, it means a circuit such as a simple programmable logic device (SPLD), a complex programmable logic device (CPLD), and a field programmable gate array (FPGA). The processor implements a function by reading and executing a program stored in the storage circuit. Instead of storing the program in the storage circuit, the program may be directly incorporated in the processor circuit. In this case, the processor realizes the function by reading and executing the program incorporated in the circuit. Note that each processor of the present embodiment is not limited to being configured as a single circuit for each processor, but may be configured as a single processor by combining a plurality of independent circuits to realize the function. Good.

検出機能37aは、3次元画像データに含まれる被検体における複数の部位をそれぞれ検出する。具体的には、検出機能37aは、画像再構成回路36によって再構成された3次元のX線CT画像データ(ボリュームデータ)に含まれる臓器などの部位を検出する。例えば、検出機能37aは、位置決め画像のボリュームデータ及び診断に用いられる画像のボリュームデータのうち少なくとも一方について、解剖学的な特徴点(Anatomical Landmark)に基づいて臓器などの部位を検出する。ここで、解剖学的な特徴点とは、特定の骨や臓器、血管、神経、内腔などの部位の特徴を示す点である。すなわち、検出機能37aは、特定の臓器や骨などの解剖学的な特徴点を検出することによって、ボリュームデータに含まれる骨や臓器、血管、神経、内腔などを検出する。また、検出機能37aは、人体の特徴的な特徴点を検出することで、ボリュームデータに含まれる頭部、首、胸部、腹部、足などの位置を検出することもできる。なお、本実施形態で説明する部位は、骨や臓器、血管、神経、内腔などにこれらの位置も含めたものを意味する。以下、検出機能37aによる部位の検出の一例について説明する。   The detection function 37a detects a plurality of parts in the subject included in the three-dimensional image data. Specifically, the detection function 37 a detects a part such as an organ included in the three-dimensional X-ray CT image data (volume data) reconstructed by the image reconstruction circuit 36. For example, the detection function 37a detects a site such as an organ based on an anatomical feature point (Anatomical Landmark) for at least one of the volume data of the positioning image and the volume data of the image used for diagnosis. Here, the anatomical feature point is a point indicating a feature of a part such as a specific bone, organ, blood vessel, nerve, or lumen. That is, the detection function 37a detects bones, organs, blood vessels, nerves, lumens, and the like included in the volume data by detecting anatomical feature points such as specific organs and bones. The detection function 37a can also detect positions of the head, neck, chest, abdomen, feet, etc. included in the volume data by detecting characteristic feature points of the human body. In addition, the site | part demonstrated by this embodiment means what included these positions in bones, organs, blood vessels, nerves, lumens, and the like. Hereinafter, an example of detection of a part by the detection function 37a will be described.

例えば、検出機能37aは、位置決め画像のボリュームデータ、或いは、診断に用いられる画像のボリュームデータにおいて、ボリュームデータに含まれるボクセルの値から解剖学的な特徴点を抽出する。そして、検出機能37aは、教科書などの情報における解剖学的な特徴点の3次元的な位置と、ボリュームデータから抽出した特徴点の位置とを比較することによって、ボリュームデータから抽出した特徴点の中から不正確な特徴点を除去して、ボリュームデータから抽出した特徴点の位置を最適化する。これにより、検出機能37aは、ボリュームデータに含まれる被検体の各部位を検出する。一例を挙げると、検出機能37aは、まず、教師あり機械学習アルゴリズムを用いて、ボリュームデータに含まれる解剖学的な特徴点を抽出する。ここで、上記した教師あり機械学習アルゴリズムは、正しい解剖学的な特徴点が手動で配置された複数の教師画像を用いて構築されたものであり、例えば、ディシジョンフォレスト(decision forest)などが利用される。   For example, the detection function 37a extracts anatomical feature points from the voxel values included in the volume data in the volume data of the positioning image or the volume data of the image used for diagnosis. Then, the detection function 37a compares the three-dimensional position of the anatomical feature point in the information such as the textbook with the position of the feature point extracted from the volume data, thereby detecting the feature point extracted from the volume data. The inaccurate feature points are removed from the inside, and the positions of the feature points extracted from the volume data are optimized. Thereby, the detection function 37a detects each part of the subject included in the volume data. For example, the detection function 37a first extracts anatomical feature points included in the volume data using a supervised machine learning algorithm. Here, the above-described supervised machine learning algorithm is constructed using a plurality of supervised images in which correct anatomical feature points are manually arranged. For example, a decision forest is used. Is done.

そして、検出機能37aは、身体における解剖学的な特徴点の3次元的な位置関係を示すモデルと、抽出した特徴点とを比較することで、抽出した特徴点を最適化する。ここで、上記したモデルは、上述した教師画像を用いて構築されたものであり、例えば、点分布モデルなどが利用される。すなわち、検出機能37aは、正しい解剖学的な特徴点が手動で配置された複数の教師画像に基づいて部位の形状や位置関係、部位に固有な点などが定義されたモデルと、抽出した特徴点とを比較することで、不正確な特徴点を除去して、特徴点を最適化する。   Then, the detection function 37a optimizes the extracted feature points by comparing a model indicating the three-dimensional positional relationship of anatomical feature points in the body with the extracted feature points. Here, the above-described model is constructed using the above-described teacher image, and for example, a point distribution model is used. That is, the detection function 37a includes a model in which the shape and positional relationship of the part, points unique to the part, etc. are defined based on a plurality of teacher images in which correct anatomical feature points are manually arranged, and the extracted features. By comparing the points, the inaccurate feature points are removed and the feature points are optimized.

以下、図4A,4B,5,6を用いて、検出機能37aによる部位の検出処理の一例を説明する。図4A,4B,5,6は、第1の実施形態に係る検出機能37aによる部位の検出処理の一例を説明するための図である。なお、図4A,4Bにおいては、2次元上に特徴点を配置しているが、実際には、特徴点は3次元的に配置される。例えば、検出機能37aは、ボリュームデータに対して教師あり機械学習アルゴリズムを適用することで、図4Aに示すように、解剖学的な特徴点とみなすボクセルを抽出する(図中の黒点)。そして、検出機能37aは、抽出したボクセルの位置を、部位の形状や位置関係、部位に固有な点などが定義されたモデルにフィッティングさせることで、図4Bに示すように、抽出したボクセルのうち不正確な特徴点を除去して、より正確な特徴点に対応するボクセルのみを抽出する。   Hereinafter, an example of the part detection process by the detection function 37a will be described with reference to FIGS. 4A, 4B, 5 and 6. FIG. 4A, 4B, 5 and 6 are diagrams for explaining an example of a part detection process by the detection function 37a according to the first embodiment. 4A and 4B, feature points are arranged two-dimensionally. Actually, feature points are arranged three-dimensionally. For example, the detection function 37a extracts voxels regarded as anatomical feature points (black dots in the figure) by applying a supervised machine learning algorithm to the volume data as shown in FIG. 4A. Then, the detection function 37a fits the position of the extracted voxel to a model in which the shape and positional relationship of the part, a point unique to the part, etc. are defined, as shown in FIG. Incorrect feature points are removed, and only voxels corresponding to more accurate feature points are extracted.

ここで、検出機能37aは、抽出した特徴点(ボクセル)に対して、各部位の特徴を示す特徴点を識別するための識別コードを付与し、識別コードと各特徴点の位置(座標)情報とを対応づけた情報を画像データに付帯させて記憶回路35に格納する。例えば、検出機能37aは、図4Bに示すように、抽出した特徴点(ボクセル)に対して、C1、C2、C3などの識別コードを付与する。ここで、検出機能37aは、検出処理を行ったデータごとにそれぞれ識別コードを付帯させて、記憶回路35に格納する。具体的には、検出機能37aは、位置決め画像の投影データ、非造影下で収集された投影データ、及び、造影剤によって造影された状態で収集された投影データのうち、少なくとも1つの投影データから再構成されたボリュームデータに含まれる被検体の部位を検出する。   Here, the detection function 37a gives an identification code for identifying the feature point indicating the feature of each part to the extracted feature point (voxel), and the identification code and position (coordinate) information of each feature point Is associated with the image data and stored in the storage circuit 35. For example, as shown in FIG. 4B, the detection function 37a gives identification codes such as C1, C2, and C3 to the extracted feature points (voxels). Here, the detection function 37 a attaches an identification code to each data subjected to the detection process, and stores the identification code in the storage circuit 35. Specifically, the detection function 37a is obtained from at least one projection data among the projection data of the positioning image, the projection data collected under non-contrast, and the projection data collected in a state of being imaged by the contrast agent. A part of the subject included in the reconstructed volume data is detected.

例えば、検出機能37aは、図5に示すように、位置決め画像のボリュームデータ(図中、位置決め)から検出した各ボクセルの座標に識別コードを対応付けた情報をボリュームデータに付帯させて記憶回路35に格納する。一例を挙げると、検出機能37aは、位置決め画像のボリュームデータから特徴点の座標を抽出して、図5に示すように、「識別コード:C1、座標(x1, y1, z1)」、「識別コード:C2、座標(x2, y2, z2)」などをボリュームデータに対応付けて格納する。これにより、検出機能37aは、位置決め画像のボリュームデータにおけるどの位置にどのような特徴点があるかを識別することができ、これらの情報に基づいて臓器などの各部位を検出することができる。 For example, as shown in FIG. 5, the detection function 37a attaches information in which the identification code is associated with the coordinates of each voxel detected from the volume data (positioning in the figure) of the positioning image to the volume data to store the storage circuit 35. To store. For example, the detection function 37a extracts the coordinates of the feature points from the volume data of the positioning image, and, as shown in FIG. 5, “identification code: C1, coordinates (x 1 , y 1 , z 1 )”. , “Identification code: C2, coordinates (x 2 , y 2 , z 2 )” and the like are stored in association with the volume data. Thereby, the detection function 37a can identify what kind of feature point is in which position in the volume data of the positioning image, and can detect each part such as an organ based on such information.

また、検出機能37aは、例えば、図5に示すように、診断用の画像のボリュームデータ(図中、スキャン)から検出した各ボクセルの座標に識別コードを対応付けた情報をボリュームデータに付帯させて記憶回路35に格納する。ここで、検出機能37aは、スキャンにおいて、造影剤によって造影されたボリュームデータ(図中、造影Phase)と、造影剤によって造影されていないボリュームデータ(図中、非造影Phase)とから、それぞれ特徴点の座標を抽出して、抽出した座標に識別コードを対応付けることができる。   Further, for example, as shown in FIG. 5, the detection function 37a attaches to the volume data information in which the identification code is associated with the coordinates of each voxel detected from the volume data (scan in the figure) of the diagnostic image. And stored in the memory circuit 35. Here, the detection function 37a is characterized by volume data (contrast phase in the figure) contrasted with the contrast medium and volume data not contrasted by the contrast medium (non-contrast phase in the figure) in the scan. The coordinates of the point can be extracted, and an identification code can be associated with the extracted coordinates.

一例を挙げると、検出機能37aは、診断用の画像のボリュームデータのうち、非造影Phaseのボリュームデータから特徴点の座標を抽出して、図5に示すように、「識別コード:C1、座標(x’1, y’1, z’1)」、「識別コード:C2、座標(x’2, y’2, z’2)」などをボリュームデータに対応付けて格納する。また、検出機能37aは、診断用の画像のボリュームデータのうち、造影Phaseのボリュームデータから特徴点の座標を抽出して、図5に示すように、「識別コード:C1、座標(x’1, y’1, z’1)」、「識別コード:C2、座標(x’2, y’2, z’2)」などをボリュームデータに対応付けて格納する。ここで、造影Phaseのボリュームデータから特徴点を抽出する場合、造影されることで抽出可能となる特徴点が含まれる。例えば、検出機能37aは、造影Phaseのボリュームデータから特徴点を抽出する場合、造影剤によって造影された血管などを抽出することができる。従って、造影Phaseのボリュームデータの場合、検出機能37aは、図5に示すように、造影することで抽出された血管などの特徴点の座標(x’31, y’31, z’31)〜座標(x’34, y’34, z’34)などに、それぞれの血管を識別するための識別コードC31、C32、C33及びC34などを対応付ける。 For example, the detection function 37a extracts the coordinates of the feature points from the volume data of the non-contrast phase from the volume data of the diagnostic image, and, as shown in FIG. (X ′ 1 , y ′ 1 , z ′ 1 ) ”,“ identification code: C2, coordinates (x ′ 2 , y ′ 2 , z ′ 2 ) ”and the like are stored in association with the volume data. Further, the detection function 37a extracts the coordinates of the feature points from the volume data of the contrast phase out of the volume data of the diagnostic image, and as shown in FIG. 5, “identification code: C1, coordinates (x ′ 1 , y ′ 1 , z ′ 1 ) ”,“ identification code: C2, coordinates (x ′ 2 , y ′ 2 , z ′ 2 ) ”and the like are stored in association with the volume data. Here, when feature points are extracted from volume data of contrast phase, feature points that can be extracted by being contrasted are included. For example, when the feature point is extracted from the volume data of the contrast phase, the detection function 37a can extract a blood vessel or the like contrasted with the contrast agent. Therefore, in the case of contrast phase volume data, as shown in FIG. 5, the detection function 37a has coordinates (x ′ 31 , y ′ 31 , z ′ 31 ) to the coordinates of feature points such as blood vessels extracted by contrasting. Identification codes C31, C32, C33 and C34 for identifying each blood vessel are associated with the coordinates (x ′ 34 , y ′ 34 , z ′ 34 ) and the like.

上述したように、検出機能37aは、位置決め画像、或いは、診断用の画像のボリュームデータにおけるどの位置にどのような特徴点があるかを識別することができ、これらの情報に基づいて臓器などの各部位を検出することができる。例えば、検出機能37aは、検出の対象となる対象部位と、対象部位の周辺の部位との解剖学的な位置関係の情報を用いて、対象部位の位置を検出する。一例を挙げると、検出機能37aは、対象部位を「肺」とした場合、肺の特徴を示す識別コードに対応付けられた座標情報を取得するとともに、「肋骨」や「鎖骨」、「心臓」、「横隔膜」など、「肺」の周囲の部位を示す識別コードに対応付けられた座標情報を取得する。そして、検出機能37aは、「肺」と周囲の部位との解剖学的な位置関係の情報と、取得した座標情報とを用いて、ボリュームデータにおける「肺」の領域を抽出する。   As described above, the detection function 37a can identify which feature point is in which position in the volume data of the positioning image or diagnostic image, and based on such information, such as an organ Each site can be detected. For example, the detection function 37a detects the position of the target part using information on the anatomical positional relationship between the target part to be detected and parts around the target part. For example, when the target region is “lung”, the detection function 37a acquires coordinate information associated with an identification code indicating the characteristics of the lung, and “rib”, “clavicle”, “heart” , Coordinate information associated with an identification code indicating a region around the “lung”, such as “diaphragm”. Then, the detection function 37a uses the information on the anatomical positional relationship between the “lung” and the surrounding site and the acquired coordinate information to extract the “lung” region in the volume data.

例えば、検出機能37aは、「肺尖:鎖骨の2〜3cm上方」や、「肺の下端:第7肋骨の高さ」などの位置関係の情報と、各部位の座標情報とから、図6に示すように、ボリュームデータにおいて「肺」に相当する領域R1を抽出する。すなわち、検出機能37aは、ボリュームデータにおける領域R1のボクセルの座標情報を抽出する。検出機能37aは、抽出した座標情報を部位情報と対応付けてボリュームデータに付帯させて記憶回路35に格納する。同様に、検出機能37aは、図6に示すように、ボリュームデータにおいて「心臓」に相当する領域R2などを抽出することができる。   For example, the detection function 37a uses the positional information such as “pulmonary apex: 2 to 3 cm above the clavicle”, “lower end of the lung: height of the seventh rib”, and the coordinate information of each part in FIG. As shown in FIG. 5, a region R1 corresponding to “lung” is extracted from the volume data. That is, the detection function 37a extracts the coordinate information of the voxel of the region R1 in the volume data. The detection function 37a associates the extracted coordinate information with the part information, attaches it to the volume data, and stores it in the storage circuit 35. Similarly, as shown in FIG. 6, the detection function 37a can extract a region R2 corresponding to “heart” or the like in the volume data.

また、検出機能37aは、人体における頭部や胸部などの位置を定義する特徴点に基づいて、ボリュームデータに含まれる位置を検出する。ここで、人体における頭部や胸部などの位置は任意に定義することができる。例えば、第7頸椎から肺の下端までを胸部と定義すると、検出機能37aは、第7頸椎に対応する特徴点から肺の下端に対応する特徴点までを胸部として検出する。なお、検出機能37aは、上述した解剖学的な特徴点を用いた方法以外にも種々の方法により部位を検出することができる。例えば、検出機能37aは、ボクセル値に基づく領域拡張法などによりボリュームデータに含まれる部位を検出することができる。   The detection function 37a detects a position included in the volume data based on a feature point that defines the position of the head, chest, etc. in the human body. Here, the positions of the head and chest in the human body can be arbitrarily defined. For example, if the chest is defined from the seventh cervical vertebra to the lower end of the lung, the detection function 37a detects from the feature point corresponding to the seventh cervical vertebra to the feature point corresponding to the lower end of the lung as the chest. In addition, the detection function 37a can detect a site | part by various methods besides the method using the anatomical feature point mentioned above. For example, the detection function 37a can detect a part included in the volume data by a region expansion method based on a voxel value.

位置照合機能37bは、3次元画像データに含まれる被検体における複数の部位それぞれの位置と、仮想患者データに含まれる人体における複数の部位それぞれの位置とを照合する。ここで、仮想患者データとは、人体における複数の部位それぞれの標準的な位置を表す情報である。すなわち、位置照合機能37bは、被検体の部位と標準的な部位の位置とを照合して、照合結果を記憶回路35に格納する。例えば、位置照合機能37bは、人体の部位が標準的な位置に配置された仮想患者画像と、被検体のボリュームデータとをマッチングする。   The position collation function 37b collates the positions of a plurality of parts in the subject included in the three-dimensional image data and the positions of the plurality of parts in the human body included in the virtual patient data. Here, virtual patient data is information representing the standard position of each of a plurality of parts in the human body. In other words, the position matching function 37b matches the position of the subject with the position of the standard part and stores the matching result in the storage circuit 35. For example, the position matching function 37b matches a virtual patient image in which a human body part is arranged at a standard position with volume data of the subject.

ここで、まず、仮想患者画像について説明する。仮想患者画像は、年齢、成人/子供、男性/女性、体重、身長などの体格などに関わるパラメータに関する複数の組み合わせに応じた標準的な体格などを有する人体について実際にX線で撮影した画像として予め生成されて、記憶回路35に格納される。すなわち、記憶回路35は、上述したパラメータの組み合わせに応じた複数の仮想患者画像のデータを記憶する。ここで、記憶回路35によって記憶される仮想患者画像には、解剖学的な特徴点(特徴点)が対応づけて記憶される。例えば、人体には、パターン認識等の画像処理により比較的容易にその形態的特徴等に基づいて画像から抽出できる多数の解剖学的な特徴点がある。これら多数の解剖学的な特徴点の身体におけるその位置や配置は年齢、成人/子供、男性/女性、体重、身長などの体格等に従っておおよそ決まっている。   Here, first, a virtual patient image will be described. The virtual patient image is an actual X-ray image of a human body having a standard physique corresponding to multiple combinations of parameters related to physique such as age, adult / child, male / female, weight, height, etc. It is generated in advance and stored in the storage circuit 35. That is, the storage circuit 35 stores data of a plurality of virtual patient images corresponding to the combination of parameters described above. Here, anatomical feature points (feature points) are stored in association with the virtual patient image stored by the storage circuit 35. For example, the human body has many anatomical feature points that can be extracted from an image based on morphological features and the like relatively easily by image processing such as pattern recognition. The positions and arrangements of these many anatomical feature points in the body are roughly determined according to age, adult / child, male / female, physique such as weight and height.

記憶回路35によって記憶される仮想患者画像は、これら多数の解剖学的な特徴点が予め検出され、検出された特徴点の位置データがそれぞれの特徴点の識別コードとともに仮想患者画像のデータに付帯又は関連付けされて記憶される。図7は、第1の実施形態に係る記憶回路35によって記憶される仮想患者画像の一例を示す図である。例えば、記憶回路35は、図7に示すように、臓器などの部位を含む3次元の人体に、解剖学的な特徴点と特徴点を識別するための識別コード「V1」、「V2」及び「V3」などとが関連付けられた仮想患者画像を記憶する。   In the virtual patient image stored by the storage circuit 35, these many anatomical feature points are detected in advance, and the position data of the detected feature points are attached to the virtual patient image data together with the identification codes of the respective feature points. Or it is stored in association. FIG. 7 is a diagram illustrating an example of a virtual patient image stored by the storage circuit 35 according to the first embodiment. For example, as shown in FIG. 7, the storage circuit 35 has an identification code “V1”, “V2”, and identification codes for identifying anatomical feature points and feature points on a three-dimensional human body including a part such as an organ. A virtual patient image associated with “V3” or the like is stored.

すなわち、記憶回路35は、3次元の人体画像の座標空間における特徴点の座標と対応する識別コードとを関連付けて記憶する。一例を挙げると、記憶回路35は、図7に示す識別コード「V1」に対応づけて、対応する特徴点の座標を記憶する。同様に、記憶回路35は、識別コードと特徴点の座標とを対応づけて記憶する。なお、図7においては、臓器として肺、心臓、肝臓、胃、腎臓などのみが示されているが、実際には、仮想患者画像は、さらに多数の臓器、骨、血管、神経などが含まれる。また、図7においては、識別コード「V1」、「V2」及び「V3」に対応する特徴点についてのみ示されているが、実際にはさらに多数の特徴点が含まれる。   That is, the storage circuit 35 stores the coordinates of the feature points in the coordinate space of the three-dimensional human body image and the corresponding identification code in association with each other. For example, the storage circuit 35 stores the coordinates of the corresponding feature points in association with the identification code “V1” shown in FIG. Similarly, the storage circuit 35 stores the identification code and the feature point coordinates in association with each other. In FIG. 7, only the lung, heart, liver, stomach, kidney, and the like are shown as organs, but actually, the virtual patient image includes a larger number of organs, bones, blood vessels, nerves, and the like. . In FIG. 7, only the feature points corresponding to the identification codes “V1”, “V2”, and “V3” are shown, but actually more feature points are included.

位置照合機能37bは、検出機能37aによって検出された被検体のボリュームデータ中の特徴点と、上述した仮想患者画像中の特徴点とを識別コードを用いてマッチングして、ボリュームデータの座標空間と仮想患者画像の座標空間とを関連付ける。図8は、第1の実施形態に係る位置照合機能37bによる照合処理の一例を説明するための図である。ここで、図8においては、スキャノ画像から検出した特徴点と仮想患者画像から検出された特徴点との間で同一の特徴点を示す識別コードが割り当てられた3組の特徴点を用いてマッチングを行う場合について示すが、実施形態はこれに限定されるものではなく、任意の組の特徴点を用いてマッチングを行うことができる。   The position matching function 37b matches the feature points in the volume data of the subject detected by the detection function 37a with the feature points in the virtual patient image described above using an identification code, and the coordinate space of the volume data Associate with the coordinate space of the virtual patient image. FIG. 8 is a diagram for explaining an example of collation processing by the position collation function 37b according to the first embodiment. Here, in FIG. 8, matching is performed using three sets of feature points assigned with identification codes indicating the same feature points between the feature points detected from the scanogram and the feature points detected from the virtual patient image. However, the embodiment is not limited to this, and matching can be performed using an arbitrary set of feature points.

例えば、位置照合機能37bは、図8に示すように、仮想患者画像において識別コード「V1」、「V2」及び「V3」で示される特徴点と、スキャノ画像において識別コード「C1」、「C2」及び「C3」で示される特徴点とをマッチングする場合、同一の特徴点間の位置ずれが最小となるように座標変換することにより、画像間の座標空間を関連付ける。例えば、位置照合機能37bは、図8に示すように、解剖学的に同じ特徴点「V1(x1,y1,z1)、C1(X1,Y1,Z1)」、「V2(x2,y2,z2)、C2(X2,Y2,Z2)」、「V3(x3,y3,z3)、C3(X3,Y3,Z3)」の間の位置ズレの合計「LS」を最小化するように、以下の座標変換行列「H」を求める。   For example, as shown in FIG. 8, the position matching function 37b includes feature points indicated by identification codes “V1”, “V2”, and “V3” in the virtual patient image, and identification codes “C1”, “C2” in the scanogram. When matching the feature points indicated by “C3” and “C3”, the coordinate space between the images is associated by performing coordinate conversion so that the positional deviation between the same feature points is minimized. For example, as shown in FIG. 8, the position matching function 37b has the same anatomically characteristic points “V1 (x1, y1, z1), C1 (X1, Y1, Z1)”, “V2 (x2, y2, z2). ), C2 (X2, Y2, Z2) "," V3 (x3, y3, z3), C3 (X3, Y3, Z3) ", so as to minimize the total" LS " A coordinate transformation matrix “H” is obtained.

LS = ((X1,Y1,Z1)-H(x1,y1,z1))
+((X2,Y2,Z2)-H(x2,y2,z2))
+((X3,Y3,Z3)-H(x3,y3,z3))
LS = ((X1, Y1, Z1) -H (x1, y1, z1))
+ ((X2, Y2, Z2) -H (x2, y2, z2))
+ ((X3, Y3, Z3) -H (x3, y3, z3))

位置照合機能37bは、求めた座標変換行列「H」により、仮想患者画像上に指定されたスキャン範囲を位置決め画像上のスキャン範囲に変換することができる。例えば、位置照合機能37bは、座標変換行列「H」を用いることで、図8に示すように、仮想患者画像上に指定されたスキャン範囲「SRV」を位置決め画像上のスキャン範囲「SRC」に変換することができる。図9は、第1の実施形態に係る座標変換によるスキャン範囲の変換例を示す図である。例えば、図9の仮想患者画像上に示すように、操作者が仮想患者画像上でスキャン範囲「SRV」を設定すると、位置照合機能37bは、上述した座標変換行列を用いて、設定されたスキャン範囲「SRV」をスキャノ画像上のスキャン範囲「SRC」に変換する。   The position matching function 37b can convert the scan range specified on the virtual patient image into the scan range on the positioning image by the obtained coordinate conversion matrix “H”. For example, the position matching function 37b uses the coordinate transformation matrix “H” to change the scan range “SRV” designated on the virtual patient image to the scan range “SRC” on the positioning image, as shown in FIG. Can be converted. FIG. 9 is a diagram illustrating a scan range conversion example by coordinate conversion according to the first embodiment. For example, as shown on the virtual patient image in FIG. 9, when the operator sets the scan range “SRV” on the virtual patient image, the position matching function 37b uses the above-described coordinate transformation matrix to set the scan The range “SRV” is converted into a scan range “SRC” on the scanogram.

これにより、例えば、仮想患者画像上で識別コード「Vn」に対応する特徴点を含むように設定されたスキャン範囲「SRV」は、スキャノ画像上で同一の特徴点に対応する識別コード「Cn」が含まれるスキャン範囲「SRC」に変換されて設定される。なお、上述した座標変換行列「H」は、被検体ごとに記憶回路35に記憶されて、適宜読み出されて使用される場合であってもよく、或いは、スキャノ画像が収集されるごとに算出される場合であってもよい。このように第1の実施形態によれば、プリセット時の範囲指定のために仮想患者画像を表示し、その上で位置・範囲を計画しておくことで、位置決め画像(スキャノ画像)の撮影後に、計画された位置・範囲に対応する位置決め画像上の位置・範囲を自動で数値設定することが可能である。   Thereby, for example, the scan range “SRV” set so as to include the feature point corresponding to the identification code “Vn” on the virtual patient image has the identification code “Cn” corresponding to the same feature point on the scanogram. Is converted and set to a scan range “SRC”. Note that the above-described coordinate transformation matrix “H” may be stored in the storage circuit 35 for each subject and read and used as appropriate, or calculated every time a scanogram is collected. It may be the case. As described above, according to the first embodiment, the virtual patient image is displayed for the range designation at the time of presetting, and the position / range is planned on the virtual patient image, so that the positioning image (scano image) is captured. It is possible to automatically set numerical values for the position / range on the positioning image corresponding to the planned position / range.

図2に戻って、表示制御機能37cは、種々の表示情報をディスプレイ32に表示するように制御する。例えば、表示制御機能37cは、記憶回路35が記憶する各種画像データをディスプレイ32に表示するように制御する。また、表示制御機能37cは、検出機能37aによる検出結果に応じた情報をディスプレイ32に表示するように制御する。なお、表示制御機能37cの制御によって表示される情報の詳細については、後に詳述する。制御機能37dは、架台10、寝台装置20及びコンソール30の動作を制御することによって、X線CT装置1の全体制御を行う。具体的には、制御機能37dは、スキャン制御回路33を制御することで、架台10で行なわれるCTスキャンを制御する。また、制御機能37dは、画像再構成回路36を制御することで、コンソール30における画像再構成処理や画像生成処理を制御する。なお、制御機能37dによる制御については、後に詳述する。   Returning to FIG. 2, the display control function 37 c controls to display various display information on the display 32. For example, the display control function 37 c controls to display various image data stored in the storage circuit 35 on the display 32. Further, the display control function 37c performs control so that information corresponding to the detection result by the detection function 37a is displayed on the display 32. Details of information displayed by the control of the display control function 37c will be described later. The control function 37d performs overall control of the X-ray CT apparatus 1 by controlling the operations of the gantry 10, the bed apparatus 20, and the console 30. Specifically, the control function 37 d controls the CT scan performed on the gantry 10 by controlling the scan control circuit 33. The control function 37d controls the image reconstruction process and the image generation process in the console 30 by controlling the image reconstruction circuit 36. The control by the control function 37d will be described in detail later.

以上、第1の実施形態に係るX線CT装置1の全体構成について説明した。かかる構成のもと、第1の実施形態に係るX線CT装置1は、効率よく部位検出を行うことを可能にする。具体的には、X線CT装置1は、複数の解剖学的な特徴点を予め複数のグループに対応付けた対応情報を記憶しておき、検査情報やスキャンの種別に基づいてグループを選択する。そして、X線CT装置1は、対応情報を参照して、選択したグループに対応する特徴点の部位を検出することで、効率よく部位検出を行うことを可能にする。ここで、X線CT装置1は、グループの選択において、検査情報やスキャンの種別に対して予め対応付けられたグループを選択することができる。また、X線CT装置1は、グループの選択において、検査情報やスキャンの種別ごとのグループの優先度に基づいてグループを選択することもできる。以下、検査情報やスキャンの種別に対して予め対応付けられたグループを選択する場合の例と、検査情報やスキャンの種別ごとのグループの優先度に基づいてグループを選択する場合の例とを順に説明する。   The overall configuration of the X-ray CT apparatus 1 according to the first embodiment has been described above. Under such a configuration, the X-ray CT apparatus 1 according to the first embodiment enables efficient site detection. Specifically, the X-ray CT apparatus 1 stores correspondence information in which a plurality of anatomical feature points are associated with a plurality of groups in advance, and selects a group based on examination information and a type of scan. . Then, the X-ray CT apparatus 1 refers to the correspondence information, and detects the part of the feature point corresponding to the selected group, thereby enabling efficient part detection. Here, the X-ray CT apparatus 1 can select a group previously associated with the examination information and the type of scan in selecting a group. The X-ray CT apparatus 1 can also select a group based on the priority of the group for each type of inspection information and scan in selecting a group. Hereinafter, an example in the case of selecting a group previously associated with the inspection information and scan type and an example in the case of selecting a group based on the priority of the group for each inspection information and scan type will be sequentially described. explain.

検査情報やスキャンの種別に対して予め対応付けられたグループを選択する場合の例について説明する。ここで、まず、X線CT装置1においては、記憶回路35が、被検体内の複数の解剖学的特徴点を、複数のグループに対応付けた対応情報を記憶する。具体的には、記憶回路35は、被検体における位置、臓器、骨、血管、神経などの部位に基づくグループに各部位の解剖学的な特徴点を対応付けた対応情報を記憶する。図10A及び図10Bは、第1の実施形態に係る対応情報の一例を示す図である。例えば、記憶回路35は、図10Aに示すように、解剖学的特徴点を、グループ1(位置)と、グループ2(臓器)と、グループ3(骨)と、グループ4(血管)と、グループ5(神経)とに割り当てた対応情報を記憶する。   An example in the case of selecting a group associated in advance with inspection information and scan type will be described. First, in the X-ray CT apparatus 1, the storage circuit 35 stores correspondence information in which a plurality of anatomical feature points in the subject are associated with a plurality of groups. Specifically, the storage circuit 35 stores correspondence information in which an anatomical feature point of each part is associated with a group based on parts such as a position, an organ, a bone, a blood vessel, and a nerve in the subject. 10A and 10B are diagrams illustrating examples of correspondence information according to the first embodiment. For example, as shown in FIG. 10A, the memory circuit 35 divides anatomical feature points into group 1 (position), group 2 (organ), group 3 (bone), group 4 (blood vessel), and group. Correspondence information assigned to 5 (nerve) is stored.

一例を挙げると、記憶回路35は、グループ1(位置)に、「頭部」、「首」、「胸部」、「腹部」、「足」などが分類された対応情報を記憶する。すなわち、記憶回路35は、グループ1(位置)として、「頭部」を識別するための特徴点と、「首」を識別するための特徴点と、「胸部」を識別するための特徴点と、「腹部」を識別するための特徴点と、「足」を識別するための特徴点を対応付けて記憶する。同様に、記憶回路35は、グループ2(臓器)に、「脳」、「肺」、「心臓」、「肝臓」などが分類された対応情報を記憶する。また、記憶回路35は、グループ3(骨)に、「頭蓋骨」、「脛骨」、「肋骨」、「胸骨」、「大腿骨」などが分類された対応情報を記憶する。また、記憶回路35は、グループ4(血管)に、「脳血管」、「頸動脈」、「大動脈」、「大腿動脈」などが分類された対応情報を記憶する。また、記憶回路35は、グループ5(神経)に、「視神経」、「肋間神経」、「腹神経」、「大腿神経」などが分類された対応情報を記憶する。すなわち、記憶回路35は、グループに分けられた各部位の特徴点を、各グループに対応付けて記憶する。   For example, the storage circuit 35 stores correspondence information in which “head”, “neck”, “chest”, “abdomen”, “foot”, and the like are classified in group 1 (position). That is, as the group 1 (position), the storage circuit 35 has a feature point for identifying “head”, a feature point for identifying “neck”, and a feature point for identifying “chest”. The feature points for identifying “abdomen” and the feature points for identifying “foot” are stored in association with each other. Similarly, the storage circuit 35 stores correspondence information in which “brain”, “lung”, “heart”, “liver”, and the like are classified into group 2 (organs). In addition, the storage circuit 35 stores correspondence information in which “cranium”, “tibia”, “radius”, “sternum”, “femur”, and the like are classified in group 3 (bone). In addition, the storage circuit 35 stores correspondence information in which “cerebral blood vessel”, “carotid artery”, “aorta”, “femoral artery”, and the like are classified into the group 4 (blood vessels). Further, the storage circuit 35 stores correspondence information in which “optic nerve”, “intercostal nerve”, “abdominal nerve”, “femoral nerve”, and the like are classified into the group 5 (nerve). That is, the storage circuit 35 stores the feature points of each part divided into groups in association with each group.

なお、対応情報は、上記した例に限られず、種々の形態で記憶させることができる。例えば、記憶回路35は、図10Bに示すように、グループ間で階層構造を示す対応情報を記憶することもできる。例えば、記憶回路35は、最上位にグループ1の「胸部」が位置し、その下位に「心臓」などの胸部に含まれる臓器のグループ2が配置された階層構造の対応情報を記憶することができる。さらに、階層構造を示す対応情報では、グループ2の「心臓」の下位に、例えば、「大動脈弁」、「僧房弁」、「肺動脈弁」及び「三尖弁」を含むグループ2−1−1と、「右冠動脈」及び「左冠動脈主管部」を含むグループ2−1−2とが配置される。また、さらに、階層構造を示す対応情報では、グループ2−1−2の下位に、例えば、「左冠動脈前下行枝」及び「左冠動脈回旋枝」を含むグループ2−1−2−1が配置される。このように、記憶回路35は、グループ間で階層構造を示す対応情報を記憶することもできる。   The correspondence information is not limited to the above-described example, and can be stored in various forms. For example, as illustrated in FIG. 10B, the storage circuit 35 can store correspondence information indicating a hierarchical structure between groups. For example, the storage circuit 35 may store the correspondence information of the hierarchical structure in which the “chest” of the group 1 is positioned at the top and the group 2 of the organs included in the chest such as “heart” is positioned below the top. it can. Furthermore, in the correspondence information indicating the hierarchical structure, a group 2-1-1 including, for example, “aortic valve”, “mitral valve”, “pulmonary valve”, and “tricuspid valve” below “heart” of group 2 And a group 2-1-2 including a “right coronary artery” and a “left coronary artery main duct”. Further, in the correspondence information indicating the hierarchical structure, a group 2-1-2-1 including, for example, “the left anterior descending coronary artery” and “the left coronary artery rotation branch” is arranged below the group 2-1-2. Is done. Thus, the storage circuit 35 can also store correspondence information indicating a hierarchical structure between groups.

なお、図10A及び図10Bに示す対応情報は、あくまでも一例であり、実施形態はこれに限定されるものではない。すなわち、記憶回路35によって記憶される対応情報は、グループと部位とを任意に対応付けることができる。例えば、ユーザが、グループと部位との対応付けを行った対応情報を生成させ、記憶回路35に格納するように操作することができる。   Note that the correspondence information illustrated in FIGS. 10A and 10B is merely an example, and the embodiment is not limited thereto. That is, the correspondence information stored by the storage circuit 35 can arbitrarily associate the group and the part. For example, the user can operate to generate correspondence information in which a group and a part are associated with each other and store the information in the storage circuit 35.

上述したように、X線CT装置1においては、記憶回路35が対応情報を記憶する。そして、検出機能37aは、記憶回路35によって記憶された対応情報を参照して、部位を検出する。ここで、検出機能37aは、設定された検査情報および実行するスキャンの種別に基づいて複数のグループのうち、少なくとも1つのグループを選択し、選択されたグループに対応する解剖学的特徴点に基づいて、少なくとも1つのグループに該当する被検体の部位を検出する。例えば、検出機能37aは、検査情報及びスキャンの種別に応じた検出粒度のグループを選択する。上述したように、対応情報は、部位ごとにグループに分けられる。ここで、対応情報における部位は、例えば、図10Aに示すように、「頭部」や「腹部」などの大きな領域のものと、「血管」や「神経」などのように小さな領域のものにそれぞれ分類される。すなわち、対応情報における部位は、ボリュームデータ内で検出し易い部位と、検出しにくい部位とが異なるグループに対応づけられる。換言すると、対応情報における部位は、画質等の条件に関わらずボリュームデータから検出可能な部位と、画質等の条件によってはボリュームデータから検出しにくい部位が含まれる。   As described above, in the X-ray CT apparatus 1, the storage circuit 35 stores the correspondence information. Then, the detection function 37a refers to the correspondence information stored by the storage circuit 35 and detects the part. Here, the detection function 37a selects at least one group out of a plurality of groups based on the set examination information and the type of scan to be executed, and based on the anatomical feature points corresponding to the selected group. Thus, the part of the subject corresponding to at least one group is detected. For example, the detection function 37a selects a group of detection granularity according to the inspection information and the type of scan. As described above, the correspondence information is divided into groups for each part. Here, for example, as shown in FIG. 10A, the parts in the correspondence information include those in a large area such as “head” and “abdomen” and those in a small area such as “blood vessel” and “nerve”. Each is classified. That is, the part in the correspondence information is associated with a group in which a part that is easy to detect in the volume data is different from a part that is difficult to detect. In other words, the parts in the correspondence information include parts that can be detected from the volume data regardless of conditions such as image quality, and parts that are difficult to detect from the volume data depending on conditions such as image quality.

検出機能37aは、検査情報やスキャン条件に基づいてグループを選択し、選択したグループに対応する部位の特徴点を対象として、解剖学的な特徴点を検出する。具体的には、検出機能37aは、検査情報及びスキャン条件を取得し、取得した検査情報及びスキャン条件に対応するグループを選択する。ここで、検査情報やスキャン条件は、被検体情報やスキャン計画等から取得される。例えば、検出機能37aは、検査オーダーに含まれる情報や、操作者によって選択されたスキャンプロトコルの情報から、検査情報やスキャン条件を取得する。一例を挙げると、検出機能37aは、検査情報及びスキャン条件として、「胸部〜骨盤(肝臓 単純撮影+造影撮影)」を取得する。   The detection function 37a selects a group based on examination information and scanning conditions, and detects an anatomical feature point for a feature point of a part corresponding to the selected group. Specifically, the detection function 37a acquires inspection information and scan conditions, and selects a group corresponding to the acquired inspection information and scan conditions. Here, the examination information and the scan conditions are acquired from the subject information and the scan plan. For example, the detection function 37a acquires inspection information and scan conditions from information included in the inspection order and information of a scan protocol selected by the operator. For example, the detection function 37a acquires “chest to pelvis (liver simple imaging + contrast imaging)” as examination information and scanning conditions.

また、検査情報及びスキャン条件とグループとは、予め対応付けて記憶回路35に格納される。例えば、「胸部〜骨盤(肝臓 単純撮影+造影撮影)」に対して「グループ1(位置)」、「グループ2(臓器)」及び「グループ4(血管)」が対応付けられた情報が記憶回路35に記憶される。ここで、上記した情報は、グループ内のさらに細かい部位に関する情報を対応づけることができる。例えば、「胸部〜骨盤(肝臓 単純撮影+造影撮影)」に対して「グループ1(位置):胸部、腹部」、「グループ2(臓器):肝臓」及び「グループ4(血管):肝動脈、肝静脈」が対応付けられた情報が記憶回路35に記憶される場合であってもよい。   In addition, the inspection information, the scan condition, and the group are stored in the storage circuit 35 in association with each other in advance. For example, information in which “group 1 (position)”, “group 2 (organ)”, and “group 4 (blood vessel)” are associated with “chest to pelvis (simple liver imaging + contrast imaging)” is stored in the storage circuit. 35. Here, the information described above can be associated with information on a more detailed part in the group. For example, “Group 1 (position): chest, abdomen”, “Group 2 (organ): liver”, and “Group 4 (blood vessel): hepatic artery, Information associated with “hepatic vein” may be stored in the storage circuit 35.

検出機能37aは、被検体情報やスキャン計画等から検査情報及びスキャン条件を取得する。そして、検出機能37aは、検査情報及びスキャン条件とグループとの対応を示す情報を参照して、取得した検査情報及びスキャン条件に対応するグループの情報を取得する。そして、検出機能37aは、記憶回路35に記憶された対応情報を参照して、取得したグループに対応する特徴点を検出することで、被検体の部位を検出する。   The detection function 37a acquires examination information and scan conditions from subject information, a scan plan, and the like. Then, the detection function 37a refers to the information indicating the correspondence between the inspection information and the scan condition and the group, and acquires the group information corresponding to the acquired inspection information and the scan condition. Then, the detection function 37a refers to the correspondence information stored in the storage circuit 35, and detects the feature point corresponding to the acquired group, thereby detecting the part of the subject.

例えば、検出機能37aは、検査情報及びスキャン条件として、「胸部〜骨盤(肝臓 単純撮影+造影撮影)」を取得する。そして、検出機能37aは、「胸部〜骨盤(肝臓 単純撮影+造影撮影)」に対応するグループの情報を記憶回路35から読み出し、読み出したグループに含まれる部位の特徴点をボリュームデータから検出する。例えば、「胸部〜骨盤(肝臓 単純撮影+造影撮影)」に対して「グループ1(位置)」、「グループ2(臓器)」及び「グループ4(血管)」が対応付けられ、図10Aに示す対応情報を参照する場合、検出機能37aは、「グループ1(位置)」、「グループ2(臓器)」及び「グループ4(血管)」に分類された特徴点をボリュームデータから検出する。ここで、対応情報が、図10Bに示すような階層構造を有している場合、検出機能37aは、「グループ1(位置)」において「胸部〜骨盤」の位置に対応する「胸部」及び「腹部」の下位に位置する「グループ2(臓器)」と「グループ4(血管)」の特徴点のみを検出することもできる。   For example, the detection function 37a acquires “chest to pelvis (simple liver imaging + contrast imaging)” as examination information and scanning conditions. Then, the detection function 37a reads group information corresponding to “chest to pelvis (simple liver imaging + contrast imaging)” from the storage circuit 35, and detects feature points of parts included in the read group from the volume data. For example, “Group 1 (position)”, “Group 2 (organ)”, and “Group 4 (blood vessel)” are associated with “chest to pelvis (simple liver imaging + contrast imaging)”, as shown in FIG. 10A. When referring to the correspondence information, the detection function 37a detects feature points classified into “group 1 (position)”, “group 2 (organ)”, and “group 4 (blood vessel)” from the volume data. Here, when the correspondence information has a hierarchical structure as shown in FIG. 10B, the detection function 37 a has “chest” and “corresponding to the positions of“ chest to pelvis ”in“ group 1 (position) ”. It is also possible to detect only the feature points of “Group 2 (organ)” and “Group 4 (blood vessel)” that are located below the “abdomen”.

また、例えば、「胸部〜骨盤(肝臓 単純撮影+造影撮影)」に対して「グループ1(位置):胸部、腹部」、「グループ2(臓器):肝臓」及び「グループ4(血管):肝動脈、肝静脈」が対応付けられている場合、検出機能37aは、対応情報を参照して、「胸部、腹部」を識別するための特徴点、「肝臓」を識別するための特徴点及び「肝動脈、肝静脈」を識別するための特徴点をボリュームデータから検出する。なお、上記した特徴点の検出において、血管の特徴点の検出は、造影撮影によって収集されたボリュームデータを対象として実行される。   Also, for example, “Group 1 (position): chest, abdomen”, “Group 2 (organ): liver”, and “Group 4 (blood vessel): liver with respect to“ chest to pelvis (simple liver imaging + contrast imaging) ” In the case where “artery, hepatic vein” is associated, the detection function 37a refers to the correspondence information, the feature point for identifying “chest, abdomen”, the feature point for identifying “liver”, and “ Feature points for identifying “hepatic artery and hepatic vein” are detected from the volume data. In the feature point detection described above, the blood vessel feature points are detected on the volume data collected by contrast imaging.

上述したように、検出機能37aは、検査情報及びスキャン条件に基づいてグループを選択し、選択したグループに対応する特徴点を検出することで、検査情報及びスキャン条件に基づく部位をボリュームデータから検出する。例えば、検出機能37aは、スキャノ画像の撮影によって収集されたボリュームデータ及び本スキャンに収集されたボリュームデータに対して上記した部位の検出を行うことができる。   As described above, the detection function 37a selects a group based on examination information and scanning conditions, and detects a feature point corresponding to the selected group, thereby detecting a part based on the examination information and scanning conditions from the volume data. To do. For example, the detection function 37a can perform the above-described detection of the volume data collected by capturing the scanogram and the volume data collected in the main scan.

上述したように、検出機能37aは、ボリュームデータから部位を検出するごとに、検出した部位に対応する特徴点の座標に識別コードを対応付けて記憶回路35に順に格納する。位置照合機能37bは、記憶回路35に格納された特徴点の座標と識別コードとの対応情報を読み出し、上述した照合処理を実行する。そして、位置照合機能37bは、照合結果(座標変換行列「H」)を記憶回路35に格納する。例えば、位置照合機能37bは、検出機能37aによって部位が検出されるごとに照合処理を実行して、照合結果を記憶回路35に格納する。   As described above, each time a part is detected from the volume data, the detection function 37a sequentially stores the identification code in the storage circuit 35 in association with the coordinates of the feature point corresponding to the detected part. The position matching function 37b reads the correspondence information between the feature point coordinates and the identification code stored in the storage circuit 35, and executes the above-described matching process. Then, the position collation function 37 b stores the collation result (coordinate conversion matrix “H”) in the storage circuit 35. For example, the position matching function 37b performs a matching process every time a part is detected by the detection function 37a, and stores the matching result in the storage circuit 35.

表示制御機能37cは、検出機能37aによって部位が検出されるごとに、検出された部位を示す情報を出力するように制御する。具体的には、表示制御機能37cは、ボリュームデータから生成された表示画像及び人体モデル画像(仮想患者画像)のうち少なくとも一方に検出機能37aによる検出結果を示した情報を出力するように制御する。例えば、表示制御機能37cは、表示画像及び仮想患者画像のうち少なくとも一方において、検出機能37aによって検出された部位をその他の部位と比較して強調するように表示させた画像を出力するように制御する。   The display control function 37c controls to output information indicating the detected part each time the part is detected by the detection function 37a. Specifically, the display control function 37c controls to output information indicating the detection result by the detection function 37a to at least one of the display image generated from the volume data and the human body model image (virtual patient image). . For example, the display control function 37c controls to output an image displayed so as to emphasize the part detected by the detection function 37a in comparison with other parts in at least one of the display image and the virtual patient image. To do.

次に、検査情報やスキャンの種別ごとのグループの優先度に基づいてグループを選択する場合の例について説明する。かかる場合には、例えば、検出機能37aは、検査情報及びスキャンの種別に応じて予め設定された優先順位に基づいてグループを選択する。この場合、例えば、検査情報及びスキャン条件に対応付けられるグループに優先順位が付与される。一例を挙げると、「胸部〜骨盤(肝臓 単純撮影+造影撮影)」に対応づけられた「グループ1(位置)」、「グループ2(臓器)」及び「グループ4(血管)」において、「グループ2(臓器)」に「優先順位:1」が付与され、「グループ1(位置)」に「優先順位:2」が付与され、「グループ4(血管)」に「優先順位:3」が付与される。すなわち、検出機能37aは、上記した情報を参照した場合には、ボリュームデータから「グループ2(臓器)」、「グループ1(位置)」、「グループ4(血管)」の順に特徴点を検出する。階層構造を有する対応情報におけるグループについても同様に、各グループに特徴点を検出する優先順位を付与することができる。これにより、X線CT装置1は、ユーザが設定した優先度に応じて部位を検出することができ、より効率よく部位を検出することを可能にする。   Next, an example in which a group is selected based on inspection information and group priority for each type of scan will be described. In such a case, for example, the detection function 37a selects a group based on the priority order set in advance according to the examination information and the type of scan. In this case, for example, a priority is given to the group associated with the inspection information and the scan condition. For example, in “Group 1 (position)”, “Group 2 (organ)” and “Group 4 (blood vessel)” associated with “chest to pelvis (simple liver imaging + contrast imaging)”, “group “Priority (1)” is assigned to “2 (organ)”, “Priority: 2” is assigned to “Group 1 (position)”, and “Priority: 3” is assigned to “Group 4 (blood vessel)”. Is done. That is, when referring to the above information, the detection function 37a detects feature points in the order of “group 2 (organ)”, “group 1 (position)”, and “group 4 (blood vessel)” from the volume data. . Similarly, for the groups in the correspondence information having a hierarchical structure, a priority order for detecting feature points can be assigned to each group. Thereby, X-ray CT apparatus 1 can detect a part according to the priority which a user set, and makes it possible to detect a part more efficiently.

上述した優先順位は、ユーザによって任意に設定することができる。すなわち、ユーザは、検査情報やスキャンの種別ごとに、特徴点を検出する優先順位を適宜設定することができる。ここで、優先順位は、優先的に検出させたいグループから順に設定される場合でもよいが、検出のしやすさの順に設定される場合であってもよい。この場合、X線CT装置1は、効率よく部位を検出するとともに、解剖学的な特徴点に基づく部位の検出状況を把握させることもできる。上述したように、X線CT装置を用いた従来の部位の検出においては、スキャノ画像の幾何学的特徴から部位を自動認識し、認識した部位に適した撮影条件を設定するだけである。スキャノ画像を用いた部位の検出は、画質や、被検体の身体的な特徴などにより必ずしもうまくいくとは限らない。また、無作為に部位の検出を行った場合、所望の結果(検出してほしい臓器の検出など)を得るまでに時間がかかる場合がある。そこで、第1の実施形態に係るX線CT装置1は、以下、詳細に説明する処理回路37(表示制御機能37c及び制御機能37d)による制御により、解剖学的な特徴点に基づく部位の検出状況を把握させることを可能とする。   The priorities described above can be arbitrarily set by the user. That is, the user can appropriately set the priority order for detecting feature points for each type of inspection information and scan type. Here, the priority may be set in order from the group to be detected with priority, or may be set in the order of ease of detection. In this case, the X-ray CT apparatus 1 can efficiently detect a site and can grasp the detection status of the site based on anatomical feature points. As described above, in the conventional part detection using the X-ray CT apparatus, the part is automatically recognized from the geometric feature of the scanogram, and the imaging condition suitable for the recognized part is set. Detection of a part using a scanogram is not always successful depending on image quality, physical characteristics of the subject, and the like. In addition, when a region is randomly detected, it may take time to obtain a desired result (such as detection of an organ desired to be detected). Therefore, the X-ray CT apparatus 1 according to the first embodiment detects a part based on an anatomical feature point under the control of the processing circuit 37 (display control function 37c and control function 37d) described in detail below. It is possible to grasp the situation.

具体的には、第1の実施形態に係るX線CT装置1においては、データ収集回路14が被検体を透過したX線を検出して投影データを収集し、検出機能37aが投影データから再構成されたボリュームデータに含まれる解剖学的な特徴点を検出することで、被検体の部位を検出する。そして、X線CT装置1においては、表示制御機能37cが検出機能37aによる検出結果を示す情報を出力するように制御する。ここで、第1の実施形態に係るX線CT装置1においては、被検体において予め設定された優先順位の順に部位を検出して、部位が検出されるごとに検出結果が表示される。すなわち、検出機能37aはボリュームデータに含まれる解剖学的な特徴点のうち、予め設定された優先順位が高い特徴点から順に検出することで、被検体の部位を段階的に検出する。そして、表示制御機能37cは、部位が検出されるごとに、検出された部位を示す情報を出力するように制御する。   Specifically, in the X-ray CT apparatus 1 according to the first embodiment, the data collection circuit 14 detects X-rays transmitted through the subject and collects projection data, and the detection function 37a re-creates the projection data. A part of the subject is detected by detecting anatomical feature points included in the configured volume data. In the X-ray CT apparatus 1, the display control function 37c is controlled to output information indicating the detection result by the detection function 37a. Here, in the X-ray CT apparatus 1 according to the first embodiment, the parts are detected in the order of priority set in advance in the subject, and the detection result is displayed each time the part is detected. That is, the detection function 37a detects a part of the subject step by step by detecting in advance from feature points with a high priority set in advance among anatomical feature points included in the volume data. The display control function 37c controls to output information indicating the detected part every time the part is detected.

ここで、上述した部位の優先順位について説明する。部位の検出における優先順位は、任意に設定することができる。例えば、優先順位は、検出に用いられる特徴点の数が少ない部位から順に検出されるように設定される。すなわち、ボリュームデータに含まれるある領域を部位として検出するための特徴点の数が少ない部位から順に、対応する特徴点を検出するような優先順位が設定される。これにより、例えば、検出が容易な部位ほど素早く検出されることとなる。以下、図11は、第1の実施形態に係る検出部位の優先順位の一例を説明するための図である。ここで、図11においては、被検体全身について優先順位を設ける場合の例を示す。また、図11においては、図10に示す対応情報におけるグループに優先順位を設定する場合を示し、検出のしやすさを認識レベルとして示す。   Here, the priority order of the parts described above will be described. The priority in the detection of the part can be arbitrarily set. For example, the priority order is set so as to be detected in order from a part having a small number of feature points used for detection. That is, priorities are set such that corresponding feature points are detected in order from a part having a small number of feature points for detecting a certain region included in the volume data as a part. Thereby, for example, a part that is easy to detect is detected quickly. Hereinafter, FIG. 11 is a diagram for explaining an example of the priority order of the detection parts according to the first embodiment. Here, FIG. 11 shows an example in which priorities are set for the whole subject. Further, FIG. 11 shows a case where priority is set for the group in the correspondence information shown in FIG. 10, and ease of detection is shown as a recognition level.

例えば、優先順位は、図11に示すように、検出される優先順位が高い方から「認識レベル:レベル1」、「認識レベル:レベル2」、「認識レベル:レベル3」、「認識レベル:レベル4」及び「認識レベル:レベル5」と設定される。すなわち、図11に示す優先順位で検出処理が実行された場合、「認識レベル:レベル1」の部位から順に検出されることとなる。ここで、優先順位が最も高い「認識レベル:レベル1」の部位は、例えば、人体における「位置」であり、「頭部」、「首」、「胸部」、「腹部」及び「足」と設定される。次に優先順位が高い「認識レベル:レベル2」の部位は、例えば、図11に示すように「臓器」であり、「頭部」における「脳」、「水晶体」など、「首」における「甲状腺」など、「胸部」における「食道」、「肺」及び「心臓」など、「腹部」における「肝臓」、「胃」、「腎臓」及び「大腸」など、「足」における「アキレス腱」などが設定される。   For example, as shown in FIG. 11, the priority order is “recognition level: level 1”, “recognition level: level 2”, “recognition level: level 3”, “recognition level: Level 4 ”and“ recognition level: level 5 ”are set. That is, when the detection process is executed in the priority order shown in FIG. 11, detection is performed sequentially from the site of “recognition level: level 1”. Here, the part of “recognition level: level 1” having the highest priority is “position” in the human body, for example, “head”, “neck”, “chest”, “abdomen”, and “foot”. Is set. The part of “recognition level: level 2” having the next highest priority is “organ” as shown in FIG. 11, for example, “brain” in “head”, “lens”, etc. “Thyroid”, etc. “Esophagus”, “Lung” and “Heart” in “Chest”, “Liver” in “Abdomen”, “Stomach”, “Kidney”, “Colon”, etc. “Achilles tendon” in “Foot”, etc. Is set.

同様に、次の優先順位の「認識レベル:レベル3」の部位として「骨」が設定され、その次の優先順位の「認識レベル:レベル4」の部位として「血管」が設定され、さらに次の優先順位の「認識レベル:レベル5」の部位として「神経」が設定される。そして、設定された優先順位の情報は、記憶回路35に格納され、検出機能37aが適宜参照する。なお、図11に示す認識レベルの例は、あくまでも一例であり、実施形態はこれに限定されるものではない。例えば、スキャンプロトコルに応じて部位の検出における優先順位が設定される場合であってもよい。すなわち、所定の部位を対象とするスキャンプロトコルが選択された場合に、当該所定の部位が高い優先順位で検出されるように設定される場合であってもよい。一例を挙げると、MRI装置において、「神経」を対象とするトラクトグラフィ(tractography)のスキャンプロトコルが選択された場合、「認識レベル:レベル1」の部位として「神経」が設定された情報が用いられる。すなわち、記憶回路35は、スキャンプロトコルに応じて優先順位が設定された情報を記憶する。そして、検出機能37aは、選択されたスキャンプロトコルに応じて、対応する優先順位の情報を記憶回路37aから読み出し、読み出した優先順位の情報を参照して検出処理を実行する。   Similarly, “bone” is set as the site of “recognition level: level 3” of the next priority, “blood vessel” is set as the site of “recognition level: level 4” of the next priority, and the next “Nerve” is set as the site of “recognition level: level 5” of the priority order. The set priority order information is stored in the storage circuit 35 and is appropriately referred to by the detection function 37a. In addition, the example of the recognition level shown in FIG. 11 is an example to the last, and embodiment is not limited to this. For example, it may be a case where a priority order in detecting a part is set according to a scan protocol. In other words, when a scan protocol targeting a predetermined part is selected, the predetermined part may be set to be detected with a high priority. For example, in the MRI apparatus, when a tractography scan protocol targeting “nerve” is selected, information in which “nerve” is set as a site of “recognition level: level 1” is used. It is done. In other words, the storage circuit 35 stores information in which priorities are set according to the scan protocol. The detection function 37a reads the corresponding priority order information from the storage circuit 37a according to the selected scan protocol, and executes the detection process with reference to the read priority order information.

例えば、図11に示す優先順位の情報を参照した場合、検出機能37aは、まず、「位置」に含まれる「頭部」、「首」、「胸部」、「腹部」及び「足」を検出するための特徴点を検出する。例えば、検出機能37aは、「胸部」を検出するための「第7頸椎」の特徴点と「肺の下端」の特徴点とを優先的に検出する。   For example, when the priority information shown in FIG. 11 is referred to, the detection function 37a first detects “head”, “neck”, “chest”, “abdomen”, and “foot” included in “position”. To detect feature points. For example, the detection function 37a preferentially detects the feature point of the “seventh cervical vertebra” and the feature point of the “lower end of the lung” for detecting the “chest”.

ここで、検出機能37aは、スキャノ画像の撮影において投影データが収集された範囲に含まれる位置の部位のみを検出する。すなわち、検出機能37aは、スキャノ画像が「胸部」と「腹部」の範囲で収集された場合には、「胸部」と「腹部」を検出するための特徴点を検出する。換言すると、スキャノ画像が「胸部」と「腹部」の範囲で収集された場合に、「頭部」や「首」、「足」を検出するための特徴点を検出することはない。かかる場合、例えば、検出機能37aは、検出処理に際して、まず、スキャンプロトコルを参照して、検査対象がどの部位であるかを特定したうえで、検出処理を実行する。   Here, the detection function 37a detects only a part at a position included in a range in which projection data is collected in the scanning image capturing. That is, when the scanogram is collected in the range of “chest” and “abdomen”, the detection function 37a detects feature points for detecting “chest” and “abdomen”. In other words, when the scanogram is collected in the range of “chest” and “abdomen”, feature points for detecting “head”, “neck”, and “foot” are not detected. In such a case, for example, in the detection process, the detection function 37a first refers to the scan protocol and specifies the part to be examined, and then executes the detection process.

このように、まず、優先順位の最も高い「認識レベル:レベル1」である「位置」の部位について検出処理を実行すると、検出機能37aは、次に、「認識レベル:レベル2」である「臓器」の部位について検出処理を実行する。ここで、検出機能37aは、前段で「位置」の検出を行っていることから、検出した「位置」の情報を用いて「臓器」の検出処理を実行することで、処理を高速化させることができる。一例を挙げると、検出機能37aは、スキャノ画像のボリュームデータにおいて、前段で検出した「胸部」の位置に対応するボリュームデータの領域から「食道」、「肺」及び「心臓」などの「臓器」の特徴点を検出するように処理を実行する。換言すると、検出機能37aは、「胸部」の位置に対応するボリュームデータの領域から「肝臓」、「胃」、「腎臓」及び「大腸」などの「腹部」の臓器の特徴点を検出するように処理を実行することはない。   As described above, when the detection process is executed for the part of “position” having “recognition level: level 1” with the highest priority, the detection function 37a then has “recognition level: level 2”. The detection process is executed for the part of “organ”. Here, since the detection function 37a detects the “position” in the previous stage, the “organ” detection process is executed using the detected “position” information, thereby speeding up the process. Can do. As an example, the detection function 37a uses the volume data of the scanogram image to obtain “organs” such as “esophagus”, “lung”, and “heart” from the volume data area corresponding to the position of the “chest” detected in the previous stage. The process is executed so as to detect the feature points. In other words, the detection function 37a detects feature points of organs of “abdomen” such as “liver”, “stomach”, “kidney” and “large intestine” from the volume data area corresponding to the position of “chest”. The process is not executed.

上述したように、検出機能37aは、予め設定された優先順位に沿ってボリュームデータから部位を検出するごとに、検出した部位に対応する特徴点の座標に識別コードを対応付けて記憶回路35に順に格納する。位置照合機能37bは、記憶回路35に格納された特徴点の座標と識別コードとの対応情報を読み出し、上述した照合処理を実行する。そして、位置照合機能37bは、照合結果(座標変換行列「H」)を記憶回路35に格納する。例えば、位置照合機能37bは、検出機能37aによって部位が検出されるごとに照合処理を実行して、照合結果を記憶回路35に格納する。   As described above, the detection function 37a associates the identification code with the coordinates of the feature point corresponding to the detected part each time the part is detected from the volume data in accordance with the preset priority order. Store in order. The position matching function 37b reads the correspondence information between the feature point coordinates and the identification code stored in the storage circuit 35, and executes the above-described matching process. Then, the position collation function 37 b stores the collation result (coordinate conversion matrix “H”) in the storage circuit 35. For example, the position matching function 37b performs a matching process every time a part is detected by the detection function 37a, and stores the matching result in the storage circuit 35.

表示制御機能37cは、検出機能37aによって部位が検出されるごとに、検出された部位を示す情報を出力するように制御する。具体的には、表示制御機能37cは、3次元画像データから生成された表示画像及び人体モデル画像(仮想患者画像)のうち少なくとも一方に検出機能37aによる検出結果を示した情報を出力するように制御する。例えば、表示制御機能37cは、表示画像及び仮想患者画像のうち少なくとも一方において、検出機能37aによって検出された部位をその他の部位と比較して強調するように表示させた画像を出力するように制御する。   The display control function 37c controls to output information indicating the detected part each time the part is detected by the detection function 37a. Specifically, the display control function 37c outputs information indicating the detection result by the detection function 37a to at least one of the display image generated from the three-dimensional image data and the human body model image (virtual patient image). Control. For example, the display control function 37c controls to output an image displayed so as to emphasize the part detected by the detection function 37a in comparison with other parts in at least one of the display image and the virtual patient image. To do.

図12A〜図12Cは、第1の実施形態に係る表示制御機能37cによる処理の一例を示す図である。ここで、図12A〜図12Cにおいては、スキャン計画の計画画面を示し、計画画面に仮想患者画像とスキャノ画像を示す。なお、図12A〜図12Cにおいては、仮想患者画像のみ、或いは、仮想患者画像とスキャノ画像のみが示されているが、実際には、スキャン計画の計画画面で表示される種々のものが表示される。例えば、スキャノ画像が収集される場合、表示制御機能37cは、図12Aの左側の図に示すように、仮想患者画像にスキャノ画像のスキャン範囲R11を示す。この範囲は、スキャンプロトコルに設定された範囲、或いは、スキャンプロトコルが選択された後、操作者によって変更された後の範囲である。例えば、表示制御機能37cは、図12Aの左側の図に示すように、スキャノ画像のスキャン範囲R11をグレーで示した仮想患者画像をディスプレイに表示させる。そして、図12Aの左側に示すスキャン範囲R11におけるスキャノ画像の収集が実行されると、検出機能37aが、上述したように特徴点の検出処理を実行する。例えば、検出機能37aは、優先順位に沿った検出処理を実行する。   12A to 12C are diagrams illustrating an example of processing by the display control function 37c according to the first embodiment. Here, in FIGS. 12A to 12C, a plan screen for a scan plan is shown, and a virtual patient image and a scano image are shown on the plan screen. In FIGS. 12A to 12C, only the virtual patient image or only the virtual patient image and the scano image are shown, but actually, various items displayed on the plan screen of the scan plan are displayed. The For example, when a scanogram is collected, the display control function 37c shows a scan range R11 of the scanogram in the virtual patient image, as shown in the left diagram of FIG. 12A. This range is a range set in the scan protocol or a range after being changed by the operator after the scan protocol is selected. For example, as shown in the diagram on the left side of FIG. 12A, the display control function 37c displays a virtual patient image in which the scan range R11 of the scanogram is shown in gray on the display. Then, when the scanogram collection in the scan range R11 shown on the left side of FIG. 12A is executed, the detection function 37a executes the feature point detection process as described above. For example, the detection function 37a executes detection processing according to the priority order.

検出機能37aによってスキャン範囲R11で収集されたスキャノ画像のボリュームデータから「胸部」が検出され、検出された特徴点の情報と、位置照合機能37bによって算出された胸部における座標変換行列が記憶回路35に格納されると、表示制御機能37cは、検出された特徴点の識別コードを読み出し、仮想患者画像内の対応する識別コードの特徴点の座標を抽出する。そして、表示制御機能37cは、抽出した座標に対して座標変換行列を適用することで、仮想患者画像上の「胸部」の領域「R12」を算出し、算出した「胸部」の領域「R12」の内部を図12Aの右側の図に示すように明瞭にした仮想患者画像をディスプレイ32に表示させる。また、表示制御機能37cは、部位が未検出の領域「R13」については、図12Aの右側の図に示すように、グレーのまま継続して表示させる。   The “chest” is detected from the volume data of the scano image collected in the scan range R11 by the detection function 37a, and the detected feature point information and the coordinate transformation matrix in the chest calculated by the position matching function 37b are stored in the storage circuit 35. The display control function 37c reads the identification code of the detected feature point, and extracts the coordinates of the feature point of the corresponding identification code in the virtual patient image. Then, the display control function 37c calculates a “chest” region “R12” on the virtual patient image by applying a coordinate transformation matrix to the extracted coordinates, and calculates the calculated “chest” region “R12”. As shown in the figure on the right side of FIG. 12A, a virtual patient image that is clarified is displayed on the display 32. In addition, the display control function 37c continuously displays the region “R13” in which the region is not detected as gray as illustrated in the right side of FIG. 12A.

ここで、表示制御機能37cは、検出結果に応じた表示を行わせることも可能である。例えば、表示制御機能37cは、検出機能37aによる各部位の検出精度に応じて、検出済みの領域の色を変化させたり、マークを付与したりすることができる。一例を挙げると、表示制御機能37cは、検出対象の部位に含まれる全ての特徴点のうち、検出機能37aによって検出された特徴点の割合に応じて、領域を検出精度の違いで色分けしたり、検出精度を示すマークを付与したりする。例えば、「胸部」を検出するための特徴点が「50」あるとする。表示制御機能37cは、例えば、特徴点「50」のうち、検出機能37aによって検出された特徴点の割合に応じて領域「R12」の色を変化させる。一例を挙げると、表示制御機能37cは、検出機能37aによって検出された特徴点の割合が「8割以上(40以上)」、「6割以上8割未満(30以上40未満)」、「2割以上6割未満(10以上30未満)」或いは「2割未満(10未満)」の各割合に応じて領域「R12」の色を変化させる。   Here, the display control function 37c can also perform display according to the detection result. For example, the display control function 37c can change the color of a detected region or add a mark according to the detection accuracy of each part by the detection function 37a. For example, the display control function 37c may color-code the regions with different detection accuracy according to the ratio of the feature points detected by the detection function 37a among all the feature points included in the detection target region. Or a mark indicating the detection accuracy. For example, it is assumed that there are “50” feature points for detecting “chest”. For example, the display control function 37c changes the color of the region “R12” according to the ratio of the feature points detected by the detection function 37a among the feature points “50”. For example, in the display control function 37c, the ratio of the feature points detected by the detection function 37a is "80% or more (40 or more)", "60% or more and less than 80% (30 or more and less than 40)", "2 The color of the region “R12” is changed according to each ratio of “more than or equal to 60% (less than or equal to 10 and less than 30)” or “less than 20% (less than 10)”.

また、例えば、記憶回路35が、上記した各割合に対して検出精度を示すマークや文字を対応付けた情報を記憶する。一例を挙げると、記憶回路35は、「8割以上(40以上)」に「Excellent」を対応付け、「6割以上8割未満(30以上40未満)」に「Good」を対応付け、「2割以上6割未満(10以上30未満)」に「Poor」を対応付け、「2割未満(10未満)」に「Bad」を対応付けた情報を記憶する。表示制御機能37cは、検出機能37aによる検出結果に対応する文字を記憶回路35から読み出し、領域「R12」に付与して表示させる。このように、表示制御機能37cは、検出機能37aによる各部位の検出精度に応じて、検出済みの領域の色を変化させたり、マークを付与したりする。これにより、観察者は、検出済みの部位の検出精度を一目で確認することができる。   Further, for example, the storage circuit 35 stores information in which marks and characters indicating detection accuracy are associated with the above-described ratios. For example, the memory circuit 35 associates “Excellent” with “80% or more (40 or more)”, “Good” with “60 or more and less than 80% (30 or more and less than 40)”, “ “Poor” is associated with “20% to less than 60% (10 to less than 30)”, and “Bad” is associated with “less than 20% (less than 10)”. The display control function 37c reads out characters corresponding to the detection result by the detection function 37a from the storage circuit 35, adds them to the region “R12”, and displays them. As described above, the display control function 37c changes the color of a detected region or adds a mark according to the detection accuracy of each part by the detection function 37a. Thereby, the observer can confirm the detection accuracy of the detected part at a glance.

このように、表示制御機能37cは、検出機能37aによって検出された部位を強調させた仮想患者画像をディスプレイ32に表示させる。なお、表示制御機能37cは、仮想患者画像上だけではなく、実際のスキャノ画像において検出された部位を強調して表示させることもできる。なお、上述した例では、位置照合機能37bによって位置が照合された後の領域を仮想患者画像に表示させる場合を例に挙げて説明したが、実施形態はこれに限定されるものではなく、照合処理を行わずに仮想患者画像における検出された部位を強調させて表示する場合であってもよい。かかる場合には、表示制御機能37cは、記憶回路35に格納された識別コードを読み出し、仮想患者画像上で読み出した識別コードに対応する識別コードによって定義される領域を強調して表示させる場合であってもよい。   As described above, the display control function 37c causes the display 32 to display the virtual patient image in which the part detected by the detection function 37a is emphasized. Note that the display control function 37c can emphasize and display not only the virtual patient image but also the part detected in the actual scano image. In the above-described example, the case where the region after the position is collated by the position collation function 37b is displayed on the virtual patient image has been described as an example. However, the embodiment is not limited thereto, and collation is performed. It may be a case where the detected part in the virtual patient image is highlighted and displayed without performing the process. In such a case, the display control function 37c reads the identification code stored in the storage circuit 35 and highlights and displays a region defined by the identification code corresponding to the identification code read on the virtual patient image. There may be.

このように、表示制御機能37cは、検出機能37aによって検出された部位を強調して表示させる。しかしながら、検出機能37aによる検出処理が必ずしも成功するとは限らず、部位の検出がうまくいかない場合がある。そこで、表示制御機能37cは、表示画像上に設定された領域に対応する仮想患者画像上の領域を部位として強調して表示させることもできる。かかる場合には、入力回路31が3次元画像データから生成された表示画像に対して被検体の部位を指定するための指定操作を受け付ける。表示制御機能37cは、入力回路31によって受け付けられた指定操作によって指定された部位を検出された部位として示す情報を出力するように制御する。   In this manner, the display control function 37c highlights and displays the part detected by the detection function 37a. However, the detection process by the detection function 37a is not always successful, and there is a case where the part is not successfully detected. Therefore, the display control function 37c can also highlight and display the region on the virtual patient image corresponding to the region set on the display image as a part. In such a case, the input circuit 31 accepts a designation operation for designating the region of the subject with respect to the display image generated from the three-dimensional image data. The display control function 37c controls to output information indicating the part specified by the specifying operation received by the input circuit 31 as the detected part.

例えば、表示制御機能37cは、スキャン計画画面に配置された「image」ボタンが押下されると、図12Bに示すように、仮想患者画像が示されたスキャン計画画面に、収集されたスキャノ画像を表示させる。ここで、表示制御機能37cは、図12Bに示すように、スキャノ画像上にも部位が検出済みの領域「R12」とともに、検出済みの領域「R12」と区別がつくように、点線で囲んだ領域「R13」をスキャン画像上に表示させる。なお、この場合においても、表示制御機能37cは、検出機能37aによる各部位の検出精度に応じて、検出済みの領域の色を変化させたり、マークを付与したりすることができる。   For example, when the “image” button arranged on the scan plan screen is pressed, the display control function 37c displays the collected scanogram on the scan plan screen on which the virtual patient image is shown, as shown in FIG. 12B. Display. Here, as shown in FIG. 12B, the display control function 37c is surrounded by a dotted line so as to be distinguished from the detected region “R12” together with the detected region “R12” on the scanogram. The region “R13” is displayed on the scanned image. Even in this case, the display control function 37c can change the color of a detected region or add a mark in accordance with the detection accuracy of each part by the detection function 37a.

ここで、操作者は、入力回路31を介して、部位の設定を行うことができる。例えば、操作者は、入力回路31を操作して領域「R13」のサイズを変えることで、部位の領域を設定する。例えば、操作者は、図12Cの右側の図に示すように、入力回路31を操作して、領域「R13」を「腹部」を設定するための領域「R14」に変更する。このように、操作者によって領域「R14」が設定されると、表示制御機能37cは、設定された領域に含まれる特徴点の座標を抽出し、抽出した特徴点に対応する仮想患者画像内の特徴点の座標に座標変換行列を適用することで、仮想患者画像における領域「R14」を算出して、算出した領域を「R14」として示した仮想患者画像を表示する。なお、上述した座標変換行列は、胸部で算出された座標変換行列を用いる場合であってもよく、操作者によって指定された領域「R14」に含まれる特徴点を用いて再度算出する場合であってもよい。   Here, the operator can set a part via the input circuit 31. For example, the operator sets the region of the part by operating the input circuit 31 and changing the size of the region “R13”. For example, as shown in the diagram on the right side of FIG. 12C, the operator operates the input circuit 31 to change the region “R13” to the region “R14” for setting “abdomen”. As described above, when the region “R14” is set by the operator, the display control function 37c extracts the coordinates of the feature points included in the set region, and in the virtual patient image corresponding to the extracted feature points. By applying the coordinate transformation matrix to the coordinates of the feature points, the region “R14” in the virtual patient image is calculated, and the virtual patient image indicating the calculated region as “R14” is displayed. The coordinate transformation matrix described above may be a case where the coordinate transformation matrix calculated at the chest is used, or a case where the coordinate transformation matrix is calculated again using the feature points included in the region “R14” designated by the operator. May be.

表示制御機能37cは、検出機能37aによって段階的に部位が検出されると、検出されるごとにそれらの情報を仮想患者画像に反映する。図13は、第1の実施形態に係る表示制御機能37cによる処理の一例を示す図である。例えば、図13の左側の図に示すように、胸部の領域「R12」と腹部の領域「R14」が検出された後、検出機能37aが胸部から「心臓」を検出すると、表示制御機能37cは、図13の右側の図に示すように、「心臓」を強調した仮想患者画像を表示させる。なお、表示制御機能37cは、部位が段階的に検出された場合においても、検出機能37aによる各部位の検出精度に応じて、検出済みの領域の色を変化させたり、マークを付与したりすることができる。例えば、表示制御機能37cは、心臓の検出精度に応じて心臓領域の色を変化させたり、心臓にマークや文字を付与したりすることができる。   When the region is detected stepwise by the detection function 37a, the display control function 37c reflects the information on the virtual patient image each time it is detected. FIG. 13 is a diagram illustrating an example of processing by the display control function 37c according to the first embodiment. For example, as shown in the left diagram of FIG. 13, after the chest region “R12” and the abdominal region “R14” are detected, if the detection function 37a detects “heart” from the chest, the display control function 37c As shown in the diagram on the right side of FIG. 13, a virtual patient image in which “heart” is emphasized is displayed. Note that the display control function 37c changes the color of a detected region or adds a mark according to the detection accuracy of each part by the detection function 37a even when the part is detected stepwise. be able to. For example, the display control function 37c can change the color of the heart region according to the detection accuracy of the heart, or can add a mark or a character to the heart.

このように、検出機能37aが優先順位に応じて段階的に部位を検出し、表示制御機能37cが検出された部位が強調された仮想患者画像或いはスキャノ画像を表示させることで、操作者は、解剖学的な特徴点に基づく部位の検出状況を一目で把握することができる。これにより、本スキャンでスキャンしたい範囲が検出されているか否かを一目で判断して、検査を進めていくことができる。   In this way, the detection function 37a detects the parts step by step according to the priority order, and the display control function 37c displays the virtual patient image or the scano image in which the detected part is emphasized. It is possible to grasp at a glance the detection status of a part based on anatomical feature points. Accordingly, it is possible to proceed with the inspection by determining at a glance whether or not the range to be scanned in the main scan has been detected.

なお、上述した部位の検出処理は、上述した位置決め画像のボリュームデータだけでなく、本スキャンによって収集されたボリュームデータに対しても実行することができる。スキャノ画像と比較して本スキャンで収集される画像は、画質が高く検出機能37aによる検出処理の精度が高くなることが予想される。また、本スキャンでは、造影剤が用いられる場合もあり、細かい血管などを検出することも可能となる。そこで、検出機能37aは、本スキャンによって画像が収集されると、収集されたボリュームデータを用いて上述した優先順位に沿った検出処理を実行する。ここで、本スキャンでは、部位が設定されたうえでスキャンが実行されているため、例えば、認識レベルはレベル2から開始する場合であってもよい。   It should be noted that the above-described part detection process can be executed not only on the positioning image volume data described above but also on the volume data collected by the main scan. It is expected that the image collected in the main scan compared to the scanogram has high image quality and the accuracy of the detection process by the detection function 37a is increased. In this scan, a contrast medium may be used, and fine blood vessels can be detected. Therefore, when an image is collected by the main scan, the detection function 37a executes detection processing in accordance with the above-described priority order using the collected volume data. Here, in this scan, since the part is set and the scan is executed, for example, the recognition level may start from level 2.

一方、本スキャンのスキャン範囲を予め設定しておき、検出機能37aによる部位が検出された後に、スキャン範囲を調整することも可能である。具体的には、入力回路31が診断用の投影データを収集するためのスキャン範囲の設定を受け付ける。そして、制御機能37dが、検出機能37aによって検出された被検体の部位の位置に基づいて、入力回路31によって受け付けられたスキャン範囲を調整する。すなわち、制御機能37dが、スキャン制御回路33を制御して、スキャンを実行させる。図14は、第1の実施形態に係るスキャン範囲の調整の一例を説明するための図である。   On the other hand, it is also possible to set the scan range of the main scan in advance and adjust the scan range after the part by the detection function 37a is detected. Specifically, the input circuit 31 accepts setting of a scan range for collecting diagnostic projection data. Then, the control function 37d adjusts the scan range received by the input circuit 31 based on the position of the part of the subject detected by the detection function 37a. That is, the control function 37d controls the scan control circuit 33 to execute scanning. FIG. 14 is a diagram for explaining an example of adjustment of the scan range according to the first embodiment.

例えば、図14の上段の図に示すように、スキャノ画像のボリュームデータに対する検出処理が実行されており、部位が未検出の状態(領域R11の内部がグレーの状態)で、操作者が入力回路31を介して本スキャンのスキャン範囲を「肺」と設定する。かかる場合、スキャノ画像における肺の領域がまだ検出されていないため、正確なスキャン範囲を設定することができず、例えば、図14の上段における右側の図に示すように、本スキャンのスキャン範囲「R15」が肺の領域からずれた状態でスキャン範囲が設定されることとなる。   For example, as shown in the upper diagram of FIG. 14, the detection processing for the volume data of the scanogram is executed, the part is not detected (the inside of the region R11 is gray), and the operator inputs the input circuit. The scan range of the main scan is set to “lung” via 31. In such a case, since the lung region in the scanogram has not yet been detected, an accurate scan range cannot be set. For example, as shown in the right diagram in the upper part of FIG. The scan range is set with R15 "deviating from the lung region.

制御機能37dは、検出機能37aによってボリュームデータ内の「肺」が検出されると、図14の下段における右側の図に示すように、「肺」を正確に含んだ本スキャンのスキャン範囲「R16」を設定して、設定した情報(領域R16の座標に対応する寝台の位置の情報)をスキャン制御回路33に送出することで、領域R16における本スキャンを実行させる。   When the detection function 37a detects “lung” in the volume data, the control function 37d detects the scan range “R16” of the main scan accurately including “lung” as shown in the right diagram in the lower part of FIG. ”And the set information (the information on the position of the bed corresponding to the coordinates of the region R16) is sent to the scan control circuit 33, thereby executing the main scan in the region R16.

なお、上述したグループの情報は、適宜ディスプレイに表示させることができる。例えば、表示制御機能37cは、図10A、図10B及び図11などに示した対応情報をディスプレイ32に表示させるように制御する。すなわち、表示制御機能37cは、グループと各グループに含まれる特徴点との対応を示す情報をディスプレイ32に表示させるように制御する。ここで、グループの情報は、種々の形式で表示させることができる。一例を挙げると、表示制御機能37cは、スキャン計画の計画画面に、図10A、図10B又は図11に示す対応情報を表示させることができる。また、例えば。表示制御機能37cは、仮想患者画像において、グループに対応する部分を順に表示させることもできる。一例を挙げると、表示制御機能37cは、グループ1からグループ5までの各部位を一定の時間間隔で切り替わりながら強調表示させるように制御することもできる。また、表示制御機能37cは、設定されたスキャン計画に基づくグループの部位を強調表示させるように制御することもできる。これにより、ユーザは、スキャン計画中にこれらの情報を参照することで、検出される部位を確認することができるとともに、検出させる部位の再設定などを行うことができる。   Note that the group information described above can be appropriately displayed on a display. For example, the display control function 37c controls the display 32 to display the correspondence information shown in FIGS. 10A, 10B, 11 and the like. That is, the display control function 37c controls the display 32 to display information indicating the correspondence between the groups and the feature points included in each group. Here, the group information can be displayed in various formats. For example, the display control function 37c can display the correspondence information shown in FIG. 10A, FIG. 10B, or FIG. 11 on the plan screen of the scan plan. Also for example. The display control function 37c can also sequentially display portions corresponding to groups in the virtual patient image. As an example, the display control function 37c can also be controlled to highlight each part from group 1 to group 5 while switching at a constant time interval. The display control function 37c can also be controlled to highlight a group part based on the set scan plan. Thereby, the user can confirm the detected part by referring to the information during the scan plan, and can reset the part to be detected.

次に、図15、図16A及び図16Bを用いて、第1の実施形態に係るX線CT装置1の処理について説明する。図15、図16A及び図16Bは、第1の実施形態に係るX線CT装置1による処理の手順を示すフローチャートである。ここで、図15においては、検査情報及びスキャン条件に基づいてグループを選択して、部位を検出する場合の処理の一例を示す。また、図16A及び図16Bにおいては、優先順位に基づいて部位を検出する場合の処理の一例を示す。   Next, processing of the X-ray CT apparatus 1 according to the first embodiment will be described with reference to FIGS. 15, 16A, and 16B. FIG. 15, FIG. 16A and FIG. 16B are flowcharts showing a processing procedure by the X-ray CT apparatus 1 according to the first embodiment. Here, FIG. 15 shows an example of processing in the case of selecting a group based on examination information and scanning conditions and detecting a part. Moreover, in FIG. 16A and FIG. 16B, an example of the process in the case of detecting a site | part based on a priority is shown.

図15に示すステップS101及びステップS102は、処理回路37が記憶回路35から制御機能37dに対応するプログラムを読み出して実行されるステップである。ステップS101では、処理回路37が、検査情報及びスキャン条件を受け付けたか否かを判定する。そして、ステップS102では、処理回路37が、スキャン制御回路33、画像再構成回路36などを制御することで、3次元の位置決め画像を収集する。   Steps S101 and S102 shown in FIG. 15 are steps in which the processing circuit 37 reads out a program corresponding to the control function 37d from the storage circuit 35 and executes it. In step S101, the processing circuit 37 determines whether inspection information and scan conditions have been received. In step S102, the processing circuit 37 controls the scan control circuit 33, the image reconstruction circuit 36, and the like to collect a three-dimensional positioning image.

図15に示すステップS103〜ステップS105は、処理回路37が記憶回路35から検出機能37aに対応するプログラムを読み出して実行されるステップである。ステップS103では、処理回路37が、検査情報及びスキャン条件に基づいて、グループを選択する。また、ステップS104では、処理回路37が、選択したグループに含まれる特徴点を、ボリュームデータから検出する。また、ステップS105では、処理回路37が、検出した特徴点に対応する部位を検出する。   Steps S103 to S105 shown in FIG. 15 are steps in which the processing circuit 37 reads a program corresponding to the detection function 37a from the storage circuit 35 and executes it. In step S103, the processing circuit 37 selects a group based on the inspection information and the scan condition. In step S104, the processing circuit 37 detects feature points included in the selected group from the volume data. In step S105, the processing circuit 37 detects a part corresponding to the detected feature point.

図15に示すステップS106は、処理回路37が記憶回路35から表示制御機能37cに対応するプログラムを読み出して実行されるステップである。ステップS106では、処理回路37が、検出した部位の情報をディスプレイ32に表示させる。   Step S106 illustrated in FIG. 15 is a step in which the processing circuit 37 reads a program corresponding to the display control function 37c from the storage circuit 35 and is executed. In step S106, the processing circuit 37 causes the display 32 to display information on the detected part.

図16Aに示すステップS201及びステップS202は、処理回路37が記憶回路35から制御機能37dに対応するプログラムを読み出して実行されるステップである。ステップS201では、処理回路37が、検査が開始されたか否かを判定する。そして、ステップS202では、処理回路37が、スキャン制御回路33、画像再構成回路36などを制御することで、3次元の位置決め画像を収集する。   Step S201 and step S202 shown in FIG. 16A are steps in which the processing circuit 37 reads a program corresponding to the control function 37d from the storage circuit 35 and executes it. In step S201, the processing circuit 37 determines whether or not inspection has been started. In step S202, the processing circuit 37 collects a three-dimensional positioning image by controlling the scan control circuit 33, the image reconstruction circuit 36, and the like.

図16AのステップS203及びステップS204は、処理回路37が記憶回路35から検出機能37aに対応するプログラムを読み出して実行されるステップである。ステップS203では、処理回路37が、検出処理における認識レベルを1に設定する。そして、ステップS204では、処理回路37が、認識レベルに対応する解剖学的な特徴点を位置決め画像から検出する。   Step S203 and step S204 in FIG. 16A are steps in which the processing circuit 37 reads out a program corresponding to the detection function 37a from the storage circuit 35 and executes it. In step S203, the processing circuit 37 sets the recognition level in the detection process to 1. In step S204, the processing circuit 37 detects an anatomical feature point corresponding to the recognition level from the positioning image.

図16AのステップS205は、処理回路37が記憶回路35から表示制御機能37cに対応するプログラムを読み出して実行されるステップである。ステップS205では、処理回路37が、仮想患者画像上に検出結果を表示するとともに、スキャンプランに反映する。   Step S205 in FIG. 16A is a step in which the processing circuit 37 reads a program corresponding to the display control function 37c from the storage circuit 35 and is executed. In step S205, the processing circuit 37 displays the detection result on the virtual patient image and reflects it in the scan plan.

図16Aに示すステップS206は、処理回路37が記憶回路35から検出機能37aに対応するプログラムを読み出して実行されるステップである。ステップS206では、処理回路37が、現在の認識レベルに対応する特徴点を検出したか否かを判定する。図16Aに示すステップS207は、入力回路31によって実行されるステップである。ステップS207では、現在の認識レベルに対応する特徴点を検出していないと判定された場合に(ステップS206否定)、入力回路31がマニュアルでの指定を受け付ける。   Step S206 shown in FIG. 16A is a step in which the processing circuit 37 reads out a program corresponding to the detection function 37a from the storage circuit 35 and executes it. In step S206, the processing circuit 37 determines whether or not a feature point corresponding to the current recognition level has been detected. Step S207 shown in FIG. 16A is a step executed by the input circuit 31. In step S207, when it is determined that the feature point corresponding to the current recognition level is not detected (No in step S206), the input circuit 31 accepts manual designation.

図16Aに示すステップS208及びステップS210は、処理回路37が記憶回路35から制御機能37dに対応するプログラムを読み出して実行されるステップである。ステップS208では、処理回路37が、スキャンが実行可能であるか否かを判定する。ステップS210では、スキャンが実行可能であると判定した場合に(ステップS208肯定)、処理回路37が本スキャンを実行する。   Steps S208 and S210 shown in FIG. 16A are steps in which the processing circuit 37 reads out a program corresponding to the control function 37d from the storage circuit 35 and executes it. In step S208, the processing circuit 37 determines whether the scan can be executed. In step S210, when it is determined that the scan can be executed (Yes in step S208), the processing circuit 37 executes the main scan.

図16Aに示すステップS209は、処理回路37が記憶回路35から検出機能37aに対応するプログラムを読み出して実行されるステップである。ステップS209では、スキャンが実行可能ではないと判定された場合に(ステップS208否定)、処理回路37が、検出処理における認識レベルを1アップさせ、ステップS204に戻って、認識レベルに対応する解剖学的な特徴点を位置決め画像から検出する。   Step S209 shown in FIG. 16A is a step in which the processing circuit 37 reads a program corresponding to the detection function 37a from the storage circuit 35 and is executed. If it is determined in step S209 that the scan is not executable (No in step S208), the processing circuit 37 increases the recognition level in the detection process by one, returns to step S204, and the anatomy corresponding to the recognition level. A characteristic feature point is detected from the positioning image.

図16BのステップS211及びステップS212は、ステップS210における本スキャンが実行された後のステップであり、処理回路37が記憶回路35から検出機能37aに対応するプログラムを読み出して実行されるステップである。ステップS211では、処理回路37が、検出処理における認識レベルを2に設定する。そして、ステップS212では、処理回路37が、認識レベルに対応する解剖学的な特徴点をスキャンした画像から検出する。   Step S211 and step S212 in FIG. 16B are steps after the main scan in step S210 is executed, and the processing circuit 37 reads the program corresponding to the detection function 37a from the storage circuit 35 and is executed. In step S211, the processing circuit 37 sets the recognition level in the detection process to 2. In step S212, the processing circuit 37 detects an anatomical feature point corresponding to the recognition level from the scanned image.

図16BのステップS213は、処理回路37が記憶回路35から表示制御機能37cに対応するプログラムを読み出して実行されるステップである。ステップS213では、処理回路37が、仮想患者画像上に検出結果を表示する。図16Bに示すステップS214は、処理回路37が記憶回路35から検出機能37aに対応するプログラムを読み出して実行されるステップである。ステップS214では、処理回路37が、現在の認識レベルに対応する特徴点を検出したか否かを判定する。図16Bに示すステップS215は、入力回路31によって実行されるステップである。ステップS215では、現在の認識レベルに対応する特徴点を検出していないと判定された場合に(ステップS214否定)、入力回路31がマニュアルでの指定を受け付ける。   Step S213 in FIG. 16B is a step in which the processing circuit 37 reads a program corresponding to the display control function 37c from the storage circuit 35 and is executed. In step S213, the processing circuit 37 displays the detection result on the virtual patient image. Step S214 shown in FIG. 16B is a step in which the processing circuit 37 reads the program corresponding to the detection function 37a from the storage circuit 35 and is executed. In step S214, the processing circuit 37 determines whether or not a feature point corresponding to the current recognition level has been detected. Step S215 illustrated in FIG. 16B is a step executed by the input circuit 31. If it is determined in step S215 that no feature point corresponding to the current recognition level has been detected (No in step S214), the input circuit 31 accepts manual designation.

図16Bに示すステップS216は、処理回路37が記憶回路35から制御機能37dに対応するプログラムを読み出して実行されるステップである。ステップS216では、処理回路37が、すべての特徴点を検出したか否かを判定する。ここで、すべての特徴点を検出したと判定した場合に(ステップS216肯定)、X線CT装置1は処理を終了する。   Step S216 shown in FIG. 16B is a step in which the processing circuit 37 reads out a program corresponding to the control function 37d from the storage circuit 35 and executes it. In step S216, the processing circuit 37 determines whether all feature points have been detected. Here, when it is determined that all feature points have been detected (Yes in step S216), the X-ray CT apparatus 1 ends the process.

図16Bに示すステップS217は、処理回路37が記憶回路35から検出機能37aに対応するプログラムを読み出して実行されるステップである。ステップS217では、すべての特徴点を検出していないと判定された場合に(ステップS216否定)、処理回路37が、検出処理における認識レベルを1アップさせ、ステップS212に戻って、認識レベルに対応する解剖学的な特徴点をスキャンした画像から検出する。   Step S217 illustrated in FIG. 16B is a step in which the processing circuit 37 reads a program corresponding to the detection function 37a from the storage circuit 35 and is executed. If it is determined in step S217 that not all feature points have been detected (No in step S216), the processing circuit 37 increases the recognition level in the detection process by one, and returns to step S212 to deal with the recognition level. An anatomical feature point to be detected is detected from the scanned image.

上述したように、第1の実施形態によれば、画像再構成回路36は、被検体の3次元画像データを生成する。記憶回路35は、被検体内の複数の解剖学的特徴点を、複数のグループに対応付けて記憶する。検出機能37aは、設定された検査情報および実行するスキャンの種別に基づいて複数のグループのうち、少なくとも1つのグループを選択し、選択されたグループに対応する解剖学的特徴点に基づいて、少なくとも1つのグループに該当する被検体の部位を検出する。表示制御機能37cは、検出された部位を示す情報を出力するように制御する。従って、第1の実施形態に係るX線CT装置1は、検査状況に応じた部位を検出することができ、効率よく部位を検出することを可能にする。   As described above, according to the first embodiment, the image reconstruction circuit 36 generates three-dimensional image data of the subject. The storage circuit 35 stores a plurality of anatomical feature points in the subject in association with a plurality of groups. The detection function 37a selects at least one group out of a plurality of groups based on the set examination information and the type of scan to be performed, and at least based on the anatomical feature points corresponding to the selected group A part of the subject corresponding to one group is detected. The display control function 37c controls to output information indicating the detected part. Therefore, the X-ray CT apparatus 1 according to the first embodiment can detect a part corresponding to the examination situation, and can detect the part efficiently.

また、第1の実施形態によれば、検出機能37aは、検査情報及びスキャンの種別に応じた検出粒度のグループを選択する。従って、第1の実施形態に係るX線CT装置1は、収集されるボリュームデータの状態に応じた検出処理を行うことができ、効率よく部位を検出することを可能にする。   Further, according to the first embodiment, the detection function 37a selects a group of detection granularity according to the inspection information and the type of scan. Therefore, the X-ray CT apparatus 1 according to the first embodiment can perform detection processing according to the state of the collected volume data, and can efficiently detect a site.

また、第1の実施形態によれば、データ収集回路14は、被検体を透過したX線を検出して投影データを収集する。検出機能37aは、投影データから再構成された3次元画像データに含まれる解剖学的な特徴点のうち、予め設定された優先順位が高い特徴点から順に検出することで、被検体の部位を段階的に検出する。表示制御機能37cは、検出機能37aによって部位が検出されるごとに、検出された部位を示す情報を出力するように制御する。従って、第1の実施形態に係るX線CT装置1は、解剖学的な特徴点に基づく部位の検出状況を把握させることを可能にする。   According to the first embodiment, the data collection circuit 14 collects projection data by detecting X-rays transmitted through the subject. The detection function 37a detects the region of the subject by detecting the anatomical feature points included in the three-dimensional image data reconstructed from the projection data in order from the preset feature points having the highest priority. Detect in stages. The display control function 37c controls to output information indicating the detected part each time the part is detected by the detection function 37a. Therefore, the X-ray CT apparatus 1 according to the first embodiment makes it possible to grasp the detection status of a part based on anatomical feature points.

また、第1の実施形態によれば、優先順位は、検出に用いられる特徴点の数が少ない部位から順に検出されるように設定される。従って、第1の実施形態に係るX線CT装置1は、検出効率を向上させることを可能にする。   Further, according to the first embodiment, the priority order is set so as to be detected in order from a part having a small number of feature points used for detection. Therefore, the X-ray CT apparatus 1 according to the first embodiment makes it possible to improve detection efficiency.

また、第1の実施形態によれば、表示制御部機能37cは、3次元画像データから生成された表示画像及び人体モデル画像(仮想患者画像)のうち少なくとも一方に検出機能37aによる検出結果を示した情報を出力するように制御する。また、表示制御部機能37cは、表示画像及び人体モデル画像(仮想患者画像)のうち少なくとも一方において、検出機能37aによって検出された部位をその他の部位と比較して強調するように表示させた画像を出力するように制御する。従って、第1の実施形態に係るX線CT装置1は、検出状況をより容易に把握させることを可能にする。   Further, according to the first embodiment, the display control unit function 37c shows the detection result by the detection function 37a on at least one of the display image generated from the three-dimensional image data and the human body model image (virtual patient image). Control to output information. In addition, the display control unit function 37c displays an image so as to emphasize the part detected by the detection function 37a in comparison with other parts in at least one of the display image and the human body model image (virtual patient image). Is controlled to output. Therefore, the X-ray CT apparatus 1 according to the first embodiment makes it possible to grasp the detection state more easily.

また、第1の実施形態によれば、入力回路31が3次元画像データから生成された表示画像に対して被検体の部位を指定するための指定操作を受け付ける。表示制御機能37cは、入力回路31によって受け付けられた指定操作によって指定された部位を検出された部位として示す情報を出力するように制御する。従って、第1の実施形態に係るX線CT装置1は、検出処理がうまくいかなかった場合でも、容易に対応することを可能にする。   Further, according to the first embodiment, the input circuit 31 accepts a designation operation for designating a part of a subject with respect to a display image generated from three-dimensional image data. The display control function 37c controls to output information indicating the part specified by the specifying operation received by the input circuit 31 as the detected part. Therefore, the X-ray CT apparatus 1 according to the first embodiment can easily cope with a case where the detection process is not successful.

また、第1の実施形態によれば、入力回路31が診断用の投影データを収集するためのスキャン範囲の設定を受け付ける。制御機能37dは、検出機能37aによって検出された被検体の部位の位置に基づいて、入力回路31によって受け付けられたスキャン範囲を調整する。従って、第1の実施形態に係るX線CT装置1は、検出処理を待つことなく正確なスキャン範囲の設定を行うことを可能にする。   Further, according to the first embodiment, the input circuit 31 accepts setting of a scan range for collecting diagnostic projection data. The control function 37d adjusts the scan range received by the input circuit 31 based on the position of the part of the subject detected by the detection function 37a. Therefore, the X-ray CT apparatus 1 according to the first embodiment makes it possible to set an accurate scan range without waiting for detection processing.

(第2の実施形態)
上述した第1の実施形態では、予め設定された優先順位に沿ってボリュームデータから部位を検出する場合について説明した。第2の実施形態では、ボリュームデータから検出された検出結果が標準的な体型とは異なる場合の処理について説明する。なお、第2の実施形態では、第1の実施形態と比較して、検出機能37a及び表示制御機能37cによる処理内容が異なる。以下、これらを中心に説明する。
(Second Embodiment)
In the first embodiment described above, a case has been described in which a part is detected from volume data in accordance with a preset priority order. In the second embodiment, a process when the detection result detected from the volume data is different from the standard figure will be described. In the second embodiment, the processing contents of the detection function 37a and the display control function 37c are different from those of the first embodiment. Hereinafter, these will be mainly described.

第2の実施形態に係る表示制御機能37cは、検出機能37aによって検出された被検体の部位のうち標準的な形態とは異なる部位の情報及び被検体内に含まれる異物の情報のうち、少なくとも一方の情報を出力するように制御する。図17は、第2の実施形態に係る表示制御機能による処理の一例を示す図である。例えば、検出機能37aは、「肺」の検出処理を実行している際に、右側の肺に対応する特徴点のみが検出され、左側の肺に対応する特徴点が検出されなかった場合、「肺」が検出されないとはせず、検出結果をそのまま記憶回路35に格納する。   The display control function 37c according to the second embodiment includes at least one of information on a part different from a standard form among parts of the subject detected by the detection function 37a and information on a foreign substance contained in the subject. Control to output one information. FIG. 17 is a diagram illustrating an example of processing by the display control function according to the second embodiment. For example, when executing the “lung” detection process, the detection function 37a detects only the feature points corresponding to the right lung and does not detect the feature points corresponding to the left lung. The detection result is stored in the storage circuit 35 as it is without detecting that “lung” is detected.

すなわち、検出機能37aは、特徴点が検出された右側の肺の特徴点の座標と識別コードとを対応付けて記憶回路35に格納する。表示制御機能37cは、記憶回路35から上述した情報を読み出すと、上述した検出結果を反映した情報をディスプレイ32に表示させる。例えば、表示制御機能37cは、図17の左側の図に示すように、右側の肺のみを強調させた仮想患者画像を表示させる。これにより、被検体の体型が標準とは異なっていることを操作者に提示することができる。すなわち、操作者に対して、図17の左側の仮想患者画像を提示することで、実際のスキャノ画像を確認させるように促すことができる。これにより、操作者は、図17に右側の図に示す実際のスキャノ画像を確認して、被検体が片肺であると認識して記録に残すことができる。   That is, the detection function 37a stores the coordinates of the feature point of the right lung from which the feature point is detected and the identification code in the storage circuit 35 in association with each other. When the display control function 37c reads the above-described information from the storage circuit 35, the display control function 37c causes the display 32 to display information reflecting the above-described detection result. For example, the display control function 37c displays a virtual patient image in which only the right lung is emphasized, as shown in the left diagram of FIG. Thereby, it can be shown to the operator that the body shape of the subject is different from the standard. In other words, the operator can be prompted to confirm the actual scanogram by presenting the left virtual patient image in FIG. As a result, the operator can confirm the actual scanogram shown in the diagram on the right side in FIG. 17, recognize that the subject is one lung, and leave it in the record.

また、表示制御機能37cは、検出された部位を標準的な部位と比較して、大きくことなっている場合には、それを通知する情報を表示させることもできる。例えば、表示制御機能37cは、臓器が異様に肥大していたり、小さかったり、蛇行していたりした場合に、それらの情報を操作者に提示する。例えば、表示制御機能37cは、検出機能37aによって検出された心臓のサイズを標準的な心臓のサイズと比較して、肥大しているか否かを判定して肥大していると判定した場合に、この情報をディスプレイに表示させる。ここで、表示制御機能37cは、心臓の肥大の判定として、心胸郭比が50%を超えるか否かを判定して、心胸郭比が50%を超えている場合に、心肥大として表示情報を提示する。   In addition, the display control function 37c can display information for notifying the detected part when it differs greatly from the standard part. For example, the display control function 37c presents such information to the operator when the organ is abnormally enlarged, small, or meandering. For example, when the display control function 37c compares the size of the heart detected by the detection function 37a with the standard heart size to determine whether it is enlarged or not, This information is displayed on the display. Here, the display control function 37c determines whether or not the cardiothoracic ratio exceeds 50% as the determination of cardiac hypertrophy, and if the cardiothoracic ratio exceeds 50%, the display information is displayed as cardiac hypertrophy. Present.

図18は、第2の実施形態に係る表示制御機能37cによる処理の一例を示す図である。例えば、表示制御機能37cは、図18に示すように、心臓に対して矢印をつけたり、色付けをしたり、アニメーションで点灯させたり、或いは、ワーニングを出すことによって操作者に対して心肥大の情報を提示する。   FIG. 18 is a diagram illustrating an example of processing by the display control function 37c according to the second embodiment. For example, as shown in FIG. 18, the display control function 37c gives information on cardiac hypertrophy to the operator by giving an arrow to the heart, coloring it, lighting it with an animation, or issuing a warning. Present.

また、表示制御機能37cは、検出機能37aによって検出された被検体の部位に対する評価情報を出力するように制御することもできる。例えば、表示制御機能37cは、検出された部位が心臓の場合に、冠動脈の石灰化を定量評価するためのカルシウムスコアに基づく評価情報を表示する。かかる場合には、制御機能37dが、CT値に基づいてカルシウムスコアを算出する。そして、表示制御機能37cは、制御機能37dによって算出されたカルシウムスコアに基づいて、評価情報を表示させる。一例を挙げると、表示制御機能37cは、カルシウムスコアが「600」を超えた場合に、心臓CT(冠動脈CT)の実行に対するワーニングを表示させる。これにより、観察者は、対象の被検体に対する検査として、心臓CTが適切ではないと判断することができる。   In addition, the display control function 37c can also be controlled to output evaluation information for the part of the subject detected by the detection function 37a. For example, the display control function 37c displays evaluation information based on a calcium score for quantitatively evaluating coronary artery calcification when the detected site is the heart. In such a case, the control function 37d calculates a calcium score based on the CT value. Then, the display control function 37c displays the evaluation information based on the calcium score calculated by the control function 37d. For example, when the calcium score exceeds “600”, the display control function 37c displays a warning for the execution of the cardiac CT (coronary artery CT). As a result, the observer can determine that the heart CT is not appropriate for the examination of the subject.

上述したように、表示制御機能37cは、検出した臓器を標準的な臓器と比較することで、標準から大きく異なる場合にその情報を提示する。また、表示制御機能37cは、検出機能37aによって検出された被検体の部位に対する評価情報を出力するように制御する。ここで、このような情報は、臓器に関するだけではなく、例えば、体内に金属や異物などがある場合に同様の情報を提示することができる。ここで、例えば、金属などは、CT値により検出することができる。例えば、表示制御機能37cは、人体のCT値とは異なるCT値を検出した場合に、上述した警告情報などを提示する。   As described above, the display control function 37c compares the detected organ with the standard organ, and presents the information when it greatly differs from the standard. In addition, the display control function 37c controls to output evaluation information for the part of the subject detected by the detection function 37a. Here, such information is not only related to the organ, but the same information can be presented when, for example, a metal or a foreign substance is present in the body. Here, for example, metal or the like can be detected by the CT value. For example, the display control function 37c presents the above-described warning information or the like when a CT value different from the CT value of the human body is detected.

制御機能37dは、上述したような標準とは異なる情報をHISやRISに登録する。これにより、次回、同一の被検体が検査を行う場合に、この情報を読み出して使うことができる。例えば、被検体の情報に片肺の情報があった場合に、検出機能37aは、事前に片肺の情報を取得して、検出処理に利用することができる。   The control function 37d registers information different from the standard as described above in the HIS and RIS. Thereby, this information can be read and used next time when the same subject performs an examination. For example, when there is information on one lung in the information on the subject, the detection function 37a can acquire information on one lung in advance and use it for the detection process.

また、このような情報は、学習の情報として利用することもできる。例えば、検出機能37aが片方の肺だけが検出され、操作者が画像を確認して片肺であることを登録することにより、検出機能37aは、特徴点の検出のされ方と片肺の情報とを学習することができる。このように、検出機能37aは、被検体の部位のうち標準的な形態とは異なる部位と前記異なる部位に対応する特徴点との関連を学習し、学習結果に基づいて被検体の部位を検出する。   Such information can also be used as learning information. For example, when the detection function 37a detects only one lung and the operator confirms the image and registers that it is a single lung, the detection function 37a can detect how feature points are detected and information on one lung. And can learn. As described above, the detection function 37a learns the relationship between a part different from the standard form among the parts of the subject and the feature points corresponding to the different parts, and detects the part of the subject based on the learning result. To do.

また、検出機能37aによる学習は、部位と特徴点との関連だけではなく、金属などに対しても行うことができる。例えば、手術で使用する金属と、その金属の検出のされかたの情報を学習することで、ボリュームデータに対する検出処理の段階で、被検体内に入っている金属を特定することも可能となる。   Further, learning by the detection function 37a can be performed not only on the relationship between the part and the feature point but also on a metal or the like. For example, by learning information on the metal used in surgery and how the metal is detected, it is possible to identify the metal contained in the subject at the stage of detection processing for volume data. .

(第3の実施形態)
さて、これまで第1の実施形態について説明したが、上記した第1の実施形態以外にも、種々の異なる形態にて実施されてよいものである。
(Third embodiment)
The first embodiment has been described so far, but may be implemented in various different forms other than the first embodiment described above.

上述した第1及び第2の実施形態では、部位を検出する際の実施形態について説明した。ここで、本実施形態に係るX線CT装置1は、検出した部位の情報に基づいて、スキャン条件を制御したり、画像再構成を制御したりすることも可能である。   In the first and second embodiments described above, the embodiments for detecting a site have been described. Here, the X-ray CT apparatus 1 according to the present embodiment can also control scan conditions and image reconstruction based on information on detected parts.

例えば、被検体内に金属が含まれている場合や、被検体の体型が局所的に急激に変化している場合、収集されるデータにノイズが含まれることとなる。検出機能37aは、ノイズにより検出処理がうまくいかなかった場合に、画像再構成回路36に投影データからノイズを除去するようにボリュームデータを再構成させて、新たに再構成されたボリュームデータを用いて検出処理を実行する。例えば、画像再構成回路36は、検出処理がノイズによりうまくいかなかったボリュームデータのもとの投影データを用いて逐次近似再構成により再度画像再構成を実行して、新たなボリュームデータを再構成する。検出機能37aは、新たに再構成されたボリュームデータに含まれる被検体の部位を検出する。   For example, when metal is included in the subject or when the body shape of the subject is abruptly changing locally, noise is included in the collected data. The detection function 37a uses the newly reconstructed volume data by causing the image reconstruction circuit 36 to reconstruct the volume data so as to remove the noise from the projection data when the detection process is not successful due to noise. The detection process is executed. For example, the image reconstruction circuit 36 reconstructs new volume data by performing image reconstruction again by successive approximation reconstruction using the original projection data of the volume data for which detection processing has not succeeded due to noise. To do. The detection function 37a detects a part of the subject included in the newly reconstructed volume data.

また、例えば、検出機能37aによる検出結果に基づいて、スキャン条件を制御することも可能である。一例を挙げると、被検体が片肺である場合に、制御機能37dは、片肺が撮像中心にくるように寝台を移動させたり、コリメータ12cやウェッジ12bを片肺の画像が収集できる程度に制御したりする。例えば、制御機能37dは、X線焦点から撮像対象の片肺が遠い回転角度では、それ以外の角度に比べて線量を落とすように管電流を変調させる。また、例えば、肺に胸水がたまっている場合に、制御機能37dは、線量を高めて画像を収集するように制御する。   Further, for example, it is possible to control the scan condition based on the detection result by the detection function 37a. For example, when the subject is a single lung, the control function 37d can move the bed so that the single lung is at the center of imaging, or the collimator 12c and the wedge 12b can collect images of the single lung. Or control. For example, the control function 37d modulates the tube current so that the dose is reduced at a rotation angle where the one lung to be imaged is far from the X-ray focal point compared to other angles. For example, when pleural effusion is accumulated in the lung, the control function 37d performs control so as to collect an image with a higher dose.

また、上述した実施形態では、X線CT装置が各種処理を実行する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、他の医用画像診断装置において各種処理が実行される場合であってもよい。かかる場合には、X線診断装置や、MRI装置、超音波診断装置などの医用画像診断装置が、処理回路37と同様の処理回路を有し、収集した医用画像データを用いて上述した処理を実行する。   In the above-described embodiment, the case where the X-ray CT apparatus executes various processes has been described. However, the embodiment is not limited to this, and may be a case where various processes are executed in another medical image diagnostic apparatus, for example. In such a case, a medical image diagnostic apparatus such as an X-ray diagnostic apparatus, an MRI apparatus, or an ultrasonic diagnostic apparatus has a processing circuit similar to the processing circuit 37, and performs the above-described processing using the collected medical image data. Run.

また、第1の実施形態で図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、或いは、ワイヤードロジックによるハードウェアとして実現され得る。   In addition, each component of each device illustrated in the first embodiment is functionally conceptual and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. Further, all or a part of each processing function performed in each device may be realized by a CPU and a program that is analyzed and executed by the CPU, or may be realized as hardware by wired logic.

また、第1の実施形態で説明した制御方法は、予め用意された制御プログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することによって実現することができる。この制御プログラムは、インターネット等のネットワークを介して配布することができる。また、この制御プログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO、DVD等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。   Further, the control method described in the first embodiment can be realized by executing a control program prepared in advance on a computer such as a personal computer or a workstation. This control program can be distributed via a network such as the Internet. The control program can also be executed by being recorded on a computer-readable recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, and a DVD and being read from the recording medium by the computer.

以上、説明したとおり、各実施形態によれば、効率よく部位検出を行うことを可能とする。   As described above, according to each embodiment, site detection can be performed efficiently.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

1 X線CT装置
14 データ収集回路
37a 検出機能
37b 位置照合機能
37c 表示制御機能
37d 制御機能
1 X-ray CT apparatus 14 Data acquisition circuit 37a Detection function 37b Position matching function 37c Display control function 37d Control function

Claims (16)

被検体の3次元画像データを生成する生成部と、
前記被検体内の複数の解剖学的特徴点を、複数のグループに対応付けて記憶する記憶部と、
設定された検査情報および実行するスキャンの種別に基づいて前記複数のグループのうち、少なくとも1つのグループを選択し、選択されたグループに対応する解剖学的特徴点に基づいて、前記少なくとも1つのグループに該当する前記被検体の部位を検出する検出部と、
検出された部位を示す情報を出力するように制御する出力制御部と、
を備える、医用画像診断装置。
A generating unit for generating three-dimensional image data of the subject;
A storage unit that stores a plurality of anatomical feature points in the subject in association with a plurality of groups;
At least one group is selected from the plurality of groups based on the set examination information and the type of scan to be performed, and the at least one group is based on anatomical feature points corresponding to the selected group A detection unit for detecting a portion of the subject corresponding to
An output control unit that controls to output information indicating the detected part;
A medical image diagnostic apparatus comprising:
前記検出部は、前記検査情報及びスキャンの種別に応じた検出粒度のグループを選択する、請求項1に記載の医用画像診断装置。   The medical image diagnostic apparatus according to claim 1, wherein the detection unit selects a group having a detection granularity according to the examination information and a type of scan. 前記検出部は、前記検査情報及びスキャンの種別に応じて予め設定された優先順位に基づいてグループを選択する、請求項1に記載の医用画像診断装置。   The medical image diagnosis apparatus according to claim 1, wherein the detection unit selects a group based on a priority order set in advance according to the examination information and a type of scan. 前記優先順位は、検出に用いられる特徴点の数が少ない部位から順に検出されるように設定される、請求項3に記載の医用画像診断装置。   The medical image diagnosis apparatus according to claim 3, wherein the priority order is set so as to be detected in order from a part having a small number of feature points used for detection. 前記出力制御部は、前記3次元画像データから生成された表示画像及び人体モデル画像のうち少なくとも一方に前記検出部による検出結果を示した情報を出力するように制御する、請求項1〜4のいずれか1つに記載の医用画像診断装置。   The output control unit controls to output information indicating a detection result by the detection unit to at least one of a display image and a human body model image generated from the three-dimensional image data. The medical image diagnostic apparatus according to any one of the above. 前記出力制御部は、前記表示画像及び前記人体モデル画像のうち少なくとも一方において、前記検出部によって検出された部位をその他の部位と比較して強調するように表示させた画像を出力するように制御する、請求項5に記載の医用画像診断装置。   The output control unit controls to output an image displayed so as to emphasize a part detected by the detection unit in comparison with other parts in at least one of the display image and the human body model image. The medical image diagnostic apparatus according to claim 5. 前記3次元画像データから生成された表示画像に対して前記被検体の部位を指定するための指定操作を受け付ける受付部をさらに備え、
前記出力制御部は、前記受付部によって受け付けられた指定操作によって指定された部位を検出された部位として示す情報を出力するように制御する、請求項1〜6のいずれか1つに記載の医用画像診断装置。
A reception unit that receives a designation operation for designating a region of the subject with respect to a display image generated from the three-dimensional image data;
The medical output according to any one of claims 1 to 6, wherein the output control unit performs control so as to output information indicating a site specified by the specifying operation received by the receiving unit as a detected site. Diagnostic imaging device.
診断用の投影データを収集するためのスキャン範囲の設定を受け付けるスキャン範囲受付部と、
前記検出部によって検出された前記被検体の部位の位置に基づいて、前記スキャン範囲受付部によって受け付けられたスキャン範囲を調整するスキャン制御部と、
をさらに備える、請求項1〜7のいずれか1つに記載の医用画像診断装置。
A scan range accepting unit for accepting setting of a scan range for collecting projection data for diagnosis;
A scan control unit that adjusts a scan range received by the scan range reception unit based on a position of a part of the subject detected by the detection unit;
The medical image diagnostic apparatus according to claim 1, further comprising:
前記収集部によって収集された投影データからノイズを除去するように3次元画像データを再構成する再構成部をさらに備え、
前記検出部は、前記再構成部によって再構成された3次元画像データに含まれる前記被検体の部位を検出する、請求項1〜8のいずれか1つに記載の医用画像診断装置。
A reconstruction unit that reconstructs three-dimensional image data so as to remove noise from the projection data collected by the collection unit;
The medical image diagnostic apparatus according to claim 1, wherein the detection unit detects a part of the subject included in the three-dimensional image data reconstructed by the reconstruction unit.
前記再構成部は、前記被検体内に含まれる金属及び前記被検体の体型に基づくノイズを除去するように前記3次元画像データを再構成する、請求項9に記載の医用画像診断装置。   The medical image diagnostic apparatus according to claim 9, wherein the reconstruction unit reconstructs the three-dimensional image data so as to remove noise based on a metal contained in the subject and a body shape of the subject. 前記検出部によって検出された前記被検体の部位の位置に基づいて、診断用の投影データを収集するためのスキャン条件を制御するスキャン制御部をさらに備える、請求項1〜10のいずれか1つに記載の医用画像診断装置。   The scan control unit according to claim 1, further comprising: a scan control unit configured to control a scan condition for collecting diagnostic projection data based on the position of the part of the subject detected by the detection unit. The medical image diagnostic apparatus described in 1. 前記スキャン制御部は、前記検出部によって検出された前記被検体の部位の位置に基づいて、前記診断用の投影データを収集する際のX線の照射条件、照射範囲及び寝台位置のうち少なくとも1つを制御する、請求項11に記載の医用画像診断装置。   The scan control unit includes at least one of an X-ray irradiation condition, an irradiation range, and a bed position when collecting the projection data for diagnosis based on the position of the part of the subject detected by the detection unit. The medical image diagnostic apparatus according to claim 11, which controls one of the two. 前記出力制御部は、前記検出部によって検出された前記被検体の部位のうち標準的な形態とは異なる部位の情報及び前記被検体内に含まれる異物の情報のうち、少なくとも一方の情報を出力するように制御する、請求項1〜12のいずれか1つに記載の医用画像診断装置。   The output control unit outputs at least one of information on a part different from a standard form among parts of the subject detected by the detection unit and information on a foreign substance contained in the subject. The medical image diagnostic apparatus according to claim 1, wherein the medical image diagnostic apparatus is controlled so as to perform the control. 前記検出部は、前記被検体の部位のうち標準的な形態とは異なる部位と前記異なる部位に対応する特徴点との関連を学習し、学習結果に基づいて前記被検体の部位を検出する、請求項1〜13のいずれか1つに記載の医用画像診断装置。   The detection unit learns a relationship between a part different from a standard form of the part of the subject and a feature point corresponding to the different part, and detects the part of the subject based on a learning result. The medical image diagnostic apparatus according to any one of claims 1 to 13. 前記出力制御部は、前記複数のグループに関する情報を出力するように制御する、請求項1〜14のいずれか1つに記載の医用画像診断装置。   The medical image diagnostic apparatus according to claim 1, wherein the output control unit controls to output information on the plurality of groups. 前記グループは、前記被検体における位置、臓器、骨、血管、神経のいずれか1つに対応する、請求項1〜15のいずれか1つに記載の医用画像診断装置。   The medical image diagnostic apparatus according to claim 1, wherein the group corresponds to any one of a position, an organ, a bone, a blood vessel, and a nerve in the subject.
JP2017092526A 2016-05-09 2017-05-08 Medical diagnostic imaging equipment Active JP6951117B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/590,654 US10463328B2 (en) 2016-05-09 2017-05-09 Medical image diagnostic apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016094081 2016-05-09
JP2016094081 2016-05-09

Publications (2)

Publication Number Publication Date
JP2017202315A true JP2017202315A (en) 2017-11-16
JP6951117B2 JP6951117B2 (en) 2021-10-20

Family

ID=60321780

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017092526A Active JP6951117B2 (en) 2016-05-09 2017-05-08 Medical diagnostic imaging equipment

Country Status (1)

Country Link
JP (1) JP6951117B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019208839A (en) * 2018-06-04 2019-12-12 キヤノンメディカルシステムズ株式会社 X-ray ct apparatus
JP2019213747A (en) * 2018-06-14 2019-12-19 コニカミノルタ株式会社 Display controller, medical image display system, and program
CN110706803A (en) * 2019-08-20 2020-01-17 南京医基云医疗数据研究院有限公司 Method, device, readable medium and electronic equipment for determining myocardial fibrosis
KR20200067769A (en) * 2018-12-04 2020-06-12 엘지전자 주식회사 Medical image processing apparatus
JP2020171410A (en) * 2019-04-09 2020-10-22 コニカミノルタ株式会社 Medical information processing system
CN112004471A (en) * 2018-04-13 2020-11-27 通用电气公司 System and method for imaging system shortcut mode
CN112107313A (en) * 2019-06-19 2020-12-22 佳能医疗系统株式会社 Medical data processing device and medical data processing method
WO2021033667A1 (en) 2019-08-19 2021-02-25 富士フイルム株式会社 Medical assistance device, operation method and operation program for same, and medical assistance system
JP2021029639A (en) * 2019-08-26 2021-03-01 コニカミノルタ株式会社 Medical image processing device and program

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000107169A (en) * 1998-10-01 2000-04-18 Toshiba Corp Tomograph
JP2004509655A (en) * 2000-03-28 2004-04-02 ザ・ユニバーシティー・オブ・シカゴ Methods, systems, and computer-readable media for identifying chest radiographs using image mapping and template matching techniques
WO2012164921A1 (en) * 2011-05-31 2012-12-06 株式会社島津製作所 Radiation tomographic image generation method and radiation tomographic image generation program
JP2013514115A (en) * 2009-12-16 2013-04-25 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ How to use plan groups to generate new optimization targets
JP2013081527A (en) * 2011-10-06 2013-05-09 Toshiba Corp X-ray diagnosis device
JP2014213202A (en) * 2013-04-22 2014-11-17 株式会社東芝 Medical image processing apparatus, medical image processing method and medical image processing program
US20150023575A1 (en) * 2013-07-17 2015-01-22 Siemens Medical Solutions Usa, Inc. Anatomy Aware Articulated Registration for Image Segmentation
JP2015019856A (en) * 2013-07-19 2015-02-02 株式会社東芝 Medical image processor and medical image processing system
WO2015067754A1 (en) * 2013-11-08 2015-05-14 Orthotaxy Method for planning a surgical intervention
JP2015213749A (en) * 2014-04-21 2015-12-03 株式会社東芝 X-ray computer tomography apparatus and photographing condition setting support apparatus
JP2015217039A (en) * 2014-05-15 2015-12-07 富士フイルム株式会社 Image processing apparatus, method and program
US20160092748A1 (en) * 2014-09-30 2016-03-31 Kabushiki Kaisha Toshiba Medical data processing apparatus and method

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000107169A (en) * 1998-10-01 2000-04-18 Toshiba Corp Tomograph
JP2004509655A (en) * 2000-03-28 2004-04-02 ザ・ユニバーシティー・オブ・シカゴ Methods, systems, and computer-readable media for identifying chest radiographs using image mapping and template matching techniques
JP2013514115A (en) * 2009-12-16 2013-04-25 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ How to use plan groups to generate new optimization targets
WO2012164921A1 (en) * 2011-05-31 2012-12-06 株式会社島津製作所 Radiation tomographic image generation method and radiation tomographic image generation program
US20140169650A1 (en) * 2011-05-31 2014-06-19 Shimadzu Corporation Radiation tomographic image generating method, and radiation tomographic image generating program
JP2013081527A (en) * 2011-10-06 2013-05-09 Toshiba Corp X-ray diagnosis device
JP2014213202A (en) * 2013-04-22 2014-11-17 株式会社東芝 Medical image processing apparatus, medical image processing method and medical image processing program
US20150023575A1 (en) * 2013-07-17 2015-01-22 Siemens Medical Solutions Usa, Inc. Anatomy Aware Articulated Registration for Image Segmentation
JP2015019856A (en) * 2013-07-19 2015-02-02 株式会社東芝 Medical image processor and medical image processing system
WO2015067754A1 (en) * 2013-11-08 2015-05-14 Orthotaxy Method for planning a surgical intervention
JP2015213749A (en) * 2014-04-21 2015-12-03 株式会社東芝 X-ray computer tomography apparatus and photographing condition setting support apparatus
JP2015217039A (en) * 2014-05-15 2015-12-07 富士フイルム株式会社 Image processing apparatus, method and program
US20160092748A1 (en) * 2014-09-30 2016-03-31 Kabushiki Kaisha Toshiba Medical data processing apparatus and method

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112004471A (en) * 2018-04-13 2020-11-27 通用电气公司 System and method for imaging system shortcut mode
JP7179497B2 (en) 2018-06-04 2022-11-29 キヤノンメディカルシステムズ株式会社 X-ray CT apparatus and image generation method
JP2019208839A (en) * 2018-06-04 2019-12-12 キヤノンメディカルシステムズ株式会社 X-ray ct apparatus
JP2019213747A (en) * 2018-06-14 2019-12-19 コニカミノルタ株式会社 Display controller, medical image display system, and program
JP7099064B2 (en) 2018-06-14 2022-07-12 コニカミノルタ株式会社 Display control device, medical image display system and program
KR102330340B1 (en) * 2018-12-04 2021-11-22 엘지전자 주식회사 Medical image processing apparatus
KR20200067769A (en) * 2018-12-04 2020-06-12 엘지전자 주식회사 Medical image processing apparatus
JP2020171410A (en) * 2019-04-09 2020-10-22 コニカミノルタ株式会社 Medical information processing system
JP7255328B2 (en) 2019-04-09 2023-04-11 コニカミノルタ株式会社 Medical information processing system
CN112107313A (en) * 2019-06-19 2020-12-22 佳能医疗系统株式会社 Medical data processing device and medical data processing method
WO2021033667A1 (en) 2019-08-19 2021-02-25 富士フイルム株式会社 Medical assistance device, operation method and operation program for same, and medical assistance system
CN110706803A (en) * 2019-08-20 2020-01-17 南京医基云医疗数据研究院有限公司 Method, device, readable medium and electronic equipment for determining myocardial fibrosis
CN110706803B (en) * 2019-08-20 2023-06-27 南京医基云医疗数据研究院有限公司 Method and device for determining myocardial fibrosis, readable medium and electronic equipment
JP2021029639A (en) * 2019-08-26 2021-03-01 コニカミノルタ株式会社 Medical image processing device and program

Also Published As

Publication number Publication date
JP6951117B2 (en) 2021-10-20

Similar Documents

Publication Publication Date Title
JP7051307B2 (en) Medical image diagnostic equipment
JP6951117B2 (en) Medical diagnostic imaging equipment
US10470733B2 (en) X-ray CT device and medical information management device
US10540764B2 (en) Medical image capturing apparatus and method
JP5345947B2 (en) Imaging system and imaging method for imaging an object
JP7027046B2 (en) Medical image imaging device and method
JP7055599B2 (en) X-ray CT device
US20170372473A1 (en) Medical imaging diagnosis apparatus and medical imaging processing apparatus
JP6929695B2 (en) Medical diagnostic imaging equipment and management equipment
US11406333B2 (en) Medical image diagnosis apparatus and management apparatus
US10463328B2 (en) Medical image diagnostic apparatus
JP7144129B2 (en) Medical image diagnosis device and medical information management device
JP6797555B2 (en) Medical information processing device
JP6933498B2 (en) Medical information processing equipment, X-ray CT equipment and medical information processing program
JP6918443B2 (en) Medical information processing device
JP6925786B2 (en) X-ray CT device
JP6956514B2 (en) X-ray CT device and medical information management device
JP6824641B2 (en) X-ray CT device
US10835197B2 (en) Medical diagnostic-imaging apparatus and medical-information management apparatus
JP2018000943A (en) Medical image diagnostic apparatus and medical image processor
JP6855173B2 (en) X-ray CT device
JP7199839B2 (en) X-ray CT apparatus and medical image processing method
JP7179497B2 (en) X-ray CT apparatus and image generation method
US20170347973A1 (en) Medical information processing apparatus, x-ray ct apparatus, and medical information processing method
JP6762774B2 (en) X-ray CT device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210924

R150 Certificate of patent or registration of utility model

Ref document number: 6951117

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150