[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6738003B1 - Apparatus, method and program for extracting anatomical part based on MRI image - Google Patents

Apparatus, method and program for extracting anatomical part based on MRI image Download PDF

Info

Publication number
JP6738003B1
JP6738003B1 JP2019197187A JP2019197187A JP6738003B1 JP 6738003 B1 JP6738003 B1 JP 6738003B1 JP 2019197187 A JP2019197187 A JP 2019197187A JP 2019197187 A JP2019197187 A JP 2019197187A JP 6738003 B1 JP6738003 B1 JP 6738003B1
Authority
JP
Japan
Prior art keywords
image
label
region
specific
specific large
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019197187A
Other languages
Japanese (ja)
Other versions
JP2021069574A (en
Inventor
伯秀 舞草
伯秀 舞草
厳 増岡
厳 増岡
Original Assignee
日本テクトシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本テクトシステムズ株式会社 filed Critical 日本テクトシステムズ株式会社
Priority to JP2019197187A priority Critical patent/JP6738003B1/en
Application granted granted Critical
Publication of JP6738003B1 publication Critical patent/JP6738003B1/en
Publication of JP2021069574A publication Critical patent/JP2021069574A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

【課題】MRI画像に基づく,対象の特定部位(関心領域)の抽出を短時間でかつ高精度に行なう。【解決手段】特定部位を含む複数の部位が明示された標準的画像を用いて所与の対象MRI画像を複数の部位に分割して上記特定部位に対応する特定部位対象画像を生成し,あらかじめ用意された形状の異なる第1の数の特定部位ラベル画像から上記特定部位対象画像と類似性の高い第2の数の特定部位ラベル画像を選択し,そして上記選択された第2の数の特定部位ラベル画像と上記特定部位対象画像との画像位置合わせにおいて,特定部位内に含まれる関数領域を最もよく表わす画像部分を抽出する。【選択図】図6PROBLEM TO BE SOLVED: To extract a specific region (region of interest) of an object based on an MRI image in a short time with high accuracy. SOLUTION: A given target MRI image is divided into a plurality of parts using a standard image in which a plurality of parts including a specific part are clearly defined, and a specific part target image corresponding to the specific part is generated in advance. A second number of specific site label images having a high similarity to the specific site target image is selected from the prepared first number of specific site label images having different shapes, and the selected second number is specified. In the image registration between the part label image and the specific part target image, the image part that best represents the function area included in the specific part is extracted. [Selection diagram] Fig. 6

Description

この発明は,MRI(Magnetic Resonance Imaging:磁気共鳴画像(撮像)法,画像形成法,画像診断)画像に基づいて解剖学的部位を抽出する装置,方法およびプログラムに関する。 The present invention relates to an apparatus, a method and a program for extracting an anatomical part based on an MRI (Magnetic Resonance Imaging: magnetic resonance imaging (imaging) method, image forming method, image diagnosis) image.

MRIの対象は典型的には脳であるが,肝臓等の内臓にも適用可能である。解剖学的部位(部位の画像)の抽出には部位(画像)の輪郭の画定,体積の測定などが含まれる。部位は対象の部分である。対象を解剖学的見地から相対的に大きく分けた場合,分けられた各部分を大部位といい,相対的に小さく分けた場合,分けられた各部分を小部位ということがある。この場合,一つの大部位をいくつかの小部位に分けることもあるし,いくつかの小部位を一つの大部位に統合することもできる。この場合でも,部分によっては,大部位と小部位が同じであることもある。特定の疾病,疾患や機能(働き)に着目して一または複数の部分をまとめて解剖学的関心領域(Region of Interest:ROI)ということもある。解剖学的関心領域の最小単位を小部位ということもできる。領域とはもちろん三次元の範囲である。たとえばアルツハイマー病の関心領域は解剖学的に命名されている海馬,嗅内皮質,後部帯状回からなる。この発明はコンピュータ(ソフトウェア)によるMRI画像の解析処理に関連するものであるから,特に明示しない場合であっても,対象(脳など),部位,関心領域などという用語は,現実に存在するそれらを反映した画像を表わす場合があることを諒解されたい。 The target of MRI is typically the brain, but it can also be applied to internal organs such as the liver. The extraction of the anatomical part (image of the part) includes defining the contour of the part (image) and measuring the volume. The part is the part of interest. When the object is divided into relatively large parts from the anatomical point of view, each divided part may be called a large part, and when divided relatively small, each divided part may be called a small part. In this case, one large part may be divided into several small parts, or some small parts may be integrated into one large part. Even in this case, depending on the part, the large part and the small part may be the same. There is also a case where one or a plurality of parts are collectively focused on a specific disease, disease or function (function) and referred to as an anatomical region of interest (ROI). The smallest unit of the anatomical region of interest can be called a small site. The area is, of course, a three-dimensional range. For example, the region of interest in Alzheimer's disease consists of the anatomically named hippocampus, entorhinal cortex, and posterior cingulate gyrus. Since the present invention relates to MRI image analysis processing by a computer (software), terms such as an object (brain etc.), a part, a region of interest, etc. actually exist even if not explicitly stated. It should be appreciated that the image may reflect an image.

脳のMRI画像解析によって脳の特定部位を抽出し,その経時変化をみることによって,特定の疾患の予兆を知ることができる。たとえば,アルツハイマー病の前駆段階である軽度認知障害は,同疾患の解剖学的関心領域にみられる変性を定量的に検出することで,認知症状がまだ現われていない段階で検知することができる。特に,MRI脳画像に基づく解剖学的関心領域の体積測定は,客観性,再現性,定量性に優れた脳変性疾患の進行動態を表すバイオマーカーとして期待されている。 It is possible to know the sign of a specific disease by extracting a specific part of the brain by MRI image analysis of the brain and observing the change over time. For example, mild cognitive impairment, a precursor to Alzheimer's disease, can be detected at a stage where cognitive symptoms have not yet appeared by quantitatively detecting degeneration in the anatomical region of interest of the disease. In particular, volume measurement of an anatomical region of interest based on MRI brain images is expected as a biomarker showing the progress kinetics of cerebral degenerative diseases, which is excellent in objectivity, reproducibility and quantitativeness.

脳画像臨床研究などで,解剖学的関心領域の体積測定として多く用いられているフリーサーファー(FreeSurfer)と呼ばれるソフトウェアを用いた体積測定法がある(非特許文献1,2)。これは標準脳と呼ばれる共通空間に設定された単一のアトラス(シングルアトラス)を個人脳に非線形変換し,ベイズ推定に基づき解剖学的関心領域を自動で抽出するものである。しかしながら,このソフトウェアによる方法はその実行に10〜20時間を要するため,臨床応用には向かない。また単一のアトラスを個人脳に合わせこむシングルアトラス法は,非線形変換の精度に依存するためその,解剖学的関心領域の抽出精度に課題を残している。 There is a volume measurement method using software called FreeSurfer, which is often used for volume measurement of an anatomical region of interest in brain image clinical research and the like (Non-Patent Documents 1 and 2). This is a non-linear transformation of a single atlas (single atlas) set in a common space called a standard brain into an individual brain, and automatically extracts anatomical regions of interest based on Bayesian estimation. However, this software method is not suitable for clinical application because it takes 10 to 20 hours to execute. The single atlas method, which fits a single atlas to the individual brain, depends on the accuracy of the non-linear transformation, which leaves a problem in the accuracy of extracting the anatomical region of interest.

Fischl B et al.: Whole brain segmentation : automated labeling of neuroanatomical structures in the human brain. Neuron 33 : 341-55,2002.Fischl B et al.: Whole brain segmentation: automated labeling of neuroanatomical structures in the human brain. Neuron 33: 341-55, 2002. Fischl B et al. : Sequence-independent segmentation of magnetic resonance images. NeuroImage 23 Suppl 1 : S69-84, 2004.Fischl B et al.: Sequence-independent segmentation of magnetic resonance images. NeuroImage 23 Suppl 1 :S69-84, 2004.

この発明は,MRI画像に基づいて対象の特定部位を短時間で抽出できるようにすることを目的とする。 An object of the present invention is to make it possible to extract a specific region of an object in a short time based on an MRI image.

この発明はまた,特定部位の抽出精度を高めることを目的とする。 Another object of the present invention is to improve the extraction accuracy of a specific part.

この発明によるMRI画像に基づく解剖学的部位の抽出装置は,少なくとも特定部位が明示された標準的画像を用いて,所与の対象MRI画像から上記特定の部位に対応する特定部位対象画像を生成する特定部位対象画像生成手段,あらかじめ用意された形状が異なる第1の数(複数)の特定部位ラベル画像から上記特定部位対象画像と類似性の高い第2の数(第1の数よりも小さい数,1でもよい)の特定部位ラベル画像を選択する特定部位ラベル画像選択手段,および上記選択された第2の数の特定部位ラベル画像と上記特定部位対象画像との画像位置合わせにおいて,特定部位内に含まれる関心領域を最もよく表わす画像部分を抽出する関心領域抽出手段を備えるものである。 An apparatus for extracting an anatomical part based on an MRI image according to the present invention generates a specific part target image corresponding to the specific part from a given target MRI image, using at least a standard image in which the specific part is specified. A specific part target image generating means, a second number (smaller than the first number) having a high similarity to the specific part target image from a first number (plurality) of specific part label images having different shapes prepared in advance. Specific part label image selecting means for selecting the specific part label images (the number may be one), and the specific part in the image registration of the selected second specific part label images and the specific part target image. A region-of-interest extracting means for extracting an image portion that most represents the region of interest contained therein is provided.

この発明では,あらかじめ用意された形状(形態)の異なる第1の数の特定部位ラベル画像から特定部位対象画像と類似性の高い第2の数の特定部位ラベル画像を選択している。 In the present invention, the second number of specific part label images having a high similarity to the specific part target image is selected from the first number of specific part label images having different shapes (forms) prepared in advance.

一般に第1の数の特定部位ラベル画像は第1の数の全体ラベル画像から抽出されたものである。第1の数の全体ラベル画像は形状(形態)ができるだけ広範囲に分布(分散)しているものが選定されることが好ましい。 Generally, the first number of specific portion label images is extracted from the first number of whole label images. It is preferable that the first number of whole label images have a shape (morphology) distributed (dispersed) in the widest possible range.

所与の対象MRI全体画像と第1の数の全体ラベル画像の一またはいくつかが類似していたとしても,その内容(特定部位)まで類似しているとは限らない。この発明では,第1の特定部位ラベル画像の中から,特定部位対象画像と類似性の高い第2の数(第1の数よりも少ない数)の特定部位ラベル画像を選択(選定,選別)している。 Even if one or some of the given target MRI whole images and the first number of whole label images are similar, the contents (specific portions) are not always similar. In the present invention, a second number (a number smaller than the first number) of specific site label images having a high similarity to the specific site target image is selected (selected, selected) from the first specific site label images. doing.

そして選択された第2の数の特定部位ラベル画像と特定部位対象画像との画像位置合わせにおいて,特定部位に含まれる関心領域を最もよく表わす画像部分(関心領域画像,部位画像)を抽出している。 Then, in the image registration of the selected second number of specific region label images and the specific region target image, the image portion (region of interest image, region image) that best represents the region of interest included in the specific region is extracted. There is.

全体ラベル画像ではなく,特定部位のラベル画像を用い,しかも第1の数のラベル画像の中から類似性の強い第2の数のラベル画像を選択しており,選択した第2の数のラベル画像を用いて対象部位の関心領域を抽出しているので,精度の高い部位抽出が可能となる。また特定部位は全体画像の一部であるから,全体画像(対象MRI全体画像,全体ラベル画像)について上記の処理を行う場合に比べて,はるかに処理対象が少なく短時間で画像処理を完遂することができる。 The label image of a specific part is used instead of the whole label image, and the second number of label images having a strong similarity is selected from the first number of label images. Since the region of interest of the target site is extracted using the image, the site can be extracted with high accuracy. Further, since the specific part is a part of the whole image, the number of objects to be processed is far smaller and image processing is completed in a shorter time than in the case where the above processing is performed on the whole image (target MRI whole image, whole label image). be able to.

望ましくは,部位抽出処理は対象MRI全体画像から分割された多数の(好ましくは,すべての)特定部位について行うとよい。この場合,特定部位ごとの画像処理を同時並行して行なえば,全体画像における多数の関心領域(部位)の抽出も短時間で行なえる。近年,複数の(多数の)CPU(中央演算処理部)を有するマルチが実現されているので,このようなマルチプロセッサを用いて同時並行処理を行なえば,全体画像(またはその一部であってもよい)について多数の部位抽出が短時間で行なえるようになる。 Desirably, the part extraction process is performed on a large number (preferably, all) of specific parts divided from the entire image of the target MRI. In this case, if image processing for each specific region is performed in parallel, a large number of regions of interest (regions) in the entire image can be extracted in a short time. In recent years, a multi having a plurality of (many) CPUs (central processing units) has been realized. Therefore, if simultaneous parallel processing is performed using such a multiprocessor, the whole image (or a part of it) Can be extracted in a short time.

好ましい実施態様では,上記関心領域抽出手段によって抽出された画像部分の内容の体積を測定する体積測定手段をさらに備える。 In a preferred embodiment, it further comprises volume measuring means for measuring the volume of the content of the image portion extracted by the region of interest extracting means.

さらに好ましい実施態様では,上記関心領域抽出手段によって抽出された画像部分の画像を表示する表示手段を備える。抽出した一つの部位の画像部分のみならず,複数の部位の画像を別個にまたは合わせて表示することもできるし,部位ごとに色分けして表示することもできるし,全体画像またはその断面画像を部位ごとに色分けして表示することもできる。 In a further preferred embodiment, there is provided display means for displaying the image of the image portion extracted by the region of interest extraction means. Not only the extracted image part of one part but also the images of a plurality of parts can be displayed separately or together, or can be displayed in different colors for each part, and the whole image or its cross-sectional image can be displayed. It is also possible to display each part by color.

一実施態様では,上記特定部位対象画像生成手段は,上記特定部位を含む複数の部位が明示された標準的画像を用いて,所与の対象MRI画像を複数の部位に分割して上記特定部位対象画像を生成するものである。すなわち,特定部位対象画像生成手段は,対象MRI画像を複数の部位に分割する部位分割手段ということができる。 In one embodiment, the specific part target image generation means divides a given target MRI image into a plurality of parts by using a standard image in which a plurality of parts including the specific part are specified, and the specific part The target image is generated. That is, the specific part target image generating means can be said to be a part dividing means for dividing the target MRI image into a plurality of parts.

あらかじめ用意される上記特定部位ラベル画像は,一実施態様では上記特定部位を含む複数の部位が明示された標準的画像を,所与のラベル画像用MRI画像に画像位置合わせを行って生成されたものである。ラベル画像用MRI画像はできるだけ沢山あった方がよい。特定部位ラベル画像の生成は,専門家が表示された画像を目視しながら手作業で色分けしながら行うことができる。これにより,かなり正確な特定ラベル画像の生成が可能となる。 The specific site label image prepared in advance is generated in one embodiment by performing image registration on a given label image MRI image with a standard image in which a plurality of sites including the specific site are specified. It is a thing. There should be as many MRI images for label images as possible. The specific portion label image can be generated by an expert while manually observing the displayed image and color-coding. This makes it possible to generate a specific label image with a high degree of accuracy.

一実施態様では,所与の対象MRI画像が脳のMRI画像である。脳の特定部位の抽出が可能となり,その体積測定等により,脳変性疾患の進行動態を示す客観的,定量的なバイオマーカーを得ることができる。 In one embodiment, the given subject MRI image is a brain MRI image. It becomes possible to extract a specific part of the brain, and by measuring its volume, etc., it is possible to obtain an objective and quantitative biomarker that shows the progression kinetics of brain degenerative disease.

この発明は上述したMRI画像に基づく解剖学的部位抽出装置によって実行される方法,同抽出装置をコンピュータにより実現するためのプログラム等も提供している。 The present invention also provides a method executed by the anatomical region extracting apparatus based on the MRI image described above, a program for realizing the extracting apparatus by a computer, and the like.

MRI画像に基づいて対象の解剖学的部位を抽出する装置の一構成例を示すブロック図である。It is a block diagram which shows one structural example of the apparatus which extracts a target anatomical site|part based on an MRI image. 複数の施設からの要請に応じて一台の脳部位抽出装置が脳部位抽出処理を行うシステムを示すブロック図である。FIG. 3 is a block diagram showing a system in which one brain region extraction device performs a brain region extraction process in response to requests from a plurality of facilities. MNI標準モデルに基づく3次元脳画像のある断面に沿う大部位アトラスの一例を示す。An example of a large site atlas along a cross section of a three-dimensional brain image based on the MNI standard model is shown. 左前頭葉(大部位)とその内部に区画された小部位との対応を示す。The correspondence between the left frontal lobe (large part) and the small part partitioned inside is shown. アトラス管理テーブルの一例を示す。An example of an atlas management table is shown. 対象の解剖学的部位を抽出する処理を示すフローチャートである。It is a flow chart which shows processing which extracts a target anatomical part. セグメンテーション処理の一例を示す。An example of a segmentation process is shown. 補正前の灰白質画像,白質画像および白質病変マップを示す。The gray matter image, white matter image, and white matter lesion map before correction are shown. 補正処理と補正後の灰白質画像,白質画像を示す。The grayscale image and white matter image after the correction process and the correction are shown. MNI標準脳大部位アトラスを解析対象個人脳に大部位ごとに位置合わせを行う様子を示す。It shows a state in which the MNI standard brain large-area atlas is aligned with the analysis subject individual brain for each large area. 解析対象個人脳画像上で大部位を特定し,分離する様子を示す。It shows how a large part is specified and separated on an individual brain image to be analyzed. 大部位ラベル画像の大きさを調整する様子を示す。7 illustrates how to adjust the size of a large part label image. 大部位ラベル画像から解析対象個人脳大部位画像と類似するラベル画像を選定する様子を示す。It shows how to select a label image similar to the analysis target individual brain large region image from the large region label image. 対象個人脳大部位画像と複数個の大部位ラベル画像からテンプレート画像を作成する様子を示す。It shows how to create a template image from the target individual brain large region image and a plurality of large region label images. 関心領域を推定する処理の様子を示す。The mode of processing which estimates a region of interest is shown. 誤差の修正処理の様子を示す。A state of error correction processing is shown.

1.システム構成
図1はMRI画像に基づいて対象の解剖学的部位を抽出する装置の一構成例を示している。この実施例では対象は脳であり,MRI脳画像に基づいて最終的に特定の部位(の画像)を抽出し,その体積を測定する。その意味では,この実施例の解剖学的部位抽出装置を脳体積測定装置ということもできる。もちろん処理結果の脳画像を表示するので脳体積測定,表示装置といってもよい。以下,解剖学的部位抽出装置を脳部位抽出装置と略称する。
1. System Configuration FIG. 1 shows a configuration example of an apparatus for extracting a target anatomical region based on an MRI image. In this embodiment, the target is the brain, and (the image of) a specific site is finally extracted based on the MRI brain image, and the volume thereof is measured. In that sense, the anatomical region extracting device of this embodiment can be called a brain volume measuring device. Of course, since the brain image of the processing result is displayed, it may be called a brain volume measurement and display device. Hereinafter, the anatomical part extraction device is abbreviated as the brain part extraction device.

脳部位抽出装置10はコンピュータ・システムによって実現され,処理部(演算部,制御部)11を備えている。処理部は複数のCPUまたはGPUを備えるマルチプロセスが好ましい。装置10は処理部11に接続された記憶部12,表示部13,入出力部14および通信制御部15を備えている。 The brain region extraction device 10 is realized by a computer system and includes a processing unit (arithmetic unit, control unit) 11. The processing unit is preferably a multi-process including a plurality of CPUs or GPUs. The device 10 includes a storage unit 12, a display unit 13, an input/output unit 14, and a communication control unit 15 which are connected to the processing unit 11.

記憶部12は,後に詳細する脳画像処理プログラム,結果表示プログラム等のプログラムを格納するとともに,脳アトラス管理テーブル等の各種テーブルまたはマスタ,処理中のデータを一時的に格納する一次記憶エリアなどを有する。また,記憶部12には入力された解析対象個人脳3次元画像データ記憶領域や,各種処理の結果を記憶する用手的アトラス記憶領域,分割画像記憶領域,中間画像記憶領域,誤差修正後画像記憶領域,補正後画像記憶領域,体積測定結果記憶領域等のさまざまなデータを記憶するエリア等がある。記憶部12は半導体メモリ,磁気的,光学的記憶装置,その他の一または複数の記憶装置から構成される。 The storage unit 12 stores various programs such as a brain image processing program and a result display program, which will be described in detail later, various tables such as a brain atlas management table or a master, a primary storage area for temporarily storing data being processed, and the like. Have. Further, the storage unit 12 stores the input analysis target individual brain three-dimensional image data data area, a manual atlas storage area for storing the results of various processes, a divided image storage area, an intermediate image storage area, an error-corrected image. There are areas for storing various data such as a storage area, a corrected image storage area, and a volume measurement result storage area. The storage unit 12 is composed of a semiconductor memory, a magnetic or optical storage device, and one or more storage devices.

表示部13は記憶部12に格納された表示プログラムにしたがって,入力脳画像,処理中の画像,処理結果の画像,その他の画像,テキスト等を表示する表示装置(たとえば液晶表示装置)を備える。 The display unit 13 includes a display device (for example, a liquid crystal display device) that displays an input brain image, an image being processed, an image of a processing result, other images, texts and the like according to a display program stored in the storage unit 12.

入出力装置14はキーボード,マウス,プリンタ,表示装置等を含む。表示部13の表示装置を入出力部14の表示装置として用いることができる。MRI装置から得られるMRI画像(たとえばDICOMフォーマット(規格)のT1強調画像)データを記録した媒体(CD−ROMなど)23から画像データを読込む媒体読取装置や脳部位抽出装置10による処理結果の画像データを記録媒体に書込む媒体書込装置を入出力部14に含ませることもできる。 The input/output device 14 includes a keyboard, a mouse, a printer, a display device, and the like. The display device of the display unit 13 can be used as the display device of the input/output unit 14. The results of processing by the medium reading device and the brain region extracting device 10 that read the image data from the medium (CD-ROM or the like) 23 in which the MRI image (for example, T1 weighted image of DICOM format (standard)) data obtained from the MRI device is recorded. The input/output unit 14 may include a medium writing device that writes image data on a recording medium.

通信制御部15は外部とのデータの送受信を行うものである。データの送受信は電話回線,専用回線を用いたものでも,インターネット,イーサネット(登録商標)を利用するものでもよい。一部または全部を無線通信で行ってもよい。通信制御部15はこれらの通信方式に対応したもので,外部に置かれたMRI装置20,端末装置21との間で通信を行う。外部のMRI装置20から送信されるMRI脳画像データを受信し,この脳部位抽出装置10で脳部位抽出を行うようにすることができる。また,図2に示すシステム構成のように,端末装置21から送信されるMRI脳画像データと処理要請を通信制御部15で受信し,処理部11で処理した結果(脳部位抽出処理結果)を通信制御部15から該当する端末装置21に送信するようにすることもできる。 The communication control unit 15 transmits/receives data to/from the outside. Data can be transmitted and received by using a telephone line, a dedicated line, the Internet, or Ethernet (registered trademark). Part or all may be performed by wireless communication. The communication control unit 15 is compatible with these communication systems and communicates with the MRI apparatus 20 and the terminal apparatus 21 placed outside. The MRI brain image data transmitted from the external MRI apparatus 20 can be received, and the brain region extracting apparatus 10 can extract the brain region. Further, as in the system configuration shown in FIG. 2, the communication control unit 15 receives the MRI brain image data and the processing request transmitted from the terminal device 21, and the processing unit 11 processes the result (brain region extraction processing result). It is also possible to transmit from the communication control unit 15 to the corresponding terminal device 21.

図2は複数の施設からの要請に応じて一台の脳部位抽出装置10が脳部位抽出処理を行うシステムを示している。施設は病院,医院,養護施設,介護施設等である。施設A,B,‥‥IにはそれぞれMRI装置20と端末装置21が設置されている。MRI装置20で得られるMRI画像データがその施設の端末装置21から脳部位抽出装置10に送信される。脳部位抽出装置10において抽出した脳部位画像,脳の全体画像および必要に応じて測定された体積を示すデータ等が装置10の表示部13に表示され,要求に応じて脳部位画像を送信してきた端末装置21に送信され,端末装置21の表示装置に表示される。 FIG. 2 shows a system in which one brain region extracting apparatus 10 performs a brain region extracting process in response to requests from a plurality of facilities. Facilities are hospitals, clinics, nursing homes, nursing homes, etc. An MRI apparatus 20 and a terminal device 21 are installed in each of the facilities A, B,... The MRI image data obtained by the MRI device 20 is transmitted from the terminal device 21 of the facility to the brain region extraction device 10. The brain region image extracted by the brain region extracting device 10, the entire image of the brain, and the data indicating the measured volume, etc., are displayed on the display unit 13 of the device 10, and the brain region image is transmitted upon request. It is transmitted to the terminal device 21 and is displayed on the display device of the terminal device 21.

脳部位抽出装置10をMRI装置20が設置されたいずれかの施設に配置し,該施設のMRI装置20で撮像されMRI画像を該施設の脳部位抽出装置20で処理し,処理結果をMRI装置のない施設の端末装置に送信するようにすることもできる。 The brain region extraction device 10 is placed in any facility where the MRI device 20 is installed, and the MRI image captured by the MRI device 20 of the facility is processed by the brain region extraction device 20 of the facility, and the processing result is the MRI device. It is also possible to transmit to a terminal device of a facility that does not have any.

2.脳アトラスとアトラス管理テーブル
脳アトラスとは脳(画像)を解剖面に沿って部分に分けた(区切った)ときの各部分と境界(線,面)とを示す図(地図)であり,全脳アトラス,または単にアトラスともいう。
2. Brain Atlas and Atlas Management Table The brain atlas is a diagram (map) showing each part and boundary (line, surface) when the brain (image) is divided (divided) into parts along the anatomical plane. It is also called the brain atlas, or simply atlas.

図3はMNI標準脳モデルに基づく3次元脳画像のある横断面に沿う大部位アトラスの一例を示す(MNI:Montreal Neurological Institute )。各大部位の領域内に表示された数字とその大部位に付けられた名称とが示されている。この図はあくまでも大部位のイメージをつかむためのものである。 FIG. 3 shows an example of a large site atlas along a cross section of a three-dimensional brain image based on the MNI standard brain model (MNI: Montreal Neurological Institute). The numbers displayed in the area of each large part and the name given to the large part are shown. This figure is for the purpose of grasping the image of a large part.

この実施例では,脳をM個(具体的には39)の大部位に分け,各大部位をさらにいくつかの小部位に分けている。この実施例では 136の小部位がある。逆に,小部位を解剖学的知識に基づいて統合(結合)して大部位を形成しているといってもよい。大部位と小部位が同じものもある。部位の分け方は,部位抽出(体積測定)の目的に応じて定めればよい。 In this embodiment, the brain is divided into M (specifically 39) large parts, and each large part is further divided into some small parts. In this example there are 136 subsites. On the contrary, it can be said that the small part is integrated (combined) based on anatomical knowledge to form the large part. Some have the same major and minor parts. How to divide the parts may be determined according to the purpose of the part extraction (volume measurement).

図4は左前頭葉(大部位)とその内部に区画された小部位との対応を示すものである。この図は,後述するところから理解できるように,灰白質の画像に基づいて抽出された大部位(左前頭葉)を示すものであるから,図3に示す左前頭葉とは輪郭線が一致していない。図3もイメージをつかむためのものと理解されたい。 FIG. 4 shows the correspondence between the left frontal lobe (large area) and the small areas divided therein. As can be seen from the description below, this figure shows a large part (left frontal lobe) extracted based on the image of gray matter, and therefore the contour line matches the left frontal lobe shown in FIG. Absent. It should be understood that FIG. 3 is also for grasping the image.

このような大部位と小部位との関係をまとめたのがアトラス管理テーブルであり,装置10の記憶部12にあらかじめ格納されている。アトラス管理テーブルの一例を図5に示す。このテーブルにおいて,一例として,海馬は大部位であり,かつその中にある唯一の小部位である。このアトラス管理テーブルには,各大部位および各小部位の識別符号も格納されている。 The atlas management table summarizes the relationship between the large part and the small part, and is stored in the storage unit 12 of the device 10 in advance. An example of the atlas management table is shown in FIG. In this table, as an example, the hippocampus is the major site and the only minor site within it. This atlas management table also stores identification codes for each large part and each small part.

3.ラベル画像(用手的事前作成脳アトラス)の作成
現在公開されているMRI画像の脳アトラスは欧米人の脳画像に基づくものである。人種等によって脳アトラスにかなりの違いがあるので,日本人の脳の解析には日本人の脳アトラスの準備が望まれている。また,脳形態には個人差もあるのでこの点も考慮する必要がある。
3. Creation of label image (manual pre-created brain atlas) The brain atlas of the MRI image that is currently published is based on the brain image of Westerners. Since there are considerable differences in the brain atlas depending on races, preparation of the Japanese brain atlas is desired for the analysis of the Japanese brain. In addition, since there are individual differences in brain morphology, it is necessary to consider this point as well.

第1の数Kの日本人のMRI脳画像(T1強調像)を入手する。第1の数Kはできるだけ多いことが好ましい。たとえば,1,000例とか2,000例とかである。 Obtain a first number K of Japanese MRI brain images (T1 weighted image). It is preferable that the first number K is as large as possible. For example, 1,000 cases or 2,000 cases.

脳形態の個人差に対応するためには,できるだけ広範囲に分散した脳形態の脳アトラスを比較的数多く作成することが好ましい。後述するように専門家による手作業(用手的)が伴うので,作成できる脳アトラスの数は限られてしまうが,可能な限り多い方がよい。この実施例ではN個(30個)の脳アトラスを作成する。 In order to cope with individual differences in brain morphology, it is preferable to create a relatively large number of brain atlases of brain morphology that are dispersed as widely as possible. As will be described later, the number of brain atlases that can be created is limited because it requires manual work by an expert (manual work), but it is better to have as many as possible. In this embodiment, N (30) brain atlases are created.

後述する「5.セグメンテーション(分離)」と同じ方法により,K例のMRI画像に,CAT12のSegmentionを実施し,ベイズ推定に基づく白質,灰白質,脳脊髄液の画像データ(条件付き事後確率マップ)を算出し,MNI標準脳空間にアフィン(Affine)変換を用いて線形位置合わせを行う。 CAT12 segmentation is performed on K MRI images by the same method as “5. Segmentation” described later, and image data of white matter, gray matter, cerebrospinal fluid based on Bayesian estimation (conditional posterior probability map). ) Is calculated, and linear alignment is performed using the Affine transformation in the MNI standard brain space.

標準脳空間上で,K×Kの全組み合わせで灰白質の事後確率マップ(画像データ)のピアソンの相互相関係数を算出する。これを各脳画像の類似度行列とする。類似度行列からウォード(Ward)法を用いて階層クラスタを求めた後,N個(たとえばN=30)のクラスタになるよう階層クラスタの統合を行う。ウォード法はクラスタ内の重心とそれぞれのサンプルとの距離の2乗和の差が最小となるクラスタを結合することにより対象群を任意の数のクラスタに分類する手法である。結合したN個のクラスタ内での特定の画像とそれ以外の画像のピアソンの相互相関係数の総和を求め,そのとき総和が最大となる上記特定の画像をクラスタの代表画像として,脳アトラス作成の対象とする。N=30の代表画像が得られる。 In the standard brain space, the Pearson cross-correlation coefficient of the posterior probability map (image data) of gray matter is calculated for all K×K combinations. This is the similarity matrix of each brain image. After obtaining hierarchical clusters from the similarity matrix by using the Ward method, the hierarchical clusters are integrated so as to have N (for example, N=30) clusters. The Ward method is a method of classifying an object group into an arbitrary number of clusters by combining clusters that minimize the difference in the sum of squares of the distance between the center of gravity within a cluster and each sample. A brain atlas is created by finding the sum of the Pearson's cross-correlation coefficients of the specific image and the other images in the combined N clusters and using the specific image with the maximum total as the representative image of the cluster. Subject to. A representative image of N=30 is obtained.

アトラス作成の対象としたN例のMRI画像に対して用手的に解剖学的関心領域(小部位)の分割を行う。小部位を集めて大部位とする。用手的とは,手作業でという意味であり,一例としてMRI画像を表示装置の画面上に三次元表示し,専門家が小部位ごとに異なる色で着色する(塗り潰す)。用手的に分割する領域について,大脳皮質はbrain Collaborative Open Labeling Online Resource(brain COLOR)プロジェクトのWhole-labeling protocolsに基づき,基底核や脳室についてはNeuromorphometrics社のプロトコルに従い実施することができる。 The anatomical region of interest (small region) is manually divided into N examples of MRI images for which an atlas is created. Collect the small parts into the large parts. The term "manual" means manual work, and as an example, an MRI image is three-dimensionally displayed on the screen of a display device, and an expert colors (fills) each small portion with a different color. Regarding the area to be manually divided, the cerebral cortex can be implemented based on the Whole-labeling protocols of the brain Collaborative Open Labeling Online Resource (brain COLOR) project, and the basal ganglia and ventricles according to the Neuromorphometrics protocol.

一例として, 136の解剖学的領域に分割し,これを解剖学的事前知識に基づいて結合し,M個(39個)の大部位を特定する。 As an example, it is divided into 136 anatomical regions, which are combined based on anatomical prior knowledge to identify M (39) large parts.

このようにして得られる画像データでは,各部位に属する(各部位を表わす)ボクセル(三次元画像を表わす一単位)にそれぞれ部位の識別符号(名称に対応)が付けられている(ラベルされている)ので,ラベル画像という。ラベル画像は部位(大部位,小部位)ごとに存在し,これらが集まって1つの脳画像を形成するときには用手的脳アトラスともいわれる。用手的脳アトラスはN個,記憶部12の用手的アトラス記憶領域に記憶される。 In the image data obtained in this way, the voxels (representing each part) belonging to each part (one unit representing a three-dimensional image) are labeled with the identification code (corresponding to the name) of each part. It is called a label image. Label images exist for each part (large part, small part), and when these are collected to form one brain image, it is also called a manual brain atlas. N manual atlases are stored in the manual atlas storage area of the storage unit 12.

4.解析対象者個人脳3次元画像データ
解剖学的部位抽出装置10の処理部11には,MRI装置20において取得された解析対象者の脳のMRI画像データが,通信により,または記録媒体23からの読取りにより入力する。このMRI画像は一般にはT1強調像の画像であり,複数枚(たとえば 100枚)のDICOM規格の2次元画像から構成される(DICOM:Digital Imaging and Communications in Medicine)。処理部11は複数枚の2次元画像データを用いて3次元画像データ(3次元空間内の画素(ボクセル)の集合によって表わされる)を作成する。この変換にはNIFTIフォーマット(形式)への変換が一般的であり(NIFTI:The Neuroimaging Informatics Technology Initiative),これにより脳画像データ1ファイルとして取扱い可能となる。すなわち,後述する各種演算,処理,横断面画像の作成などが容易に行なえる。解析対象者個人脳3次元画像データは記憶部12の解析対象個人脳3次元画像データ記憶領域に記憶される。
4. Analysis subject individual brain three-dimensional image data In the processing unit 11 of the anatomical part extraction device 10, the MRI image data of the analysis subject's brain acquired by the MRI device 20 is transmitted by communication or from the recording medium 23. Input by reading. This MRI image is generally a T1-weighted image and is composed of a plurality of (for example, 100) two-dimensional images of the DICOM standard (DICOM: Digital Imaging and Communications in Medicine). The processing unit 11 creates three-dimensional image data (represented by a set of pixels (voxels) in a three-dimensional space) using a plurality of two-dimensional image data. For this conversion, conversion to the NIFTI format is generally performed (NIFTI: The Neuroimaging Informatics Technology Initiative), which enables handling as one brain image data file. That is, it is possible to easily perform various calculations, processes, creation of a cross-sectional image, etc., which will be described later. The analysis target individual brain three-dimensional image data is stored in the analysis target individual brain three-dimensional image data storage area of the storage unit 12.

解析対象者個人の脳のMRI画像データ(フォーマットは問わない),そのMRI画像データから得られる灰白質画像データ,白質画像データ,脳脊髄液画像データ,大部位,小部位を示す画像データなどを,解析(部分抽出)対象者個人のものであることを強調して,または他の画像データと区別して表わすために,解析対象個人脳画像データ(略して,個人脳画像データ),解析対象個人脳(座標)空間(略して,個人脳空間)などの用語を用いる。また処理部11が取扱うのは画像データ(3次元画像データ)であることが前提なので,画像データを単に画像ということもある。 MRI image data (any format) of the individual brain of the analysis subject, gray matter image data, white matter image data, cerebrospinal fluid image data obtained from the MRI image data, image data showing large and small regions, etc. , Individual analysis target brain image data (abbreviated as individual brain image data), in order to emphasize that it belongs to the analysis (partial extraction) target individual or to distinguish it from other image data Terms such as brain (coordinate) space (abbreviated as individual brain space) are used. The processing unit 11 handles image data (three-dimensional image data) on the assumption that the image data may be simply referred to as an image.

以下,処理部11が実行するプログラム(脳画像処理プログラム)を示すフローチャート(図6)に沿って解析対象者個人のMRI画像に基づく解剖学的部位の抽出処理について説明する。 Hereinafter, the anatomical part extraction process based on the MRI image of the analysis target individual will be described with reference to a flowchart (FIG. 6) showing a program (brain image processing program) executed by the processing unit 11.

5.セグメンテーション(分離)
解析対象個人脳3次元画像は全脳画像であり,頭蓋画像も含んでいるので,その全脳画像から頭蓋内画像を抽出する。さらに抽出した脳画像を灰白質画像(灰白質の事後確率マップ)と,白質画像(白質の事後確率マップ)と脳脊髄液画像(脳脊髄液の事後確率マップ)とに分離(セグメンテーション)する(図6,ステップS1)。この処理は,脳のMRI画像処理に広く用いられているSPMというソフトウェア内のCAT12というツールボックスの機能を用いて行うことができる(ベイズ推定による,灰白質,白質,脳脊髄液の事後確率マップの算出)(事後確率マップは画像データと同じ意味である)。
5. Segmentation
Since the three-dimensional image of the analysis target individual brain is a whole brain image and also includes a skull image, an intracranial image is extracted from the whole brain image. Further, the extracted brain image is separated (segmentation) into a gray matter image (posterior probability map of gray matter), a white matter image (posterior probability map of white matter) and a cerebrospinal fluid image (posterior probability map of cerebrospinal fluid) ( FIG. 6, step S1). This processing can be performed using the function of the toolbox called CAT12 in the software called SPM that is widely used for MRI image processing of the brain (posterior probability map of gray matter, white matter, cerebrospinal fluid by Bayesian estimation). (The posterior probability map has the same meaning as image data).

図7は上記セグメンテーション処理の一例を示している。左側にMRI3次元全脳画像の横断面が表わされている。図面の上が人間の頭部の前である。この全脳画像から頭蓋を除去した後,分離された灰白質,白質および脳脊髄液の3つの画像が全脳画像の横断面の右側に配列されている。これは個人脳座標空間における画像である。 FIG. 7 shows an example of the segmentation process. On the left side, a cross section of an MRI three-dimensional whole brain image is shown. The top of the drawing is in front of the human head. After removing the skull from the whole brain image, three separated images of gray matter, white matter and cerebrospinal fluid are arranged on the right side of the cross section of the whole brain image. This is an image in the personal brain coordinate space.

6.灰白質画像,白質画像の補正
白質病変は白質であるにもかかわらず,MRI画像上では灰白質画像の信号値に近いので,灰白質画像中に白く(高信号領域)現われ,白質画像中に現われないことがある。これを白質病変マップを用いて,修正するのが灰白質,白質画像の補正(修正)処理である(図6,ステップS2)。
6. Correction of gray matter image and white matter image Although the white matter lesion is white matter, it appears white (high signal area) in the gray matter image because it is close to the signal value of the gray matter image on the MRI image, and it appears in the white matter image. It may not appear. It is the correction (correction) process of the gray matter and white matter images to correct this using the white matter lesion map (FIG. 6, step S2).

補正前の灰白質画像,白質画像とともに白質病変マップが図8aに示されている。白質病変マップ(濃い色で表現されているマスク)はMNI標準脳空間に作成されたものが知られているので,これを離散コサイン変換により解析対象個人脳空間に変換,位置合わせしたものである。 A white matter lesion map is shown in FIG. 8a together with the gray matter image and the white matter image before correction. The white matter lesion map (mask expressed in dark color) is known to have been created in the MNI standard brain space, so this is converted to the analysis subject's individual brain space by discrete cosine transform and aligned. ..

図8bに示すように,灰白色画像において,白質病変マップと重なっている白い部分(高信号領域)を除去し,白質画像において,白質病変マップ(の濃い色のマスク部分)を高信号部分(白い部分)として加えることにより,これらの画像を補正する。補正後の画像が図8bに示されている。 As shown in FIG. 8b, in the gray-white image, the white portion (high-intensity region) overlapping the white matter lesion map is removed, and in the white matter image, the white matter lesion map (the dark-colored mask portion) is changed to the high-intensity portion (white). These images are corrected by adding them as (part). The corrected image is shown in Figure 8b.

7.大部位領域へ分割
解析対象個人脳をMNI標準脳大部位アトラスを用いて大部位に分割する(図6,ステップS3)(特定部位対象画像生成手段)(部位分割手段)。
7. Dividing into large region area The individual brain to be analyzed is divided into large regions using the MNI standard large-brain large-area atlas (step S3 in FIG. 6) (specific region target image generating means) (region dividing means).

MNI標準脳大部位アトラスは,MNI標準空間に作成された公知のニューロモフォトメトリック(Neuromorphometric )モデルに基づいて,部位抽出の目的に合致するように39(M)の大部位を定めて作成したものである。 The MNI standard brain large-area atlas was created based on a known Neuromorphometric model created in the MNI standard space, by defining 39 (M) large areas to match the purpose of site extraction. It is a thing.

まず,図9Aに示すようにMNI標準脳大部位アトラスを,離散コサイン変換により解析対象個人脳に大部位ごとに位置,形状を合わせ(変形)を行う。この非線形変換後の解析対象個人脳上に反映された大部位アトラスと解析対象個人脳の灰白質画像,白質画像とを大部位ごとに比較して,図9bに示すように,解析対象個人脳画像上で大部位を特定(境界付け)を行い,この境界で大部位画像を分離し,個人の大部位画像(3次元画像)を得る。このとき,主に灰白質画像に基づいて外側の形態を変形し,内部の変形については白質画像が用いられる。離散コサイン変換による画像位置合わせは主に低周波成分で行なわれるので,やや大雑把なもの(粗分割,粗抽出)となる。大部位への分割において各大部位の周囲をやや大き目にとることが好ましい。図9bには一例として左前頭葉が矢印で示されている。 First, as shown in FIG. 9A, the MNI standard brain large-area atlas is subjected to discrete cosine transformation to adjust (deform) the position and shape of each large portion of the analysis target individual brain. The large-area atlas reflected on the analysis target individual brain after the non-linear transformation is compared with the gray matter image and the white matter image of the analysis target individual brain for each large part, and as shown in FIG. A large part is specified (boundary) on the image, and the large part image is separated at this boundary to obtain a large part image (three-dimensional image) of the individual. At this time, the outer form is mainly deformed based on the gray matter image, and the white matter image is used for the inner deformation. The image registration by the discrete cosine transform is mainly performed on the low frequency components, so that it is somewhat rough (coarse division, rough extraction). In the division into the large parts, it is preferable that the circumference of each large part is slightly larger. The left frontal lobe is indicated by an arrow in FIG. 9b as an example.

解析対象個人ごとにその脳の形,部位の形が異なる。解析対象個人脳を部位抽出(体積測定)の目的(たとえば脳変性疾患の進行動態を示すバイオマーカーの定量化,客観化)に合致した大部位ごとに分割することにより個性の幅を小さくすることができるとともに,後述するように大部位ごとに精緻な抽出を行うことで精度を高めることができる。また,大部位ごとの処理を並行して行うことが可能となり,並行して処理することで処理速度が飛躍的に向上する。 The shape of the brain and the shape of the part are different for each analyzed individual. To reduce the width of individuality by dividing the individual brain to be analyzed into large regions that match the purpose of site extraction (volume measurement) (eg, quantification of biomarkers that indicate the progression kinetics of brain degenerative disease, objectification) In addition, the accuracy can be improved by performing precise extraction for each large part as described later. Further, it becomes possible to perform processing for each large part in parallel, and the processing speed is dramatically improved by performing the processing in parallel.

大部位分割処理により得られた各大部位ごとの画像は記憶部の分割画像記憶領域に記憶される。大部位分割処理により,解析対象個人脳における大部位の特定と,それに伴って灰白質領域,白質領域および脳脊髄液領域における大部位の範囲の特定ができる。以下の処理では,主に灰白質領域の画像(灰白質画像)が用いられる。 The image for each large part obtained by the large part dividing process is stored in the divided image storage area of the storage unit. By the large region division processing, it is possible to specify the large region in the analysis subject individual brain and the range of the large region in the gray matter region, white matter region and cerebrospinal fluid region accordingly. In the following processing, an image of the gray matter region (gray matter image) is mainly used.

8.大部位ラベル画像の選択
上記「3.ラベル画像の作成」で述べたように,日本人のN個(この実施例ではN=30)の全脳大部位アトラスが用手的に作成されている。上述のように,全脳大部位アトラスはできるだけ広範囲に脳の解剖学的形状を網羅するよう選択されている。全脳大部位アトラスに含まれる大部位の数Mは,この実施例では39である。大部位ラベル画像の選択(選別)処理(図6,ステップS4)は,M個の大部位ごとに行なわれる。
8. Selection of Large Region Label Image As described in “3. Creation of Label Image” above, N (N=30 in this embodiment) whole brain large region atlases of Japanese are manually created. .. As mentioned above, the whole-brain large-area atlas is selected to cover the anatomy of the brain as widely as possible. The number M of large areas included in the whole-brain large-area atlas is 39 in this embodiment. The selection (selection) process of the large part label image (FIG. 6, step S4) is performed for each of the M large parts.

図10aに示すように,対象個人脳大部位(画像)とN=30個の大部位(ラベル画像)とをそれぞれ比較し,アフィン変換により,大部位ラベル画像の大きさ(サイズ)を調整する。この処理は対象個人脳大部位画像のすべてについて,大部位ごとに行なわれる。 As shown in FIG. 10a, the target individual brain large area (image) is compared with N=30 large areas (label image), and the size (size) of the large area label image is adjusted by affine transformation. .. This processing is performed for each large region of all the images of the large brain region of the target individual.

図10aに示されているのは左前頭葉の灰白質大部位画像であり,煩雑さを避けるために,10個の画像のみが図示されているが,30個の画像があるものと想像されたい。 Figure 10a shows a large gray matter image of the left frontal lobe, only 10 images are shown to avoid complications, but imagine that there are 30 images. ..

次に,図10bに示すように,大部位ごとに,解析対象個人脳大部位画像と,N個の大部位ラベル画像とのピアソン相互相関係数をそれぞれ算出する。これを対象個人脳大部位の形態類似度と定義する。 Next, as shown in FIG. 10B, the Pearson cross-correlation coefficient between the analysis subject individual brain large area image and the N large area label images is calculated for each large area. This is defined as the morphological similarity of the large part of the target individual brain.

そして,形態類似度の高い上位適数個((m個)たとえば5個,10個など,1個でもよい)選択する(この実施例では5個)(図6のステップS4)(特定部位ラベル画像選択手段)。これが選択された大部位ラベル画像である。m個ずつの選択された大部位ラベル画像は大部位ごと(M=30)にある。 Then, an appropriate number of high-ranking morphological similarities ((m), such as 5, 10 or the like, may be 1) (5 in this embodiment) (step S4 in FIG. 6) (specific site label) Image selection means). This is the selected large part label image. There are m selected large region label images for each large region (M=30).

9.ダーテルテンプレートの作成
ダーテル(Dartel)法は,図11に示すように,対象個人脳(大部位)画像および上で選択されたm個(5つ)の大部位ラベル画像から(これらを入力として)変形場強度が大きくならない方法で中間画像(ダーテルテンプレート)を作成するものである(図6,ステップS5)。一例として比較的低次の非線形変換であるBスプライン曲線関数を用いて画像位置合わせのための変形を行い,この変形後の画像を対象として再度変形させるというように,複数回の変形を繰返すことにより,精度の高い変形が行える。また,比較的低次の非線形関数を用いることにより変形場強度を大きくしなくてすむ。作成された中間画像は記憶部12の中間画像記憶領域に記憶される。中間画像も特定の1または複数の大部位についてのみ作成してもよいし,すべての大部位について作成してもよい。
9. Creating a Dartel Template As shown in FIG. 11, the Dartel method uses the target individual brain (major part) image and the m (five) large part label images selected above (using these as input. ) An intermediate image (Dartel template) is created by a method in which the deformation field strength does not increase (FIG. 6, step S5). As an example, the transformation for image registration is performed using the B-spline curve function, which is a relatively low-order nonlinear transformation, and the transformed image is transformed again as a target. This enables highly accurate deformation. Also, by using a relatively low-order nonlinear function, it is not necessary to increase the deformation field strength. The created intermediate image is stored in the intermediate image storage area of the storage unit 12. The intermediate image may be created only for one or more specific large parts, or may be created for all large parts.

大部位ラベル画像(5つのうちの1番目)からダーテルテンプレート画像への画像変形関数(上記の複数回の非線形変形処理を行う関数)をF1として,
と表現できる。ここで
L1gm:大部位灰白質ラベル画像(1番目)
TMPgm:灰白質のテンプレート画像
である。
Let F 1 be the image transformation function from the large part label image (first of five) to the Dartel template image (function that performs the above-mentioned multiple non-linear transformation processing).
Can be expressed as Here L1 gm : Large area gray matter label image (first)
TMP gm : A template image of gray matter.

同様に,5つの選択された大部位ラベル画像からダーテルテンプレート画像への画像変形関数F2,F3,F4,F5が定義できる。 Similarly, five image transformation functions F 2, F 3 from a selected atmospheric site label image to Zehnder Tel template image, F 4, F 5 can be defined.

解析対象画像からダーテルテンプレート画像への画像変形関数(複数回の非線形処理を行う関数)をGとして,
が成立つ。ここで
Taggm:解析対象の大部位(灰白質)画像
である。
Let G be the image transformation function (function that performs non-linear processing multiple times) from the analysis target image to the Dartel template image,
Is established. Here, Tag gm : a large part (gray matter) image of the analysis target.

次の「9.領域推定」で使うことになるが,ダーテルテンプレート画像から解析対象画像への画像変形(Gの逆変数)をG-1とすると,上記関数F1を用いて,
-1・F1 式(3)
は大部位ラベル画像(1番目)の解析対象画像への画像変形(解析対象個人脳へ変形させた大部位ラベル画像(1番目))を表わす。同様に解析対象画像から変形させた大部位ラベル画像(2,3,4,5番目)が得られる。
As will be used in the next “9. Region estimation”, if the image transformation (the inverse variable of G) from the Dartel template image to the analysis target image is G −1 , using the above function F 1 ,
G -1 · F 1 formula (3)
Represents the image transformation of the large region label image (first) into the analysis target image (the large region label image (first) transformed into the analysis subject individual brain). Similarly, large part label images (2nd, 3rd, 4th and 5th) transformed from the analysis target image are obtained.

このようにダーテルテンプレート(中間画像)が作成された時点で解析対象大部位(分割)画像と選択された大部位ラベル画像(5個)との間の画像変形関数が算出されることになる。G-11,G-12,G-13,G-14,G-15は次の領域確定処理で用いられる。 In this way, when the Dartel template (intermediate image) is created, the image transformation function between the analysis target large region (divided) image and the selected large region label image (5) is calculated. .. G −1 F 1 , G −1 F 2 , G −1 F 3 , G −1 F 4 , and G −1 F 5 are used in the next area determination process.

上記「7.大部位領域の分割」(大部位の抽出)で解析対象個人脳画像が,M個(たとえば39)の大部位画像に分けられる。そして「8.大部位ラベル画像の選択」で,大部位個人画像と類似度の高い大部位ラベル画像がN個の用手的に作成した大部位教師画像の中からn個選択される。「9.ダーテルテンプレートの作成」で,上記選択されたn個の大部位ラベル画像からダーテルテンプレート画像が精密に作成されている。 The individual brain image to be analyzed is divided into M (for example, 39) large-region images by "7. Division of large-region area" (extraction of large region). Then, in "8. Selection of large part label image", n large part label images having a high degree of similarity to the large part personal image are selected from N manually created large part teacher images. In “9. Creating a Darter template”, the Darter template image is precisely created from the n selected large-area label images.

重要なことはこれらの一連の処理が大部位画像を単位として行なわれていることである。脳画像(脳の形状)は個人によって千差万別である。仮に脳の全体の輪郭形状において,解析対象個人脳画像と酷似しているラベル全体画像が存在したとしても,その内部の解剖学的部位の形状(たとえば前頭葉)においては,類似せずかなり異なっている場合がある。上記の一連の処理では,解剖学的部位(例として大部位。小部位やそれらの適当な組合せでもよい)を単位として,ラベル画像の選択(N個中の最も類似したn個の選択)と選択したn個のラベル画像に基づくダーテルテンプレート画像の作成とを行っている。したがって,解析対象個人画像の単位部位に高い精度で類似したテンプレート画像を得ることができる。換言すれば,解析対象画像における特定部位を高い精度で抽出することが可能となる。 What is important is that these series of processes are performed in units of large-region images. Brain images (brain shapes) vary widely from person to person. Even if there is an entire label image that closely resembles the individual brain image to be analyzed in the outline shape of the entire brain, the shape of the internal anatomical part (for example, the frontal lobe) is not similar and is quite different. There is a case. In the above series of processing, the label image is selected (n most similar n of N are selected) in units of the anatomical part (for example, large part. Small part or appropriate combination thereof may be used) as a unit. A dartell template image is created based on the selected n label images. Therefore, it is possible to obtain a template image that is similar to the unit region of the analysis target individual image with high accuracy. In other words, it is possible to extract a specific part in the analysis target image with high accuracy.

また,近年,多数(複数)の演算部(CPU)を有し,これらの演算部を同時に並行して動作させることのできるマルチプロセッサが実現されている。このようなマルチプロセッサが解剖学的部位(例として大部位)の数(上記のM個)のCPUを備えているとすれば,M個(39個)の大部位のそれぞれについて,同時に,並行して,上記の一連の処理および次に述べる領域推定等の処理を実行することが可能となり,全部位(MRI全脳画像)について短時間で抽象処理が行なえる。マルチプロセッサがM/2,M/3個等のCPUを備えているものであっても,処理時間の大幅な短縮化が可能となる。また,全部位について抽出する必要はなく,特定の部位(1またはいくつか)についてのみ抽出処理を行なえばよいという場合にも,処理時間の短縮は可能であり,この場合,マルチプロセッサが備えるCPUの数は少なくてよいか,または1つのCPUしか備えていないプロセッサであっても処理時間の短縮が図られる。 Further, in recent years, a multiprocessor having a large number (plurality) of arithmetic units (CPU) and capable of operating these arithmetic units in parallel at the same time has been realized. If such a multiprocessor is provided with CPUs of the number of anatomical parts (large parts as an example) (M above), each of the M (39) large parts is simultaneously and parallelly processed. Then, it becomes possible to execute the above-mentioned series of processing and processing such as area estimation described below, and abstract processing can be performed for all parts (MRI whole brain image) in a short time. Even if the multiprocessor has M/2, M/3, etc. CPUs, the processing time can be greatly shortened. Further, when it is not necessary to extract all the parts and only the specific part (one or several) needs to be extracted, the processing time can be shortened. In this case, the CPU included in the multiprocessor is provided. Can be small, or the processing time can be shortened even with a processor having only one CPU.

10.領域推定
大部位ラベル画像はその中に含まれる小部位に分割されている。逆にいえば,用手的に特定した特定の小部位の集合が大部位である。ラベル画像データには1ボクセルごとにそのボクセルがどの部位に属するかの識別符号(番号)が付けられている。領域推定の領域はここでは小部位(ROI:Region Of Interest:解剖学的関心領域)の意味である。もちろん,大部位を推定領域としてもよい。なお,図12では便宜的に大部位の画像が図示されている。
Ten. Region estimation The large part label image is divided into small parts contained therein. Conversely, the set of specific small parts manually specified is the large part. The label image data is provided with an identification code (number) for each voxel to which part the voxel belongs. Here, the region for region estimation means a small region (ROI: Region Of Interest). Of course, a large part may be the estimation area. Note that in FIG. 12, an image of a large portion is shown for convenience.

領域推定処理(図6,ステップS6)(関心領域抽出手段)では,n個(5個)の選択されたラベル画像を上記の非線形関数F1〜F5をそれぞれ用いてダーテルテンプレート画像に変換し,続いて上記の逆関数G-1を用いて解析対象画像にそれぞれ逆変換する(逆変換された(解析対象)画像は元となったラベル画像に応じて少しずつ異なっている)。逆変換された画像はn個ある。 In the region estimation process (FIG. 6, step S6) (region of interest extraction means), n (5) selected label images are converted into Dartel template images by using the above-mentioned nonlinear functions F 1 to F 5 , respectively. Then, the inverse function G -1 is used to inversely transform each image into the analysis target image (the inversely transformed (analysis target) image is slightly different depending on the original label image). There are n inversely transformed images.

逆変換後のn個の画像のボクセルごとに,そのボクセルがどの小部位に属するものであるかを示す識別符号が付いている。そこで各ボクセルがどの小部位に属するかどうかを多数決によって決定(票決)する。これにより,ボクセルごとにそれが属する小部位(ROI)が決定される。この票決において,逆変換後の画像について,その元となったラベル画像の類似度に基づいて重み付けをしてもよい。 For each voxel of the n number of images after the inverse transformation, an identification code indicating which small part the voxel belongs to is attached. Therefore, it is decided (vote) by majority vote to which small part each voxel belongs. As a result, a small region (ROI) to which each voxel belongs is determined. In this voting, the image after the inverse conversion may be weighted based on the similarity of the label image which is the source of the image.

この領域確定はすべての小領域について行ってもよいし,脳画像解析の目的に応じた領域(ROI)(たとえば体積算出が必要な領域)のみについて行うだけでもよい。 This region determination may be performed for all the small regions, or only for the region (ROI) according to the purpose of brain image analysis (for example, the region for which volume calculation is required).

11.誤差の修正
脳画像全体ではなく,部位(大部位)を単位として,複数の大部位ラベル画像の選択,ダーテルテンプレートの作成の処理を行い,これらの一連の処理に基づいて関心領域(小部位)の推定を行っており,かなり精度の高い結果が期待されるが,若干の誤差が残るのは避けられない。
11. Correction of errors The process of selecting multiple large-region label images and creating a Darter template is performed not for the entire brain image, but for each region (large region), and based on these series of processing, the region of interest (small region) is selected. ) Is estimated and a highly accurate result is expected, but some error remains inevitable.

その誤差の修正(図6,ステップS7)では,領域推定された画像を入力,上記N個のラベル画像データ(用手的アトラス)を教師データとして機械学習(たとえばアダブースト(AdaBoost)法)を行い,誤差を軽減する。この処理の様子が図13に示されている。最も左側の画像は解析対象の灰白質事後確率(画像)である。この誤差補正も脳画像のすべての部位について行っても,関心領域についてのみ行っても,どちらでもよい。誤差が修正された画像は記憶部12に記憶される。 In the correction of the error (FIG. 6, step S7), the image in which the region is estimated is input, and machine learning (for example, AdaBoost method) is performed using the above N label image data (manual atlas) as teacher data. ,Reduce the error. The state of this processing is shown in FIG. The leftmost image is the gray matter posterior probability (image) to be analyzed. This error correction may be performed for all parts of the brain image or only for the region of interest. The image with the corrected error is stored in the storage unit 12.

12.灰白質補正
誤差が補正された領域の画像と灰白質,白質および脳脊髄液の画像(事後確率マップ)を比較し,灰白質,白質の領域に存在する脳脊髄液の領域を灰白質,白質の領域とする処理を施す(図6,ステップS8)。これはセグメンテーションの事後確率マップの誤抽出の補正を目的とするものである。この補正処理もすべての部位について行っても,必要な部位についてのみ行ってもよい。補正後の画像は記憶部12に記憶される。
12. Gray matter correction The image of the area in which the error has been corrected is compared with the images of gray matter, white matter and cerebrospinal fluid (posterior probability map), and the areas of cerebrospinal fluid existing in the areas of gray matter and white matter are gray matter and white matter. The process for setting the area is performed (FIG. 6, step S8). This is intended to correct erroneous extraction of the posterior probability map of segmentation. This correction process may be performed for all the parts or only for the necessary parts. The corrected image is stored in the storage unit 12.

13.体積測定
補正により最終的に灰白質領域となったボクセルに基づいて所望の領域(解剖学的関心領域)(1または複数の小部位)の体積を求める。より厳密には所望の領域内の灰白質の事後確率の積算を同領域の体積と定義しこれを求める(図6,ステップS9)(体積測定手段)。体積測定は特定の一または複数の領域についてのみ行ってもよいし,すべての部位について行ってもよい。体積測定結果は記憶部12の体積測定結果記憶領域に記憶される。
13. Volume measurement The volume of the desired region (anatomical region of interest) (one or more small sites) is determined based on the voxels that finally became the gray matter region by the correction. More strictly, the cumulative posterior probability of gray matter in a desired area is defined as the volume of the same area and is calculated (FIG. 6, step S9) (volume measuring means). Volume measurement may be performed only for a specific region or regions, or for all regions. The volume measurement result is stored in the volume measurement result storage area of the storage unit 12.

14.表示
必要に応じて,表示プログラムにしたがって,表示部12に処理結果の画像が表示される。処理の途上の画像を表示してもよい。最終的に体積測定の対象となった解剖学的関心領域を表示することもできる。また,入力された解析対象個人脳3次元画像,分割された大部位領域画像,中間画像,演算修正された画像,灰白質補正された画像を,その全脳部分について色分けした形態で表示することも,または個々の部位(大部位,小部位)ごとに表示することもできる。
14. Display If necessary, an image of the processing result is displayed on the display unit 12 according to the display program. An image in the process of processing may be displayed. It is also possible to display the anatomical region of interest that was finally the object of volume measurement. In addition, the input three-dimensional image of the analysis target individual brain, the divided large-region image, the intermediate image, the operation-corrected image, and the gray matter-corrected image are displayed in a color-coded form for the whole brain part. Or, it can be displayed for each individual part (large part, small part).

10 解剖学的部位抽出装置(脳体積測定装置)
11 処理部
12 記憶部
13 表示部
14 入出力部
15 通信制御部
10 Anatomical part extraction device (brain volume measurement device)
11 Processor
12 Memory
13 Display
14 Input/output section
15 Communication controller

Claims (16)

解剖学的関心領域の単位としての複数の小部位と,1または複数の小部位を解剖学的知識に基づいて結合した複数の大部位の大,小部位ラベル画像をそれぞれ含み,各部位に属するボクセルにラベルがそれぞれ付けられている,あらかじめ用意された形状が異なる対象物についての第1の数のラベル画像を記憶するラベル画像記憶手段,
特定大部位を含む複数の大部位が明示された標準的画像を用いて,所与の対象MRI画像を複数の大部位に分割して上記特定の大部位に対応する特定大部位対象画像を生成する特定大部位対象画像生成手段,
上記ラベル画像記憶手段に記憶された第1の数のラベル画像から上記特定大部位対象画像に対応してそれと類似性の高い第2の数の特定大部位ラベル画像を選択する特定大部位ラベル画像選択手段,および
上記選択された第2の数の特定大部位ラベル画像のそれぞれの上記特定大部位対象画像の画像変形において得られる変形後の第2の数の特定大部位ラベル画像から,それらの画像に含まれるボクセルのラベルに基づいて,特定大部位内に含まれる関心領域を最もよく表わす1または複数の小部位の画像部分を抽出する関心領域抽出手段,
を備えるMRI画像に基づく解剖学的部位の抽出装置。
A plurality of sub-regions as a unit of the anatomical region of interest, one or more of the plurality of large large sites bound based on anatomical knowledge sub-regions, the sub-regions label image respectively seen including, at each site Label image storage means for storing a first number of label images of objects having different shapes prepared in advance, each of which has a label attached to a voxel to which it belongs ,
Using a standard image in which a plurality of large parts including a specific large part are specified, a given target MRI image is divided into a plurality of large parts to generate a specific large part target image corresponding to the specific large part. Specific large area target image generation means for
A specific large part label image for selecting a second number of specific large part label images having a high similarity to the specific large part target image from the first number of label images stored in the label image storage means. Selecting means, and a second number of the specific large body part label images after transformation obtained in the image transformation of each of the selected second number of the specific large body part label images to the particular large body portion target image , Region of interest extraction means for extracting an image portion of one or a plurality of small regions that best represent the region of interest contained in the specific large region , based on the voxel label contained in the image of
An apparatus for extracting an anatomical part based on an MRI image, which comprises:
上記関心領域抽出手段によって抽出された画像部分の内容の体積を測定する体積測定手段をさらに備える請求項1に記載の抽出装置。 The extraction device according to claim 1, further comprising volume measuring means for measuring the volume of the content of the image portion extracted by the region of interest extracting means. 上記関心領域抽出手段によって抽出された画像部分の画像を表示する表示手段,をさらに備える請求項1または2に記載の抽出装置。 The extraction device according to claim 1, further comprising display means for displaying an image of the image portion extracted by the region of interest extraction means. 上記特定大部位ラベル画像は,複数の部位が明示された標準的画像を,所与のラベル画像用MRI画像に画像位置合わせを行って生成されたものである,請求項1から3のいずれか一項に記載の抽出装置。 The specific large portion label image is generated by performing image registration on a given MRI image for label image with a standard image in which a plurality of portions are clearly indicated. The extraction device according to one item. 所与の対象MRI画像が脳のMRI画像である,請求項1から4のいずれか一項に記載の抽出装置。 The extraction device according to any one of claims 1 to 4, wherein the given target MRI image is a brain MRI image. ラベル画像記憶手段が,解剖学的関心領域の単位としての複数の小部位と,1または複数の小部位を解剖学的知識に基づいて結合した複数の大部位の大,小部位ラベル画像をそれぞれ含み,各部位に属するボクセルにラベルがそれぞれ付けられている,あらかじめ用意された形状が異なる対象物についての第1の数のラベル画像を記憶し,
特定大部位対象画像生成手段が,特定大部位を含む複数の大部位が明示された標準的画像を用いて,所与の対象MRI画像を複数の大部位に分割して上記特定の大部位に対応する特定大部位対象画像を生成し,
特定大部位ラベル画像選択手段が,上記ラベル画像記憶手段に記憶された第1の数のラベル画像から上記特定大部位対象画像に対応してそれと類似性の高い第2の数の特定大部位ラベル画像を選択し,そして
関心領域抽出手段が,上記選択された第2の数の特定大部位ラベル画像のそれぞれの上記特定大部位対象画像の画像変形において得られる変形後の第2の数の特定大部位ラベル画像から,それらの画像に含まれるボクセルのラベルに基づいて,特定大部位内に含まれる関心領域を最もよく表わす1または複数の小部位の画像部分を抽出する,
MRI画像に基づく解剖学的部位の抽出方法。
The label image storage means respectively provides a plurality of small regions as a unit of the anatomical region of interest and a plurality of large and small region label images of a plurality of large regions obtained by combining one or a plurality of small regions based on anatomical knowledge. see containing stores label voxels belonging to each site is assigned respectively, the first number of label image for prearranged shape different objects,
The specific large region target image generating means divides a given target MRI image into a plurality of large regions by using a standard image in which a plurality of large regions including the specific large region are clearly defined, and divides the given target MRI image into the specific large regions. Generate the corresponding specific large area target image,
The specific large area label image selecting means corresponds to the specific large area target image from the first number of label images stored in the label image storing means and has a second similarity with the large number of specific large area label images. An image is selected, and the region-of-interest extraction means obtains a second number of deformed images obtained in image transformation of each of the selected second large number of specific large region label images into the specific large region target image . From the specific large part label images, based on the voxel labels included in those images, the image part of one or more small parts that best represents the region of interest included in the specific large part is extracted,
An anatomical region extraction method based on an MRI image.
体積測定手段が上記関心領域抽出手段によって抽出された画像部分の内部の体積を測定する,請求項6に記載の抽出方法。 7. The extraction method according to claim 6, wherein the volume measuring means measures the volume inside the image portion extracted by the region of interest extracting means. 表示手段が,上記関心領域抽出手段によって抽出された画像部分の画像を表示する,請求項6または7に記載の抽出方法。 The extraction method according to claim 6 or 7, wherein the display means displays the image of the image portion extracted by the region-of-interest extraction means. 上記特定大部位ラベル画像は,複数の部位が明示された標準的画像を,所与のラベル画像用MRI画像に画像位置合わせを行って生成されたものである,請求項6から8のいずれか一項に記載の抽出方法。 9. The specific large part label image is generated by performing image registration of a standard image in which a plurality of parts are clearly specified on an MRI image for a given label image. The extraction method according to one item. 所与の対象MRI画像が脳のMRI画像である,請求項6から9のいずれか一項に記載の抽出方法。 The extraction method according to any one of claims 6 to 9, wherein the given target MRI image is a brain MRI image. 解剖学的関心領域の単位としての複数の小部位と,1または複数の小部位を解剖学的知識に基づいて結合した複数の大部位の大,小部位ラベル画像をそれぞれ含み,各部位に属するボクセルにラベルがそれぞれ付けられている,あらかじめ用意された形状が異なる対象物についての第1の数のラベル画像がラベル画像記憶手段に記憶されており,
抽出プログラムが,
特定大部位を含む複数の大部位が明示された標準的画像を用いて,所与の対象MRI画像を複数の大部位に分割して上記特定の大部位に対応する特定大部位対象画像を生成し,
上記ラベル画像記憶手段に記憶された第1の数のラベル画像から上記特定大部位対象画像に対応してそれと類似性の高い第2の数の特定大部位ラベル画像を選択し,そして
上記選択された第2の数の特定大部位ラベル画像のそれぞれの上記特定大部位対象画像の画像変形において得られる変形後の第2の数の特定大部位ラベル画像から,それらの画像に含まれるボクセルのラベルに基づいて,特定大部位内に含まれる関心領域を最もよく表わす1または複数の小部位の画像部分を抽出するようにコンピュータを制御する,
MRI画像に基づく解剖学的部位の抽出プログラム。
A plurality of sub-regions as a unit of the anatomical region of interest, one or more of the plurality of large large sites bound based on anatomical knowledge sub-regions, the sub-regions label image respectively seen including, at each site The label image storage means stores a first number of label images of objects having different shapes prepared in advance, to which the voxels to which they belong are labeled.
The extraction program
Using a standard image in which a plurality of large parts including a specific large part are specified, a given target MRI image is divided into a plurality of large parts to generate a specific large part target image corresponding to the specific large part. Then
From the first number of label images stored in the label image storage means, a second number of specific large region label images having a high similarity with the specific large region target image is selected, and the selected image is selected. From the second number of the specific large body part label images after the deformation obtained in the image transformation of each of the second number of the specific large body part label images to the specific large body part target image , Controlling the computer to extract image portions of one or more small regions that best represent the region of interest contained in the specific large region based on the label ,
An anatomical part extraction program based on MRI images.
さらに,上記抽出された画像部位の内部の体積を測定するようにコンピュータを制御する,
請求項11に記載の抽出プログラム。
Further, controlling the computer to measure the volume inside the extracted image region,
The extraction program according to claim 11.
さらに,上記抽出された画像部分の画像を表示装置に表示するようにコンピュータを制御する,請求項11または12に記載の抽出プログラム。 The extraction program according to claim 11 or 12, which further controls a computer to display an image of the extracted image portion on a display device. 上記特定大部位ラベル画像は,複数の部位が明示された標準的画像を,所与のラベル画像用MRI画像に画像位置合わせを行って生成されたものである,請求項11から13のいずれか一項に記載の抽出プログラム。 14. The specific large portion label image is generated by performing image registration of a standard image in which a plurality of portions are clearly specified on an MRI image for a given label image. The extraction program according to item 1. 所与の対象MRI画像が脳のMRI画像である,請求項11から14のいずれか一項に記載の抽出プログラム。 15. The extraction program according to claim 11, wherein the given target MRI image is a brain MRI image. 請求項11から15のいずれか一項に記載の抽出プログラムをコンピュータ読取り可能に記録した媒体。 A computer-readable medium having the extraction program according to any one of claims 11 to 15 recorded therein.
JP2019197187A 2019-10-30 2019-10-30 Apparatus, method and program for extracting anatomical part based on MRI image Active JP6738003B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019197187A JP6738003B1 (en) 2019-10-30 2019-10-30 Apparatus, method and program for extracting anatomical part based on MRI image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019197187A JP6738003B1 (en) 2019-10-30 2019-10-30 Apparatus, method and program for extracting anatomical part based on MRI image

Publications (2)

Publication Number Publication Date
JP6738003B1 true JP6738003B1 (en) 2020-08-12
JP2021069574A JP2021069574A (en) 2021-05-06

Family

ID=71949389

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019197187A Active JP6738003B1 (en) 2019-10-30 2019-10-30 Apparatus, method and program for extracting anatomical part based on MRI image

Country Status (1)

Country Link
JP (1) JP6738003B1 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3486615B2 (en) * 2001-05-22 2004-01-13 畦元 将吾 Region extraction method for medical images
US9818200B2 (en) * 2013-11-14 2017-11-14 Toshiba Medical Systems Corporation Apparatus and method for multi-atlas based segmentation of medical image data
US10074173B2 (en) * 2013-12-06 2018-09-11 The Johns Hopkins University Methods and systems for analyzing anatomy from multiple granularity levels
WO2015144540A1 (en) * 2014-03-28 2015-10-01 Koninklijke Philips N.V. Method and device for generating one or more computer tomography images based on magnetic resonance images with the help of tissue class separation
CN104997528B (en) * 2014-04-21 2018-03-27 东芝医疗系统株式会社 X ray computer tomos filming apparatus and shooting condition device for assisting in setting
US10504252B2 (en) * 2014-12-15 2019-12-10 Canon Medical Systems Corporation Method of, and apparatus for, registration and segmentation of medical imaging data

Also Published As

Publication number Publication date
JP2021069574A (en) 2021-05-06

Similar Documents

Publication Publication Date Title
EP2422318B1 (en) Quantification of medical image data
Collins et al. Towards accurate, automatic segmentation of the hippocampus and amygdala from MRI by augmenting ANIMAL with a template library and label fusion
CN109166133B (en) Soft tissue organ image segmentation method based on key point detection and deep learning
JP4744883B2 (en) Image alignment method and medical image data processing apparatus
US9275456B2 (en) Image search engine
US10083506B2 (en) Whole body image registration method and method for analyzing images thereof
Dunås et al. A stereotactic probabilistic atlas for the major cerebral arteries
JP6821036B2 (en) Medical image processing equipment, methods and programs
US20190019304A1 (en) Medical image processing apparatus, method, and program
WO2019044082A1 (en) Medical image processing device, method, and program
WO2019044078A1 (en) Brain image normalization device, method, and program
JP6738003B1 (en) Apparatus, method and program for extracting anatomical part based on MRI image
US20140309517A1 (en) Method of Automatically Analyzing Brain Fiber Tracts Information
Fei et al. Deep Learning-Based Auto-Segmentation of Spinal Cord Internal Structure of Diffusion Tensor Imaging in Cervical Spondylotic Myelopathy
Sederevičius et al. A robust intensity distribution alignment for harmonization of T1w intensity values
Roy et al. A useful approach towards 3D representation of brain abnormality from its 2D MRI slides with a volumetric exclamation
JP6739658B2 (en) Medical image processing apparatus, method and program
US11216945B2 (en) Image processing for calculation of amount of change of brain
Lee et al. Learning-based multi-atlas segmentation of the lungs and lobes in proton MR images
Sadeghi et al. Localization and Registration of 2D Histological Mouse Brain Images in 3D Atlas Space
Li et al. Surface-Based and Shape-Informed U-Fiber Atlasing for Robust Superficial White Matter Connectivity Analysis
US12033366B2 (en) Matching apparatus, matching method, and matching program
Zhang et al. Rethinking Fetal Brain Atlas Construction: A Deep Learning Perspective
Davatzikos Voxel‐Based Morphometric Analysis Using Shape Transformations
CN108784705B (en) High-performance analysis method for joint image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191030

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191030

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20191106

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200626

R150 Certificate of patent or registration of utility model

Ref document number: 6738003

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250