JP2018106560A - Image processing apparatus, image processing method, image processing system, and program - Google Patents
Image processing apparatus, image processing method, image processing system, and program Download PDFInfo
- Publication number
- JP2018106560A JP2018106560A JP2016254365A JP2016254365A JP2018106560A JP 2018106560 A JP2018106560 A JP 2018106560A JP 2016254365 A JP2016254365 A JP 2016254365A JP 2016254365 A JP2016254365 A JP 2016254365A JP 2018106560 A JP2018106560 A JP 2018106560A
- Authority
- JP
- Japan
- Prior art keywords
- image
- alignment
- image processing
- processing unit
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 220
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000006243 chemical reaction Methods 0.000 claims abstract description 25
- 238000000034 method Methods 0.000 claims description 67
- 230000008569 process Effects 0.000 claims description 57
- 230000009466 transformation Effects 0.000 claims description 16
- 230000002194 synthesizing effect Effects 0.000 claims 1
- 238000003384 imaging method Methods 0.000 description 20
- 238000007689 inspection Methods 0.000 description 19
- 238000011156 evaluation Methods 0.000 description 17
- 238000012937 correction Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 238000003745 diagnosis Methods 0.000 description 9
- 239000002131 composite material Substances 0.000 description 5
- 201000010099 disease Diseases 0.000 description 4
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 4
- 238000012804 iterative process Methods 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000002591 computed tomography Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000012014 optical coherence tomography Methods 0.000 description 3
- 210000001015 abdomen Anatomy 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000035876 healing Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000002603 single-photon emission computed tomography Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Processing (AREA)
Abstract
Description
本明細書の開示は、画像処理装置、画像処理方法、画像処理システム及びプログラムに関する。 The present disclosure relates to an image processing apparatus, an image processing method, an image processing system, and a program.
医師が医用画像を用いて診療を行う際に、病変部位の発見や経過観察のために、複数の時点で同一の領域を撮影して得られた複数の医用画像を観察することがある。その場合に、病態に変化のあった領域を比較するために、撮影された時点の異なる2枚の3次元画像間の変形位置合わせを行うことがある。 When a doctor conducts medical care using medical images, a plurality of medical images obtained by photographing the same region at a plurality of time points may be observed in order to find a lesion site and follow up. In that case, in order to compare the region where the pathological condition has changed, there is a case where deformation position alignment is performed between two three-dimensional images at different time points when the image is taken.
非特許文献1には、画像の全体を複数の小領域に分割し、一方の画像の小領域と対応する他方の画像の小領域の近傍を探索して、類似度の高い領域に一方の画像を変位させるためのシフト量を求め、各小領域におけるシフト量に基づいて、一方の画像を他方の画像に位置合わせするための変形を求めることが開示されている。
Non-Patent
2つの画像の間の変形位置合わせのための変換を求める処理を繰り返すことにより、位置合わせの精度は向上すると考えられるが、位置合わせを行う領域の順序については考慮されていない。 It is considered that the accuracy of the alignment is improved by repeating the process for obtaining the transformation for the alignment between the two images, but the order of the areas to be aligned is not considered.
本発明の実施形態に係る画像処理装置は、第1の画像と第2の画像とを位置合わせするための第1の変換に関する情報を取得する第1の取得手段と、前記第1の変換により第1の画像を変換して得られる第1の変換画像における前記位置合わせの精度に関する情報に基づいて、前記第1の画像を構成する複数の部分領域のそれぞれに対して、第2の変換を取得する順序を決定する決定手段と、前記複数の部分領域のそれぞれに対して、前記第2の画像に位置合わせするための第2の変換に関する情報を前記決定された順序に従って取得する第2の取得手段と、を有することを特徴とする。 An image processing apparatus according to an embodiment of the present invention includes a first acquisition unit configured to acquire information related to a first conversion for aligning a first image and a second image, and the first conversion. Based on the information regarding the accuracy of the alignment in the first converted image obtained by converting the first image, the second conversion is performed on each of the plurality of partial areas constituting the first image. A determination unit that determines an acquisition order; a second unit that acquires, for each of the plurality of partial areas, information related to a second transformation for aligning with the second image according to the determined order; Acquisition means.
変形位置合わせのための変換を求める処理を優先して行う小領域を特定することにより、少なくとも一部の領域の位置合わせを他の領域よりも早く行うことができる。 By specifying a small region in which priority is given to processing for obtaining transformation for deformation alignment, alignment of at least some of the regions can be performed earlier than other regions.
以下、図面を参照して本発明の実施形態を説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[第1の実施形態]
医用画像を用いた診断や検査の現場では、異なる時期で撮影された被検体の医用画像を比較して、経時変化を観察することが行われる。その際、夫々の時期で撮影される被検体の状態が異なるため、これをキャンセルする目的で画像を変形等することにより複数の画像を位置合わせする処理(変形位置合わせ)が行われる場合がある。さらに、経時変化の観察を容易にするために、変形位置合わせされた異なる時期の医用画像の間の差分である経時差分画像を取得することがある。経時差分画像を取得する上では、疾患に関係する領域の変化のみが強調されることが好ましいが、夫々の時期の撮影の状態の違いにより、疾患に関係する領域以外の変化が反映されてしまう場合がある。
[First Embodiment]
In the field of diagnosis and examination using medical images, it is possible to compare medical images of subjects taken at different times and observe changes over time. At that time, since the state of the subject imaged at each time is different, a process of aligning a plurality of images (deformation alignment) may be performed by deforming the image for the purpose of canceling this. . Furthermore, in order to facilitate the observation of the temporal change, a temporal difference image that is a difference between the medical images at different times subjected to deformation positioning may be acquired. In acquiring a time-difference image, it is preferable to emphasize only changes in a region related to a disease, but changes in regions other than a region related to a disease are reflected due to a difference in imaging state at each time. There is a case.
したがって、異なる時期で撮影された被検体の医用画像を比較し、疾患に関係する領域に対する医師の観察を補助する目的においては、変形位置合わせが精度良く行われることが好ましい。 Therefore, for the purpose of comparing medical images of subjects taken at different times and assisting a doctor in observing a region related to a disease, it is preferable that the deformation alignment is performed with high accuracy.
一方で、対象とする医用画像のデータ量が大きかったり、変形位置合わせの処理を繰り返し行ったりすることで、位置合わせされた医用画像や経時差分画像といった、医師が観察するための医用画像を生成するのに要する時間が増加してしまう。 On the other hand, a medical image to be observed by a doctor, such as a registered medical image or a time-difference image, can be generated by repeating a process of aligning a deformed position by processing a large amount of medical image data. The time required to do this will increase.
第1の実施形態は、医師が優先して観察したい領域であると推測される領域を優先して位置合わせを精度よく行うことにより、医師が観察を開始するまでに要する時間を低減できるようにすることを目的とする。医師が優先して観察したい領域とは、たとえば疾患が進行したり治癒したりしたことにより経時的に変化が生じた領域である。第1の実施形態にかかる画像処理装置は、2つの医用画像間で差分が生じている領域を優先して、変形位置合わせのための処理を行う。 In the first embodiment, the time required for the doctor to start observation can be reduced by accurately performing the positioning with priority given to the area that is presumed to be the area that the doctor wants to observe preferentially. The purpose is to do. The region that the doctor wants to observe preferentially is a region that has changed over time due to, for example, a disease progressing or healing. The image processing apparatus according to the first embodiment performs processing for deformation positioning by giving priority to an area where a difference is generated between two medical images.
[画像処理装置を含むシステムの構成]
図1は、第1の実施形態に係る画像処理装置を含むシステムの構成の一例を示す図である。ネットワーク160を介して、クライアントコンピュータ100、電子カルテ管理装置110、検査オーダ管理装置120、撮影装置130、画像管理装置140、レポート管理装置150が接続されている。
[System configuration including image processing apparatus]
FIG. 1 is a diagram illustrating an example of the configuration of a system including an image processing apparatus according to the first embodiment. The
クライアントコンピュータ100は、医師等のユーザが使用するコンピュータである。医師は、クライアントコンピュータ100を用い、ネットワーク160を介して、電子カルテ管理装置110や検査オーダ管理装置120、画像管理装置140、レポート管理装置150と通信する。ユーザは、クライアントコンピュータ100を用いて電子カルテ管理サーバ111に保存されている電子カルテを閲覧することができ、作成した電子カルテをサーバ111に保存することができる。ユーザは、クライアントコンピュータ100を用いて検査オーダを作成して撮影装置130に送信することができる。当該検査オーダは検査オーダ管理サーバ121に保存される。ユーザは、クライアントコンピュータ100を用いて撮影装置130で行われている処理を管理し、当該処理に対する指示を入力することができる。ユーザは、クライアントコンピュータ100を用いて画像管理サーバ141から医用画像を取得して閲覧することができる。ユーザは、クライアントコンピュータ100を用いて医用画像を観察した結果をレポートに記載し、レポート管理サーバ151に当該レポートを保存することができる。
The
電子カルテ管理装置110は、電子カルテを作成し、作成された電子カルテを管理するためのサービスを提供する。電子カルテ管理装置110は電子カルテ管理サーバ111と接続されている。電子カルテ管理サーバ111は、電子カルテを保存するためのサーバである。電子カルテ管理装置110は、HIS(Hospital Information System)であってもよい。
The electronic medical
検査オーダ管理装置120は、撮影装置130等に対する検査オーダを作成し、検査オーダを適切な撮影装置に送信し、検査オーダを管理するためのサービスを提供する。さらに、検査オーダ管理装置120は、検査で使用する機器や検査室、検査技師の割り当て等を行い、検査にかかる業務が行えるように管理するサービスを提供してもよい。検査オーダ管理装置120は、検査オーダ管理サーバ121と接続されている。検査オーダ管理サーバ121は、検査オーダを保存するためのサーバである。検査オーダ管理装置120は、たとえばRIS(Radiology Information System)である。
The inspection
撮影装置130は、医用画像を撮影するための装置である。撮影装置130は、たとえばMRI(magnetic resonance imaging)装置、X線CT(computed tomography)装置、超音波撮影装置、光音響トモグラフィ(PAT:photoacoustic tomography)装置、PET(positron emission tomography)装置、SPECT(single photon emission computed tomography)装置、OCT(optic coherence tomography)装置の少なくとも一つである。撮影装置130は、検査オーダ管理装置120から検査オーダを受信し、当該検査オーダに基づいてデータを取得し、適宜画像処理を行って医用画像を取得する。撮影装置130は検査の進捗に関する情報を、検査オーダ管理装置120に送信する。撮影装置130は医用画像を画像管理サーバ141に送信して保存させる。
The photographing
第1の実施形態において、撮影装置130は医師の診断に供する医用画像を取得するための画像処理を行う画像処理部300を有する。画像処理部300は、撮影装置130で取得した医用画像と、画像管理サーバ141から取得した同一の被検体の過去の医用画像とを比較するための差分画像を生成する画像処理を行う。この観点で、撮影装置130は画像処理装置の一例である。画像処理部300の構成及び画像処理部300により行われる処理についての詳細は後述する。
In the first embodiment, the
画像管理装置140は、医用画像を保存し、管理するためのサービスを提供する。画像管理装置140は、画像管理サーバ141と接続されている。たとえば、画像管理装置140は撮影装置130により取得された医用画像と当該医用画像に関する付帯情報とを画像管理サーバ141に保存する。付帯情報には、たとえば医用画像の撮影日、撮影装置、撮影条件、被検体に関する情報が含まれる。画像管理サーバ141は、たとえばPACS(Picture Archiving and Communications Systems)である。
The
レポート管理装置150は、医師が医用画像を観察した結果を記載する画像診断レポートを作成し、管理するためのサービスを提供する。レポート管理装置150はレポート管理サーバ151と接続されている。レポート管理サーバ151は、画像診断レポートを保存する。
The
以上のシステムで送受信される情報は、DICOM(Digital Imaging and Communications in Medicine)規格に基づく。DICOMは医用画像のフォーマットと、それらの画像を扱う装置間の通信プロトコルを定義した規格である。DICOMに基づいてやりとりされる対象となるデータは情報オブジェクト(IOD:Information Object Definitions)と呼ばれる。以下では、情報オブジェクトをIOD、或いはオブジェクトと称する場合がある。IODの例としては、医用画像、患者情報、検査情報、構造化レポート等が挙げられ、医用画像を用いた検査や治療にかかわる様々なデータがその対象となり得る。 Information transmitted and received in the above system is based on DICOM (Digital Imaging and Communications in Medicine) standard. DICOM is a standard that defines the format of medical images and the communication protocol between devices that handle these images. Data to be exchanged based on DICOM is called an information object (IOD: Information Object Definitions). Hereinafter, the information object may be referred to as an IOD or an object. Examples of IODs include medical images, patient information, examination information, structured reports, and the like, and various data related to examinations and treatments using medical images can be targeted.
DICOMに基づいて取り扱われる医用画像、すなわちIODである医用画像は、付帯情報と画像データとで構成される。IODは、DICOMデータエレメントと呼ばれるデータ要素の集まりで構成される。各々のDICOMデータエレメントにはデータ要素を識別するためのタグが付加される。例えば、DICOMデータエレメントには、ピクセルデータである画像データに対して、画像データであることを示すタグが付加される。 A medical image that is handled based on DICOM, that is, a medical image that is an IOD is composed of supplementary information and image data. An IOD is composed of a collection of data elements called DICOM data elements. A tag for identifying the data element is added to each DICOM data element. For example, a tag indicating image data is added to the DICOM data element with respect to image data that is pixel data.
第1の実施形態においては、撮影装置130が画像処理部300を備え、撮影装置130が画像処理装置として機能する場合を例に説明するが、本発明はこれに限らない。たとえば、画像処理部300を有する画像処理装置を独立した装置として構成してもよいし、クラウドを利用した画像処理サーバとして構成してもよい。
In the first embodiment, a case where the photographing
[画像処理装置のハードウェア構成]
図2は、第1の実施形態にかかる画像処理装置のハードウェア構成の一例を示す図である。第1の実施形態においては、撮影装置130を構成する操作卓(コンピュータ)のハードウェア構成である。なお、クライアントコンピュータ100、電子カルテ管理装置110、検査オーダ管理装置120、画像管理装置140、レポート管理装置150も同様のハードウェア構成である。また、電子カルテ管理サーバ111、検査オーダ管理サーバ121、画像管理サーバ141、レポート管理サーバ151も同様のハードウェア構成でもよく、サーバ装置として不要な構成は有していなくてもよい。
[Hardware configuration of image processing apparatus]
FIG. 2 is a diagram illustrating an example of a hardware configuration of the image processing apparatus according to the first embodiment. In the first embodiment, the hardware configuration of a console (computer) that constitutes the photographing
画像処理装置は、CPU200、ROM201、RAM202、記憶装置203、USB204、通信回路205、グラフィックスボード206、HDMI(登録商標)207を有する。これらはBUSにより通信可能に接続されている。BUSは接続されたハードウェア間でのデータの送受信や、CPU200から他のハードウェアへの命令を送信するために使用される。
The image processing apparatus includes a
CPU(Central Processing Unit)200は画像処理装置及びこれに接続する各部を統合的に制御する制御回路である。CPU200はROM201に格納されているプログラムを実行することにより制御を実施する。またCPU200は、表示部209を制御するためのソフトウェアであるディスプレイドライバを実行し、表示部209に対する表示制御を行う。さらにCPU200は、操作部208に対する入出力制御を行う。
A CPU (Central Processing Unit) 200 is a control circuit that integrally controls the image processing apparatus and each unit connected thereto. The
ROM(Read Only Memory)201は、CPU200による制御の手順を記憶させたプログラムやデータを格納する。ROM201は、画像処理装置のブートプログラムや各種初期データを記憶する。また、画像処理装置の処理を実現するための各種のプログラムを記憶する。
A ROM (Read Only Memory) 201 stores a program and data in which a control procedure by the
RAM(Random Access Memory)202は、CPU200が命令プログラムによる制御を行う際に作業用の記憶領域を提供するものである。RAM202は、スタックとワーク領域とを有する。RAM202は、画像処理装置及びこれに接続する各部における処理を実行するためのプログラムや、画像処理で用いる各種パラメータを記憶する。RAM202は、CPU200が実行する制御プログラムを格納し、CPU200が各種制御を実行する際の様々なデータを一時的に格納する。
A RAM (Random Access Memory) 202 provides a working storage area when the
記憶装置203は、各種のデータを保存する補助記憶装置である。記憶装置203は、たとえばHDD(Hard Disk Drive)や、SSD(Solid State Drive)である。
The
USB(Universal Serial Bus)204は操作部208と接続する接続部である。
A USB (Universal Serial Bus) 204 is a connection unit that connects to the
通信回路205はシステムを構成する各部や、ネットワーク160に接続されている各種の外部装置との通信を行うための回路である。通信回路205は、たとえば出力する情報を転送用パケットに格納してTCP/IPといった通信技術により、ネットワーク160を介して外部装置に出力する。画像処理装置は、所望の通信形態にあわせて、複数の通信回路を有していてもよい。
The
グラフィックスボード206は、GPU(Graphics Processing Unit)、ビデオメモリを含む。GPUは、たとえば第1の実施形態に係る画像処理を行い、表示部209に表示させるための情報に関するデータを生成し、表示部209に出力する。
The
HDMI(登録商標)(High Definition Multimedia Interface)207は、表示部209と接続する接続部である。
An HDMI (registered trademark) (High Definition Multimedia Interface) 207 is a connection unit connected to the
CPU200やGPUはプロセッサの一例である。また、ROM201やRAM202や記憶装置203はメモリの一例である。画像処理装置は複数のプロセッサを有していてもよい。第1の実施形態においては、画像処理装置のプロセッサがメモリに格納されているプログラムを実行することにより、画像処理装置の各部の機能が実現される。
The
また、画像処理装置は特定の処理を専用に行うCPUやGPU、ASIC(Application Specific Integrated Circuit)を有していても良い。画像処理装置は特定の処理あるいは全ての処理をプログラムしたFPGA(Field−Programmable Gate Array)を有していてもよい。 In addition, the image processing apparatus may include a CPU, GPU, or ASIC (Application Specific Integrated Circuit) that performs a specific process. The image processing apparatus may include a field-programmable gate array (FPGA) in which specific processing or all processing is programmed.
[画像処理部の機能構成]
図3は、本発明の実施形態にかかる画像処理装置を構成する画像処理部300の機能構成の一例を示す図である。たとえば撮影装置130である画像処理装置は、画像処理に関する様々な機能を有していてもよいが、以下では簡単のために第1の実施形態にかかる変形位置合わせ処理に関する機能構成のみを説明する。
[Functional configuration of image processing unit]
FIG. 3 is a diagram illustrating an example of a functional configuration of the
以下では、第1の時点で撮影された第1の画像(過去画像)と、第1の時点よりも新しい第2の時点で撮影された第2の画像(現在画像)とを入力として、過去画像と現在画像との変形位置合わせを行う場合を例に説明する。過去画像と現在画像はともに、被検体の同一の部位を撮影した医用画像である。 In the following, the first image (past image) taken at the first time point and the second image (current image) taken at the second time point newer than the first time point are used as inputs. A case where the deformation position of the image and the current image is aligned will be described as an example. Both the past image and the current image are medical images obtained by photographing the same part of the subject.
また、変形位置合わせは、現在画像を参照画像(位置合わせの基準画像)とし、過去画像を浮動画像(位置合わせで変形される画像)として行うこととする。位置合わせとは、2つの画像間の対応する特徴同士の位置を合わせる処理である。位置合わせは、一方の画像上のある位置を他方の画像上の位置へ写像する変換関数を取得し、当該変換関数を一方の画像に対して作用させることにより、一方の画像を他方の画像に近付ける処理により行われる。たとえば、過去画像を構成する各画素を当該変換関数により移動させることにより、変形後の位置合わせされた画像が取得される。変形後の画像に画素値が設定されていない画素が生じる場合は、画素値が設定されていない画素に対し、線形補間等の画素値補間手法によって、その他の画素値が設定されている画素の値と位置に基づいて画素値を設定することができる。 Further, the deformation position alignment is performed using the current image as a reference image (standard image for alignment) and the past image as a floating image (an image deformed by alignment). The alignment is a process for aligning the positions of corresponding features between two images. Alignment obtains a conversion function that maps a position on one image to a position on the other image, and applies the conversion function to one image, thereby converting one image into the other image. This is done by the approaching process. For example, by moving each pixel constituting the past image using the conversion function, a deformed aligned image is acquired. If a pixel with no pixel value is generated in the transformed image, the pixel with other pixel values set by a pixel value interpolation method such as linear interpolation is applied to the pixel with no pixel value set. The pixel value can be set based on the value and position.
なお、変形位置合わせを行い差分画像を取得する2つの画像は、同一のモダリティで取得された経時的に異なる画像に限らず、たとえば同時期に異なるモダリティで取得された画像であってもよい。また、変形位置合わせにおいて現在画像を浮動画像とし、過去亜像を参照画像としてもよい。 Note that the two images obtained by performing deformation alignment and obtaining the difference image are not limited to images acquired with the same modality over time, but may be images acquired with different modalities at the same time, for example. Further, in the deformation alignment, the current image may be a floating image and the past sub-image may be a reference image.
画像処理部300は、補正処理部310、概略位置合わせ処理部320、詳細位置合わせ処理部330を含む。
The
補正処理部310は、2つの入力画像S1(過去画像)、S2(現在画像)に対して、画像を補正する処理を行う。たとえば2つの入力画像S1及びS2は、取得された撮影装置の違いにより、画像サイズや画像解像度が異なる場合がある。また、たとえば2つの入力画像S1及びS2は、X線の照射線量といった撮影時の撮影条件の違いにより、濃度値のプロファイルが異なる場合がある。したがって、補正処理部310は、たとえば画像サイズ、画像解像度を、入力画像S1とS2とで統一するための補正処理を行う。また、補正処理部310は、たとえば入力画像S1の濃度値のプロファイルを、入力画像S2の濃度値のプロファイルに近付けるための補正処理を行う。補正処理部310により補正された入力画像S1をS1´とする。また、補正処理部310により補正された入力画像S2をS2´とする。 The correction processing unit 310 performs a process of correcting the images for the two input images S1 (past image) and S2 (current image). For example, the two input images S1 and S2 may have different image sizes and image resolutions depending on the acquired photographing apparatus. Further, for example, the two input images S1 and S2 may have different density value profiles due to a difference in imaging conditions such as X-ray irradiation dose. Accordingly, the correction processing unit 310 performs a correction process for unifying the image size and the image resolution in the input images S1 and S2, for example. Further, the correction processing unit 310 performs a correction process for bringing the density value profile of the input image S1 close to the density value profile of the input image S2, for example. The input image S1 corrected by the correction processing unit 310 is defined as S1 ′. Further, the input image S2 corrected by the correction processing unit 310 is defined as S2 ′.
概略位置合わせ処理部320は、補正処理部310により取得されたS1´、S2´に対して、位置合わせを行う。具体的には、処理部320はS1´に対して、画像回転や平行移動、拡大・縮小といったアフィン変換等の剛体変換を行い、S2´との画像間の一致度が高くなるように位置合わせを行う。処理部320は、入力されたS1´とS2´の画像間の一致度が高くなるような変形場を取得する。そして、処理部320は取得した変形場に基づいてS1´を変形し、S1´´を取得する。処理部320は、線や面といった画像の幾何学的特徴を利用した位置合わせアルゴリズムであるICP(Iterative Closest Point)アルゴリズムを用いてもよい。
The approximate
詳細位置合わせ処理部330は、概略位置合わせ処理部320により取得されたS1´´と補正処理部310により取得されたS2´に対して、位置合わせ処理を行う。ここで詳細位置合わせ処理部330は、概略位置合わせ処理部320により行われる位置合わせ処理よりも、位置合わせの誤差が少ない位置合わせの処理を行う。以下では、概略位置合わせ処理部320により行われる位置合わせを概略位置合わせと称し、詳細位置合わせ処理部330により行われる、より精度の高い位置合わせを詳細位置合わせと称する場合がある。詳細位置合わせ処理部330は、繰り返し詳細な位置合わせ処理を行うことで、S1´´とS2´の画像間の一致度が高くなるような変形場を取得する。そして、処理部330は取得した変形場に基づいてS1´´を変形し、O1を取得する。画像O1は、現在画像に対して位置合わせされた、かつ補正された過去画像である。また、処理部330により画像S2´は、補正された現在画像である画像O2として取得される。処理部330は、たとえばB−splines関数を用いる非線形な変換を行うFFD(Free−Form Deformation)法を用いて詳細位置合わせを行う。また、処理部330は非剛体位置合わせの一例であるLDDMM(Large Deformation Diffeomorphic Metric Mapping)(Miller 他 1993,Proceedings of the National Academy of Sciences of the United States of America,90,1 194−1 1948; Joshi 他,1995,Geometric methods in Applied Imaging,San Diego,CA;Granander and Miller,1996,Statistical computing and graphics newsletter 7,3−8)と呼ばれるアルゴリズムを用いてもよい。
The detailed
処理部330は、画像O1及び画像O2を取得する処理において、先に行われた詳細位置合わせの精度に関する情報に基づいて、たとえばS1´を構成する複数の部分領域に分割する。以下では、S1´及びS2´を構成する複数の部分領域のそれぞれを、小領域と称する。処理部330は、当該精度に関する情報に基づいて、当該複数の部分領域のそれぞれ(すなわち小領域のそれぞれ)に対して、さらに詳細位置合わせを繰り返す順序を決定する。そして、処理部330は当該決定された順序に基づいて詳細位置合わせ処理を繰り返し行う。
In the process of acquiring the image O1 and the image O2, the
さらに、処理部330は、画像O1と画像O2との差分を取得する処理を行い、差分画像O3を取得する。処理部330により行われる処理の詳細については後述する。
Further, the
[画像処理装置による一連の処理]
[詳細位置合わせ]
図4は、詳細位置合わせ処理部330により行われる一連の処理の一例を示すフローチャートである。下記の処理において、特に断りがない場合、各処理を実現する主体は、CPU200またはGPUである。
[A series of processing by the image processing device]
[Detail alignment]
FIG. 4 is a flowchart illustrating an example of a series of processes performed by the detailed
ステップS401において、処理部330は詳細位置合わせの対象とする画像を取得する。ここでは、処理部330は、概略位置合わせ処理部320において取得された画像であるS1HIGH´´と、補正処理部310で処理されたS2HIGH´の2つの画像データをメモリから読みだす。S1HIGH´´は、上述したように過去画像S1に対して補正処理部310による処理と、概略位置合わせ処理部320による処理により、現在画像S2との一致度を高めるように処理された画像である。また、S2HIGH´は、上述したように現在画像S2に対して補正処理部310による処理を施した画像である。
In step S401, the
ステップS402において、処理部330はステップS401で取得した画像に対して、解像度を変換する処理を行う。処理部330はステップS401で取得した画像の解像度を低くする。低解像度の画像とすることで、大まかな位置合わせができるためである。ここでは、処理部330は、ステップS401で読み込んだS1HIGH´´及びS2HIGH´の解像度を半分の解像度に変換し、S1LOW´´およびS2LOW´とする。なお、以下では、説明を簡略にするため、第1の実施形態における解像度変換は、2段階の解像度(低解像度LOW:元の解像度の半分、高解像度HIGH:元の解像度)で実施するものとするが、解像度の段数や解像度のピッチは上記に限定されるものではない。
In step S402, the
ステップS403において、処理部330はステップS402で取得したS1LOW´´とS2LOW´との2つの画像に対して、詳細位置合わせ処理(第1の詳細位置合わせ処理)を行う。処理部330は第1の詳細位置合わせ処理において、FFDやLDDMMといった方法を用いて、S1LOW´´とS2LOW´との画像間の一致度が高くなるような変形場DLOW_nを取得する。そして処理部330は取得した変形場DLOW_nに基づいてS1LOW´´を変換することにより、S1LOW_n´´を取得する。nはカウンタ値であり、ステップS403の処理が実行される毎に増加する。
In step S403, the
ステップS404において、処理部330はステップS403で取得したS1LOW_n´´とS2LOW´との2つの画像間の一致度に関する評価値を取得する。処理部330は評価値に基づいて、ステップS403の繰り返し処理の収束判定を行う。評価値は、たとえばSSD(Sum of Squared Difference)である。SSDは、2つの画像の、同じ座標位置の画素値の差の2乗の合計値である。評価値の別の例として、根平均二乗誤差RMSE(Root Mean Squared Error)や平均絶対誤差MAE(Mean Absolute Error)が用いられてもよい。これらの評価値が小さいほど、画像間の一致度が高い、類似した画像であることを示す。たとえばSSDを評価値として用いる場合には、処理部330は評価値が所定の閾値以下である場合にステップS403の繰り返し処理が収束したと判定し、ステップS405に進む。処理部330は評価値が所定の閾値より大きい場合には、ステップS403の繰り返し処理が収束していないと判定し、ステップS403の処理を継続する。ステップS403の処理を収束するまで繰り返し行うことにより、S1LOW_n´´をS2LOW´に対して所定の基準以上の一致度とすることができる。
In step S404, the
ステップS405において、処理部330はステップS401で取得したS1HIGH´´とS2HIGH´とを所定の数Mの小領域に分割する。これらの画像は、規定の分割数や規定のボクセル数に基づいて分割される。また、処理部330はユーザが指定する方法や撮像した部位毎(例えば、胸部、腹部、頭部など)に応じた方法により分割してもよい。以下では、M=9とし、S1HIGH´´およびS2HIGH´を均等な9つの小領域に分割する場合を例に説明する。S1HIGH´´は第1の画像の一例であり、S2HIGH´は第2の画像の一例である。この観点で、処理部330は画像取得手段の一例である。
In step S <b> 405, the
ステップS406において、処理部330はステップS403において取得した変形場DLOW_nと、ステップS405で分割して得られた一つの小領域の画像であるS1HIGH_m´´及びS2HIGH_m´とに基づいて、小領域ごとに、詳細位置合わせ処理(第2の詳細位置合わせ処理)を行う。S1HIGH_m´´は第1の画像S1HIGH´´を構成する複数の部分領域のひとつの一例である。処理部330は、小領域画像S1HIGH_m´´とS2HIGH_m´との画像間の一致度を高めるような変形場DHIGH_m_nを取得する。mはステップS405で分割された小領域のうちのいずれか一つを示す値であり、処理部330はmに基づいて小領域を特定することができる。nはカウンタ値であり、後述するステップS505の処理が実行される毎に増加する。ステップS406の処理の詳細については図5に基づいて後述する。
In step S406, the
ステップS407において、処理部330はステップS406で取得した変形場DHIGH_m_nに基づいて変換された小領域画像S1HIGH_m´´を取得する。処理部330はステップS407において小領域画像S1HIGH_m´´を変換する処理を行ってもよいし、後述する図5のステップS505に置いて変換されたS1HIGH_m´´を取得してもよい。これにより、処理部330はS2HIGH_m´に位置合わせされた小領域の画像であるS1HIGH_m_n´´を取得する。
In step S407, the
ステップS408において、処理部330はステップS407で取得したS1HIGH_m_n´´とS2HIGH_m´との2つの画像間の差分を示す差分画像O3mを取得する。小領域画像S1HIGH_m_n´´とS2HIGH_m´は、ステップS407において位置合わせされているので、差分画像O3mにおいてS1(過去画像)とS2(現在画像)とを比較して変化のある部分が強調されることとなる。
In
ステップS409において、処理部330はステップS408で取得した差分画像O3mを表示部209に表示させる。処理部330は、差分画像O3mと、位置合わせされた画像S1HIGH_m_n´´と、基準画像S2HIGH_m´とを比較可能に表示部209に表示させてもよい。
In step S409, the
ステップS410において、処理部330はステップS405において分割された小領域のそれぞれに対して、ステップS406及びステップS407の処理により第2の詳細位置合わせ処理を行ったか否かを判定する。全ての小領域に対して第2の詳細位置合わせ処理を行っている場合には、図4に示す処理を終了する。第2の詳細位置合わせ処理を行っていない小領域がある場合には、ステップS406に戻って処理を繰り返す。
In step S410, the
図4に示す例では、ある小領域に対する詳細位置合わせ処理による結果をステップS409において表示部209に表示させる例を説明したが、本発明はこれに限らない。たとえば、処理部330は、ステップS406乃至ステップS409の繰り返し処理により第2の詳細位置合わせ処理が行われた小領域についての結果を表示部209に表示させてもよい。処理部330は、ステップS406乃至ステップS409の繰り返し処理により第2の詳細位置合わせ処理が行われた順に、順次その小領域と対応する差分画像を表示部209に表示させてもよい。また、処理部330は、ステップS410により全ての小領域に対する第2の詳細位置合わせ処理が行われたと判定された後に、その結果を表示部209に表示させてもよい。また、ステップS408において第2の詳細位置合わせ処理の結果を表示部209に表示させる場合を例に説明したが、本発明はこれに限らない。たとえば、画像処理装置の表示部209ではなく、クライアントコンピュータ100に接続される表示部(不図示)に表示させてもよい。ステップS408において、処理部330は第2の詳細位置合わせ処理が行われた小領域の画像を画像管理サーバ141に送信して保存させてもよい。
In the example illustrated in FIG. 4, the example in which the result of the detailed positioning process for a certain small region is displayed on the
[第2の詳細位置合わせ処理]
図5は、図4に示すステップS406の詳細な処理の一例を示すフローチャートである。
[Second detailed alignment processing]
FIG. 5 is a flowchart showing an example of detailed processing in step S406 shown in FIG.
ステップS501において、処理部330はステップS403及びステップS404において取得した変形場DLOW_nの解像度を高解像度に変換し、変形場DHIGH_0を取得する。変形場DHIGH_0は第1の変換に関する情報の一例である。この観点で、処理部330は第1の取得手段の一例である。
In step S501, the
ステップS502において、処理部330はステップS405において得られた高解像度の小領域画像S1HIGH_m´´を、ステップS501において取得した変形場DHIGH_0に基づいて変換し、S1HIGH_m_0´´を取得する。S1HIGH_m_0´´は第1の変換画像の一例である。これにより、ステップS402乃至ステップS404で取得された、低解像度における位置合わせの結果を高解像度の小領域画像に対して反映することができる。
In step S502, the
ステップS503において、処理部330はS1HIGH_m_0´´とS2HIGH_m´との2つの画像におけるそれぞれの小領域の評価値を取得する。評価値は、ステップS404で述べたのと同様に、小領域ごとの2つの画像の一致度に関する評価値である。処理部330の処理はステップS404と同様であり、上述した説明を援用することによりここでは詳しい説明を省略する。
In step S <b> 503, the
ステップS504において、処理部330はステップS503で取得した小領域ごとの評価値に基づき、詳細位置合わせを行う小領域の順序を取得する。第1の実施形態においては、評価値が高い、すなわち画像間の一致度が低い小領域を優先的に処理する順序とする。画像間の一致度が低いということは、S1(過去画像)とS2(現在画像)とで変化が大きい可能性があり、医師の観察において注目すべき領域となる可能性が高いと推測されるためである。なお、詳細位置合わせを行う小領域の順序はこれに限定されず、例えばユーザが指示した順序でもよいし、最も一致度が低い小領域を最初に処理し、続いてその小領域の近傍を処理する順序でもよい。この観点で、処理部330は複数の部分領域のそれぞれに対して、詳細位置合わせを行う部分領域(小領域)の順序を決定する決定手段の一例である。
In step S504, the
ステップS505において、処理部330はステップS504で取得した順序に従って、小領域画像S1HIGH_m_n−1´´とS2HIGH_m´の詳細位置合わせ処理(第2の詳細位置合わせ処理)を行う。処理部330は、ステップS403と同様に、FFDやLDDMMといった方法を用いて、S1HIGH_m_n−1´´とS2HIGH_m´との画像間の一致度が高くなるような変形場DHIGH_m_nを取得する。DHIGH_m_nは第2の変換に関する情報の一例である。この観点で、処理部330は第2の取得手段の一例である。そして、処理部330は取得した変形場に基づいてS1HIGH_m_n´´を変換することによりS1HIGH_m_n´´を取得する。この観点で、処理部330は第1の画像の含まれる部分領域を第2の画像に位置合わせする位置合わせ手段の一例である。
In step S505, the
すなわち、第2の詳細位置合わせでは、過去画像と現在画像との詳細位置合わせ(第1の詳細位置合わせ)の繰り返し処理を、第1の詳細位置合わせにおける画像の一致度が低い小領域を優先して、小領域ごとに行う。処理部330は第1の詳細位置合わせを行った結果の画像であり、詳細位置合わせの繰り返し処理における中間画像に対する繰り返し処理を、第1の詳細位置合わせの結果に基づく優先度に従って小領域ごとに行う。これにより、精度の高い位置合わせ画像が、第1の詳細位置合わせの結果において画像の一致度が低い小領域を優先して取得される。ステップS505において処理部330が行う処理は、対象とする画像が異なるがステップS403における処理と同様である。
That is, in the second detailed alignment, iterative processing of the detailed alignment (first detailed alignment) between the past image and the current image is given priority, and a small region with a low image matching degree in the first detailed alignment is prioritized. This is done for each small area. The
ステップS506において、処理部330はステップS505で取得したS1HIGH_m_n´´とS2HIGH_m´との2つの画像間の一致度に関する評価値を取得する。ステップS404と同様に、SSDといった評価値が所定の閾値以下である場合にステップS505の繰り返し処理が収束したと判定し、ステップS507に進む。処理部330は評価値が所定の閾値より大きい場合には、ステップS505繰り返し処理が収束していないと判定し、ステップS505の処理を継続する。ステップS506において処理部330が行う処理は、対象とする画像が異なるがステップS404における処理と同様である。
In step S506, the
以上のような第1の実施形態の構成により、位置合わせの対象とする画像を小領域に分割して、画像間の一致度が低い領域、すなわち医師が優先して観察すると推測される領域を優先して、位置合わせの繰り返し処理を行うことができる。これにより、医師が優先して観察すると推測される領域を優先して、精度の高い位置合わせを行うことができる。医師は精度の高い位置合わせが行われた画像を、優先して観察すべき領域を短時間で取得することができる。 With the configuration of the first embodiment as described above, an image to be aligned is divided into small areas, and an area where the degree of coincidence between images is low, that is, an area that is presumed to be observed by a doctor preferentially. Priority can be given to repeated positioning. Thereby, it is possible to perform highly accurate alignment by giving priority to an area presumed to be observed by a doctor. A doctor can acquire a region to be preferentially observed for an image on which high-accuracy alignment has been performed in a short time.
[第2の実施形態]
第2の実施形態では、第1の実施形態に加えて小領域ごとの第2の詳細位置合わせにより得られる画像を合成してユーザに提示する場合を例に説明する。第1の実施形態と共通する構成及び処理については上述した説明を援用することにより、第2の実施形態における詳しい説明を省略する。
[Second Embodiment]
In the second embodiment, an example in which an image obtained by the second detailed alignment for each small region is synthesized and presented to the user in addition to the first embodiment will be described. The detailed description of the second embodiment will be omitted by using the above description for the configuration and processing common to the first embodiment.
第2の実施形態にかかる画像処理装置の構成は第1の実施形態と同様である。 The configuration of the image processing apparatus according to the second embodiment is the same as that of the first embodiment.
図6は、第2の実施形態にかかる画像処理装置により行われる処理の一例を示すフローチャートである。図4に示すフローチャートと共通する処理については、図4と同じ符号を付している。第2の実施形態においては、ステップS405に代えてステップS601が行われ、ステップS602が追加される。 FIG. 6 is a flowchart illustrating an example of processing performed by the image processing apparatus according to the second embodiment. The processes common to the flowchart shown in FIG. 4 are denoted by the same reference numerals as those in FIG. In the second embodiment, step S601 is performed instead of step S405, and step S602 is added.
ステップS601において、処理部330はステップS401で取得したS1HIGH´´とS2HIGH´とを所定の数Mの小領域に分割する。これらの画像は、規定の分割数や規定のボクセル数に基づいて分割される。また、処理部330はユーザが指定する方法や撮像した部位毎(例えば、胸部、腹部、頭部など)に応じた方法により分割してもよい。
In step S <b> 601, the
分割された小領域同士の位置合わせにおいて、小領域画像の端部の位置合わせ精度が低下する可能性が考えられる。第2の実施形態において処理部330は、小領域ごとに所定のマージンを含む大きさで分割する。具体的には、縦方向(X方向)、横方向(Y方向)、奥行き方向(Z方向)、それぞれに対して、所定の画素幅をマージンとして加える。第2の実施形態におけるステップS406以降の処理では、第1の実施形態において対象とする小領域画像に対して、端部に所定のマージン分の画素幅が追加された画像を対象とする。
In the alignment of the divided small areas, there is a possibility that the alignment accuracy of the end of the small area image is lowered. In the second embodiment, the
ステップS602において、処理部330はステップS407までに位置合わせされたそれぞれの小領域画像S1HIGH_m_n´´を合成する。第1の実施形態と同様に、mはステップS601で分割された小領域のうちいずれかの小領域を示す値であり、処理部330はmに基づいて小領域を特定することができる。nはカウンタ値であり、ステップS505の処理が実行される毎に増加する。ステップS406の処理の詳細については図5に基づいて後述する。ここでは、小領域S1HIGH_1_n1´´、S1HIGH_2_n2´´、S1HIGH_3_n3´´、の3つの小領域において、それぞれ第2の詳細位置合わせが完了している場合に、これらを合成する処理について説明する。処理部330は、S1´あるいはS2´と同じ画像サイズの空の画像データを取得する。そして処理部330はS2´から小領域に分割した際のS2HIGH_m´の座標に基づいて、小領域S1HIGH_1_n1´´、S1HIGH_2_n2´´、S1HIGH_3_n3´´をそれぞれ空の画像データ上に貼り付けて、合成画像を取得する。
In step S602, the
ステップS601で設定したマージンに対応する部分は、合成時に隣接する小領域と重なる部分が生じる。処理部330はたとえば、隣接する小領域と重なる画素においては、隣接する小領域の画素値とマージンの画素値の平均値を合成画像の画素値とする。別の例では、処理部330はマージンの画素値と隣接する小領域の画素値に対して平均値フィルタや中間値フィルタを用いて処理し、隣接する小領域間の境界を滑らかにしてもよい。また別の例では、処理部330はマージンの画素値と、マージンと重なる隣接する小領域の画素とを、所定の比率でブレンドしてもよい。その場合に処理部330は、マージンの画素の方が位置合わせの精度が低いと推測されることに鑑みて、隣接する小領域の画素の比率をマージンの画素の比率よりも高くしてもよい。なお、S2HIGH_m´は位置合わせの参照画像であるため、ステップS601で画像合成を行わなくてもよい。
In the portion corresponding to the margin set in step S601, a portion that overlaps with an adjacent small region occurs at the time of composition. For example, in a pixel overlapping with an adjacent small region, the
当該合成画像において処理部330は、まだ第2の詳細位置合わせが完了していない小領域と対応する領域は特定の画素値に設定してもよいし、画素を削除してもよい。処理部330は、第2の詳細位置合わせが完了した領域と完了していない領域とを区別可能に当該合成画像を生成する。
In the composite image, the
ステップS408において、処理部330はステップS407で合成された合成画像と、ステップS401で取得された、補正された現在画像S2HIGH´との差分画像を取得する。処理部330は、ステップS602においてまだ第2の詳細位置合わせが完了していない小領域と対応する差分画像の領域を、S2HIGH´の画素値に設定してもよいし、画素を削除してもよし、特定の画素値に設定してもよい。
In step S408, the
以上のような第2の実施形態の構成により、位置合わせの対象とする画像を小領域に分割して、画像間の一致度が低い領域、すなわち医師が優先して観察すると推測される領域を優先して、位置合わせの繰り返し処理を行うことができる。これにより、医師が優先して観察すると推測される領域を優先して、精度の高い位置合わせを行うことができる。医師は精度の高い位置合わせが行われた画像を、優先して観察すべき領域を短時間で取得することができる。さらに、医師が位置合わせされた画像を観察する間に、新しく位置合わせされた画像が合成された合成画像を生成することができる。これにより、医師は優先度の高い領域を観察しながら、他の領域を併せて観察できるようになる。 With the configuration of the second embodiment as described above, an image to be aligned is divided into small areas, and an area where the degree of coincidence between images is low, that is, an area that is presumed to be observed by a doctor preferentially. Priority can be given to repeated positioning. Thereby, it is possible to perform highly accurate alignment by giving priority to an area presumed to be observed by a doctor. A doctor can acquire a region to be preferentially observed for an image on which high-accuracy alignment has been performed in a short time. Furthermore, while the doctor observes the registered image, a composite image in which the newly aligned image is combined can be generated. Accordingly, the doctor can observe other regions together while observing the region having high priority.
[変形例]
ステップS405及びステップS601において詳細位置合わせ処理部330が位置合わせに用いるそれぞれの画像を小領域に分割する処理において、ユーザが表示部209に表示されるユーザインタフェースを介して分割数Mを指定できるようにしてもよい。分割数Mは、画像のサイズに応じて変更されてもよい。
[Modification]
In steps S405 and S601, the detailed
ステップS406において処理部330が小領域に対して第2の詳細位置合わせ処理を行う順序を決定する処理において、ユーザが表示部209に表示されるユーザインタフェースを介して順序を指定できるようにしてもよい。別の例では、ユーザが当該ユーザインタフェースを介して優先して観察したい部位に関する情報や、病変部らしいと思われる部位に関する情報を入力できるようにしてもよい。その場合に、処理部330は入力された部位と対応する小領域を優先して第2の詳細位置合わせ処理を行ってもよい。また別の例では、処理部330はレポート管理サーバ151から被検体の過去の診断結果に関する情報を取得し、当該診断結果において病変部等医師が着目していた領域に関する情報を取得してもよい。その場合に、処理部330は過去の診断結果において医師が着目していた領域と対応する小領域を優先して第2の詳細位置合わせ処理を行ってもよい。処理部330は過去の診断結果に含まれる画像を解析した結果に基づいて、第2の詳細位置合わせ処理を行う順序を決定してもよい。過去の診断結果に関する情報に差分画像が含まれており、第2の詳細位置合わせ処理を行った小領域の順序に関する情報が含まれている場合には、処理部330は過去の診断結果における当該順序と同じ順序で第2の詳細位置合わせ処理を行ってもよい。
In the process of determining the order in which the
ステップS406において処理部330は、評価値が低い順に小領域に対する第2の詳細位置合わせ処理を行ってもよい。画像間の類似度が高い小領域の方が第2の詳細位置合わせを速く完了できると考えられる。たとえば、同時期に取得された異なるモダリティによる医用画像を比較する目的においては、詳細な位置合わせが完了した小領域から優先してユーザに提示することができ、ユーザのワークフローを向上することができる。
In step S <b> 406, the
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
上述の各実施形態における画像処理装置は、単体の装置として実現してもよいし、複数の装置を互いに通信可能に組合せて上述の処理を実行する形態としてもよく、いずれも本発明の実施形態に含まれる。共通のサーバ装置あるいはサーバ群で、上述の処理を実行することとしてもよい。画像処理装置および画像処理システムを構成する複数の装置は所定の通信レートで通信可能であればよく、また同一の施設内あるいは同一の国に存在することを要しない。 The image processing apparatus in each of the above-described embodiments may be realized as a single apparatus, or may be configured to execute the above-described processing by combining a plurality of apparatuses so that they can communicate with each other. include. The above-described processing may be executed by a common server device or server group. The plurality of apparatuses constituting the image processing apparatus and the image processing system need only be able to communicate at a predetermined communication rate, and do not need to exist in the same facility or in the same country.
本発明の実施形態には、前述した実施形態の機能を実現するソフトウェアのプログラムを、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムのコードを読みだして実行するという形態を含む。 In the embodiment of the present invention, a software program that realizes the functions of the above-described embodiments is supplied to a system or apparatus, and the computer of the system or apparatus reads and executes the code of the supplied program. Includes form.
したがって、実施形態に係る処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明の実施形態の一つである。また、コンピュータが読みだしたプログラムに含まれる指示に基づき、コンピュータで稼働しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。 Therefore, in order to realize the processing according to the embodiment by a computer, the program code itself installed in the computer is also one embodiment of the present invention. Further, based on instructions included in a program read by the computer, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can be realized by the processing. .
上述の実施形態を適宜組み合わせた形態も、本発明の実施形態に含まれる。 Embodiments appropriately combining the above-described embodiments are also included in the embodiments of the present invention.
Claims (14)
前記第1の変換により第1の画像を変換して得られる第1の変換画像における前記位置合わせの精度に関する情報に基づいて、前記第1の画像を構成する複数の部分領域のそれぞれに対して、第2の変換を取得する順序を決定する決定手段と、
前記複数の部分領域のそれぞれに対して、前記第2の画像に位置合わせするための第2の変換に関する情報を前記決定された順序に従って取得する第2の取得手段と、
を有することを特徴とする画像処理装置。 First acquisition means for acquiring information relating to a first transformation for aligning the first image and the second image;
Based on the information on the accuracy of the alignment in the first converted image obtained by converting the first image by the first conversion, for each of a plurality of partial regions constituting the first image Determining means for determining an order of obtaining the second transformation;
Second acquisition means for acquiring, in accordance with the determined order, information relating to a second transformation for aligning with the second image for each of the plurality of partial regions;
An image processing apparatus comprising:
前記第1の画像を構成する複数の部分領域のそれぞれに対して、前記第1の画像を前記第2の画像に位置合わせするための変換を取得する順序を決定する決定手段と、
前記決定された順序に基づいて、前記第1の画像に含まれる部分領域を前記第2の画像に位置合わせする位置合わせ手段と、
を有することを特徴とする画像処理装置。 Image acquisition means for acquiring a first image and a second image;
Determining means for determining an order for obtaining a transformation for aligning the first image with the second image for each of a plurality of partial regions constituting the first image;
Alignment means for aligning a partial area included in the first image with the second image based on the determined order;
An image processing apparatus comprising:
前記第1の変換により第1の画像を変換して得られる第1の変換画像における前記位置合わせの精度に関する情報に基づいて、前記第1の画像を構成する複数の部分領域のそれぞれに対して、第2の変換を取得する順序を決定する決定手段と、
前記複数の部分領域のそれぞれに対して、前記第2の画像に位置合わせするための第2の変換に関する情報を前記決定された順序に従って取得する第2の取得手段と、
を有することを特徴とする画像処理システム。 First acquisition means for acquiring information relating to a first transformation for aligning the first image and the second image;
Based on the information on the accuracy of the alignment in the first converted image obtained by converting the first image by the first conversion, for each of a plurality of partial regions constituting the first image Determining means for determining an order of obtaining the second transformation;
Second acquisition means for acquiring, in accordance with the determined order, information relating to a second transformation for aligning with the second image for each of the plurality of partial regions;
An image processing system comprising:
前記第1の変換により第1の画像を変換して得られる第1の変換画像における前記位置合わせの精度に関する情報に基づいて、前記第1の画像を構成する複数の部分領域のそれぞれに対して、第2の変換を取得する順序を決定する決定工程と、
前記複数の部分領域のそれぞれに対して、前記第2の画像に位置合わせするための第2の変換に関する情報を前記決定された順序に従って取得する第2の取得工程と、
を有することを特徴とする画像処理方法。 A first acquisition step of acquiring information relating to a first transformation for aligning the first image and the second image;
Based on the information on the accuracy of the alignment in the first converted image obtained by converting the first image by the first conversion, for each of a plurality of partial regions constituting the first image A determining step of determining an order of obtaining the second transformation;
A second acquisition step of acquiring, with respect to each of the plurality of partial areas, information related to a second transformation for alignment with the second image according to the determined order;
An image processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016254365A JP2018106560A (en) | 2016-12-27 | 2016-12-27 | Image processing apparatus, image processing method, image processing system, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016254365A JP2018106560A (en) | 2016-12-27 | 2016-12-27 | Image processing apparatus, image processing method, image processing system, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018106560A true JP2018106560A (en) | 2018-07-05 |
Family
ID=62787245
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016254365A Pending JP2018106560A (en) | 2016-12-27 | 2016-12-27 | Image processing apparatus, image processing method, image processing system, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018106560A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024201657A1 (en) * | 2023-03-27 | 2024-10-03 | 日本電気株式会社 | Coordinate estimation system, coordinate estimation device, and coordinate estimation method |
-
2016
- 2016-12-27 JP JP2016254365A patent/JP2018106560A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024201657A1 (en) * | 2023-03-27 | 2024-10-03 | 日本電気株式会社 | Coordinate estimation system, coordinate estimation device, and coordinate estimation method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6316671B2 (en) | Medical image processing apparatus and medical image processing program | |
US10803354B2 (en) | Cross-modality image synthesis | |
US8326086B2 (en) | Elastic image registration | |
US8917924B2 (en) | Image processing apparatus, image processing method, and program | |
US10650516B2 (en) | Information processing apparatus, information processing method, and recording medium | |
JP5337354B2 (en) | System and method for geometric registration | |
US20200058098A1 (en) | Image processing apparatus, image processing method, and image processing program | |
US20110262015A1 (en) | Image processing apparatus, image processing method, and storage medium | |
US9460510B2 (en) | Synchronized navigation of medical images | |
US20180064409A1 (en) | Simultaneously displaying medical images | |
US20190171467A1 (en) | Anatomy-aware adaptation of graphical user interface | |
KR101885562B1 (en) | Method for mapping region of interest in first medical image onto second medical image and apparatus using the same | |
JP6772123B2 (en) | Image processing equipment, image processing methods, image processing systems and programs | |
CN110473241B (en) | Image registration method, storage medium and computer device | |
JP6716228B2 (en) | Medical image processing apparatus and medical image processing method | |
JP2018106560A (en) | Image processing apparatus, image processing method, image processing system, and program | |
US12089976B2 (en) | Region correction apparatus, region correction method, and region correction program | |
JP7140475B2 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, IMAGE PROCESSING SYSTEM AND PROGRAM | |
US10929990B2 (en) | Registration apparatus, method, and program | |
JP5853785B2 (en) | Medical image display system | |
US20200357127A1 (en) | Registration apparatus, registration method, and program |