[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPWO2020138136A1 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JPWO2020138136A1
JPWO2020138136A1 JP2020563335A JP2020563335A JPWO2020138136A1 JP WO2020138136 A1 JPWO2020138136 A1 JP WO2020138136A1 JP 2020563335 A JP2020563335 A JP 2020563335A JP 2020563335 A JP2020563335 A JP 2020563335A JP WO2020138136 A1 JPWO2020138136 A1 JP WO2020138136A1
Authority
JP
Japan
Prior art keywords
image
phase
moving image
combined
time phase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020563335A
Other languages
English (en)
Other versions
JP7536653B2 (ja
Inventor
浩史 森谷
亨 田中
亮 石川
達也 木本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of JPWO2020138136A1 publication Critical patent/JPWO2020138136A1/ja
Application granted granted Critical
Publication of JP7536653B2 publication Critical patent/JP7536653B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/100764D tomography; Time-sequential 3D tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本明細書に開示の画像処理装置は、時相が異なる複数の医用画像の間で撮像範囲に含まれる観察対象となる部位の領域が異なる場合であっても、精度よく滑り度を算出することを特徴とする。

Description

本明細書の開示は、画像処理装置、画像処理方法及びプログラムに関する。
医療の分野において、医師は、被検体の観察対象となる部位を種々のモダリティにより撮像して得られる医用画像を用いて診断を行う。特に、肺や心臓のように疾患の有無が臓器の動きに表れる部位を観察する場合、時相が異なる複数の医用画像を用いることがある。
時相が異なる複数の医用画像を用いて行われる診断に関する技術として、同一患者の胸部領域を吸気量の異なる2時相で撮像して得られた2つの画像から滑り度を算出する技術が知られている(特許文献1)。
特開2016−67832号公報
しかしながら、特許文献1では、観察対象の部位が動くことによって、時相が異なる複数の医用画像の間で撮像範囲に含まれる観察対象となる部位の領域が異なる場合に、滑り度を算出することが難しいという課題があった。
本明細書の開示は、時相が異なる複数の医用画像の間で撮像範囲に含まれる観察対象となる部位の領域が異なる場合であっても、精度よく滑り度を算出することが可能な画像処理装置の提供を目的の一つとする。
なお、前記目的に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本明細書の開示の他の目的の1つとして位置付けることができる。
本明細書に開示の画像処理装置は、撮像装置により対象物を互いに異なる位置から撮像して得られた第1の動画像と第2の動画像を取得する動画像取得手段と、前記第1の動画像から得られる第1の基準画像と前記第2の動画像から得られる第2の基準画像とを結合することにより第1の結合画像を生成し、且つ前記第1の動画像から得られる第1の比較画像と前記第2の動画像から得られる第2の比較画像とを結合することにより第2の結合画像を生成する生成手段と、前記第1の結合画像と前記第2の結合画像とから推定される変形情報に基づいて、前記対象物の滑り度を算出する滑り度算出手段と、を有することを特徴とする。
本明細書の開示によれば、時相が異なる複数の医用画像の間で撮像範囲に含まれる観察対象の部位の領域が異なる場合であっても精度よく滑り度を算出することが可能となる。
第1実施形態に係る画像処理装置の機器構成の一例を示す図。 第1実施形態における全体の処理手順の一例を示すフロー図。 第1実施形態における第1の動画像と第2の動画像の対応付けの一例を示す図。 第1実施形態における第1の動画像と第2の動画像の対応付けの一例を示す図。 第1実施形態における第1の動画像と第2の動画像の対応付けの一例を示す図。 第1実施形態における結合位置の一例を示す図。 第1実施形態における基準点設定の一例を示す図。 第2実施形態に係る画像処理装置の機器構成の一例を示す図。 第2実施形態における全体の処理手順の一例を示すフロー図。 第2実施形態における位相パラメータの一例を示す図。
以下、添付図面に従って本明細書に開示の画像処理装置の好ましい実施形態について詳説する。ただし、この実施形態に記載されている構成要素はあくまで例示であり、本明細書に開示の画像処理装置の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。また、本明細書の開示は下記実施形態に限定されるものではなく、本明細書の開示の趣旨に基づき種々の変形(各実施例の有機的な組合せを含む)が可能であり、それらを本明細書の開示の範囲から除外するものではない。即ち、後述する各実施例及びその変形例を組み合わせた構成も全て本明細書に開示の実施形態に含まれるものである。
<第1実施形態>
本実施形態に係る画像処理装置は、観察対象となる周期的な動きを行う臓器の領域を分割して複数回撮影した3次元動画像(第1の動画像と第2の動画像)を用いて、観察対象となる臓器の領域全体の輪郭付近における滑り度を算出する装置である。滑り度とは、画像内のある領域が周辺部位に対してどの程度滑るかを表す移動情報である。つまり、対象周囲に対する相対的な移動量のことである。例えば、肺は呼吸運動によって肺の表面(臓側胸膜とも呼ばれる)がその周囲(壁側胸膜とも呼ばれる)に対して滑るように動く。この場合、本実施形態に係る画像処理装置は、肺の表面位置と該表面位置における滑り度とを対応づけて表示する。このような表示では、肺の表面とその周囲との間(胸膜腔とも呼ばれる)に癒着があった場合は、癒着が存在する表面位置では滑り度は癒着していない部分に比べて小さく表示される。
本実施形態の画像処理装置は、撮像装置により観察対象(対象物)を互いに異なる位置から撮影した第1の動画像と第2の動画像を取得する。具体的には、観察対象の領域の少なくとも一部が重複するように、領域を分割して撮影した第1の動画像と第2の動画像を取得する。そして、第1の動画像を解析することにより、第1の動画像の各時相画像(第1の動画像を構成する各時刻(各時相)における静止画像)における臓器の動きの位相情報を表す第1の位相パラメータを取得する。また同様に、第2の動画像を解析することにより第2の動画像の各時相画像(第2の動画像を構成する各時刻(各時相)における静止画像)における臓器の動きの位相情報を表す第2の位相パラメータを取得する。
次に、取得した第1の位相パラメータと第2の位相パラメータに基づいて、第1の動画像と第2の動画像の間で臓器の動きの位相情報が類似する時相画像同士を対応付ける。そして、同じ位相として対応付けられた第1の動画像と第2の動画像の時相画像を結合することにより、当該位相における結合画像を生成する。このように複数の時相において結合画像を生成することにより、複数の時相における観察対象の領域全体を含む画像を取得できる。そして、結合画像の複数の時相間で変形情報を取得することにより、観察対象の領域全体の輪郭付近における滑り度を算出し表示することが可能となる。これにより、ユーザは、観察対象の領域全体を含む結合画像と滑り度を観察することができる。
以下、図1から図5を用いて、本実施形態の構成および処理を説明する。なお、本実施形態では、X線CT装置により肺の呼吸運動を撮像した3次元動画像(4次元CT画像)を例として説明を行う。ただし、本明細書に開示の画像処理装置の実施はこれに限らず、心臓のように自発的な動きを行う任意の部位を撮像した動画像でもよい。また、被検体が周期的な運動(例えば、屈伸運動)を行った任意の部位を撮影した動画像でもよい。
図1は、本実施形態に係る画像処理装置の構成を示す。同図に示すように、本実施形態における画像処理装置10は、データサーバ11および表示部12と接続されている。
データサーバ11は、滑り度を算出する対象としてユーザが指定した、第1の動画像と第2の動画像を保持している。第1の動画像および第2の動画像は、同一被検体の異なる撮像範囲を同一のモダリティによって予め撮像して得られた、複数の時相の3次元断層画像からなる動画像(3次元動画像や4次元画像とも呼ばれる)である。3次元断層画像を撮像するモダリティは、MRI装置、X線CT装置、3次元超音波撮影装置、光音響トモグラフィ装置、PET/SPECT、OCT装置などであってもよい。第1の動画像および第2の動画像は、データ取得部110を介して画像処理装置10に入力される。
表示部12は、画像処理装置10が生成する画像を表示するモニタである。
画像処理装置10は、以下の構成要素により構成される。データ取得部110は、画像処理装置10に入力される第1の動画像と第2の動画像を取得する。抽出部115は、第1の動画像と第2の動画像の各時相における対象臓器の領域を抽出する。位相パラメータ算出部120は、第1の動画像の各時相における臓器の動きの位相情報を表す第1の位相パラメータと、第2の動画像の各時相における臓器の動きの位相情報を表す第2の位相パラメータを取得する。時相対応情報取得部130は、第1の位相パラメータと第2の位相パラメータに基づいて、第1の動画像と第2の動画像の各時相の対応情報を取得する。すなわち、第1の動画像の夫々の時相画像(第1の時相画像)に対して、第2の動画像の時相画像(第2の時相画像)を対応付ける。結合位置取得部140は、同じ位相として対応付けられた第1の時相画像と第2の時相画像との間の結合位置を取得する。結合画像生成部150は、第1の時相画像と第2の時相画像を結合位置に基づいて結合した結合画像を生成する。変形情報推定部160は、複数の時相において生成した結合画像について、複数の時相間における変形情報を取得する。滑り度算出部170は、変形情報に基づいて、観察対象となる臓器の領域全体における輪郭付近の滑り度を算出する。表示制御部180は、第1の動画像および第2の動画像、滑り度を表示部12に表示させる表示制御を行う。
上記の画像処理装置10の各構成要素は、コンピュータプログラムに従って機能する。例えば、CPUがRAMをワーク領域としてROM又は記憶部などに記憶されたコンピュータプログラムを読み込み、実行することで、各構成要素の機能が実現される。なお、画像処理装置10の構成要素の一部又は全ての機能が専用の回路を用いることで実現されてもよい。また、CPUの構成要素の一部の機能が、クラウドコンピュータを用いることで実現されてもよい。
例えば、画像処理装置10とは異なる場所にある演算装置がネットワークを介して画像処理装置10に通信可能に接続され、画像処理装置10と演算装置がデータの送受信を行うことで、画像処理装置10又は制御部の構成要素の機能が実現されてもよい。
次に、図2を用いて、図1の画像処理装置10の処理の例について説明する。
図2は、画像処理装置10が行う全体の処理手順のフローチャートを示している。
(S200)(データの取得)
ステップS200において、データ取得部110は、画像処理装置10に入力される撮像装置により対象物を互いに異なる位置から撮像して得られた第1の動画像と第2の動画像を取得する。すなわち、ステップS200は、撮像装置により対象物を互いに異なる位置から撮影した第1の動画像と第2の動画像を取得する動画像取得工程の一例に相当する。具体的には、例えば、観察対象が肺である場合、少なくとも肺の一部の領域が重複するように肺を頭尾方向に分割して撮影された第1の動画像と第2の動画像を取得する。つまり、第1の動画像は肺尖部が含まれ、第2の動画像は肺底部が含まれる画像である。なお、観察対象は肺に限定されず、例えば、肺と同様に疾患の有無が臓器の動きに表れる心臓などであってもよいし、その他の臓器でもよい。
そして、取得した第1の動画像と第2の動画像を抽出部115および位相パラメータ算出部120、結合位置取得部140へと出力する。
(S205)(臓器領域の抽出)
ステップS205において、抽出部115は、第1の動画像と第2の動画像の各時相における対象臓器の領域を抽出する。そして、抽出した対象臓器の領域の情報を位相パラメータ算出部120および結合位置取得部140、滑り度算出部170へと出力する。
画像からの臓器の領域の抽出処理は公知の画像処理手法を利用できる。画素値の閾値を利用した任意の閾値処理でもよいし、グラフカット処理をはじめとする既知のセグメンテーション処理でもよい。また、不図示の図形描画ソフトを用いて、ユーザが手動により対象臓器の領域を抽出してもよいし、公知の画像処理手法を用いて抽出した対象臓器の領域をユーザが手動により修正した領域でもよい。
(S210)(位相パラメータの算出)
ステップS210において、位相パラメータ算出部120は、第1の動画像を解析することにより、対象臓器の周期運動の位相情報を表す第1の位相パラメータを算出する。また、第2の動画像を解析することにより、対象臓器の周期運動の位相情報を表す第2の位相パラメータを算出する。対象臓器の周期運動とは、例えば肺の呼吸運動や心臓の拍動などである。
すなわち、位相パラメータ算出部120は、第1の動画像の各時相における対象物の動きの位相情報を示す第1の位相パラメータと、第2の動画像の各時相における対象物の動きの位相情報を示す第2の動画像の各時相における第2の位相パラメータとを取得する位相取得手段の一例に相当する。特に、位相パラメータ算出部120は、第1の動画像に撮像された対象物の様態に基づいて、第1の位相パラメータを取得し、第2の動画像に撮像された前記対象物の様態に基づいて、第2の位相パラメータを取得する。
そして、算出した第1の位相パラメータと第2の位相パラメータを時相対応情報取得部130へと出力する。
本実施形態において、位相パラメータ算出部120は、第1の位相パラメータとして、第1の動画像に含まれる各時相画像(各時相の静止画像)から対象臓器の周期運動と相関がある数値を算出する。例えば、対象臓器が肺の場合、肺の体積は呼吸運動と連動して変化するため、ステップS205において抽出した肺領域を利用して、各時相画像に含まれる肺の体積を計測し、各時相画像における肺の体積の大きさを第1の位相パラメータとする。もしくは、所定のスライス面内の肺の面積の大きさを第1の位相パラメータとしてもよい。また、CT画像においては、肺の体積に応じて肺領域内の空気領域の画素値が変化することが知られている。そのため、各時相画像に含まれる肺領域内の画素値の分布情報に基づいて、第1の位相パラメータを算出してもよい。なお、肺から取得できる情報に限らず、呼吸運動と連動する周辺部位の情報を用いてもよい。例えば、胸腹部の体表や他の臓器の動きに基づいて、第1の位相パラメータを算出してもよい。さらに、呼吸運動と連動する複数の情報を統合して第1の位相パラメータを算出してもよい。
第2の位相パラメータも、第1の位相パラメータと同様に種々の方法を用いて第2の動画像を解析することにより取得する。ただし、必ずしも第1の位相パラメータと第2の位相パラメータを同一の方法により算出しなくてもよい。
また、不図示の外部装置から位相パラメータを取得できる構成でもよい。例えば、対象臓器が肺の場合、動画像の撮像と同時に、被検体の換気量を、スパイロメータを用いて計測し、計測した値を位相パラメータとしてもよい。あるいは、動画像の撮像時における被検体の体表の動きをレーザセンサや圧力センサを用いて計測し、計測した値を位相パラメータとしてもよい。
(S220)(時相の対応情報の取得)
ステップS220において、時相対応情報取得部130は、第1の位相パラメータと第2の位相パラメータに基づいて、位相が類似する第1の動画像と第2の動画像の時相画像を対応付ける。また、対応付ける際に用いた情報を時相の対応情報として取得する。ここで時相の対応情報とは、第1の動画像の何時相目と第2の動画像の何時相目が最も位相が類似しているかを表す情報である。
すなわち、時相対応情報取得部130は、第1の位相パラメータと第2の位相パラメータに基づいて、第1の動画像から得られる時相画像と第2の動画像から得られる時相画像とを対応付ける対応付け手段の一例に相当する。特に、時相対応情報取得部130は、第1の位相パラメータと第2の位相パラメータが類似する時相画像同士を対応付ける。
時相の対応情報について、対象臓器が肺であり、第1の位相パラメータと第2の位相パラメータを肺の体積に基づいて算出した場合を例に具体的に説明する。第1の動画像と第2の動画像では、画像に含まれている肺の領域が異なるため、肺の体積が類似していても必ずしも換気量も類似しているとは限らない。したがって、例えば、第1の動画像における肺の体積が最大となる最大吸気位における第1の位相パラメータの値を1、体積が最小となる最大呼気位における第1の位相パラメータを0となるようにパラメータを正規化して算出する。同様に、第2の位相パラメータも0から1の範囲となるように正規化して算出する。
これにより、第1の動画像において正規化後の第1の位相パラメータを有する所定の時相画像と、第2の動画像において正規化後の第1の位相パラメータに類似する第2の位相パラメータを有する所定の時相画像とを対応づけられる。そして、このようにして対応付けられた第1の動画像の時相画像と第2の動画像の時相画像の組を、時相の対応情報として取得する。
具体的には、例えば、時相対応情報取得部130は、正規化後の第1の位相パラメータと第2の位相パラメータの数値が1となる第1の動画像と第2の動画像とにおける最大吸気位の時相画像同士を対応付け、第1の動画像における最大吸気位の時相画像と第2の動画像における最大吸気位の時相画像の組を、時相の対応情報の一つとして取得する。また、時相対応情報取得部130は、正規化後の第1の位相パラメータと第2の位相パラメータの数値が0となる第1の動画像と第2の動画像とにおける最大呼気位の時相画像同士を対応付け、第1の動画像における最大呼気位の時相画像と第2の動画像における最大呼気位の時相画像の組を、時相の対応情報の一つとして取得する。
すなわち、時相対応情報取得部130は、第1の位相パラメータが最大値の時相画像と第2の位相パラメータが最大値の時相画像を対応付け、第1の位相パラメータが最小値の時相画像と前記第2の位相パラメータが最小値の時相画像を対応付ける。また、最大吸気位、最大呼気位以外の位相についても、同様にして、位相パラメータが類似している第1の時相画像と第2の時相画像の対応付けを行う。
次に、具体的に正規化後の位相パラメータを用いて複数の時相画像を対応付けした結果の例を図3に示す。図3は、横軸を時間、縦軸を位相パラメータとしたとき、第1の位相パラメータを黒点、第2の位相パラメータを白点として、左から時相順に並べて示している。
ここでは、第1の動画像と第2の動画像の時相数が5時相であり、第1の位相パラメータが1時相目から順に{0.0,0.3,0.6,0.8,1.0}、第2の位相パラメータが{0.0,0.5,0.6,0.8,1.0}だった場合を例とする。
図3Aに示すように、第1の位相パラメータを基準として、第2の位相パラメータの最も類似する時相と対応付ける場合、第1の動画像と第2の動画像は1時相目から順に1対1で対応付く結果となり、対応付いた時相数は5時相となる。
また、図3Bに示すように第2の位相パラメータを基準とした場合、第2の位相パラメータの2時相目(0.5)と3時相目(0.6)は、いずれも第1の位相パラメータの3時相目(0.6)と対応付き、対応付いた時相数は5時相となる。
なお、一方の複数の時相の位相パラメータがいずれも他方の同一時相と最も類似している場合、位相パラメータが最も類似するペアを一つのみ対応付けてもよい。この場合、対応付かなかった他の時相は、2番目以降の位相パラメータが類似する時相と対応付けてもよいし、対応付けずに後段のステップで使用しなくてもよい。
すなわち、図3Cに示すように、対応付かなかった時相を後段のステップに使用しない場合、第2の位相パラメータを基準とすると、第1の位相パラメータと第2の位相パラメータの2時相目は対応付けないこととなり、対応付いた時相数は4時相となる。
上記のように、正規化後のパラメータを用いて、第1の動画像から得られる複数の時相画像と第2の動画像から得られる複数の時相画像とを対応付けることができる。
なお、上記の位相パラメータの数や対応づくペアの数などは例示であって、上記に限定されない。
また、正規化せずに第1の位相パラメータと第2の位相パラメータに基づいて、時相の対応付けを行ってもよい。例えば、第1の動画像と第2の動画像の間で被検体のおおよそ同一部位を利用して第1の位相パラメータと第2の位相パラメータを算出している場合、正規化せずに位相パラメータが類似する時相を換気量が類似する時相として対応付けることができる。具体的には、動画像のヘッダー情報から取得できる装置座標系を利用し、第1の動画像と第2の動画像上で装置座標系が同一の位置における胸腹部の体表位置を第1の位相パラメータと第2の位相パラメータとして取得する。この場合、位相パラメータを正規化せずに第1の動画像と第2の動画像の間で位相パラメータが類似する(体表の位置が近い)時相を対応付けてもよい。
なお、以下では、最大吸気位を基準位相、最大呼気位を比較位相と呼ぶ。また、基準位相である最大吸気位として対応付けられた第1の動画像と第2の動画像の夫々の時相画像を、夫々、第1の基準画像、第2の基準画像と呼ぶ。また、比較位相である最大呼気位として対応付けられた第1の動画像と第2の動画像の夫々の時相画像を、夫々、第1の比較画像、第2の比較画像と呼ぶ。なお、最大呼気位を基準位相とし、最大吸気位を比較位相としてもよいし、第1の動画像と第2の動画像の夫々から取得される他の位相を基準位相もしくは比較位相として割り当ててもよい。
(S230)(結合位置情報の算出)
ステップS230において、結合位置取得部140は、ステップS220において対応付いた各時相において、第1の動画像から得られる第1の時相画像と第2の動画像から得られる第2の時相画像とを結合する位置を結合位置情報として算出する。すなわち、結合位置取得部140は、第1の動画像から得られる第1の基準画像と第2の動画像から得られる第2の基準画像との間の結合位置情報を取得する結合位置情報取得手段の一例に相当する。そして、算出した結合位置情報を結合画像生成部150へと出力する。
結合位置として、第1の時相画像上の所定の位置と対応する第2の時相画像上の位置を算出する。例えば、第1の時相画像のi番目のスライス位置をP1_iとしたとき、第1の時相画像のスライス位置P1_iと対応する第2の時相画像のj番目のスライス位置P2_jを探索する。そして、第1の時相画像のスライス位置P1_iに対応する位置である第2の時相画像のスライス位置P2_jを結合位置として保持する。ここで、スライス位置P1_iは、第1の動画像と第2の動画像の重複領域の中から選択することが望ましい。結合位置はスライス位置ではなく、第1の時相画像のスライス位置P1_i上の各画素と対応する第2の時相画像上の画素の位置を算出してもよい。
結合位置の算出は、公知の画像処理手法により、第1の時相画像と第2の時相画像の間の同一位置を表す画素が略一致するように探索することによって算出できる。例えば、所定のスライス位置における断層像間の画像類似度が高くなるスライス位置の探索を行う。画像類似度としては、一般的に用いられているSum of Squared Difference(SSD)や相互情報量、相互相関係数などの公知の方法を用いることができる。
また、結合位置だけでなく結合位置の信頼度も結合位置情報として算出できる。基準位相から比較位相までの肺の頭尾方向の動きは略一方向であり、各時相におけるスライス位置P1_iと対応するスライス位置P2_jを探索した場合、iを固定値としたときのjの値は一方向に単調に変化するか、ほとんど変化しないことが期待される。すなわち、例えば、ある1時相のみ他の時相と大きく異なる結合位置を示した場合、その時相の結合位置の算出結果は誤っている可能性が高く、結合位置の信頼度が低いと判断できる。結合位置の信頼度は、連続する時相において算出した結合位置の2次微分の値に基づいて、例えば、2次微分の値に反比例した値(信頼度の高さに比例した値)を利用することができる。すなわち、結合位置取得部140は、対応付け手段により対応付けられた第1の動画像から得られる時相画像と第2の動画像から得られる時相画像の結合位置の信頼度を算出する算出手段の一例に相当する。
(S240)(結合画像の生成)
ステップS240において、結合画像生成部150は、ステップS230において算出した各時相の結合位置に基づいて、第1の時相画像と第2の時相画像を結合した結合画像を生成する。そして、生成した結合画像を変形情報推定部160および表示制御部180へと出力する。
結合画像生成部150は、ステップS230において算出した結合位置に基づいて、第1の時相画像上の位置と対応する第2の時相画像上の位置が重なるように結合することにより結合画像を生成する。図4を用いて具体的に説明する。図4において、画像400は第1の時相画像の冠状断面を表しており、破線410はスライス位置P1_iを表している。また、画像420は第2の時相画像の冠状断面を表しており、破線430はステップS230において算出したスライス位置P1_iと対応するスライス位置P2_jを表している。そして、画像440は、第1の時相画像のスライス位置P1_iと第2の時相画像のスライス位置P2_jが重なるように、第2の時相画像をスライス方向に並進移動させて結合した結合画像を表している。そして、領域450は第1の時相画像にのみ撮像されている領域、領域460は第1の時相画像と第2の時相画像の両方に撮像されている領域、領域470は第2の時相画像にのみ撮像されている領域を示している。領域450および領域470における結合画像の画素値は、第1の時相画像および第2の時相画像の一方の時相画像の画素値とする。領域460における結合画像の画素値は、第1の時相画像と第2の時相画像の画素値のいずれか一方の画素値でもよいし、平均値でもよい。また、領域460内の位置に応じて、肺尖部側の画素では第1の時相画像の画素値の重みを大きくし、肺底部側の画素では第2の時相画像の画素値の重みを大きくした重み付き平均値を利用してもよい。
なお、本実施形態において、ステップS230において算出した結合位置の信頼度に基づいて、結合画像を生成するか否かを決定してもよい。結合位置の信頼度を算出している場合、あらかじめ設定した所定の閾値以上か否かを判定し、閾値以上の場合のみ、結合位置の信頼度が高いと判断して結合画像を生成してもよい。換言すると、ステップS220において対応付けられた時相画像の組のうち、算出した結合位置の信頼度が所定の閾値以上の時相画像の組を選択して結合画像を生成してもよい。なお、結合画像を生成する時相画像の組の選択は、ユーザが行ってもよいし、信頼度に基づいて自動で選択されてもよい。
すなわち、結合画像生成部150は、信頼度が閾値以上の時相画像の組を少なくとも2つ以上選択し結合画像を生成する生成手段の一例に相当する。
これにより、結合位置がずれている結合画像が生成されてしまう可能性を低減することができる。また、信頼度の高い結合画像のみを用いることにより、後段の処理において滑り度を高精度に算出できる。
本実施形態において、第1の時相画像のスライス位置P1_iと対応する第2の時相画像のスライス位置P2_jが重なるように並進移動させて結合画像を生成したが、結合画像の生成方法はこれに限らない。例えば、結合位置情報としてスライス位置ではなく、各画素の位置を算出している場合、各画素が結合位置で重なるように第2の変形画像を変形させて結合してもよい。また、第1の時相画像のスライス位置P1_iと対応する第2の時相画像のスライス位置P2_jが重なるように並進移動させて結合画像を生成する場合、体表位置や気管支の分岐の位置などの所定の部位が合うように第2の時相画像を変形させてから結合してもよい。
これにより、複数の時相における結合画像を生成することができる。すなわち、観察対象の領域全体を含む時系列の結合画像を取得できる。なお、以下では、基準位相である第1の基準画像と第2の基準画像を結合した結合画像を基準結合画像(または第1の結合画像)と呼ぶ。また、比較位相である第1の比較画像と第2の比較画像を結合した結合画像を比較結合画像(または第2の結合画像)と呼ぶ。
(S250)(変形情報の推定)
ステップS250において、変形情報推定部160は、複数の時相の結合画像間で位置合わせを行い、被検体の時系列の変形を表す変形情報を推定する。そして、推定した変形情報を滑り度算出部170へと出力する。
本実施形態において、変形情報は公知の画像処理手法により求める。例えば、変形後の画像間の画像類似度が高くなるように、一方の画像を変形させることにより求める。画像の変形モデルには、Thin Plate Spline(TPS)などの放射基底関数に基づく変形モデルやFree Form Deformation(FFD)等の公知の変形モデルを利用できる。
画像類似度ではなく、解剖学的特徴点が略一致するように変形情報を推定してもよい。例えば、肺領域内の気管支や血管の分岐と、肺領域外にある肋骨や胸骨に特徴点を設定し、特徴点の移動量を変形情報として推定してもよい。
変形情報は、隣り合う時相間の結合画像の位置合わせを全て行うことにより、基準位相における結合画像である基準結合画像と比較位相における結合画像である比較結合画像の間の時系列の動きを推定する。なお、例えばステップS240において基準結合画像と比較結合画像の少なくとも一方の画像を基準位相と比較位相とは異なる他の時相における結合画像とした場合、時系列の動きを推定する対象は、基準結合画像と比較結合画像の間の時系列に限定されない。
これにより、基準位相と比較位相の間で変形が大きい場合でも、隣り合う時相の結合画像の間では変形が小さくなるため、位置合わせ処理が容易となる。一方で、時相数に比例して位置合わせ処理に要する処理時間が増大するため、所定の間隔で間引いた一部の時相のみを利用して変形情報を推定してもよい。また、基準結合画像と比較結合画像との間の変形を直接求めてもよい。変形情報は、例えば、基準結合画像から比較結合画像への変位ベクトル場によって表現される。
また、本実施形態において、ステップS230において算出した結合位置の信頼度に基づいて、変形情報の推定に使用する結合画像を選択してもよい。結合位置が誤っている場合、結合画像の結合位置付近で解剖学的な不整合が生じている可能性がある。そのため、結合位置の信頼度を算出している場合、あらかじめ設定した所定の閾値以上か否かを判定し、閾値以上の場合のみ変形情報の推定に使用する画像として選択することにより変形情報を精度よく推定することができる。
なお、この場合、少なくとも1つの結合画像を信頼度に基づいて間引くとすると、結合画像が2つ以上でなければ変形情報を推定することができないため、ステップS240において3つ以上の結合画像が生成されていることが望ましい。
すなわち、変形情報推定部160は、3つ以上の結合画像のうち信頼度が閾値以上の結合画像を2つ以上選択し、選択された結合画像から変形情報を推定する。
なお、必ずしも結合画像を間引かない場合には、ステップS240において生成される結合画像は2つであってもよい。
これにより、信頼度の高い結合画像のみを用いて変形情報を推定できるため、後段の処理において滑り度を高精度に算出できる。
(S260)(滑り度の算出)
ステップS260において、滑り度算出部170は、ステップS250において推定した変形情報に基づいて、対象臓器の輪郭付近の各位置における滑り度を算出する。すなわち、滑り度算出部170は、第1の結合画像と第2の結合画像とから推定される変形情報に基づいて、対象物の滑り度を算出する滑り度算出手段の一例に相当する。そして、算出した滑り度を、表示制御部180へと出力する。
本実施形態において、滑り度は、ステップS205において抽出した対象臓器の領域内における当該対象領域の輪郭付近の画素が、対象臓器の領域外の近傍画素に対して、どの程度滑っているかを算出することによって求める。例えば、図5に示すように基準位相の結合画像500(基準結合画像)における肺領域の輪郭線510に対して法線方向に隣接する肺の領域内の画素520と領域外の画素530の2つの画素を基準点として設定する。そして、設定された2つの基準点の基準位相における結合画像(基準結合画像)と比較位相における結合画像(比較結合画像)との間の変形情報(ベクトル)の差分のノルムを、対象臓器の当該位置における滑り度として算出できる。すなわち、滑り度は輪郭線を基準として肺領域の内部に設定された基準点と肺領域の外部に設定された基準点との間の相対的な移動量の一例に相当する。なお、変形情報のノルムは、肺の輪郭の面に沿ったベクトルの差分のノルムでもよい。また、設定する基準点の数は例示であり、上記に限定されない。さらに、対応する2つの基準点のうち一方は輪郭線上に設定してもよい。さらに、滑り度は必ずしも基準位相と比較位相との間の変形情報から求めなくてもよく、その間の任意の位相の時相画像から算出される変形情報を用いることができる。なお、滑り度の算出方法はこれに限らず、公知の画像処理手法を利用してもよい。
(S270)(滑り度の表示)
ステップS270において、表示制御部180は、ステップS260において算出した滑り度を可視化して表示部12に表示する。
滑り度の可視化の方法として、滑り度マップを生成して表示部12に表示させることができる。滑り度マップは、例えば肺の輪郭位置の画素に、滑り度に応じたグレースケール値あるいはカラースケール値を画素値とする画像であり、基準位相の結合画像(基準結合画像)と並列表示してもよいし重畳表示してもよい。また、基準位相以外の結合画像と並列表示してもよいし重畳表示してもよい。この場合、基準位相以外の結合画像と位置が整合するように滑り度マップの座標変換するのが望ましい。また、複数の時相の結合画像と並列表示してもよいし重畳表示してもよい。さらに、それらを連続的に切り替えた動画像として表示しても良い。さらに、入力画像である第1の動画像や第2の動画像と並列表示してもよいし重畳表示してもよい。この場合も滑り度マップを第1の動画像や第2の動画像と空間的に整合させて表示するのが望ましい。なお、滑り度を表示する処理は必ずしも必要ではなく、ステップS260で算出した滑り度の情報をデータサーバ11に出力し保存させる構成であってもよい。
以上によって、画像処理装置10の処理が実施される。
上記によれば、観察対象の領域全体が含まれる複数の時相の結合画像を生成し、時相間の結合画像の位置合わせを行うことにより、観察対象の領域全体の輪郭付近における滑り度を精度良く算出することができる。より具体的には、輪郭線を挟んで設定される2つの基準点が動画像の境界付近に設定された場合には、位相変化後の基準点の位置が撮像範囲に収まらない可能性がある。例えばCT装置により肺を撮像する場合、CT装置のセンササイズは心臓の大きさ程度のため、心臓よりも体積の大きい肺の領域全体を撮像するためには頭尾方向に上下に分割して撮像する必要がある。そのため、分割して撮像された画像の結合対象となる境界付近の滑り度を算出することが難しかった。
しかしながら、上記によれば、臓器の領域を分割して撮像した複数の動画像を結合することにより位相変化後の基準点の位置が任意の結合画像内に収まる。これにより、2つの基準点が動画像の境界付近に設定された場合であっても変形情報に基づいて滑り度を精度よく算出することができる。そして、ユーザは、観察対象の領域全体が含まれる結合画像と滑り度を観察することができる。また、上記により観察対象(肺)の領域全体の滑り度を精度良く算出することができるため、ユーザが癒着を誤認する可能性を低減できる。
(変形例1−1)
本実施形態では、ステップS230において、第1の時相画像のスライス位置P1_iと対応する1つの第2の時相画像のスライス位置P2_jを算出していたが、必ずしも1つの位置でなくてもよい。
肺の呼吸運動では、肺の領域内と領域外の動きの方向が異なる。したがって、画像類似度を利用して第1の時相画像のスライス位置P1_iと対応する第2の時相画像のスライス位置P2_jを探索した場合、肺の領域内と領域外の一方は結合位置が正しく算出できても、他方は正しく算出されない場合がある。そのため、ステップS205において抽出した肺領域を利用して、肺の領域内と領域外の結合位置をそれぞれ探索してもよい。この場合、第1の時相画像のスライス位置P1_iと肺の領域内の画像類似度が高い第2の時相画像のスライス位置P2_kと、肺の領域外の画像類似度が高いスライス位置P2_lを結合位置とする。この場合、ステップS240において、それぞれの結合位置で結合した結合画像を生成できる。すなわち、各時相において肺領域内と肺領域外のそれぞれの結合位置で結合した2つの結合画像が生成される。そして、ステップS250において、それぞれの結合画像の変形情報を推定する。肺領域内と領域外で夫々推定した変形情報は、ステップS205において抽出した肺の領域を利用して、肺の領域内を合わせた結合画像を利用して推定した変形情報と、肺の領域外を合わせた結合画像を利用して推定した変形情報を一つの変形情報に統合してもよい。そして、ステップS260において、肺の領域内において推定した変形情報と肺の領域外において推定した変形情報とに基づいて、対象臓器の輪郭付近の各位置における滑り度を算出する。もしくは、肺の領域内において推定した変形情報と肺の領域外において推定した変形情報とを統合させた変形情報に基づいて、対象臓器の輪郭付近の各位置における滑り度を算出する。
これにより、観察対象となる臓器の領域内部と領域外部とで最も類似度の高い時相画像同士から結合画像を生成できるため、さらに精度よく滑り度を算出することができる。
(変形例1−2)
本実施形態におけるステップS250において、複数の時相の結合画像の間で変形情報を推定する場合に、肺の領域内と領域外それぞれにおいて変形情報を推定してもよい。すなわち、滑り度算出部170は、第1の結合画像と第2の結合画像とから推定される対象物の内部における変形情報と対象物の外部における変形情報とに基づいて対象物の滑り度を算出してもよい。例えば、肺領域内の結合位置で結合した結合画像の変形情報を推定する場合、肺領域内の観察に適した条件(例えば、ウインドウレベル(WL)を−600、ウインドウ幅(WW)を1500)に画素値変換等の前処理を施して変形情報を推定してもよい。肺領域外の結合位置で結合した結合画像の変形情報を推定する場合、肺領域外の観察に適した条件(例えば、WLを60、WWを400)に画素値変換等の前処理を施して変形情報を推定してもよい。
これにより、観察対象となる臓器の領域内部と領域外部とでそれぞれ観察に適した条件から変形情報を推定できるため、さらに精度よく滑り度を算出することができる。
(変形例1−3)
本実施形態では、ステップS240において結合画像を生成したが、ステップS230からステップS250を以下の処理に置き換えることで、結合画像を生成せずに変形情報を推定してもよい。まず、結合位置取得部140は、第1の動画像に含まれる第1の基準画像と、第2の動画像に含まれる第2の基準画像の相対的な位置情報を結合位置情報として取得する。そして、変形情報推定部160は、第1の基準画像と第1の動画像に含まれる第1の比較画像との間の第1の変形情報を推定し、第2の基準画像と第2の動画像に含まれる第2の比較画像との間の第2の変形情報を推定する。さらに、結合位置情報に基づいて、第1の基準画像と第2の比較画像との間の第3の変形情報を推定する。もしくは、第1の比較画像と第2の基準画像との間の変形情報を第3の変形情報として推定する。例えば、第1の基準画像と第2の比較画像に共通して撮像されている部位の変形情報は、結合位置情報と第2の変形情報を統合することで算出できる。以上の処理により算出した第1の変形情報と第2の変形情報と第3の変形情報を統合することにより、第1の実施形態のステップS250で説明した変形情報と同様の変形情報を推定する。具体的には、例えば第1の基準画像と第1の比較画像に共通して撮像されている領域の変形情報を第1の変形情報とするように、共通領域を利用して統合できる。この場合、第2の基準画像と第2の比較画像の共通領域の変形情報を第2の変形情報、第1の基準画像と第2の比較画像の共通領域の変形情報を第3の変形情報とすることで統合できる。
これにより、結合画像を生成せずに、滑り度の算出を行うことができるため、結合画像を保持するために必要なコンピュータのメモリを削減することができる。
(変形例1−4)
また、本実施形態では、ステップS240において複数の時相の結合画像を生成したが、ステップS230からステップS250を以下の処理に置き換えることで、1時相のみ結合画像を生成して変形情報を推定してもよい。第1の基準画像と第2の基準画像の相対的な位置情報を結合位置情報として取得し、結合位置情報に基づいて、第1の基準画像と第2の基準画像を結合した基準結合画像を生成する。そして、基準結合画像と第1の比較画像との間の第4の変形情報を推定し、基準結合画像と第2の比較画像との間の第5の変形情報を推定する。以上の処理により算出した第4の変形情報と第5の変形情報を統合することで、第1の実施形態のステップS250で説明した変形情報と同様の変形情報を推定する。具体的には、基準結合画像と第1の比較画像との共通領域の変形情報を第4の変形情報とし、結合画像と第2の比較画像との共通領域の変形情報を第5の変形情報とすることで統合できる。
これにより、生成する結合画像が1時相のみであるため、結合画像を保持するために必要なコンピュータのメモリを削減することができる。
<第2実施形態>
第1実施形態では、第1の動画像と第2の動画像において同一の位相と対応付けられた時相画像を結合することにより結合画像を生成していた。一方、本実施形態に係る画像処理装置は、必要に応じて時相画像の間の補間画像を生成し、補間画像を利用した結合画像を生成する。
具体的には例えば、第2の動画像において、第1の動画像の第1の時相画像の第1の位相パラメータと類似する第2の位相パラメータの時相画像が存在しない場合、第2の動画像に含まれる2つの時相画像から第1の時相画像と位相が対応する補間画像を生成する。そして、第1の時相画像と補間画像から結合画像を生成する。
これにより、第1の時相画像と位相が対応する補間画像を第2の動画像から生成することができ、ユーザは、位相が対応する時相画像を結合した結合画像を観察することができる。
なお、以下では第1実施形態と同様に観察対象となる臓器は肺であって、第1の動画像と第2の動画像は4次元CT画像であるとして説明を行う。しかしながら、観察対象となる臓器や、撮像装置はこれに限定されない。
以下、図6から図8を用いて本実施形態の構成および処理を説明する。
図6は、本実施形態に係る画像処理装置の構成を示す。時相対応情報取得部130と補間画像生成部610は、以下でその機能を説明する。その他の構成については、第1実施形態と機能が同じであるため説明を省略する。
時相対応情報取得部130は、第1の動画像と第2の動画像のいずれか一方の所定の時相画像(第1の時相画像)と位相が対応する他方の補間時相を取得する。補間時相とは、撮像された連続する時相の間の時相を表している。補間画像生成部610は、補間時相に相当する時相画像(補間画像)を他の時相の時相画像から生成する。
図7は、画像処理装置60が行う全体の処理手順のフローチャートを示している。ステップS700からS710、S730からS770は、第1の実施形態のステップS200からS210、S230からS270と同様の処理を行うため、説明を省略する。以下、図2のフローチャートとの相違部分についてのみ説明する。
(S720)(時相の対応情報の取得)
ステップS720において、時相対応情報取得部130は、第1の実施形態におけるステップS220の処理と同様に、第1の位相パラメータと第2の位相パラメータに基づいて、位相が対応する第1の動画像と第2の動画像の時相画像を対応付ける。そして、位相の類似度を示す情報を時相の対応情報として取得する。ただし、所定の(注目する)時相画像において、一方の位相パラメータと一致する他方の位相パラメータの時相が存在しない場合には、補間時相と対応付ける処理を行う。
図8を用いて具体的に説明する。図8は、横軸を時間、縦軸を位相パラメータとしたとき、第1の位相パラメータを黒点、第2の位相パラメータを白点として、左から時相順に並べて示している。ここで、第2の位相パラメータを基準に最も位相パラメータが類似する時相画像同士の対応付けを行った場合、第1の動画像の5時相目の時相画像800は第2の動画像のいずれの時相画像とも対応付かないこととなる。このとき、本実施形態では、第1の動画像の5時相目の時相画像800と対応付ける補間時相を取得する。例えば、第1の動画像と第2の動画像の4時相目の時相画像同士が対応付いており、第1の動画像の6時相目の時相画像810と第2の動画像の5時相目の時相画像815が対応付いている。このことから、第1の動画像の5時相目の時相画像800は第2の動画像の4時相目の時相画像805と5時相目の時相画像815の間の被検体の状態を表していると推定することができる。したがって、第1の動画像の5時相目の時相画像800を第2の動画像の4時相目の時相画像805と5時相目の時相画像815の間の補間時相(例えば、4.5時相)と対応付ける。補間時相は次のように算出することもできる。
例えば、第1の動画像のa時相目と第2の動画像のb時相目の時相画像が対応付いており、さらに第1の動画像のa+c(0<c)時相目の時相画像と第2の動画像のb+d(0<d)時相目の時相画像が対応付いている場合を例とする。この場合、第1の動画像のa+e時相目の時相画像(0<e<c)と対応付く第2の動画像の補間時相b+f(0<f<d)は、式(1)を用いて取得できる。
b+f=b+d×e/c・・・(1)
なお、補間時相の取得方法は、上記の方法に限定されず、例えば位相パラメータの値に基づいて、補間時相を取得してもよい。
例えば、第1の動画像のa+e時相目の時相画像の第1の位相パラメータの値をp_e、第2の動画像のb時相目とb+d時相目の時相画像の第2の位相パラメータの値をそれぞれp_bとp_d(p_b<p_e<p_d)とした場合を例とする。この場合、補間時相b+fは、位相パラメータの比に応じて式(2)を用いて取得できる。
b+f=b+d×(p_e−p_b)/(p_d−p_b)・・・(2)
本実施形態では、第1の動画像の所定の(注目する)時相画像に対応する第2の動画像の補間時相を取得する方法を説明したが、第2の動画像の所定の(注目する)時相画像に対応する第1の動画像の補間時相を同様の方法によって取得してもよい。
(S725)(補間画像の生成)
ステップS725において、補間画像生成部610は、ステップS720において補間時相を取得した場合には、当該補間時相における補間画像を生成する。そして、生成した補間画像を、第1の動画像の注目する時相画像に対応する第2の動画像の時相画像として、結合位置取得部140および結合画像生成部150へと出力する。
補間画像は、補間時相の近傍の時相画像における被検体の時系列の動きに基づいて生成する。
例えば、第1の動画像の5時相目の時相画像と対応付いている第2の動画像の補間時相である4.5時相目の補間画像を生成する場合を例とする。この場合、第2の動画像の4.5時相目の前後の時相画像である4時相目と5時相目の時相画像間の時系列の動きに基づいて、補間画像を生成する。すなわち、4時相目と5時相目の間の変形情報を推定し、例えば、いずれか一方の画像を変形させることにより補間画像を生成する。このとき、変形情報を補間することにより、4時相目と5時相目の時相画像間の被検体の状態を表す補間画像を生成する。具体的には、5時相目の時相画像を変形させる場合、5時相目の時相画像から4時相目の時相画像へと変形させる変形量に補間時相から求めた補間率を乗じた変形情報を用いて5時相目の時相画像を変形させることにより補間画像を生成する。上記の場合、補間率は例えば、5(時相目)−4.5(時相目)=0.5を用いる。これによって、4時相目と5時相目の間の被検体の状態を表す補間画像を生成することができる。
なお、補間画像を生成する際に使用する時相は、補間時相の前後の隣り合う時相の画像でなくてもよい。例えば、補間時相b+fより前のb時相目と後のb+d時相目の間の変形情報を推定し、変形量に(d−f)/dの値を乗じた変形情報を用いてb+d時相目の時相画像を変形させることにより補間画像を生成することもできる。また、変形情報を推定する2つの時相における位相パラメータに基づいて変形情報に乗じる値(補間率)を求めてもよい。
なお、変形情報を推定する際に使用する2つの時相は、補間時相の前後の時相でなくてもよい。例えば、図8に示した第2の動画像の7時相目の時相画像825と位相が類似する第1の動画像の補間画像を生成する場合を例とする。この場合、第1の動画像の6時相目の時相画像810と7時相目の時相画像820の間の変形情報を推定し、その変形情報を外挿することにより補間画像を生成してもよい。
また、図8において、第2の動画像の7時相目の時相画像825の第2の位相パラメータの値は、第1の動画像の2時相目の時相画像と3時相目の時相画像の第1の位相パラメータの間の値である。そのため、位相がこの2時相の間であると推定できる。したがって、第1の動画像の2時相目と3時相目の間の時相画像の変形情報を推定し、いずれか一方の位相画像を変形させることにより、第2の動画像の7時相目の位相画像825と対応する第1の動画像の補間時相の補間画像を生成してもよい。
なお、本実施形態における変形情報の推定方法は、第1実施形態のステップS250と同様の方法を用いることができる。
以上によって、画像処理装置60の処理が実施される。
これにより、観察対象となる肺における換気量が類似する時相画像を結合した結合画像を生成することができる。すなわち、第1の動画像と第2の動画像の撮像時の呼吸運動のペースが異なる場合でも、任意の換気量の時相画像を結合することができる。そして、ユーザは換気量が類似する時相画像を結合した結合画像を時系列に観察することにより、容易に肺の領域全体の動きを観察することができる。また、より適切に位相が対応付けられた結合画像に基づいて滑り度を算出できるため、より精度の高い滑り度を算出できる。
<その他の実施形態>
また、本明細書に開示の技術は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インターフェイス機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、1つの機器からなる装置に適用しても良い。
また、本明細書に開示の技術の目的は、以下のようにすることによって達成されることはいうまでもない。すなわち、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本明細書に開示の技術を構成することになる。
また、本明細書の開示は上記実施形態に限定されるものではなく、本明細書の開示の趣旨に基づき種々の変形(各実施例の有機的な組合せを含む)が可能であり、それらを本明細書の開示の範囲から除外するものではない。即ち、上述した各実施例及びその変形例を組み合わせた構成も全て本明細書に開示の実施形態に含まれるものである。
本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために以下の請求項を添付する。
本願は、2018年12月27日提出の日本国特許出願特願2018−245138を基礎として優先権を主張するものであり、その記載内容の全てをここに援用する。

Claims (20)

  1. 撮像装置により対象物を互いに異なる位置から撮像して得られた第1の動画像と第2の動画像を取得する動画像取得手段と、
    前記第1の動画像から得られる第1の基準画像と前記第2の動画像から得られる第2の基準画像とを結合することにより第1の結合画像を生成し、且つ前記第1の動画像から得られる第1の比較画像と前記第2の動画像から得られる第2の比較画像とを結合することにより第2の結合画像を生成する生成手段と、
    前記第1の結合画像と前記第2の結合画像とから推定される変形情報に基づいて、前記対象物の滑り度を算出する滑り度算出手段と、
    を有することを特徴とする画像処理装置。
  2. 前記滑り度は、前記対象物の輪郭線を挟んで前記対象物の内部と前記対象物の外部に夫々設定された2つの基準点の、前記第1の結合画像における位置と第2の結合画像における位置とに基づいて算出される相対的な移動量であることを特徴とする請求項1に記載の画像処理装置。
  3. 前記対象物は、周期的な運動を行う臓器であって、
    前記第1の動画像の各時相における前記対象物の動きの位相情報を示す第1の位相パラメータと、前記第2の動画像の各時相における前記対象物の動きの位相情報を示す前記第2の動画像の各時相における第2の位相パラメータとを取得する位相取得手段と、
    前記第1の位相パラメータと前記第2の位相パラメータに基づいて、前記第1の動画像から得られる前記第1の基準画像と前記第1の比較画像とを含む複数の時相画像と前記第2の動画像から得られる前記第2の基準画像と前記第2の比較画像とを含む複数の時相画像とを対応付ける対応付け手段と、をさらに有し、
    前記第1の基準画像及び前記第2の基準画像と、前記第1の比較画像及び前記第2の比較画像は前記対応付け手段により対応付けられた画像であることを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記位相取得手段は、前記第1の動画像に撮像された前記対象物の様態に基づいて、前記第1の位相パラメータを取得し、前記第2の動画像に撮像された前記対象物の様態に基づいて、前記第2の位相パラメータを取得することを特徴とする請求項3に記載の画像処理装置。
  5. 前記対応付け手段は、前記第1の位相パラメータと前記第2の位相パラメータとが類似する時相画像同士を対応付けることを特徴とする請求項3または4に記載の画像処理装置。
  6. 前記対応付け手段は、前記対象物の内部における、前記第1の位相パラメータと前記第2の位相パラメータとが類似する時相画像同士を対応付け、且つ前記対象物の外部における、前記第1の位相パラメータと前記第2の位相パラメータとが類似する時相画像同士を対応付けることを特徴とする請求項3乃至5のいずれか1項に記載の画像処理装置。
  7. 前記対応付け手段により対応付けられた前記第1の動画像から得られる時相画像と前記第2の動画像とから得られる時相画像の結合位置の信頼度を算出する算出手段をさらに有することを特徴とする請求項3乃至6のいずれか1項に記載の画像処理装置。
  8. 前記生成手段は、前記信頼度が閾値以上の時相画像の組を少なくとも2つ以上選択し結合画像を生成することを特徴とする請求項7に記載の画像処理装置。
  9. 前記生成手段は前記第1の動画像から得られる時相画像と前記第2の動画像から得られる時相画像とから少なくとも3つ以上の結合画像を生成し、
    前記滑り度算出手段は、前記3つ以上の結合画像のうち前記信頼度が閾値以上の結合画像を2つ以上選択し、前記選択された結合画像から推定される変形情報に基づいて前記対象物の滑り度を算出することを特徴とする請求項7または8に記載の画像処理装置。
  10. 前記生成手段は、前記第1の基準画像と前記第1の比較画像のうち少なくとも一方を、前記第1の動画像から得られる少なくとも1つの時相画像から生成することを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
  11. 前記生成手段は、前記第2の基準画像と前記第2の比較画像のうち少なくとも一方を、前記第2の動画像から得られる少なくとも1つの時相画像から生成することを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。
  12. 前記生成手段は、前記第1の基準画像と前記第2の動画像から得られる第3の基準画像とを結合することにより第3の結合画像をさらに生成し、
    前記滑り度算出手段は、前記第1の結合画像及び前記第2の結合画像から推定される第1の変形情報と前記第1の結合画像及び前記第3の結合画像から推定される第2の変形情報とに基づいて、前記対象物の滑り度を算出することを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
  13. 前記滑り度算出手段は、前記第1の結合画像と前記第2の結合画像とから推定される前記対象物の内部における変形情報と前記対象物の外部における変形情報とに基づいて前記対象物の滑り度を算出することを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。
  14. 撮像装置により対象物を互いに異なる位置から撮像して得られた第1の動画像と第2の動画像を取得する動画像取得手段と、
    前記第1の動画像から得られる第1の基準画像と前記第2の動画像から得られる第2の基準画像との間の結合位置情報を取得する結合位置情報取得手段と、
    前記結合位置情報と、
    前記第1の基準画像及び前記第1の動画像から得られる第1の比較画像から推定される第1の変形情報と、
    前記第2の基準画像及び前記第2の動画像から得られる第2の比較画像から推定される第2の変形情報と、
    前記第1の基準画像及び前記第2の比較画像もしくは前記第1の比較画像及び前記第2の基準画像の少なくとも一方の組から推定される第3の変形情報と、に基づいて前記対象物の滑り度を算出する滑り度算出手段と、
    を有することを特徴とする画像処理装置。
  15. 撮像装置により対象物を互いに異なる位置から撮像して得られた第1の動画像と第2の動画像を取得する動画像取得手段と、
    前記第1の動画像から得られる第1の基準画像と前記第2の動画像から得られる第2の基準画像を結合した結合画像を生成する生成手段と、
    前記結合画像及び前記第1の動画像から得られる第1の比較画像から推定される第1の変形情報と、前記結合画像及び前記第2の動画像から得られる前記第2の比較画像から推定される第2の変形情報と、に基づいて前記対象物の滑り度を算出する滑り度算出手段と、
    を有することを特徴とする画像処理装置。
  16. 前記撮像装置はX線CT装置であって、前記第1の動画像と前記第2の動画像は4次元CT画像であることを特徴とする請求項1乃至15のいずれか1項に記載の画像処理装置。
  17. 前記対象物は、肺であって、前記第1の動画像と前記第2の動画像とは、前記肺を頭尾方向に分割して撮像して得られた動画像であることを特徴とする請求項1乃至16のいずれか1項に記載の画像処理装置。
  18. 前記対応付け手段は、前記第1の動画像から得られる最大吸気位における時相画像と前記第2の動画像から得られる前記最大吸気位における時相画像を対応付け、前記第1の動画像から得られる最大呼気位における時相画像と前記第2の動画像から得られる前記最大呼気位の時相画像を対応付けることを特徴とする請求項17に記載の画像処理装置。
  19. 撮像装置により対象物を互いに異なる位置から撮像して得られた第1の動画像と第2の動画像を取得する動画像取得工程と、
    前記第1の動画像から得られる第1の基準画像と前記第2の動画像から得られる第2の基準画像とを結合することにより第1の結合画像を生成し、且つ前記第1の動画像から得られる第1の比較画像と前記第2の動画像から得られる第2の比較画像とを結合することにより第2の結合画像を生成する生成工程と、
    前記第1の結合画像と前記第2の結合画像とから推定される変形情報に基づいて、前記対象物の滑り度を算出する滑り度算出工程と、
    を有することを特徴とする画像処理方法。
  20. 請求項1乃至18のいずれか1項に記載の画像処理装置の各手段をコンピュータに実行させることを特徴とするプログラム。
JP2020563335A 2018-12-27 2019-12-25 画像処理装置、画像処理方法及びプログラム Active JP7536653B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018245138 2018-12-27
JP2018245138 2018-12-27
PCT/JP2019/050752 WO2020138136A1 (ja) 2018-12-27 2019-12-25 画像処理装置、画像処理方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024130996A Division JP2024156932A (ja) 2018-12-27 2024-08-07 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2020138136A1 true JPWO2020138136A1 (ja) 2021-11-11
JP7536653B2 JP7536653B2 (ja) 2024-08-20

Family

ID=71129443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020563335A Active JP7536653B2 (ja) 2018-12-27 2019-12-25 画像処理装置、画像処理方法及びプログラム

Country Status (3)

Country Link
US (1) US11836923B2 (ja)
JP (1) JP7536653B2 (ja)
WO (1) WO2020138136A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7546423B2 (ja) 2020-09-16 2024-09-06 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011255055A (ja) * 2010-06-11 2011-12-22 Konica Minolta Medical & Graphic Inc 放射線画像処理装置、放射線画像処理方法及びプログラム
JP2016067832A (ja) * 2014-10-01 2016-05-09 キヤノン株式会社 医用画像処理装置、医用画像処理方法
JP2017018317A (ja) * 2015-07-10 2017-01-26 コニカミノルタ株式会社 胸部画像表示システム及び画像処理装置
JP2017225724A (ja) * 2016-06-24 2017-12-28 コニカミノルタ株式会社 放射線画像撮影システム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3639825B2 (ja) * 2002-04-03 2005-04-20 キヤノン株式会社 動画像表示方法、プログラム、コンピュータ可読記憶媒体、及び動画像表示装置
JP7153425B2 (ja) * 2017-01-23 2022-10-14 セイコーエプソン株式会社 スキャナー、スキャンプログラムおよびスキャンデータの生産方法
JP6932934B2 (ja) * 2017-01-23 2021-09-08 セイコーエプソン株式会社 スキャナー、スキャンプログラムおよびスキャンデータの生産方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011255055A (ja) * 2010-06-11 2011-12-22 Konica Minolta Medical & Graphic Inc 放射線画像処理装置、放射線画像処理方法及びプログラム
JP2016067832A (ja) * 2014-10-01 2016-05-09 キヤノン株式会社 医用画像処理装置、医用画像処理方法
JP2017018317A (ja) * 2015-07-10 2017-01-26 コニカミノルタ株式会社 胸部画像表示システム及び画像処理装置
JP2017225724A (ja) * 2016-06-24 2017-12-28 コニカミノルタ株式会社 放射線画像撮影システム

Also Published As

Publication number Publication date
US20210304409A1 (en) 2021-09-30
US11836923B2 (en) 2023-12-05
WO2020138136A1 (ja) 2020-07-02
JP7536653B2 (ja) 2024-08-20

Similar Documents

Publication Publication Date Title
KR102013866B1 (ko) 실제수술영상을 이용한 카메라 위치 산출 방법 및 장치
KR101267759B1 (ko) 화상 처리 장치, 화상 처리 방법 및 저장 매체
JP6346445B2 (ja) 処理装置、処理装置の制御方法、およびプログラム
US8165372B2 (en) Information processing apparatus for registrating medical images, information processing method and program
EP2505162B1 (en) Method and apparatus for generating medical image of body organ by using 3-D model
JP5335280B2 (ja) 位置合わせ処理装置、位置合わせ方法、プログラム、及び記憶媒体
KR20120111871A (ko) 3차원적 모델을 이용한 신체 장기의 영상 생성 방법 및 장치
JP6541334B2 (ja) 画像処理装置、画像処理方法、およびプログラム
CN110956076B (zh) 基于容积渲染在三维超声数据中进行结构识别的方法和系统
JP5591309B2 (ja) 画像処理装置、画像処理方法、プログラム、及び記憶媒体
JP6383153B2 (ja) 処理装置、処理方法、およびプログラム
JP7536653B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR101993381B1 (ko) 장기 변형모델을 추정하는 방법, 장치 및 의료영상시스템
JP2020182524A (ja) 画像処理装置、画像処理方法およびプログラム
JP2024156932A (ja) 画像処理装置、画像処理方法及びプログラム
Giannarou et al. Tissue deformation recovery with gaussian mixture model based structure from motion
JP7500360B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5706933B2 (ja) 処理装置および処理方法、プログラム
JP6660428B2 (ja) 処理装置、処理方法、およびプログラム
Chen QUiLT (Quantitative Ultrasound in Longitudinal Tissue Tracking): Stitching 2D images into 3D Volumes for Organ Health Monitoring
Mao Three-dimensional Ultrasound Fusion for Transesophageal Echocardiography
JP2022049275A (ja) 情報処理装置、情報処理方法及びプログラム
CN116612241A (zh) 三维重建方法、装置、设备及存储介质
JP2022023564A (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240807

R150 Certificate of patent or registration of utility model

Ref document number: 7536653

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150