[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2016021998A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2016021998A
JP2016021998A JP2014146076A JP2014146076A JP2016021998A JP 2016021998 A JP2016021998 A JP 2016021998A JP 2014146076 A JP2014146076 A JP 2014146076A JP 2014146076 A JP2014146076 A JP 2014146076A JP 2016021998 A JP2016021998 A JP 2016021998A
Authority
JP
Japan
Prior art keywords
image
corresponding point
displacement field
matching
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014146076A
Other languages
English (en)
Other versions
JP6376873B2 (ja
Inventor
格 音丸
Itaru Otomaru
格 音丸
石田 卓也
Takuya Ishida
卓也 石田
和大 宮狭
Kazuhiro Miyasa
和大 宮狭
佐藤 清秀
Kiyohide Sato
清秀 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014146076A priority Critical patent/JP6376873B2/ja
Priority to US14/799,271 priority patent/US9588666B2/en
Publication of JP2016021998A publication Critical patent/JP2016021998A/ja
Priority to US15/412,633 priority patent/US10395380B2/en
Application granted granted Critical
Publication of JP6376873B2 publication Critical patent/JP6376873B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ユーザが入力した対応点に関する評価を提示することができるようにする。【解決手段】まず、既入力対応点群の情報に基づき、第1の画像を変形させて第2の画像に対応付ける変位場(第1の変位場)を算出する。続いて、対応点候補の組を入力すると、対応点候補の組をも考慮して第1の画像を変形させて第2の画像に対応付ける変位場(第2の変位場)を算出する。そして、二つの変位場の差異に基づいて整合性を算出し、整合か不整合かの判断結果を表示部に表示する。【選択図】図1

Description

本発明は、特に、画像間で位置を対応付けるために用いて好適な画像処理装置、画像処理方法及びプログラムに関する。
医療の分野において、複数のモダリティで撮像された医用画像や、異なる日時、異なる体位、異なる撮影モードで撮像された医用画像を診断に利用するためには、被検体内の注目点を夫々の医用画像間で対応付けることが重要である。この注目点には、画像処理により自動的に対応付けが可能なものもあるが、モダリティの違いや被検体の変形等の影響により自動的に対応付けが困難なものも存在する。そのため、一般的に、医師等は画像を見ながら対応付け作業を目視で行っている。
また、同種の目的のために、複数の画像を位置合わせして表示することが提案されている。例えば、非特許文献1には、画像間における被検体の変形を推定する変形位置合わせ技術が開示されている。ここで、より高精度な位置合わせを実現するためには、ユーザが目視で対応付けした対応点を取得して、この対応点を位置合わせ処理に用いることがしばしばなされている。したがって、対応付けの精度によって位置合わせの精度が異なってくる。
そこで、一方の画像(以下、参照画像)上で指摘した注目点を他方の画像(以下、対象画像)から探索し、対応付けする作業を支援するための技術が開示されている。例えば、特許文献1には、注目点の推定位置が対象画像上に重畳表示される技術が開示されている。また、特許文献2には、注目点の存在確率の分布が対象画像上に重畳表示される技術が開示されている。
特開2008−212680号公報 特開2013−198722号公報
しかしながら、上記特許文献1及び2に開示されている技術では、ユーザが入力した対応点の良し悪しが分からないという課題がある。
本発明は前述の問題点に鑑み、ユーザが入力した対応点に関する評価を提示することができるようにすることを目的としている。
本発明に係る画像処理装置は、第1の画像と第2の画像との間の対応情報を取得する対応情報取得手段と、前記第1の画像上における第1の点の座標と前記第2の画像上における第2の点の座標とからなる対応点候補の組を取得する対応点候補取得手段と、前記対応情報取得手段によって取得された対応情報に対する、前記対応点候補取得手段によって取得された対応点候補の組の整合度を算出する整合度算出手段と、前記整合度算出手段の算出結果を表示部に表示させる表示制御手段と、を有することを特徴とする。
本発明によれば、ユーザが入力した対応点に関する評価を提示することができる。
第1及び第2の実施形態に係る画像処理装置の機能構成例を示すブロック図である。 整合度の算出方法及び判定結果の表示画面を説明するための図である。 第1の実施形態において、画像処理装置が行う全体の処理手順の一例を示すフローチャートである。 渦状の変位場の一例を示す図である。 第2の実施形態において、画像処理装置が行う全体の処理手順の一例を示すフローチャートである。 第2の実施形態において、整合度画像を生成する詳細な処理手順の一例を示すフローチャートである。 整合度マップを重畳表示した表示画面の一例を示す図である。 第3の実施形態に係る画像処理装置の機能構成例を示すブロック図である。 第3の実施形態において、画像処理装置が行う全体の処理手順の一例を示すフローチャートである。
以下、添付図面に従って本発明に係る画像処理装置の好ましい実施形態について説明する。なお、本発明は、添付図面に例示された例に限定されるものではない。
(第1の実施形態)
本実施形態に係る画像処理装置は、ユーザが指定した画像間の対応点候補の組について、その2つの点が対応点の組であることの整合度を導出して表示する。ここで、「対応点の組」とは、「第1の画像上の注目点」と、「該注目点と第2の画像上において対応する点」との2点のことである。また「対応点候補の組」とは、対応点の組の候補としてユーザが指定した2点のことである。
このように対応点候補の組の整合度を導出して表示するため、ユーザは、対応点候補の組を指定するたびに、指定した対応点候補の組の整合度を確認することができる。これにより、ユーザが指定した対応点候補の組が不整合と判定された場合は、対応点候補の指定をやり直し、より適切な位置に対応点候補の組を入力することができる。なお、本実施形態において、対応点候補の組の整合度は、第1の画像と第2の画像との間における既知の対応情報に対する整合度として算出される。また、本実施形態における既知の対応情報とは、既に対応付けされている複数の対応点の組(以下、既入力対応点群と呼ぶ)の情報である。以下、図1乃至図3を用いて本実施形態の構成および処理を説明する。
図1は、本実施形態に係る画像処理装置100の機能構成例を示すブロック図である。
図1に示すように、本実施形態における画像処理装置100は、データサーバ170、操作部180、及び表示部190と接続されており、画像処理システムを構成している。
データサーバ170は、ネットワークを介して画像処理装置100と接続されており、以下に説明する第1の画像及び第2の画像を保持している。データサーバ170が保持する第1の画像及び第2の画像は、それぞれ異なる条件(異なるモダリティ、撮影モード、日時、体位等)で被検体を予め撮像して得られた3次元断層画像である。3次元断層画像を生成するモダリティは、MRI装置、X線CT装置、3次元超音波撮影装置、光音響トモグラフィ装置、PET/SPECT、OCT装置などである。第1の画像及び第2の画像は、例えば、異なるモダリティや異なる撮影モードで同時期に撮像されたものであってもよく、経過観察のために同一患者を同一モダリティ、同一体位で異なる日時に撮像した画像であってもよい。なお、第1の画像及び第2の画像は2次元断層画像の集合として構成されており、各2次元断層画像の位置および姿勢は、基準座標系(被検体を基準とした空間中の座標系)に変換した上でデータサーバ170に保持されているものとする。基準座標系で表現された第1の画像及び第2の画像は、データ取得部102により画像処理装置100に入力される。
さらに、データサーバ170は、第1の画像及び第2の画像における既入力対応点群の情報として、夫々の対応点の組の3次元座標値の情報を保持している。これらのデータも、データ取得部102により画像処理装置100に入力される。既入力対応点群の中で、互いに対応付けられている第1の画像上の点と第2の画像上の点とには、共通するID番号が付与されているものとする。すなわち、既入力対応点群の各点は、点のID番号と、基準座標系における3次元座標(3次元空間におけるX,Y,Zの3つの位置成分)とによって表されているものとする。
操作部180は、ユーザによるマウスやキーボードの操作を受け付ける。この操作により、ユーザが指定する対応点候補の組が、対応点候補取得部104により画像処理装置100に入力される。また、ユーザは、操作部180から対応点の指定処理を終了するか否かを指示することができる。この対応点の指定処理を終了するか否かの判定結果は、終了判定部112により画像処理装置100に入力される。
表示部190は、画像処理装置100が生成する表示画像や整合度情報等の各種の情報を表示する。また、表示部190には、ユーザからの指示を取得するためのGUIも配置されている。
画像処理装置100は、以下に説明する構成要素により構成されている。
データ取得部102(対応情報取得手段)は、データサーバ170から第1の画像及び第2の画像と、既入力対応点群の情報とを取得する。そして、既入力対応点群の情報を変位場算出部106へ出力し、第1の画像及び第2の画像を表示制御部110へ出力する。記憶部111は、表示部190に表示するための対応点の組の情報などの情報を記憶する。
対応点候補取得部104(対応点候補取得手段)は、ユーザによる操作部180の操作に従って、第1の画像上と第2の画像上とにおける対応点候補の組(3次元座標の組)を取得して、変位場算出部106へ出力する。変位場算出部106(変位場算出手段)は、第1の画像を変形させて第2の画像に位置合わせするための変位場として、既入力対応点群のみに基づく第1の変位場と、対応点候補の組をも考慮した第2の変位場とを算出する。そして、算出した変位場を整合度算出部108へ出力する。
整合度算出部108(整合度算出手段)は、変位場算出部106から第1の変位場及び第2の変位場を取得し、これらの情報に基づいて既知の対応情報に対する対応点候補の組の整合度を算出する。そして、算出した整合度を表示制御部110へ出力する。表示制御部110は、第1の画像及び第2の画像の断面画像と、整合度に関する情報とを、表示部190に表示させる制御を行う。終了判定部112は、ユーザによる操作部180の操作に従って、対応付けを終了するか否かを判定する。
図3は、本実施形態において、画像処理装置100が行う全体の処理手順の一例を示すフローチャートである。以下、本実施形態における処理の詳細について説明する。
(ステップS300:データの取得)
まず、ステップS300において、データ取得部102は、データサーバ170から、第1の画像、第2の画像、および既入力対応点群の情報を取得する。
(ステップS301:第1の変位場を算出)
次に、ステップS301において、変位場算出部106は、ステップS300で得た既入力対応点群の情報に基づき、第1の画像を変形させて第2の画像に対応付ける変位場(第1の変位場)を算出する。この第1の変位場は、第1の画像上の既入力対応点群の位置を、対応する第2の画像上の既入力点群の位置へと極力近づくように変位させ、かつ空間的に滑らかに変位を補間した場である。なお、変位場の算出は、具体的にはBスプライン関数の補間によって変形を表すFree−form deformation(FFD)等の公知の手法を用いて行うものとする。本実施形態では、FFDが表す変位の場を第1の変位場とする。
(ステップS302:第1の点を取得)
次に、ステップS302において、対応点候補取得部104は、ユーザによる操作部180の操作に従って、第1の画像における注目点(第1の点)の位置(3次元座標)を取得する。すなわち、対応点候補取得部104は、ユーザによる操作部180の操作がなされるまで待機し、ユーザによる操作部180の操作がなされると、第1の画像における注目点の位置を取得する。具体的には、まず、表示制御部110は、第1の画像の断面画像を表示部190に表示させる。ユーザはマウスやキーボードを操作して、着目する断面画像を選択して表示させる。そして、表示した断面画像において、注目位置を注目点として入力する。対応点候補取得部104は、断面画像上で指定された注目位置を、第1の画像における断層画像の位置および姿勢を利用して、基準座標系における注目点の位置に変換する。なお、インタレストオペレータ等の画像特徴点抽出処理によって第1の画像から注目点候補を抽出し、その中からユーザが注目点を選択する構成であってもよい。
(ステップS303:第2の点を取得)
次に、ステップS303において、対応点候補取得部104は、ユーザによる操作部180の操作に従って、ステップS302で取得した注目点(第1の点)と第2の画像上において対応する点の候補(第2の点)の位置(3次元座標)を取得する。具体的な取得方法は、ステップS302と同様である。そして、取得した第1の点と第2の点とを対応点候補の組とする。
(ステップS304:第2の変位場を算出)
次に、ステップS304において、変位場算出部106は、第1の画像を変形させて第2の画像に対応付ける変位場(第2の変位場)を算出する。第2の変位場の算出は、ステップS301で実行した第1の変位場の算出と同様の処理により実行する。ただし、第2の変位場の算出では、既入力対応点群に加え、ステップS302及びステップS303で取得した対応点候補の組も拘束条件に含める。
(ステップS305:整合度を算出)
次に、ステップS305において、整合度算出部108は、ステップS301で算出された第1の変位場とステップS304で算出された第2の変位場とを用いて、既知の対応情報に対する対応点候補の組の整合度を算出する。ここで、整合度とは、対応付けによって生じる変位場の局所的な歪みを定量化したものである。例えば、二つの変位場の差異に基づいて整合性を算出する。すなわち、対応付けを行ったことで、その位置における変位場の向きが大きく変化した場合に、整合度は低いと評価する。その反対に、変位場の向きの変化が小さかった場合には、整合度は高いと評価する。本実施形態では、対応付けを行った位置(第2の点の位置)における変位場の角度変化に基づいて、整合度を定式化する。
ここで、図2を参照しながら整合度の算出方法について説明する。図2(a)には、第1の断面画像201と第2の断面画像202との一例を示す。第1の断面画像201は、3次元画像データである第1の画像を、任意の平面(第1の切断面)で切断し、3次元画像データをその切断面上に切り出した2次元画像である。同様に第2の断面画像202は、第2の画像を第2の切断面で切断し、3次元画像データをその切断面上に切り出した2次元画像である。さらに、各断面画像において、既入力対応点群および対応点候補の組(第1の点及び第2の点)が示されている。図2(a)において、○印で示されている点が既入力対応点群であり、正確には、既入力対応点群のうちの断面画像上に存在する点である。また、第1の断面画像201上の×印で示されている点が第1の点である。また、第2の断面画像202上の×印で示されている点が第2の点である。
図2(b)には、第2の断面画像202上における第1の変位場204および第2の変位場205を示す。ここで、第1の変位場をT1と表し、第2の変位場をT2と表す。第1の変位場T1および第2の変位場T2は、第2の画像の座標系(基準座標系)が表す空間上で定義される3次元の値を持つ関数である。各関数は、第2の画像の座標系から第1の画像の座標系へ変換するための関数を意味しており、第2の画像の座標系における任意の位置を引数とし、第1の画像の座標系における対応する位置への変位(3次元の変位ベクトル)を返す関数である。
図2(c)には、第2の点の位置pにおける第1の変位場T1と第2の変位場T2との変位ベクトル(それぞれtp,1、tp,2とする)の例を示す。このとき、整合度算出部108は、対応点候補の組の整合度Mを、以下の式(1)を用いて算出する。
M = tp,1・tp,2 /|tp,1||tp,2| ・・・(1)
式(1)に示すように整合度Mの計算は、2つのベクトルtp,1、tp,2がなす角度の余弦を計算することを意味する。したがって、2つのベクトルがなす角度が小さい場合には整合度Mの値は高くなり、2つのベクトルのなす角度が大きい場合には整合度Mの値は低くなる。
なお、第1の変位場T1と第2の変位場T2との差異に基づいて他の方法により整合度を算出してもよい。例えば、位置pにおける第1の変位場T1と第2の変位場T2とにおけるヤコビ行列の行列式(ヤコビアン)を夫々求め、その差分に基づいて整合度を算出するようにしてもよい。この場合、局所領域の体積が変化した場合には整合度が低く判定するようにできる。なお、位置pの近傍の各点においても同様に、式(1)の値またはヤコビアンの値を求め、その積分値を整合度としてもよい。他にも、非特許文献(D.Rueckert, L.Sonoda, C.Hayes, D.Hill, M.Leach,and D.Hawkes,"Nonrigid registration using free−form deformations: application to breast MR images",IEEE med. imag.,vol.18(8),pp.712−721,1999.)に開示されている変位場の滑らかさの算出方法を用いて、位置pの近傍における第1の変位場と第2の変位場との夫々の変位場の滑らかさを求め、それらの差分(すなわち、滑らかさの悪化度)に基づいて整合度を算出してもよい。なお、これらの方法は一例に過ぎず、変位場を入力として計算される定量値であれば、いかなる方法で整合度を算出しても良い。
(ステップS306:整合度を判定)
次に、ステップS306において、整合度算出部108は、ステップS305で算出した整合度の値が一定値以上か否かの判定を行う。例えば式(1)によって算出される整合度Mを用いる場合に、その値が0.5以上の場合、すなわち、2つのベクトルtp,1、tp,2のなす角度が60度以下の場合は整合と判定する。また、整合度Mの値が0.5未満の場合は不整合と判定する。
(ステップS307:追加指示の判定)
次に、ステップS307において、表示制御部110は、対応点候補の組の整合度の算出結果の情報として、ステップS305で算出された整合度の値、及びステップS306の判定結果を表示部190に表示させる。そして、対応点候補取得部104は、ユーザにより操作部180が操作され、対応点候補の組を対応点の組として採用する指示を受けたか否か判定する。なお、この表示は、ステップS306の処理で不整合と判定された場合にのみ実施するようにしてもよく、整合と判定された場合にはユーザからの指示を待たずにステップS308に処理を進めるようにしてもよい。
図2(d)には、判定結果が表示された状態で採用/不採用を選択させるGUIの例を示す。図2(d)に示す例では、整合度の値、判定結果、及び採用か不採用かを選択させる2つのボタンが配置されたダイアログボックス210を表示する。そして、対応点候補取得部104は、ユーザの操作によりいずれかのボタンをマウスでクリックするなどして入力された指示を取得する。ステップS307の判定の結果、採用が指示された場合は、ステップS308へと処理を進め、不採用が指示された場合は、ステップS309へと処理を進める。なお、ダイアログボックス210には、判定結果を表示せずに整合度の値のみを表示させるようにしてもよいし、整合度の値は表示せずに判定結果のみを表示させるようにしてもよい。
(ステップS308:既入力対応点群に追加)
ステップS308においては、対応点候補取得部104は、対応点候補の組を対応点の組として既入力対応点群に追加する。
(ステップS309:第2の点を削除)
ステップS309において、対応点候補取得部104は、ステップS303で取得した第2の点の情報を削除する。これにより、第1の点のみが取得された状態で、第2の点は未取得の状態となる。そして、ステップS303以降の処理を再度実行する。
(ステップS310:終了判定)
ステップS310においては、終了判定部112は、対応点候補の指定処理を終了する指示を受けたか否か判定する。例えば、表示制御部110が表示画面に終了するか否かを選択させる終了ボタンを配置し、終了判定部112は、ユーザの操作により終了ボタンをマウスでクリックするなどして終了の指示を受けたか否かを判定する。ステップS310の判定の結果、終了する指示を受けた場合にはステップS311へと処理を進める。一方、終了する指示を受けていない場合には、ステップS301へ戻り、更新された既入力対応点群を用いてステップS301以降の処理を再度実行する。ここで、再指定の入力がない場合には、終了の入力があるまで断面画像が表示された状態で待機状態となり、入力を受け付ける。
(ステップS311:対応点群の出力)
ステップS311においては、データ取得部102は、以上の処理で新たに取得した2つの3次元画像データ間の対応点の組の情報を、記憶部111に格納する。さらに、表示制御部110は、表示部190に対してそれらの対応点の情報を出力し、表示部190にその旨の情報を表示させる。このとき、データサーバ170に格納されている既入力対応点群の情報を更新するよう、更新された既入力対応点群の情報をデータサーバ170に不図示の通信部から送信するようにしてもよい。もちろん、最終的に取得した既入力対応点群に基づいて推定した変位場を記憶部111やデータサーバ170に格納するようにしてもよい。また、該変位場を用いて、第2の画像に対応付くように第1の画像を変形させた変形画像を生成して、これを記憶部111やデータサーバ170に格納するようにしてもよい。
以上のように本実施形態によれば、第1の画像と第2の画像との間の対応情報を取得する対応情報取得手段(データ取得部102)と、第1の画像上における第1の点の座標と第2の画像上における第2の点の座標とからなる対応点候補の組を取得する対応点候補取得手段(対応点候補取得部104)と、対応情報取得手段(データ取得部102)によって取得された対応情報に対する、対応点候補取得手段(対応点候補取得部104)によって取得された対応点候補の組の整合度を算出する整合度算出手段(整合度算出部108)と、整合度算出手段の算出結果を表示部に表示させる表示制御手段(表示制御部110)を備える。よって、ユーザに先入観を与えることなく、指定した対応点候補の組が既入力対応点群に整合しているかどうかを確認する機能が提供される。このため、不整合と判定された場合は対応点候補となる点の入力をやり直し、より適切な位置に指定点を入力することができる。
<変形例1>
本実施形態では、既知の対応情報として既入力対応点群を用いる例について説明したが、他の既知の対応情報を用いる構成であってもよい。例えば、他の手段で取得した変位場そのものを既知の対応情報として用いてもよい。ここで、他の変位場は、例えば、有限要素モデルを用いた物理変形シミュレーション結果や、解剖学的知識に基づいて得ることができる。
この場合、ステップS300において、データ取得部102は、既知の対応情報として前述の他の変位場を取得する。そして、ステップS301において、変位場算出部106は、ステップS300で取得した変位場を第1の変位場とする。また、ステップS304において、変位場算出部106は、既入力対応点群に相当する情報を第1の変位場から導出し、この導出した既入力対応点群に相当する情報に基づいて第2の変位場を算出する。具体的にはまず、第2の画像の定義範囲を一定間隔でサンプリングし、第2の画像上に格子状に配置された点群(第2の画像上の点群)を得る。次に、第1の変位場を用いて、前記第2の画像上の点群に対応する第1の画像上の位置を全ての点について求め、第1の画像上の点群とする。そして、この第1の画像及び第2の画像上の点群の組を、既入力対応点群とする。
このように変形例1によれば、既入力対応点群が得られない場合であっても整合度を算出することができる。例えば画像が不明瞭であり、第1の画像と第2の画像とで確信を持って対応していることが分かる点がない場合でも、対応付けを支援することができる。
<変形例2>
本実施形態では、整合度算出部108の処理として、第1の変位場と第2の変位場とに基づいて整合度を算出する例について説明した。一方、第1の変位場と対応点候補の組の情報とから、第2の変位場を算出せずに整合度を算出してもよい。この場合、例えば整合度Mを、以下の式(2)を用いて算出する。
M = tp,1・tp,q /|tp,1||tp,q| ・・・(2)
ここで、tp,qは、第2の点の位置pと第1の点の位置qとを結ぶベクトルを表す。式(2)に示すようにこの場合は、第1の変位場における変位ベクトルtp,1と、対応点候補の組を結ぶベクトルtp,qとの角度差の余弦を算出することを意味する。他にも、2つのベクトルの差分のノルム、すなわち、以下の式(3)により整合度Mを算出してもよい。この場合、第1の変位場によって推定される位置と、実際に入力された第1の点の位置qとの距離が整合度として算出される。
M = |tp,1−tp,q | ・・・(3)
以上のように変形例2によれば、3次元画像データ領域全体にわたって第2の変位場を算出することなく整合度を算出することが可能であるため、計算量を減少させることができる。
<変形例3>
本実施形態では、整合度算出部108の処理として、第1の変位場と第2の変位場との差異に基づいて整合度を算出する例について説明した。一方、第1の変位場を用いずに第2の変位場から整合度を算出してもよい。例えば、第2の変位場によって既入力対応点を一方から他方へ変位させた際の残差を求め、残差の平均値の逆数を整合度としてもよい。また、第2の変位場における変位場の乱れを計量し、この変位場の乱れを整合度としてもよい。例えば、非特許文献1に開示されている変位場の滑らかさの算出手法を用いて、位置pの近傍における第2の変位場の滑らかさを求め、その絶対値を整合度としてもよい。他にも、変位場のヤコビ行列の行列式(ヤコビアン)を整合度としてもよい。この場合、変位場の中でヤコビアンの値の絶対値が大きい位置は、局所的に大きな変位を表示しているため、整合度が低いと判定される。特に、ヤコビアンの値が負の場合、空間が折りたたまれるような変位を生じていることを意味するため、不整合の可能性が高い。また、第2の変位場が渦状になっている度合いなどを計量し、これを対応点候補の組の整合度としてもよい。
ここで、渦状の変位場が発生する場合の例について、図4を用いて説明する。図4(a)における格子の角は、第2の画像におけるボクセル位置401を表す。また、第1の画像上の既入力対応点402及び第2の画像上の対応する既入力対応点403が与えられている状況である。そして、対応点候補取得部104により、既入力対応点の近傍において、既入力対応点とは逆向きの変位を持った第2の点404と第1の点405とからなる対応点候補の組を取得した場合を考える。図4(b)には、このような状況下で算出される、第2の点404の近傍領域における第2の変位場406の例を示す。図4(b)に示すように、近傍に大きく方向が異なる2つの変位ベクトルが存在するため、算出される変位場は、第2の点404付近を中心とした回転を表す渦状の形となる。このような変位場が生成される場合は、整合度は低いと考えられる。
以下に、図4(b)に示した渦状の変位場を検出するための具体的な方法を示す。まず、第2の点404の位置pから距離値が一定範囲内の3次元領域を、変位場の渦を検出する範囲407として定義する。そして、この範囲に含まれるボクセル位置の数をNとする。また、第2の点404の位置pにおける変位ベクトルをt1とし、範囲407に含まれる第2の点404以外のボクセル位置における変位ベクトルを、それぞれt2,t3,…tNとする。このとき、範囲407に含まれる変位場の渦度Uは、以下の式(4)で定義される。
式(4)に示すようにこの場合は、範囲407に含まれるすべてのボクセル位置における変位ベクトルについて、変位ベクトルt1との角度差の余弦を計算し、その角度差の余弦の平均値を求めることを意味する。渦度Uが1に近い場合、すなわち、範囲407内の変位場の多くが変位ベクトルt1に近い方向である場合は整合度が高いと考えられる。一方、渦度Uが−1に近づくほど整合度が低くなると考えられる。そして、例えば、渦度Uが0.5以上であれば整合と判定し、渦度Uが0.5未満であれば不整合と判定することができる。
以上のように変形例3によれば、整合度が低くなる場合に変位場に現れるパターンに対する知識を整合度の算出に用いることができる。
(第2の実施形態)
本実施形態に係る画像処理装置は、第1の画像で入力された注目点との整合度の分布を表示することにより、対応点の入力を支援する。本実施形態に係る画像処理システムの構成は図1と同様である。ただし、以下に説明するように、各部の処理内容の一部は第1の実施形態とは異なっている。以下、本実施形態に係る画像処理装置100について、第1の実施形態との相違部分についてのみ説明する。
図5は、本実施形態において、画像処理装置100が行う全体の処理手順の一例を示すフローチャートである。なお、ステップS500からS502までの処理は、それぞれ図3のステップS300からS302の処理と同様である。また、ステップS505からS507までの処理は、それぞれ図3のステップS308、S310及びS311の処理と同様であるため、説明を省略する。
(ステップS503:整合度画像を生成)
ステップS503において、画像処理装置100は、第2の画像上の各ボクセル位置について、当該位置を注目点に対応する点の候補と仮定した際の、既知の対応情報との整合度を算出する。すなわち、それぞれのボクセル位置を、第1の点に対応する第2の点と仮定した場合(対応点候補の組と仮定した場合)の既知の対応情報との整合度を算出する。そして、各ボクセル位置における整合度をボクセル値として有するボリューム画像(以下、整合度画像)を生成する。以下、図6のフローチャートを用いて、ステップS503の処理の詳細について説明する。
図6は、図5のステップS503の詳細な処理手順の一例を示すフローチャートである。
(ステップS600:整合度画像を初期化)
まず、ステップS600において、整合度算出部108は、第2の画像と同サイズの整合度画像を生成して初期化する。このとき、全てのボクセル位置に0を与える。
(ステップS601:画像中のボクセル位置を取得)
次に、ステップS601において、対応点候補取得部104は、第2の画像中のある1つのボクセル位置の3次元座標値を取得し、データ取得部102は、取得した3次元座標値のインデックスを記憶部111に格納する。ボクセル位置の3次元座標値を取得する際には、記憶部111に格納されたインデックスを検索し、まだ取得されていないボクセル位置のみを対象とする。取得された3次元座標値は、第1の実施形態における第2の点と同じ役割を持つ。すなわち、ステップS502で取得した第1の点と組み合わせたものを、対応点候補の組とする。
(ステップS602:第2の変位場を算出)
次に、ステップS602において、変位場算出部106は、ステップS304と同様の処理により、既知の対応情報と対応点候補の組とに基づいて第2の変位場を算出する。
(ステップS603:整合度を算出)
次に、ステップS603において、整合度算出部108は、ステップS602で取得した第2の変位場に基づいて、既知の対応情報に対する対応点候補の組の整合度を算出する。本処理は、図3のステップS305と同様の処理によって実施できる。そして、算出した値を、ステップS601で取得したボクセル位置に対応する整合度画像のボクセルに、該位置における整合度の値として設定する。
(ステップS604:整合度を判定)
次に、ステップS604において、整合度算出部108は、ステップS306と同様の処理により、算出した整合度の値が一定値以上か否かを判定する。そして、不整合と判定した場合には、ステップS601で取得したボクセル位置に対応する整合度画像のボクセルに、「不整合」を表す特殊な値(例えば、負の最大値)を設定する。
(ステップS605:全ボクセル位置で整合度の算出の完了の判定)
次に、ステップS605において、整合度算出部108は、記憶部111に格納されたインデックスを参照し、整合度が算出されていないボクセル位置が存在するか否かを判定する。この判定の結果、全てのボクセル位置について整合度の算出が終了している場合はステップS503の処理を終了する。一方、まだ整合度が算出されていないボクセル位置が存在する場合は、ステップS601へ戻り、残されたボクセル位置に対して同様の処理を実行する。以上の手順により、整合度画像が生成される。
(ステップS504及びS505:第2の点を取得、及び対応点の組の追加)
図5の説明に戻り、続いてステップS504において、対応点候補取得部104は、ユーザによる操作部180の操作に従って、第2の点の位置を取得する。そして、ステップS505において、対応点候補取得部104は、ステップS502で取得した第1の点とステップS504で取得した第2の点とを新たな対応点の組として既入力対応点群に追加する。
なお、ステップS504において第2の点を取得する具体的な方法は、基本的には図3のステップS303の処理と同様であるが、以下の点が異なっている。まず、表示制御部110は、第2の点の位置を指定するための第2の画像の断面画像を表示するとともに、整合度画像において該断面画像と対応する断面の整合度を得て、その分布の情報を表示部190に表示させる。この表示は、例えば、濃淡で表現した第2の画像の断面画像上に整合度の分布をカラーマップ(整合度マップ)として重畳表示するような形態とすることができる。例えば、整合度の値と表示色との対応を予めテーブルで定義しておき、そのテーブルに従って決定した表示色を第2の画像の対応するボクセル位置に重畳する。この時、「不整合」と判定された位置には、何も重畳しないようにする。なお、整合度の分布の情報の表示・非表示は、ユーザの指示に応じて選択可能であることが望ましい。
また、整合度の分布の表示形態は、整合度を表すカラーマップの重畳表示に限らず、例えば、整合度の等値線を重畳表示してもよい。また、第2の画像の断面画像上でユーザの操作によるカーソルの動きに連動して、カーソルの示す座標における整合度を整合度画像から取得し、その整合度を文字情報として画面内の所定の位置やカーソル付近に表示する形態でもよい。また、整合度の分布の表示形態は、第2の画像へ重畳表示する形態に限定されるものではなく、第2の画像と対比しやすいように整合度画像の同一断面を並べて表示する構成であってもよい。これら整合度の分布の表示形態は、ユーザの指示に応じて選択可能であることが望ましい。
図7には、整合度の分布の表示例を示す。図7(a)は、第1の画像上の注目点701及び第2の画像上で定義される整合度マップ702を示す図である。図7(b)は、整合度マップ702を第2の断面画像202上に重畳表示した結果703を示す図である。また、図7(c)は、第2の断面画像202上にマウスカーソル704が移動している際に、その座標を第2の点としたときの整合度を示す文字情報705をカーソル右下の位置に表示している例を示す図である。これらの提示によって、ユーザは、表示部190に表示されている第2の画像と整合度の分布との表示を確認しながら、整合度が高く、かつ、対応すると思われる位置に第2の点を入力することができる。
以上のように本実施形態によれば、ユーザは、整合度の分布を確認することができるため、整合度と画像上の対応関係のバランスとを考慮しながら対応付けを容易に行うことができる。また、対応点候補の組が変位場に与える影響に基づいて整合性を求めているため、信頼性が高い整合度が得られるという効果がある。
<変形例>
本実施形態では、ユーザの操作により第2の点が入力される前に整合度の分布を表示した。一方、ステップS504において、最初は整合度の分布を表示せず、第2の点を取得した後でユーザの指示に応じて整合度の分布を表示する構成であってもよい。このような構成とすることにより、対応点に関する先入観をユーザに与えることをより回避することができる。
また、第2の点を取得した後に、取得した対応点候補の組が不整合と判定された場合にのみ整合度の分布を表示する構成であってもよい。この場合、ステップS504の後に、整合度算出部108は、取得した第2の点の位置における整合度を整合度画像から取得し、その整合度に基づいて整合度の分布を表示するか否かを判定する。すなわち、不整合と判定された場合に、表示制御部110は、整合度の判定結果と共に整合度マップを第2の画像に重畳表示する。そして、対応点候補取得部104は、ユーザがこの第2の点を採用するか否かの指示を待つことになる。ユーザの操作により不採用と指示された場合には、図3のステップS309と同様の処理により第2の点を削除して、ステップS504以降の処理を再度実行する。このように、不整合と判定されたときにのみ整合度の分布が表示されるので、ユーザを煩わさずに、必要な場合には警告できるという効果がある。
(第3の実施形態)
第1及び第2の実施形態では、ユーザが対話的操作によって1点ずつ整合度を確認しながら対応付けを行う例について説明したが、これらの処理を繰り返すことによって、既入力対応点群の整合度が変化する可能性がある。本実施形態では、既入力対応点群の整合度を算出する例について説明する。以下、本実施形態に係る画像処理装置について、第1の実施形態との相違部分についてのみ説明する。
図8は、本実施形態に係る画像処理装置800の機能構成例を示すブロック図である。なお、図1と同じ構成については、同じ符号を付けており、その説明は省略する。
対応点候補取得部804は、データ取得部102から既入力対応点群を取得し、その中のある1組を整合度の評価対象である対応点候補の組として順次選択する。また、前記既入力対応点群から前記対応点候補の組を除外した点群を、変位場算出点群として取得する。そして、変位場算出点群を、変位場算出部106へ出力する。
図9は、画像処理装置800が行う全体の処理手順を示すフローチャートである。なお、ステップS900の処理は、図3のステップS300の処理と同様であるため、説明は省略する。
(ステップS901:第3の変位場を算出)
次に、ステップS901において、変位場算出部106は、データ取得部102により取得された既入力対応点群の全ての点を用いて、第3の変位場を算出する。ここで第3の変位場は、第1の実施形態で説明した第1の変位場と同様であり、図3のステップS301と同様の方法により算出することができる。
(ステップS902:対応点候補の組を選択)
次に、ステップS902において、対応点候補取得部804は、既入力対応点群の中のある1組の点を対応点候補の組として選択する。そして、前記対応点候補の組を除外した残りの点群を変位場算出点群として取得する。そして、データ取得部102は、取得した対応点候補の組のID番号を記憶部111に格納する。なお、対応点候補の組を取得する際には、記憶部111に格納されたID番号を検索し、まだ取得されていない点のみを対象とする。
(ステップS903:第4の変位場を算出)
ステップS903において、変位場算出部106は、ステップS902で生成された変位場算出点群を用いて、第4の変位場を算出する。この第4の変位場についても、図3のステップS301と同様の方法により算出することができる。
(ステップS904:整合度を算出)
次に、ステップS904において、整合度算出部108は、ステップS901で取得した第3の変位場と、ステップS903で算出した第4の変位場とを用いて、対応点候補の組の整合度を算出する。ここで、整合度の評価方法は、図3のステップS305の処理と同様である。第4の変位場は、既入力対応点群から対応点候補の組を除外した点群を用いて算出されているのに対し、第3の変位場は、既入力対応点群の全ての点を用いて算出される。そのため、第4の変位場に対する第3の変位場の整合度は、対応点候補の組がそれ以外の既入力対応点群とどの程度整合しているかを表す。
(ステップS905:全点の整合度算出完了?)
次に、ステップS905において、データ取得部102は、記憶部111に格納された取得済み対応点のID番号を参照し、既入力対応点群の中で対応点候補の組として整合度が算出されていない点が存在するか否かを判定する。この判定の結果、全ての点について整合度の算出が終了している場合は、ステップS906へ進み、まだ整合度が算出されていない点が存在する場合はステップS902へ戻る。
(ステップS906:判定結果を表示)
ステップS906においては、表示制御部110は判定結果を表示する。判定結果の表示は、例えば以下の方法によって行う。まず、整合度算出部108は、既入力対応点群における夫々の対応点の組について、図3のステップS306と同様の方法によって整合か不整合かを判定する。そして、表示制御部110は、不整合と判定された点のID番号を表示部190に表示させる。
以上のように本実施形態によれば、既に対応付けが行われた既入力対応点群における夫々の対応点の組について、他の対応点群に対して整合しているか否かを判定することができる。そのため、正しい対応点の組が後から追加されることによって不整合が生じるような、不適切な対応点の組を検出することが可能となる。
本実施形態で説明した既入力対応点群を対象とした整合性の判定処理は、第1及び第2の実施形態と組み合わせて用いることにより一層の効果を発揮する。例えば、既入力対応点群がある程度追加された時点でユーザが既入力対応点群の整合度を算出する処理を要求した場合に、それまでに取得した既入力対応点群を対象とした整合性の評価を実施するような形態が望ましい。あるいは、図3のステップS310や図5のステップS506における終了指示後の確認工程として、既入力対応点群を対象とした整合性の評価を実施するような形態が望ましい。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
102 データ取得部
104 対応点候補取得部
108 整合度算出部
110 表示制御部

Claims (10)

  1. 第1の画像と第2の画像との間の対応情報を取得する対応情報取得手段と、
    前記第1の画像上における第1の点の座標と前記第2の画像上における第2の点の座標とからなる対応点候補の組を取得する対応点候補取得手段と、
    前記対応情報取得手段によって取得された対応情報に対する、前記対応点候補取得手段によって取得された対応点候補の組の整合度を算出する整合度算出手段と、
    前記整合度算出手段の算出結果を表示部に表示させる表示制御手段と、
    を有することを特徴とする画像処理装置。
  2. 前記対応情報を用いて前記第1の画像と前記第2の画像との間の第1の変位場を算出するとともに、前記対応情報と前記対応点候補の組とを用いて前記第1の画像と前記第2の画像との間の第2の変位場を算出する変位場算出手段をさらに備え、
    前記整合度算出手段は、前記第1の変位場と前記第2の変位場との差異に基づいて前記整合度を算出することを特徴とする請求項1に記載の画像処理装置。
  3. 前記対応情報を用いて前記第1の画像と前記第2の画像との間の第1の変位場を算出する変位場算出手段をさらに備え、
    前記整合度算出手段は、前記変位場算出手段によって算出された第1の変位場と前記対応点候補の組とに基づいて整合度を算出することを特徴とする請求項1に記載の画像処理装置。
  4. 前記対応情報と前記対応点候補の組とを用いて前記第1の画像と前記第2の画像との間の第2の変位場を算出する変位場算出手段をさらに備え、
    前記整合度算出手段は、前記変位場算出手段によって算出された第2の変位場に基づいて整合度を算出することを特徴とする請求項1に記載の画像処理装置。
  5. 前記対応点候補取得手段は、前記第2の画像上における複数の点の夫々を前記第2の点と仮定した複数の対応点候補の組を取得し、
    前記整合度算出手段は、前記対応点候補の組の夫々に関して整合度を算出し、
    前記表示制御手段は、前記複数の対応点候補の組に対応する複数の整合度の分布を前記表示部に表示させることを特徴とする請求項1〜4の何れか1項に記載の画像処理装置。
  6. 前記表示制御手段は、ユーザの操作によって指定された対応点候補の組を前記対応点候補取得手段が取得した後に、前記複数の整合度の分布を前記表示部に表示させることを特徴とする請求項5に記載の画像処理装置。
  7. 前記対応情報は、前記第1の画像と前記第2の画像との間で既に対応付けされている複数の対応点の組の情報であることを特徴とする請求項1〜6の何れか1項に記載の画像処理装置。
  8. 前記整合度算出手段によって算出された整合度が所定の条件を満たしている場合に、前記対応点候補の組を前記対応点の組として追加する追加手段をさらに備え、
    前記整合度算出手段は、前記追加手段によって前記対応点候補の組が追加された場合に、対応点の組のそれぞれを対応点候補の組として、それぞれの対応点候補の組について、該対応点候補の組を除いた対応点の組に対する整合度を算出することを特徴とする請求項7に記載の画像処理装置。
  9. 第1の画像と第2の画像との間の対応情報を取得する対応情報取得工程と、
    前記第1の画像上における第1の点の座標と前記第2の画像上における第2の点の座標とからなる対応点候補の組を取得する対応点候補取得工程と、
    前記対応情報取得工程において取得された対応情報に対する、前記対応点候補取得工程において取得された対応点候補の組の整合度を算出する算出工程と、
    前記算出工程の算出結果を表示部に表示させる表示制御工程と、
    を有することを特徴とする画像処理方法。
  10. 第1の画像と第2の画像との間の対応情報を取得する対応情報取得工程と、
    前記第1の画像上における第1の点の座標と前記第2の画像上における第2の点の座標とからなる対応点候補の組を取得する対応点候補取得工程と、
    前記対応情報取得工程において取得された対応情報に対する、前記対応点候補取得工程において取得された対応点候補の組の整合度を算出する算出工程と、
    前記算出工程の算出結果を表示部に表示させる表示制御工程と、
    をコンピュータに実行させることを特徴とするプログラム。
JP2014146076A 2014-07-16 2014-07-16 画像処理装置、画像処理方法及びプログラム Active JP6376873B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014146076A JP6376873B2 (ja) 2014-07-16 2014-07-16 画像処理装置、画像処理方法及びプログラム
US14/799,271 US9588666B2 (en) 2014-07-16 2015-07-14 Image processing apparatus, image processing method, and storage medium
US15/412,633 US10395380B2 (en) 2014-07-16 2017-01-23 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014146076A JP6376873B2 (ja) 2014-07-16 2014-07-16 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2016021998A true JP2016021998A (ja) 2016-02-08
JP6376873B2 JP6376873B2 (ja) 2018-08-22

Family

ID=55074988

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014146076A Active JP6376873B2 (ja) 2014-07-16 2014-07-16 画像処理装置、画像処理方法及びプログラム

Country Status (2)

Country Link
US (2) US9588666B2 (ja)
JP (1) JP6376873B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018022334A (ja) * 2016-08-03 2018-02-08 キヤノン株式会社 画像処理装置および画像処理方法
JP2018038609A (ja) * 2016-09-07 2018-03-15 キヤノン株式会社 画像処理装置、その制御方法、およびプログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6021346B2 (ja) * 2012-02-14 2016-11-09 キヤノン株式会社 診断支援装置及びその制御方法
EP3295374B8 (en) * 2015-05-11 2023-10-18 Siemens Healthcare GmbH Method and system for landmark detection in medical images using deep neural networks
FR3041153B1 (fr) * 2015-09-10 2018-07-27 Aledia Dispositif electroluminescent a capteur de lumiere integre
JP6821303B2 (ja) * 2015-12-15 2021-01-27 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
JP6675495B2 (ja) * 2017-01-24 2020-04-01 ブレインラボ アーゲー 脳深部刺激療法の電極の三次元画像における回転配向の決定
CN107886527A (zh) * 2017-11-21 2018-04-06 桂林爱家购股份有限公司 一种图像处理系统和方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008134791A (ja) * 2006-11-28 2008-06-12 Fuji Xerox Co Ltd 画像処理装置及び画像処理プログラム
US20100164950A1 (en) * 2008-12-31 2010-07-01 Intuitive Surgical, Inc. Efficient 3-d telestration for local robotic proctoring
JP2013004014A (ja) * 2011-06-21 2013-01-07 Konica Minolta Holdings Inc 画像処理装置、そのプログラム、および画像処理方法
US20130016889A1 (en) * 2011-07-14 2013-01-17 Accuray, Inc. Image Registration for Image-Guided Surgery

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69332042T2 (de) * 1992-12-18 2003-01-02 Koninklijke Philips Electronics N.V., Eindhoven Ortungszurückstellung von relativ elastisch verformten räumlichen Bildern durch übereinstimmende Flächen
US6134340A (en) * 1997-12-22 2000-10-17 Trw Inc. Fingerprint feature correlator
JP3972816B2 (ja) * 2000-09-07 2007-09-05 株式会社ニコン 画像処理装置および表色系変換方法
JP4032241B2 (ja) * 2003-02-28 2008-01-16 日本電気株式会社 指紋照合装置及びその方法
JP2005269605A (ja) * 2004-02-20 2005-09-29 Fuji Photo Film Co Ltd デジタル図鑑システム、図鑑検索方法、図鑑検索プログラム
JP3932303B2 (ja) * 2005-05-13 2007-06-20 独立行政法人放射線医学総合研究所 臓器動態の定量化方法、装置、臓器位置の予測方法、装置、放射線照射方法、装置及び臓器異常検出装置
JP4700452B2 (ja) * 2005-09-16 2011-06-15 株式会社リコー 情報管理装置、情報管理方法、情報管理プログラムおよび記録媒体
JP5170961B2 (ja) * 2006-02-01 2013-03-27 ソニー株式会社 画像処理システム、画像処理装置および方法、プログラム、並びに記録媒体
TW200809764A (en) * 2006-04-24 2008-02-16 Sony Corp Image processing device, image processing method and program recording medium
US8204278B2 (en) * 2006-11-28 2012-06-19 Fujitsu Limited Image recognition method
US8303502B2 (en) 2007-03-06 2012-11-06 General Electric Company Method and apparatus for tracking points in an ultrasound image
JP5294343B2 (ja) * 2008-06-10 2013-09-18 国立大学法人東京工業大学 画像位置合わせ処理装置、領域拡張処理装置及び画質改善処理装置
CN102197412B (zh) * 2008-10-28 2014-01-08 日本电气株式会社 伪装检测系统和伪装检测方法
US8600147B2 (en) * 2009-06-03 2013-12-03 The United States of America as represented by the Secreatary of the Navy System and method for remote measurement of displacement and strain fields
JP5214811B2 (ja) * 2009-11-13 2013-06-19 富士フイルム株式会社 測距装置、測距方法、測距プログラムおよび測距システムならびに撮像装置
JP5546230B2 (ja) * 2009-12-10 2014-07-09 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP5538862B2 (ja) * 2009-12-18 2014-07-02 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP5574852B2 (ja) * 2010-06-30 2014-08-20 キヤノン株式会社 情報処理装置、情報処理方法、システム及びプログラム
US8571350B2 (en) * 2010-08-26 2013-10-29 Sony Corporation Image processing system with image alignment mechanism and method of operation thereof
WO2012063469A1 (ja) * 2010-11-11 2012-05-18 パナソニック株式会社 画像処理装置、画像処理方法およびプログラム
CN103702616B (zh) * 2011-08-03 2016-05-04 株式会社日立医疗器械 图像诊断装置以及图像修正方法
DE102011080905B4 (de) * 2011-08-12 2014-03-27 Siemens Aktiengesellschaft Verfahren zur Visualisierung der Registrierungsqualität medizinischer Bilddatensätze
US9058647B2 (en) 2012-01-16 2015-06-16 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
JP5799863B2 (ja) * 2012-03-12 2015-10-28 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP5977591B2 (ja) * 2012-06-20 2016-08-24 オリンパス株式会社 画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体
US8971634B2 (en) * 2012-10-26 2015-03-03 Texas Instruments Incorporated Approximate pyramidal search for fast displacement matching
JP6195915B2 (ja) * 2013-05-07 2017-09-13 シャープ株式会社 画像計測装置
JP6165591B2 (ja) * 2013-10-31 2017-07-19 株式会社東芝 画像処理装置、治療システム、及び画像処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008134791A (ja) * 2006-11-28 2008-06-12 Fuji Xerox Co Ltd 画像処理装置及び画像処理プログラム
US20100164950A1 (en) * 2008-12-31 2010-07-01 Intuitive Surgical, Inc. Efficient 3-d telestration for local robotic proctoring
JP2013004014A (ja) * 2011-06-21 2013-01-07 Konica Minolta Holdings Inc 画像処理装置、そのプログラム、および画像処理方法
US20130016889A1 (en) * 2011-07-14 2013-01-17 Accuray, Inc. Image Registration for Image-Guided Surgery

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018022334A (ja) * 2016-08-03 2018-02-08 キヤノン株式会社 画像処理装置および画像処理方法
JP2018038609A (ja) * 2016-09-07 2018-03-15 キヤノン株式会社 画像処理装置、その制御方法、およびプログラム
US10603016B2 (en) 2016-09-07 2020-03-31 Canon Kabushiki Kaisha Image processing apparatus, method of controlling the same, and non-transitory computer-readable storage medium

Also Published As

Publication number Publication date
JP6376873B2 (ja) 2018-08-22
US20170132797A1 (en) 2017-05-11
US10395380B2 (en) 2019-08-27
US20160019706A1 (en) 2016-01-21
US9588666B2 (en) 2017-03-07

Similar Documents

Publication Publication Date Title
JP6376873B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5355074B2 (ja) 3次元形状データ処理装置、3次元形状データ処理方法及びプログラム
JP6482250B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2018530401A5 (ja)
JP2009160045A (ja) 医用画像表示装置および画像表示方法
JP5977214B2 (ja) 画像処理方法および装置並びにプログラム
JP6467221B2 (ja) 画像処理装置および方法
JP6541363B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6383189B2 (ja) 画像処理装置、画像処理方法およびプログラム
CN108701220A (zh) 用于处理多模态图像的系统和方法
US9542529B2 (en) Medical image data processing apparatus and method
JP2011125567A (ja) 情報処理装置、情報処理方法、情報処理システム、及びプログラム
US10603016B2 (en) Image processing apparatus, method of controlling the same, and non-transitory computer-readable storage medium
US20190035094A1 (en) Image processing apparatus, image processing method, image processing system, and program
JP2016047217A (ja) 画像処理方法および装置並びにプログラム
JP6238755B2 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2017003424A1 (en) Metric 3d stitching of rgb-d data
JP6821303B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6643416B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6757242B2 (ja) 線維状組織抽出装置、線維状組織抽出方法並びに線維状組織抽出プログラム
JP4720478B2 (ja) モデリング装置、領域抽出装置およびプログラム
JP4736755B2 (ja) モデリング装置、領域抽出装置、モデリング方法及びプログラム
JP2007159927A (ja) モデリング装置、モデリング方法、領域抽出装置、領域抽出方法及びプログラム
JP5904976B2 (ja) 3次元データ処理装置、3次元データ処理方法及びプログラム
JP2019000403A (ja) 医用画像診断装置及び画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180724

R151 Written notification of patent or utility model registration

Ref document number: 6376873

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151