JP2008093213A - 医療用画像処理装置及び医療用画像処理方法 - Google Patents
医療用画像処理装置及び医療用画像処理方法 Download PDFInfo
- Publication number
- JP2008093213A JP2008093213A JP2006279236A JP2006279236A JP2008093213A JP 2008093213 A JP2008093213 A JP 2008093213A JP 2006279236 A JP2006279236 A JP 2006279236A JP 2006279236 A JP2006279236 A JP 2006279236A JP 2008093213 A JP2008093213 A JP 2008093213A
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional
- dimensional model
- edge
- medical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/507—Depth or shape recovery from shading
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30028—Colon; Small intestine
- G06T2207/30032—Colon polyp
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Endoscopes (AREA)
- Image Analysis (AREA)
Abstract
【課題】2次元画像から3次元画像を精度よく構築し、局所的な隆起形状を有する病変を検出する場合の検出精度を向上させる。
【解決手段】本実施例の内視鏡システムは、医療用観察装置と、医療用画像処理装置と、モニタとを有して要部が構成されている。医療用画像処理装置のCPU22は、3次元モデル推定部22a、検出対象領域設定部22b、形状特徴量算出手段としての形状特徴量算出部22c、モデル補正部22d、3次元形状検出部22e、ポリープ決定部22fの各機能部からなる。
【選択図】図2
【解決手段】本実施例の内視鏡システムは、医療用観察装置と、医療用画像処理装置と、モニタとを有して要部が構成されている。医療用画像処理装置のCPU22は、3次元モデル推定部22a、検出対象領域設定部22b、形状特徴量算出手段としての形状特徴量算出部22c、モデル補正部22d、3次元形状検出部22e、ポリープ決定部22fの各機能部からなる。
【選択図】図2
Description
本発明は、医療用画像処理装置及び医療用画像処理方法に関し、特に、生体組織の像の2次元画像データに基づき、該生体組織の3次元モデルデータを推定する医療用画像処理装置及び医療用画像処理方法に関する。
従来、医療分野において、X線診断装置、CT、MRI、超音波観測装置及び内視鏡装置等の画像撮像機器を用いた観察が広く行われている。このような画像撮像機器のうち、内視鏡装置は、例えば、体腔内に挿入可能な挿入部を有し、該挿入部の先端部に配置された対物光学系により結像した体腔内の像を固体撮像素子等の撮像手段により撮像して撮像信号として出力し、該撮像信号に基づいてモニタ等の表示手段に体腔内の像の画像を表示するという作用及び構成を有する。そして、ユーザは、モニタ等の表示手段に表示された体腔内の像の画像に基づき、例えば、体腔内における臓器等の観察を行う。
また、内視鏡装置は、消化管粘膜の像を直接的に撮像することが可能である。そのため、ユーザは、例えば、粘膜の色調、病変の形状及び粘膜表面の微細な構造等を総合的に観察することができる。
さらに、内視鏡装置は、局所的な隆起形状を有する病変が存在する所定の画像を検出可能な画像処理方法として、例えば、特開2005−192880号公報(特許文献1)等に記載されている画像処理方法を用いることにより、ポリープ等の病変部位が含まれる画像を検出することもまた可能である。
この特許文献1に記載されている画像処理方法は、入力された画像が有する輪郭を抽出するとともに、該輪郭の形状に基づき、該画像における局所的な隆起形状を有する病変を検出することができる。
また、従来、大腸ポリープ検出処理においては、2次元画像から3次元データを推定し、3次元特徴量(Shape Index/Curvedness)を用いて大腸ポリープを検出している(非特許文献1)。この3次元特徴量は、参照点における偏微分係数を3次元データから算出して、偏微分係数を使用して算出することにより実現する。そして、大腸ポリープ検出処理では、3次元特徴量を閾値処理することにより、ポリープ候補を検出する。
特開2005−192880号公報
電子情報通信学会、信学技報(MI2003-102),形状情報に基づく3次元腹部CT像からの大腸ポリープ自動検出手法に関する検討 木村、林、北坂、森、末長 pp.29〜34,2004
しかしながら、従来より3次元データの推定手法として使用される”Shape From Shading“法は、2次元画像でエッジとして画像化される部分では、精度が悪化するといった問題がある。
詳細には、ポリープ等の3次元像を内視鏡にて撮像する場合、3次元像上の曲面の境や可視範囲とオクルージョン(可視隠蔽or不可視)範囲との境に、境界として、エッジ領域が発生する。2次元画像から3次元データを推定する”Shape From Shading“法は、2次元画像の画素値を元にして3次元位置を推定する手法である。このエッジ領域の画素値は、隣接する領域の画素値と比べ低い値となるため、”Shape From Shading“法では、このエッジ領域に「溝(凹)」が存在するかのごとく、3次元位置の推定値を算出してしまう。
例えば、図26に示すようなポリープ500を撮像対象とする大腸内視鏡画像に対して、”Shape From Shading“法により3次元データ点の座標を推定し、3次元データ点から3次元サーフェイスを生成する場合、理想的には、図27に示すような3次元画像を生成すべきである。
しかし、平面x=x0(図26における点線位置)にて実際に”Shape From Shading“法により3次元サーフェイスを切り出す時の断面は、図28に示すように、2次元画像データのエッジ領域部分にて、あらかも「溝(凹)」が存在するかのごとく推定されてしまう。腸管においては、このような「溝(凹)」が存在することがないため、従来の”Shape From Shading“法による推定では、存在しない「溝(凹)」を3次元データとして推定してしまうため、3次元画像の推定の精度が悪化するといった問題があり、3次元画像推定を利用した従来の大腸ポリープ検出処理は、検出精度の低下及び誤検出の発生といった課題を有している。
本発明は、上記事情に鑑みてなされたものであり、2次元画像から3次元画像を精度よく構築し、局所的な隆起形状を有する病変を検出する場合の検出精度を向上させることのできる医療用画像処理装置及び医療用画像処理方法を提供することを目的としている。
本発明の医療用画像処理装置は、
医療用撮像装置から入力される体腔内の生体組織の像の2次元画像から前記生体組織の3次元モデルを推定する3次元モデル推定手段と、
前記2次元画像画像を構成する画像領域の画像境界線を検出する画像境界線検出手段と、
前記画像境界線の線幅を算出する線幅算出手段と、
前記線幅に基づき、前記3次元モデル推定手段における、前記画像境界線の3次元モデルの推定結果を補正する補正手段と、
とを備えて構成される。
医療用撮像装置から入力される体腔内の生体組織の像の2次元画像から前記生体組織の3次元モデルを推定する3次元モデル推定手段と、
前記2次元画像画像を構成する画像領域の画像境界線を検出する画像境界線検出手段と、
前記画像境界線の線幅を算出する線幅算出手段と、
前記線幅に基づき、前記3次元モデル推定手段における、前記画像境界線の3次元モデルの推定結果を補正する補正手段と、
とを備えて構成される。
また、本発明の医療用画像処理方法は、
医療用撮像装置から入力される体腔内の生体組織の像の2次元画像から前記生体組織の3次元モデルを推定する3次元モデル推定ステップと、
前記2次元画像画像を構成する画像領域の画像境界線を検出する画像境界線検出ステップと、
前記画像境界線の線幅を算出する線幅算出ステップと、
前記線幅に基づき、前記3次元モデル推定ステップにおける、前記画像境界線の3次元モデルの推定結果を補正する補正ステップと、
とを備えて構成される。
医療用撮像装置から入力される体腔内の生体組織の像の2次元画像から前記生体組織の3次元モデルを推定する3次元モデル推定ステップと、
前記2次元画像画像を構成する画像領域の画像境界線を検出する画像境界線検出ステップと、
前記画像境界線の線幅を算出する線幅算出ステップと、
前記線幅に基づき、前記3次元モデル推定ステップにおける、前記画像境界線の3次元モデルの推定結果を補正する補正ステップと、
とを備えて構成される。
本発明によれば、2次元画像から3次元画像を精度よく構築し、局所的な隆起形状を有する病変を検出する場合の検出精度を向上させることができるという効果がある。
以下、図面を参照しながら本発明の実施例について述べる。
図1ないし図16は本発明の実施例1に係わり、図1は医療用画像処理装置が用いられる内視鏡システムの全体構成の一例を示す図、図2は図1のCPUの機能構成を示す機能ブロック図、図3は図1のハードディスクの格納情報構成を示す図、図4は図2のCPUの処理の流れを示すフローチャート、図5は図4の3次元モデルデータの補正処理の流れを示すフローチャート、図6は図1の処理を説明する第1の図、図7は図1の処理を説明する第2の図、図8は図1の処理を説明する第3の図、図9は図1の処理を説明する第4の図、図10は図5のエッジ領域としてエッジ端点間の3次元点列データの補正処理の流れを示すフローチャート、図11は図1の処理を説明する第5の図、図12は図1の処理を説明する第6の図、図13は図10の第1の変形例の処理の流れを示すフローチャート、図14は図10の第2の変形例の処理の流れを示すフローチャート、図15は図14の処理を説明する第1の図、図16は図14の処理を説明する第2の図である。
図1に示すように、本実施例の内視鏡システム1は、医療用観察装置2と、医療用画像処理装置3と、モニタ4とを有して要部が構成されている。
前記医療用観察装置2は、被写体を撮像するとともに、該被写体の像の2次元画像を出力する観察装置である。また、医療用画像処理装置3は、パーソナルコンピュータ等により構成され、医療用観察装置2から出力される2次元画像の映像信号に対して画像処理を行うと共に、該画像処理を行った後の映像信号を画像信号として出力する画像処理装置である。さらにモニタ4は、医療用画像処理装置3から出力される画像信号に基づく画像を表示する表示装置である。
前記医療用観察装置2は、内視鏡6と、光源装置7と、カメラコントロールユニット(以降、CCUと略記する)8と、モニタ9とを有して要部が構成されている。
前記内視鏡6は、被検体の体腔内に挿入されると共に、該体腔内に存在する生体組織等の被写体を撮像して撮像信号として出力するものである。前記光源装置7は、内視鏡6により撮像される被写体を照明するための照明光を供給するものである。前記CCU8は、内視鏡6に対する各種制御を行うと共に、内視鏡6から出力される撮像信号に対して信号処理を行い、2次元画像の映像信号として出力するものである。前記モニタ9は、CCU8から出力される2次元画像の映像信号に基づき、内視鏡6により撮像された被写体の像を画像表示するものである。
前記内視鏡6は、体腔内に挿入される挿入部11と、挿入部11の基端側に設けられた操作部12とを有して構成されている。また、挿入部11内の基端側から、挿入部11内の先端側の先端部14にかけての部分には、光源装置7から供給される照明光を伝送するためのライトガイド13が挿通されている。
前記ライトガイド13は、先端側が内視鏡6の先端部14に配置されると共に、後端側が前記光源装置7に接続される。
ライトガイド13がこのような構成を有することにより、光源装置7から供給される照明光は、ライトガイド13により伝送された後、挿入部11の先端部14の先端面に設けられた、図示しない照明窓から出射される。そして、図示しない照明窓から照明光が出射されることにより、被写体としての生体組織等が照明される。
内視鏡6の先端部14には、図示しない照明窓に隣接する図示しない観察窓に取り付けられた対物光学系15と、対物光学系15の結像位置に配置され、例えば、CCD(電荷結合素子)等により構成される撮像素子16とを有する撮像部17が設けられている。このような構成により、対物光学系15により結像された被写体の像は、撮像素子16により撮像された後、撮像信号として出力される。なお、撮像素子16は、CCDに限らず、例えばC−MOSセンサにより構成してもよい。
前記撮像素子16は、信号線を介してCCU8に接続されている。そして、撮像素子16は、CCU8から出力される駆動信号に基づいて駆動すると共に、CCU8に対し、撮像した被写体の像に応じた撮像信号を出力する。
また、CCU8に入力された撮像信号は、CCU8の内部に設けられた図示しない信号処理回路において信号処理されることにより、2次元画像の映像信号として変換されて出力される。CCU8から出力された2次元画像の映像信号は、モニタ9及び医療用画像処理装置3に対して出力される。これにより、モニタ9は、CCU8から出力される映像信号に基づく被写体の像を2次元画像として表示する。
医療用画像処理装置3は、医療用観察装置2から出力される2次元画像の映像信号に対し、A/D変換を行って出力する画像入力部21と、画像入力部21から出力される映像信号に対して画像処理を行う、中央演算処理装置としてのCPU22と、該画像処理に関する処理プログラムが書き込まれた処理プログラム記憶部23と、画像入力部21から出力される映像信号等を記憶する画像記憶部24と、CPU22が行う画像処理における演算結果等を記憶する解析情報記憶部25とを有して構成される。
また、医療用画像処理装置3は、記憶装置インターフェース(I/F)26と、記憶装置I/F26を介してCPU22の画像処理結果としての画像データ、CPU22が画像処理にて使用する各種データ等を記憶する、記憶装置としてのハードディスク27と、CPU22の画像処理結果としての画像データに基づき、該画像データをモニタ4に画像表示するための表示処理を行うと共に、該表示処理を行った後の画像データを画像信号として出力する表示処理部28と、CPU22が行う画像処理におけるパラメータ及び医療用画像処理装置3に対する操作指示をユーザが入力可能な、キーボードあるいはマウス等のポインティングデバイス等により構成される入力操作部29とを有する。そして、モニタ4は、表示処理部28から出力される画像信号に基づく画像を表示する。
なお、医療用画像処理装置3の画像入力部21、CPU22、処理プログラム記憶部23、画像記憶部24、解析情報記憶部25、記憶装置インターフェース26、表示処理部28及び入力操作部29のそれぞれは、データバス30を介して相互に接続されている。
図2に示すように、CPU22は、3次元モデル推定手段としての3次元モデル推定部22a、検出対象領域設定部22b、形状特徴量算出部22c、線幅算出手段及び補正手段としてのモデル補正部22d、3次元形状検出部22e、ポリープ決定部22fの各機能部からなる。
なお、本実施例では、これら機能部は、CPU22が行うソフトウエアにて実現される。また、これら機能部の詳細な作用については後述する。
また、図3に示すように、ハードディスク27は、CPU22が行う各処理により生成される各種データを記憶する、複数の格納領域を有している。具体的にはハードディスク27は、エッジ画像格納領域27a,エッジ細線化画像格納領域27b,3次元点列データ格納領域27c,対応テーブル格納領域27d,検出病変部格納領域27eを有している。これら各格納領域に格納されているデータの詳細は、後述する。
次に、このように構成された、本実施例の内視鏡システム1の作用について、図4、図5及び図10のフローチャートを用い、図6〜図9及び図11、図12を参照して説明する。
まず、ユーザは、内視鏡システム1が有する各部の電源を投入した後、被検体の体腔内の、例えば大腸内に内視鏡6の挿入部11を挿入する。
そして、ユーザにより挿入部11が被検体の大腸内に挿入されると、例えば、該大腸内に存在する生体組織等である被写体、例えば図26に示したポリープ500の像が、先端部14に設けられた撮像部17により撮像される。そして、撮像部17により撮像された被写体の像は、撮像信号としてCCU8に対して出力される。
CCU8は、図示しない信号処理回路において、撮像部17の撮像素子16から出力される撮像信号に対して信号処理を行うことにより、該撮像信号を2次元画像の映像信号として変換して出力する。そして、モニタ9は、CCU8から出力される映像信号に基づき、撮像部17により撮像された被写体の像を2次元画像として表示する。また、CCU8は、撮像部17の撮像素子16から出力される撮像信号に対して信号処理を行うことにより得られた2次元画像の映像信号を、医療用画像処理装置3に対して出力する。
医療用画像処理装置3に対して出力された2次元画像の映像信号は、画像入力部21においてA/D変換された後、CPU22に入力される。
そして、図4に示すように、CPU22の3次元モデル推定部22aは、ステップS1にて画像入力部21から出力される2次元画像に対し、例えば、“Shape From Shading“法等を用い、該2次元画像の輝度情報等に基づく幾何学的な変換等の処理を施すことにより、該2次元画像に応じた3次元モデルを推定する。このとき、3次元モデル推定部22aは、大腸の腸管表面を示す3次元データ点列と、2次元画像データとを対応させた対応テーブルを生成し、ハードディスク27の対応テーブル格納領域27dに格納する。
そして、CPU22のモデル補正部22dにより、ステップS2にて推定した3次元モデルに対して、後述するモデル補正処理を施し、補正した3次元モデルの各データ点の座標を記憶装置I/F26を介してハードディスク27の3次元点列データ格納領域27cに格納する。
次に、CPU22の検出対象領域設定部22bは、ステップS3にて画像入力部21から出力される2次元画像の色調変化と、ステップS2の処理により補正した3次元モデルの隆起性変化とを検出することにより、該3次元モデルにおける隆起形状を有する病変を検出するための処理の適用対象となる領域としての、検出対象領域である対象領域を設定する。
具体的には、CPU22の検出対象領域設定部22bは、例えば、画像入力部21から出力される2次元画像を、R(赤)画像、G(緑)画像及びB(青)画像の各プレーン画像に分離した後、該R画像に応じて推定した3次元モデルのデータに基づいて隆起性変化を検出するとともに、該R画像及びG画像の色度に基づいて色調変化を検出する。そして、CPU22の検出対象領域設定部22bは、前記隆起性変化の検出結果及び前記色調変化の検出結果に基づき、前記隆起性変化及び前記色調変化の両方が検出された領域を、前記対象領域として設定する。
その後、CPU22の形状特徴量算出部22cは、ステップS4にて対象領域の局所偏微分係数を算出する。具体的には、CPU22の形状特徴量算出部22cは、算出された3次元形状に対して、注目する3次元位置(x、y、z)を含む局所領域(曲面)におけるそのR画素値fにおける1階偏微分係数fx、fy、fz、及び2階偏微分係数fxx,fyy,fzz,fxy,fyz,fxzを算出する。
さらに、CPU22の形状特徴量算出部22cは、ステップS5にて3次元モデルの処理対象領域に存在する各データ点に対し、(3次元形状)の形状特徴量として、局所偏微分係数に基づき、Shape Index値及びCurvedness値を算出する処理を行う。
すなわち、これらの局所偏微分係数を用いて、CPU22の形状特徴量算出部22cは、ガウス曲率K,平均曲率Hを算出する。
一方、曲面の主曲率k1,k2(k1≧k2)は、ガウス曲率Kと、平均曲率Hを用いて
k1=H+(H2−K)1/2 k2=H−(H2−K)1/2 (1)
と表される。
k1=H+(H2−K)1/2 k2=H−(H2−K)1/2 (1)
と表される。
また、この場合における曲面形状を表す特徴量であるShape IndexSI及びCurvednessCVは、それぞれ
SI=1/2−(1/π)arc tan[(k1+k2)/(k1−k2)] (2)
CV=((k12+k22)/2)1/2 (3)
となる。
SI=1/2−(1/π)arc tan[(k1+k2)/(k1−k2)] (2)
CV=((k12+k22)/2)1/2 (3)
となる。
CPU22の形状特徴量算出部22cは、このようにして、3次元の各曲面におけるShape IndexSI及びCurvednessCVを3次元形状情報として算出し、解析情報記憶部25に格納する。
前述したShape Index値は、3次元モデルが有する各データ点における凹凸の状態を示すための値であり、0以上1以下の範囲内の数値として示される。具体的には、3次元モデル内に存在する個々のデータ点において、Shape Index値が0に近い場合には凹型形状の存在が示唆され、また、Shape Index値が1に近い場合には凸型形状の存在が示唆される。
また、前述したCurvedness値は、3次元モデルが有する各データ点における曲率を示すための値である。具体的には、3次元モデル内に存在する個々のデータ点において、Curvedness値が小さければ小さい程鋭く曲がった曲面の存在が示唆され、また、Curvedness値が大きければ大きい程鈍く曲がった曲面の存在が示唆される。
次に、CPU22の3次元形状検出部22dは、ステップS6にて3次元モデルの対象領域に存在する各データ点において、Shape Index値及びCurvedness値の各値と、予め設定されている所定の閾値T1,T2との比較処理を行うことにより、該各データ点のうち、隆起形状を有するデータ群として検出する。具体的には、CPU22は、3次元モデルの処理対象領域に存在する各データ点のうち、例えば、Shape Index値が閾値T1より大きく、かつ、Curvedness値が閾値T2より大きい複数のデータ点を、隆起形状を有するデータ群として検出する。
そして、CPU22のポリープ決定部22fは、ステップS7にて3次元モデルにおいて隆起形状を有するデータ群として検出した複数のデータ点各々が、ポリープ等の病変に由来する隆起形状に該当するデータ点であるかを判別する隆起形状判別処理を行う。
その後、CPU22のポリープ決定部22fは、ステップS8にて病変に由来する隆起形状に該当するデータ点からなるデータ群を有する領域をポリープ領域として決定し、病変領域であるポリープを検出する。
そして、CPU22は、その検出結果を、例えば図1のハードディスク27の検出病変部格納領域27eに検出対象の内視鏡画像と関連付けて格納すると共に、表示処理部28を経てモニタ4に、例えば検出対象の内視鏡画像と並べて表示する。
これにより、モニタ4には、ポリープ等の病変に由来する隆起形状が存在する位置をユーザが容易に認識可能であるような、被写体の3次元モデルが画像表示される。
次に、上記のステップS2における、モデル補正部22dによるモデル補正処理について説明する。図5に示すように、CPU22のモデル補正部22dは、ステップS21にて、入力された2次元画像に対してエッジ抽出処理を実施しエッジ画像を生成し、ハードディスク27のエッジ画像格納領域27aに格納する。また、モデル補正部22dは、ステップS21にて、生成したエッジ画像に対して細線化処理を施しエッジ細線化画像を生成し、ハードディスク27のエッジ細線化画像格納領域27bに格納する。
なお、2次元のエッジ画像が図6とすると、エッジ細線化画像は、細線化処理によりエッジ画像の各エッジ領域を線幅1画素に細線化した画像となる。
次に、CPU22のモデル補正部22dは、ステップS23にてパラメータi,jをそれぞれ1にセットする。続いて、CPU22のモデル補正部22dは、ステップS24にてエッジ細線化画像の第i番目のエッジ線Liを取得し、ステップS25にて第i番目エッジ線Li上の第j番目の(注目点である)エッジ点Pi,jを取得する。
そして、CPU22のモデル補正部22dは、ステップS26にて第j番目エッジ点Pi,jを通る、第i番目エッジ線Liに直交するエッジ直交線Hi,jを生成する。続いて、CPU22のモデル補正部22dは、ステップS27にてエッジ直交線Hi,j上の2次元画像上の各点(xi,j,yi,j,zi,j)に対応する3次元データ点列を対応テーブルから取得する。なお、この対応テーブルは、上述したように、ステップS1にてCPU22の3次元モデル推定部22aによりハードディスク27の対応テーブル格納領域27dに格納されている。
そして、CPU22のモデル補正部22dは、ステップS28にてエッジ直交線Hi,j上のエッジの端点Ai,j,Bi,j(図6の拡大図参照)を決定する。具体的には、本実施例では、図7に示すように、2次元画像上の各点に対応する画素値を取得し、その画素値が所定の閾値tよりも小さい値をエッジ上の点とする判定処理を用いて、上記の細線化したエッジ上の各点から双方向に1点づつ判定を行うことにより、エッジの端点Ai,j,Bi,jを求める。
次に、CPU22のモデル補正部22dは、ステップS29にてエッジの端点Ai,j,Bi,j間の距離Di,jを求める。そして、CPU22のモデル補正部22dは、ステップS30にてエッジの端点Ai,j,Bi,j間の距離Di,jが所定の値D0よりも小さい(Di,j<D0)かどうか判定する。
エッジの端点Ai,j,Bi,j間の距離Di,jが所定の値D0よりも小さい(Di,j<D0)と判定すると、CPU22のモデル補正部22dはステップS31にてエッジの端点Ai,j,Bi,j間はエッジ領域として表現される部分と判断して3次元点列データの補正を行い、ステップS33に進む。なお、ステップS31における3次元点列データの補正処理の詳細は後述する。
また、エッジの端点Ai,j,Bi,j間の距離Di,jが所定の値D0以上と判定すると、CPU22のモデル補正部22dはステップS32にてエッジの端点Ai,j,Bi,j間はオクルージョン領域として表現される部分と判断して、エッジの端点Ai,j,Bi,j間の3次元点列データを消去し、ステップS33に進む。具体的には、モデル補正部22dは、ステップS32において、図8に示すように、エッジの端点Ai,j,Bi,j間の距離Di,jが所定の値D0以上と判定すると、腸管表面を示す3次元点列データ線上から、エッジの端点Ai,j,Bi,j間の3次元点列データを、図9に示すように消去して、オクルージョン領域として補正した3次元点列データ線を生成する。
そして、CPU22のモデル補正部22dはステップS33にてパラメータjがエッジ線Li上のすべての点数Nj未満かどうか判断し、パラメータjがエッジ線Li上のすべての点数Nj未満の場合には、ステップS34にてパラメータjをインクリメントしてステップS25に戻り、エッジ線Li上のすべての点について、上記ステップS25〜S34を繰り返す。
エッジ線Li上のすべての点について上記ステップS25〜S33が実施されると、CPU22のモデル補正部22dはステップS35にてパラメータiがすべてのエッジ線数Ni未満かどうか判断し、パラメータiがすべてのエッジ線数Ni未満の場合には、ステップS36にてパラメータiをインクリメントしてステップS24に戻り、すべてのエッジ線について、上記ステップS24〜S36を繰り返す。
次に、上記ステップS31における3次元点列データの補正処理について説明する。この3次元点列データの補正処理では、CPU22のモデル補正部22dは、図10に示すように、ステップS41にて3次元点列データを有する3次元空間上に、(注目点である)エッジ点Pi,jを中心とするN×N×Nの立方領域を形成し、このN×N×Nの立方領域内に含まれる3次元点列データの座標の平均値を算出する。そして、CPU22のモデル補正部22dは、ステップS42にて、算出した平均値によりエッジ部分の点列データ線上の3次元点列データの座標データを平滑化する。
図10の処理を具体的に説明すると、例えば、図11に示すように、N=5として(注目点である)エッジ点Pi,jを中心とする5×5×5の立方領域を、3次元点列データを有する3次元空間上に形成する。そして、この5×5×5の立方領域内に含まれる3次元点列データの座標の平均値を算出し、算出した平均値によりエッジ部分の点列データ線上の3次元点列データの座標データを平滑化することで、図12に示すような補正後の点列データ線を得ることができる。
なお、3次元点列データの補正処理は、図10の処理に限らず、以下の変形例1、2の3次元点列データの補正処理を実施してもよい。
(変形例1)
この変形例1の3次元点列データの補正処理では、CPU22のモデル補正部22dは、図13に示すように、ステップS41aにて、N=5として(注目点である)エッジ点Pi,jを中心とする5×5の正方領域を、画像入力部21から出力される2次元画像上に形成する。そして、CPU22のモデル補正部22dは、ステップS42aにて、この5×5の正方領域内に含まれる2次元画像の座標点のそれぞれの画素値(濃淡値)の平均値を算出する。
この変形例1の3次元点列データの補正処理では、CPU22のモデル補正部22dは、図13に示すように、ステップS41aにて、N=5として(注目点である)エッジ点Pi,jを中心とする5×5の正方領域を、画像入力部21から出力される2次元画像上に形成する。そして、CPU22のモデル補正部22dは、ステップS42aにて、この5×5の正方領域内に含まれる2次元画像の座標点のそれぞれの画素値(濃淡値)の平均値を算出する。
この変形例の場合、すべての平均(平滑化)処理が行われた後で、エッジ領域について3次元点列データの再計算を行い、3次元点列データの更新を行う。
(変形例2)
この変形例2の3次元点列データの補正処理では、CPU22のモデル補正部22dは、図14に示すように、ステップS41bにて、エッジの端点Ai,j,Bi,jから、エッジの端点Ai,j,Bi,jをそれぞれ含む連続するN点(ただし、(注目点である)エッジ点Pi,jから離れる方向のN点)の座標を取得し直線に近似し、近似した2直線をx=0平面に投影し、投影した2つの近似直線の交点を求める。具体的には、例えばN =3としたとき、図15に示すように、エッジの端点Ai,j,Bi,jをそれぞれ含む直線に近似し、x=0平面に投影した2つの近似直線の交点Qi,jを求める。
この変形例2の3次元点列データの補正処理では、CPU22のモデル補正部22dは、図14に示すように、ステップS41bにて、エッジの端点Ai,j,Bi,jから、エッジの端点Ai,j,Bi,jをそれぞれ含む連続するN点(ただし、(注目点である)エッジ点Pi,jから離れる方向のN点)の座標を取得し直線に近似し、近似した2直線をx=0平面に投影し、投影した2つの近似直線の交点を求める。具体的には、例えばN =3としたとき、図15に示すように、エッジの端点Ai,j,Bi,jをそれぞれ含む直線に近似し、x=0平面に投影した2つの近似直線の交点Qi,jを求める。
続いて、CPU22のモデル補正部22dは、ステップS42bにて、エッジ領域の各点の例えばz座標と、交点Qi,jの例えばz座標とを比較し、その大小関係に応じて補正に使用する近似直線を決定する。具体的には、図16に示すように、エッジ領域の各点のy座標が交点Qi,jのy座標より小さい場合には、交点Qi,jのy座標より小さい座標値を使用して近似した近似直線(図16の場合、エッジの端点Ai,j側の近似直線)を使用し、逆にエッジ領域の各点のy座標が交点Qi,jのy座標より大きい場合には、交点Qi,jのy座標より大きい座標値を使用して近似した近似直線(図16の場合、エッジの端点Bi,j側の近似直線)を使用する。そして、使用する近似直線を決定した後、補正対象となるエッジ領域の点のy座標を近似直線に代入する(置き換える)こととにより補正点を決定する。
上述したように本実施例及び変形例1、2では、3次元データの着目点における位置(Z座標)を用いて閾値を補正するため、対象の反射/散乱特性や対象への2次光による影響を除外した閾値をポリープ検出処理に使用でき、ポリープ候補の検出精度を向上させることができる。よって、ユーザに対して、大腸内視鏡検査においてポリープ候補発見率の向上を促すことが可能となる。
図17ないし図25は本発明の実施例2に係わり、図17はハードディスクの格納情報構成を示す図、図18は実施例2を説明する第1の図、図19は実施例2を説明する第2の図、図20は実施例2を説明する第3の図、図21は実施例2に係るCPUの処理の流れを示すフローチャート、図22は図21の3次元モデルデータの補正処理の流れを示すフローチャート、図23は図22の処理を説明する第1の図、図24は図22の処理を説明する第2の図、図25は図22の処理を説明する第3の図である。
本実施例の構成は実施例1とほとんど同じであるので、異なる点のみ説明する。
本実施例では、図17に示すように、ハードディスク27は、エッジ画像格納領域27a,エッジ細線化画像格納領域27b,3次元点列データ格納領域27c,対応テーブル格納領域27d,検出病変部格納領域27eの他に、さらにモフォロジーパラメータマップ格納領域27fを有している。その他の構成は実施例1と同じである。
上述したように、”Shape From Shading“法では、2次元画像上にエッジがある場合、エッジ上の画素数が低い値をとるために、そのエッジ部分に溝が存在するかのごとく推定値を算出してしまう問題があり、例えば実施例1のような補正を実施しても、補正もれにより、スパイク状またはエッジ状のノイズが発生してしまう場合がある。
一般に、ノイズ除去の方法として、モフォロジー変換一つであるdilation処理とerosion処理との組み合わせが、広く利用される。
このモフォロジー変換は、3次元サーフェイス上に球を転がすときの球の中心を出力する変換方法であり、dilation処理は腸管の表面に、erosion処理は腸管の裏面に球を転がすこととなる。
上記モフォロジー変換における球の中心は、対象となるのノイズの大きさによって決定する。例えば図18のように、例えば1画素の幅のノイズのあるサーフェイス表面に例えば直径5の球300aを転がす場合、その中心の軌跡は直線となるため、その軌跡のなすサーフェイス裏側から同じサイズの球を転がすことによってノイズを埋めることができる。
しかし、図19のように、例えば5画素の幅のノイズのあるサーフェイス表面に、上記直径5の球300aを転がす場合、その中心の軌跡のなすサーフェイス表面にもノイズのくぼみが存在し、サーフェイスの裏側から球を転がしてもノイズを除去できない。
3次元データ全体にゴマシオ上のノイズがのる場合、そのノイズの大きさは小サイズであるが、エッジ上に存在するスパイク状ノイズまたはエッジ状ノイズの大きさはエッジの太さに依存する。よって、2次元画像にエッジが存在する位置では、平滑化のための球の直径、すなわち平滑化のパラメタを変更する必要がある。
例えば、図20に示すように、モフォロジー変換時の球サイズが十分な大きさの球300bを持っている場合には、球サイズに最適なノイズ大きさから、より小サイズのノイズまでを平滑化することが可能となるが、球サイズを大きくするに従って、処理速度が低下するため、ノイズの大きさに最適な球サイズを決定して処理を実行しなければ処理速度が低下する。
本実施例では、図21に示すように、CPU22のモデル補正部22dにより、実施例1で説明したステップS2のモデル補正処理後に、ステップS10にてモフォロジーパラメータWiによるモフォロジー処理を実行し、実施例1で説明したステップS3に処理を移行する。
具体的には、本実施例では、ステップS2のモデル補正処理において、CPU22のモデル補正部22dは、図22に示すように、ステップS100及びS101にて、図23に示すような3次元空間を一定間隔の立方小領域に分割し、各小領域にモフォロジーパラメタを格納可能なマップを作成し、図24に示すエッジ線幅Di,jに対する、図25に示すようなモフォロジー変換パラメタWi,jの対応テーブルをハードディスク27のモフォロジーパラメータマップ格納領域27fに格納する。
すなわち、モデル補正部22dは、ステップS100にて、エッジ細線化画像のうちの1つのエッジを処理対象として選択取得し、エッジ線のうちの1つの選択点におけるエッジ幅Wi,jを算出する。続いて、モデル補正部22dは、図25のエッジ線幅Di,jとモフォロジー変換パラメタWi,jの対応テーブルを用いて、モフォロジー変換パラメタWを取得する。
そして、モデル補正部22dは、ステップS101にて、ステップS100の処理を実施したエッジ線上の選択点に対応する3次元座標を、ハードディスク27に記録された対応点テーブルから取得し、取得した3次座標に対応する3次元小領域マップの座標位置を求める。求めた3次元小領域マップの座標位置へ、前記モフォロジー変換パラメタWを加算格納するとともに、座標位置におけるカウント値を1つ加算する。
ここで、エッジ線幅Di,jは、図24に示すように、エッジ細線化画像のエッジ細線上の点において、エッジ線に直交する線を引いたときの、エッジ画像の対応するエッジの幅を示す。また、エッジ画像におけるモフォロジー変換パラメタWi,jは、前述の球(図18ないし図20参照)の直径を示す。
そして、上記ステップS10にて、モフォロジー変換時のモフォロジー変換パラメタWを3次元座標に基づき決定して、モフォロジー変換処理であるdilation処理、erosion処理を連続実行し、ノイズ除去処理を行う。
以上の処理を、画像上の全エッジの全点に対して処理を実施した後、3次元小領域マップの各座標位置におけるモフォロジー変換パラメタWを、各座標位置におけるカウント値により平均化する。このような処理により、3次元座標位置に基づき3次元小領域マップを参照することにより平滑化に最適なパラメタを取得することを実現する。
本発明は、上述した実施例に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。
1…内視鏡システム
2…医療用観察装置
3…医療用画像処理装置
4、9…モニタ
6…内視鏡
7…光源装置
8…CCU
11…挿入部
12…操作部
13…ライトガイド
14…先端部
15…対物光学系
16…撮像素子
17…撮像部
21…画像入力部
22…CPU
22a…3次元モデル推定部
22b…検出対象領域設定部
22c…形状特徴量算出部
22d…モデル補正部
22e…3次元形状検出部
22f…ポリープ決定部
23…処理プログラム記憶部
24…画像記憶部
25…解析情報記憶部
26…記憶装置I/F
27…ハードディスク
28…表示処理部
29…入力操作部
30…データバス
2…医療用観察装置
3…医療用画像処理装置
4、9…モニタ
6…内視鏡
7…光源装置
8…CCU
11…挿入部
12…操作部
13…ライトガイド
14…先端部
15…対物光学系
16…撮像素子
17…撮像部
21…画像入力部
22…CPU
22a…3次元モデル推定部
22b…検出対象領域設定部
22c…形状特徴量算出部
22d…モデル補正部
22e…3次元形状検出部
22f…ポリープ決定部
23…処理プログラム記憶部
24…画像記憶部
25…解析情報記憶部
26…記憶装置I/F
27…ハードディスク
28…表示処理部
29…入力操作部
30…データバス
Claims (6)
- 医療用撮像装置から入力される体腔内の生体組織の像の2次元画像から前記生体組織の3次元モデルを推定する3次元モデル推定手段と、
前記2次元画像画像を構成する画像領域の画像境界線を検出する画像境界線検出手段と、
前記画像境界線の線幅を算出する線幅算出手段と、
前記線幅に基づき、前記3次元モデル推定手段における、前記画像境界線の3次元モデルの推定結果を補正する補正手段と、
を備えたことを特徴とする医療用画像処理装置。 - 前記補正手段は、
前記線幅の値と所定値を比較し、
前記線幅の値が前記所定値以内ならば前記画像境界線を第1の補正対象画像とし、
前記線幅の値が前記所定値を超えている場合には前記画像境界線を第2の補正対象画像とし、
前記第1の補正対象画像あるいは前記第2の補正対象画像に応じて、前記3次元モデル推定手段における、前記画像境界線の3次元モデルの推定結果を補正する
ことを特徴とする請求項1に記載の医療用画像処理装置。 - 前記第1の補正対象画像は、前記画像境界線を溝と見なした溝画像であり、
前記第2の補正対象画像は、前記画像境界線をオクルージョンと見なしたオクルージョン画像である
ことを特徴とする請求項2に記載の医療用画像処理装置。 - 前記補正手段は、前記3次元モデル推定手段における、前記画像境界線の画素値の平均値に基づいて、前記画像境界線の3次元モデルの推定結果を補正する
ことを特徴とする請求項1、2または3のいずれかに記載の医療用画像処理装置。 - 前記補正手段は、前記3次元モデル推定手段における、前記画像境界線の画素値を近似して、前記画像境界線の3次元モデルの推定結果を補正する
ことを特徴とする請求項1、2または3のいずれかに記載の医療用画像処理装置。 - 医療用撮像装置から入力される体腔内の生体組織の像の2次元画像から前記生体組織の3次元モデルを推定する3次元モデル推定ステップと、
前記2次元画像画像を構成する画像領域の画像境界線を検出する画像境界線検出ステップと、
前記画像境界線の線幅を算出する線幅算出ステップと、
前記線幅に基づき、前記3次元モデル推定ステップにおける、前記画像境界線の3次元モデルの推定結果を補正する補正ステップと、
を備えたことを特徴とする医療用画像処理方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006279236A JP2008093213A (ja) | 2006-10-12 | 2006-10-12 | 医療用画像処理装置及び医療用画像処理方法 |
PCT/JP2007/061628 WO2008044365A1 (fr) | 2006-10-12 | 2007-06-08 | Dispositif de traitement d'image médicale et procédé de traitement d'image médicale |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006279236A JP2008093213A (ja) | 2006-10-12 | 2006-10-12 | 医療用画像処理装置及び医療用画像処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008093213A true JP2008093213A (ja) | 2008-04-24 |
Family
ID=39282576
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006279236A Pending JP2008093213A (ja) | 2006-10-12 | 2006-10-12 | 医療用画像処理装置及び医療用画像処理方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2008093213A (ja) |
WO (1) | WO2008044365A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2008136098A1 (ja) * | 2007-04-24 | 2010-07-29 | オリンパスメディカルシステムズ株式会社 | 医療用画像処理装置及び医療用画像処理方法 |
JP2012011137A (ja) * | 2010-07-05 | 2012-01-19 | Olympus Corp | 画像処理装置、画像処理方法、および画像処理プログラム |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020194693A1 (ja) * | 2019-03-28 | 2020-10-01 | Hoya株式会社 | 内視鏡用プロセッサ、情報処理装置、内視鏡システム、プログラム及び情報処理方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11337845A (ja) * | 1998-05-25 | 1999-12-10 | Mitsubishi Electric Corp | 内視鏡装置 |
AU2002356539A1 (en) * | 2001-10-16 | 2003-04-28 | Abraham Dachman | Computer-aided detection of three-dimensional lesions |
JP4652694B2 (ja) * | 2004-01-08 | 2011-03-16 | オリンパス株式会社 | 画像処理方法 |
-
2006
- 2006-10-12 JP JP2006279236A patent/JP2008093213A/ja active Pending
-
2007
- 2007-06-08 WO PCT/JP2007/061628 patent/WO2008044365A1/ja active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2008136098A1 (ja) * | 2007-04-24 | 2010-07-29 | オリンパスメディカルシステムズ株式会社 | 医療用画像処理装置及び医療用画像処理方法 |
JP2012011137A (ja) * | 2010-07-05 | 2012-01-19 | Olympus Corp | 画像処理装置、画像処理方法、および画像処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2008044365A1 (fr) | 2008-04-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4994737B2 (ja) | 医療用画像処理装置及び医療用画像処理方法 | |
JP4855868B2 (ja) | 医療用画像処理装置 | |
JP5276225B2 (ja) | 医用画像処理装置及び医用画像処理装置の作動方法 | |
JP4902735B2 (ja) | 医療用画像処理装置及び医療用画像処理方法 | |
US7830378B2 (en) | Medical image processing apparatus and medical image processing method | |
US8086005B2 (en) | Medical image processing apparatus and medical image processing method | |
JP5078486B2 (ja) | 医療用画像処理装置及び医療用画像処理装置の作動方法 | |
JP2007244517A (ja) | 医療用画像処理装置及び医療用画像処理方法 | |
JP7125479B2 (ja) | 医療画像処理装置、医療画像処理装置の作動方法及び内視鏡システム | |
WO2012153568A1 (ja) | 医用画像処理装置及び医用画像処理方法 | |
JP4981335B2 (ja) | 医療用画像処理装置及び医療用画像処理方法 | |
JP7385731B2 (ja) | 内視鏡システム、画像処理装置の作動方法及び内視鏡 | |
JP2008093213A (ja) | 医療用画像処理装置及び医療用画像処理方法 | |
JP4981336B2 (ja) | 医療用画像処理装置及び医療用画像処理方法 | |
JP5148096B2 (ja) | 医療用画像処理装置及び医療用画像処理装置の作動方法 | |
JP2008023266A (ja) | 医療用画像処理装置及び医療用画像処理方法 | |
WO2023187886A1 (ja) | 画像処理装置、画像処理方法及び記憶媒体 | |
JP6099436B2 (ja) | 画像処理装置 |