JP2011218090A - 画像処理装置、内視鏡システム及びプログラム - Google Patents
画像処理装置、内視鏡システム及びプログラム Download PDFInfo
- Publication number
- JP2011218090A JP2011218090A JP2010093208A JP2010093208A JP2011218090A JP 2011218090 A JP2011218090 A JP 2011218090A JP 2010093208 A JP2010093208 A JP 2010093208A JP 2010093208 A JP2010093208 A JP 2010093208A JP 2011218090 A JP2011218090 A JP 2011218090A
- Authority
- JP
- Japan
- Prior art keywords
- image
- reliability
- area
- processing
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Endoscopes (AREA)
Abstract
【課題】第1画像の被写体の種類判定の精度や信頼性を向上できる画像処理装置、内視鏡システム及びプログラム等の提供。
【解決手段】画像処理装置90は、画像を取得する画像取得部212と、取得された画像上の被写体の種類判別についての信頼度を取得する処理を行う信頼度処理部213と、被写体の種類判別処理を行う種類判別部215を含む。画像取得部212は、第1画像と、第1画像とは取得フレームが異なる第2画像を取得する。種類判別部215は、第1画像の被写体の種類判別処理に第2画像の情報を用いるか否かを、第1画像において取得された信頼度に基づいて判断する。
【選択図】 図4
【解決手段】画像処理装置90は、画像を取得する画像取得部212と、取得された画像上の被写体の種類判別についての信頼度を取得する処理を行う信頼度処理部213と、被写体の種類判別処理を行う種類判別部215を含む。画像取得部212は、第1画像と、第1画像とは取得フレームが異なる第2画像を取得する。種類判別部215は、第1画像の被写体の種類判別処理に第2画像の情報を用いるか否かを、第1画像において取得された信頼度に基づいて判断する。
【選択図】 図4
Description
本発明は画像処理装置、内視鏡システム及びプログラム等に関する。
内視鏡検診においては、医者が内視鏡で撮影された内視鏡画像を見て、病変部/正常部の判定を行う。しかし、内視鏡画像において、光学レンズの特性、撮像素子の構成などが原因で画角の周辺部で照明強度が弱くなることや、撮像装置から被写体までの撮像距離が遠いなどで病変部/正常部の判定が困難になる場合がある。
例えば特許文献1には、撮像時刻が異なる複数の画像を用いて、ブロック単位で動きを検出し、現在のフレーム(フィールド)の画像と前のフレームの画像からテンプレートの重なり判定で同種類のテンプレート同士を追跡する技術が開示されている。この技術を適用することで、過去のフレームの画像の情報を現在のフレームの画像の被写体認識の判定結果に流用できるため、判別能力を高めることができる。
この特許文献1の技術は、監視カメラなどの一般民生用分野に適用する場合には、精度的に十分である。しかしながら、内視鏡診断分野においては、過去のフレームの画像の判定結果を、そのまま現在のフレームの画像での病変部/正常部の判定に適用することは、判別精度として不十分であり、信頼度が欠けるおそれがある。
本発明の幾つかの態様によれば、第1画像の被写体の種類判定の精度や信頼性を向上できる画像処理装置、内視鏡システム及びプログラム等を提供できる。
本発明の一態様は、画像を取得する画像取得部と、取得された画像上の被写体の種類判別についての信頼度を取得する処理を行う信頼度処理部と、被写体の種類判別処理を行う種類判別部とを含み、前記画像取得部は、第1画像と、前記第1画像とは取得フレームが異なる第2画像を取得し、前記種類判別部は、前記第1画像の被写体の種類判別処理に前記第2画像の情報を用いるか否かを、前記第1画像において取得された前記信頼度に基づいて判断する画像処理装置に関係する。また本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。
本発明の一態様によれば、第1画像と、第1画像とは取得フレームが異なる第2画像が取得される。これらの第1画像、第2画像は、撮像部によりリアルタイムに撮影されて取得されるものであってもよいし、メモリ等の保存部から読み出すことで取得されるものであってもよい。そして本発明の一態様では、第1画像の被写体の種類判別処理に第2画像の情報を用いるか否かが、第1画像において取得された信頼度に基づいて判断される。そして、第2画像の情報を用いると判断された場合には、第2画像の情報を利用して、第1画像の被写体の種類判別処理が行われる。このように第2画像の情報を用いて、第1画像の被写体の種類判別を行うことで、第1画像の被写体の種類判別の高精度化や容易化を図れる。また第2画像の情報を用いるか否かを、第1画像において取得された信頼度に基づいて判断すれば、例えば第1画像において信頼度が低い部分(画素、領域)を判断して、第2画像の情報を適用すれば、第1画像の被写体の種類を判別できるようになるため、第1画像の被写体の種類判定の精度や信頼性を向上できる。
また本発明の他の態様は、画像を取得する画像取得部と、取得された画像上の被写体の種類判別についての信頼度を取得する処理を行う信頼度処理部と、被写体の種類判別処理を行う種類判別部とを含み、前記画像取得部は、第1画像と、前記第1画像とは取得フレームが異なる第2画像を取得し、前記信頼度処理部は、前記信頼度が高いエリアを高信頼度エリアに設定し、前記高信頼度エリアよりも前記信頼度が低いエリアを低信頼度エリアに設定し、前記種類判別部は、前記第1画像の前記低信頼度エリアでの被写体の種類判別処理を、前記第2画像の情報を用いて行う画像処理装置に関係する。また本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。
本発明の他の態様によれば、第1画像と、第1画像とは取得フレームが異なる第2画像が取得される。また、信頼度が高いエリアが高信頼度エリアに設定され、信頼度が低いエリアが低信頼度エリアに設定される。これらの高信頼度エリア、低信頼度エリアの設定は、画像の明るさ情報、色情報等などを用いて信頼度を算出することで行ってもよいし、画像内での位置に応じて行ってもよい。また高信頼度エリアと低信頼度エリアの中間の信頼度エリアを設定するなど、信頼度エリアの区分けの態様としては種々の態様を想定できる。そして本発明の他の態様によれば、第1画像の低信頼度エリアでの被写体については、第2画像の情報を用いて、その種類判別処理が行われる。従って、第1画像に低信頼度エリアが存在する場合にも、その低信頼度エリアでの被写体の種類判別を、例えば第2画像の高信頼度エリアでの情報等を用いて行うことが可能になるため、第1画像の被写体の種類判定の精度や信頼性を向上できる。
また本発明の他の態様は、画像を取得する画像取得部と、取得された画像上の被写体の種類判別についての信頼度を取得する処理を行う信頼度処理部と、被写体の種類判別処理を行う種類判別部とを含み、前記画像取得部は、第1画像と、前記第1画像とは取得フレームが異なる第2画像を取得し、前記種類判別部は、前記第1画像の被写体の種類判別処理に前記第2画像の情報を用いるか否かを、前記第1画像において取得された前記信頼度に基づいて判断する内視鏡システムに関係する。
また本発明の他の態様は、画像を取得する画像取得部と、取得された画像上の被写体の種類判別についての信頼度を取得する処理を行う信頼度処理部と、被写体の種類判別処理を行う種類判別部とを含み、前記画像取得部は、第1画像と、前記第1画像とは取得フレームが異なる第2画像を取得し、前記信頼度処理部は、前記信頼度が高いエリアを高信頼度エリアに設定し、前記高信頼度エリアよりも前記信頼度が低いエリアを低信頼度エリアに設定し、前記種類判別部は、前記第1画像の前記低信頼度エリアでの被写体の種類判別処理を、前記第2画像の情報を用いて行う内視鏡システムに関係する。
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
1.概要
まず本実施形態の概要について説明する。CCDなどの撮像素子により被写体を撮像する場合に、撮像素子や光学系の特性により、画像の中央部は明るくなる一方で、中央部の周りの周辺部が暗くなってしまう現象が生じる。また消化器の内視鏡検診などにおいては、消化器は管空状であるため、画像の中央部に空洞形態が現れて中央部が暗くなる一方で、周辺部が明るくなる現象が生じる。
まず本実施形態の概要について説明する。CCDなどの撮像素子により被写体を撮像する場合に、撮像素子や光学系の特性により、画像の中央部は明るくなる一方で、中央部の周りの周辺部が暗くなってしまう現象が生じる。また消化器の内視鏡検診などにおいては、消化器は管空状であるため、画像の中央部に空洞形態が現れて中央部が暗くなる一方で、周辺部が明るくなる現象が生じる。
このような場合に、暗い画像を用いて病変部/正常部などの被写体の種類判別を行うと、診断結果の信頼度を今ひとつ高めることができない。
一方、種類判別の精度を高める1つの手法として、前述のように過去のフレームの画像とのマッチング処理を行う手法も考えられる。
しかしながら、過去のフレームの画像の情報をそのまま現在のフレームの画像での被写体の種類判別に適用するだけでは、被写体の判別精度の向上には限界がある。
そこで本実施形態では図1(A)に示すように、第1画像IM1と、第1画像IM1とは取得フレーム(取得タイミング)が異なる第2画像IM2を取得する。例えば撮像素子や光学系を有する撮像部による時系列の撮像により、第1画像IM1、第2画像IM2を取得する。図1(A)では、第1画像IM1は例えば現在のフレームF3(現在のタイミング)で撮像された画像であり、第2画像IM2は過去のフレームF2(過去のタイミング)で撮像された画像である。
そして本実施形態では、第1画像IM1の被写体の種類判別処理(例えば病変部/正常部の判別処理)に第2画像IM2の情報を用いるか否かを、第1画像IM1において取得(算出、設定)された信頼度(例えば高信頼度エリア、低信頼度エリアの判別情報)に基づいて判断する。ここで第2画像IM2の情報は、注目部を判別するための注目部情報や、信頼度を判別するための信頼度情報である。注目部情報は、例えば処理領域の画素が、注目部(例えば病変部)の画素であるか、非注目部(例えば正常部)の画素であるかを判別するための情報である。信頼度情報は、例えば処理領域(種類判別の対象となる領域)の画素が、高信頼度エリアに属するか、高信頼度エリアよりも信頼度が低い低信頼度エリアに属するかを判別するための情報である。
そして図1(A)では、第1画像IM1は、フレームF3(第1のタイミング)で取得された画像であり、第2画像IM2は、フレームF3よりも時系列で過去のフレームF2(第2のタイミング)で取得された画像である。但し図1(B)に示すように、第1画像IM1の方が、第2画像IM2よりも時系列で過去のフレーム(過去のタイミング)で取得された画像であってもよい。或いは図1(C)に示すように、複数枚(複数フレーム)の第2画像IM2A、IM2Bを用いて、第1画像IM1の種類判別処理を行ってもよい。この場合には、例えば後述する重み付け信頼度情報等により、第2画像IM2AとIM2Bのいずれかを選択し、選択された画像の情報(注目部情報、信頼度情報)を用いて、第1画像IM1の種類を判別する。
図1(A)〜図1(C)の手法によれば、第1画像IM1の種類判別に第2画像IM2の情報を用いるか否かを、第1画像IM1の信頼度(信頼度の判別情報等)に基づいて判断している。従って、例えば第1画像IM1において信頼度等が低い部分について、第2画像IM2の情報を流用して、第1画像IM1に映る被写体(被写体像)の種類判別を行うことなどが可能になるため、種類判別の精度や信頼性を向上できる。
また本実施形態では図2(A)に示すように、信頼度が高いエリア(例えば所定の基準値よりも信頼度が高いエリア)を高信頼度エリアに設定し、信頼度が低いエリア(例えば所定の基準値よりも信頼度が低いエリア)を低信頼度エリアに設定する。例えば図2(A)では、第1画像IM1の中央部を高信頼度エリアに設定し、中央部の周り(外周)の周辺部(周縁部)を低信頼度エリアに設定している。そして第1画像IM1の周辺部の低信頼度エリア(低信頼度画素)での被写体の種類判別処理(病変部/正常部の判別処理)を、第2画像IM2の情報(注目部情報、信頼度情報)に用いて行う。例えば第2画像IM2の高信頼度エリア(例えば中央部)の情報を用いて、第1画像IM1の低信頼度エリア(周辺部)での被写体の種類判別を行う。
図2(A)の手法によれば、第1画像IM1のうちの信頼度が低いエリアでの被写体については、第2画像IM2の情報を流用して、その種類を判別できるようになる。従って、例えば第1画像IM1において中央部に比べて周辺部の方が暗く、第1画像IM1の周辺部での画像の特徴量だけでは、被写体の正確な種類判別が難しい場合でも、その部分に対応する第2画像IM2の情報を利用して、被写体の種類判別が可能になる。従って、種類判別の精度や信頼性を更に向上できる。
なお高信頼度エリア、低信頼度エリアの設定手法としては、種々の手法を想定できる。例えば図2(B)のように中央部を低信頼度エリアに設定し、周辺部を高信頼度エリアに設定してもよい。或いは、画素の明るさ情報(輝度情報)等に基づいて、高信頼度エリアに属するか低信頼度エリアに属するかを画素毎に設定してもよい。また例えば高信頼度エリアと低信頼度エリアの中間の信頼度エリアを設定するようにしてもよい。
また本実施形態では図3に示すように、第1画像IM1を複数のブロック領域に分割する。これらの各ブロック領域は、例えばM×M画素の所定サイズの領域である。そしてこの第1画像IM1のブロック領域(広義には処理領域)の画像と、第2画像IM2とのマッチング処理を行うことで、ブロック領域に対応するマッチングブロック領域(広義には対応処理領域)を抽出する。例えば図3では、第1画像IM1のブロック領域BLと画像がマッチングする第2画像IM2内の領域として、マッチングブロック領域MBLが抽出されている。このため図3では、抽出されたマッチングブロック領域MBLの情報を用いて、第1画像IM1のブロック領域BLでの被写体の種類判別を行う。
例えば図3では、ブロック領域BLは低信頼度エリアに属しており、ブロック領域BLでの画像の特徴量だけでは、被写体の種類判別は難しい。即ちブロック領域BLでは画像の明るさが十分ではないため、被写体が病変部(広義には注目部)なのか正常部(広義には非注目部)なのかを判別することが難しい。
そこで本実施形態では、第1画像IM1とは取得フレーム(取得タイミング)が異なる第2画像IM2の中から、ブロック領域BLと画像がマッチングするマッチングブロック領域MBLを抽出する。そして、このマッチングブロック領域MBLでの画像の情報を流用して、第1画像IM1の低信頼度エリアのブロック領域BLでの被写体の種類判別を行う。このようにすれば、第1画像IM1内に信頼度が低いエリアが存在する場合にも、対応する第2画像IM2の情報を流用して、被写体の種類を判別できるようになるため、種類判別の精度や信頼性を向上できる。
2.第1の構成例
2.1 全体構成
図4に、以上のような本実施形態の手法を実現する本実施形態の第1の構成例を示す。この第1の構成例は、本実施形態の画像処理装置210及びこの画像処理装置210を含む内視鏡システム(内視鏡装置)の構成例である。なお本実施形態の画像処理装置210、内視鏡システムは図4の構成に限定されず、その構成要素の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
2.1 全体構成
図4に、以上のような本実施形態の手法を実現する本実施形態の第1の構成例を示す。この第1の構成例は、本実施形態の画像処理装置210及びこの画像処理装置210を含む内視鏡システム(内視鏡装置)の構成例である。なお本実施形態の画像処理装置210、内視鏡システムは図4の構成に限定されず、その構成要素の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
図4の内視鏡システムは、挿入部102、制御装置90(本体装置)を含む。
挿入部102は、ライトガイドファイバ103、レンズ201、ハーフミラー202、通常光撮像素子203、フィルタ204、特殊光撮像素子205を含み、撮像部を構成している。ここでレンズ201、ハーフミラー202、フィルタ204が、撮像部の光学系に相当し、通常光撮像素子203、特殊光撮像素子205が、撮像部の撮像素子に相当する。
制御装置90は、通常光光源101(広義には光源部)、画像処理装置210、A/D変換部211、出力部216、制御部221、外部I/F部222を含む。画像処理装置210は、画像取得部212、信頼度処理部213、領域抽出部214、種類判別部215、保存部217を含む。そしてA/D変換部211は、画像取得部212、信頼度処理部213、領域抽出部214、種類判別部215を介して出力部216へ接続している。保存部217は、種類判別部215と双方向に接続している。制御部221は、A/D変換部211、画像取得部212、信頼度処理部213、領域抽出部214、種類判別部215、出力部216、保存部217と双方向に接続している。外部I/F部222は制御部221へ接続している。
挿入部102は、体内に挿入できるように湾曲が可能な細長いパイプ状になっており、通常光光源101からの光は湾曲可能なライトガイドファイバ103を経由して、被写体100に照射される。挿入部102の先端部には、レンズ201が配置されており、被写体100からの反射光はこのレンズ201を介して、ハーフミラー202により、二つの反射光に分離する。そして一つの反射光は通常光撮像素子203に入る。
この通常光撮像素子203は、通常光画像を形成するためのベイヤ配列の色フィルタを有する撮像素子である。本実施形態では、図5に示す分光特性を持つRGBの色フィルタを有する撮像素子を用いる(R0(580nm〜700nm)、G0(480nm〜600nm)、B0(400nm〜500nm))。通常光撮像素子203は、光電変換により反射光を通常光アナログ画像信号へ変換する。
一方、ハーフミラー202からのもう一つの反射光は、フィルタ204を介して特殊光撮像素子205へ入る。このフィルタ204は、所定の狭帯域光のみを透過させる。本実施形態において、フィルタ204は図6に示す所定の狭帯域の透過率特性を有する(G1(530nm〜550nm)、B1(390nm〜445nm))。
この特殊光撮像素子205は、図7に示すように特殊光画像を形成するための市松状配列の2種類の色フィルタを有する撮像素子であり、フィルタ204からの狭帯域光を光電変換により特殊光アナログ画像信号(NBI画像信号)へ変換する。内視鏡診断の分野では、このような狭帯域分光特性を有する光は、血液中のヘモグロビンに吸収されやすいため、粘膜表層の毛細血管、粘膜微細模様の強調表示を実現できる。NBI画像信号は食道や大腸、胃などのがんの診断に効果が高い。
通常光撮像素子203からの通常光アナログ画像信号と、特殊光撮像素子205からの特殊光アナログ画像信号は、A/D変換部211へ転送される。
A/D変換部211は、通常光撮像素子203からの通常光アナログ画像信号と特殊光撮像素子205からの特殊光アナログ画像信号のA/D変換を行う。そしてA/D変換により得られた通常光デジタル画像信号(通常光デジタル画像データ)と特殊光デジタル画像信号(特殊光デジタル画像データ)を、画像取得部212へ転送する。
2.2 画像取得部
図8に、画像取得部212の構成例を示す。画像取得部212は、通常光画像処理部301、特殊光画像処理部302を含む。A/D変換部211は通常光画像処理部301及び特殊光画像処理部302へ接続している。通常光画像処理部301及び特殊光画像処理部302は信頼度処理部213へ接続している。制御部221は通常光画像処理部301及び特殊光画像処理部302と双方向に接続している。
図8に、画像取得部212の構成例を示す。画像取得部212は、通常光画像処理部301、特殊光画像処理部302を含む。A/D変換部211は通常光画像処理部301及び特殊光画像処理部302へ接続している。通常光画像処理部301及び特殊光画像処理部302は信頼度処理部213へ接続している。制御部221は通常光画像処理部301及び特殊光画像処理部302と双方向に接続している。
通常光画像処理部301は、制御部221の制御に基づき、A/D変換部211からの通常光デジタル画像信号(以下、通常光画像信号と呼ぶ)に対して画像処理を行う。本実施形態では、公知のベイヤ補間処理(ベイヤ画像信号から三板画像信号へ変換)、ホワイトバランス処理、カラーマネージメント処理、階調変換処理などを行う。通常光画像処理部301は、処理後のRGB信号からなる通常光画像信号(Rch,Gch,Bch)を信頼度処理部213へ転送する。
一方、特殊光画像処理部302は、制御部221の制御に基づき、A/D変換部211からの特殊光デジタル画像信号(以下、特殊光画像信号と呼ぶ)に対して画像処理を行う。本実施形態では、まず、図7に示す市松状配列のG1及びB1の2種類の色フィルタを有する特殊光撮像素子205により生成された特殊光画像信号を用いて、欠落画素の補間処理を行う。具体的には、同種類のフィルタの欠落画素の周囲画素の平均信号値を算出し、信号値として欠落画素を補間する。例えば下式(1)を用いて、図7に示すG1(1,1)及びB1(2,1)を算出する。
G1(1,1)
={G1(1,0)+G1(0,1)+G1(2,1)+G1(1,2)}/4
B1(2,1)
={B1(2,0)+B1(1,1)+B1(3,1)+B1(2,2)}/4
・・・(1)
={G1(1,0)+G1(0,1)+G1(2,1)+G1(1,2)}/4
B1(2,1)
={B1(2,0)+B1(1,1)+B1(3,1)+B1(2,2)}/4
・・・(1)
上記補間処理により全画素の2信号(G1,B1)の画像信号を生成する。次に、下式(2)を用いて、1画素あたり3信号のNBI特殊光画像(NBI疑似カラー画像)を生成する。
Rch_v=p1*G1
Gch_v=p2*B1
Bch_v=p3*B1 ・・・(2)
Gch_v=p2*B1
Bch_v=p3*B1 ・・・(2)
上式(2)において、Rch_vはNBI特殊光画像のRチャンネルの信号値(R画像データ)、Gch_vはNBI特殊光画像のGチャンネルの信号値(G画像データ)、Bch_vはNBI特殊光画像のBチャンネルの信号値(B画像データ)である。またB1は、上記補間処理後の全画素の2信号(G1、B1)の画像信号中のB1(狭帯域)画像の画素値(画素データ)である。G1は、上記補間処理後の全画素の2信号(G1、B1)の画像信号中のG1(狭帯域)画像の画素値である。またp1、p2、p3は所定係数である。
続いて、上記の3板のNBI特殊光画像信号に対して、ホワイトバランス処理、階調変換処理などを行う。そして処理後のRGB信号からなる特殊光画像信号(Rch_v,Gch_v,Bch_v)を信頼度処理部213へ転送する。
2.3 信頼度処理部
図9に、信頼度処理部213の構成例を示す。信頼度処理部213(信頼度算出部、信頼度設定部)は、バッファ部401、分割部402、係数算出部403、信頼度判定部404、ROM405(記憶部)を含む。画像取得部212は、バッファ部401、分割部402、係数算出部403、信頼度判定部404を介して領域抽出部214へ接続している。ROM405は分割部402、係数算出部403、信頼度判定部404へ接続している。制御部221は、バッファ部401、分割部402、係数算出部403、信頼度判定部404及びROM405と双方向に接続している。
図9に、信頼度処理部213の構成例を示す。信頼度処理部213(信頼度算出部、信頼度設定部)は、バッファ部401、分割部402、係数算出部403、信頼度判定部404、ROM405(記憶部)を含む。画像取得部212は、バッファ部401、分割部402、係数算出部403、信頼度判定部404を介して領域抽出部214へ接続している。ROM405は分割部402、係数算出部403、信頼度判定部404へ接続している。制御部221は、バッファ部401、分割部402、係数算出部403、信頼度判定部404及びROM405と双方向に接続している。
一般的に、内視鏡画像により病変部/正常部(注目部/非注目部)を診断する場合に、被写体からの反射光の強度(被写体の明るさ)が強ければ、撮像素子により取得された画像中の被写体像は明るくなり、診断能力が高くなる(白とびの場合は除外)。逆に、被写体からの反射光の強度(被写体の明るさ)が弱ければ、撮像素子により取得された画像中の被写体像は暗くなり、診断能力も弱くなる。従って、光源からの照射光の強度を増強すれば、被写体からの反射光の強度も増強され、撮像素子により取得された画像中の被写体像は明るくなるため、診断能力が高くなる。また、撮像装置から被写体までの距離が長ければ長いほど、被写体からの反射光の強度は弱くなる。それが原因で画像も暗くなるため、診断能力は弱くなる。内視鏡画像において、被写体からの反射光の強弱は輝度信号の大きさに比例するため、本実施形態では、輝度信号を用いて信頼度を算出する構成になっている。
信頼度処理部213のバッファ部401は、画像取得部212からの通常光画像信号(通常光画像データ)及び特殊光画像信号(特殊光画像データ)を保存する。そして制御部221の制御に基づき、特殊光画像信号及び通常光画像信号を分割部402へ転送する。
分割部402は、制御部221の制御により、領域分割処理を行う。具体的には、ROM405から読み出したサイズ情報で指定される所定サイズで、特殊光画像及び通常光画像を複数のブロック領域に分割する。例えば、特殊光画像及び通常光画像を、所定サイズの8×8(16×16、32×32なども可)の画素の矩形領域に分割する。そして分割部402は、分割した複数のブロック領域のRGB信号からなる特殊光画像信号及び通常光画像信号を係数算出部403へ転送する。なおブロック領域は、矩形領域には限定されず、矩形以外の形状の領域であってもよい。また、外部I/F部222を介して分割領域の形状をユーザが任意に指定できるようにしてもよい。更に、1画素を1ブロック領域としてもよい。
係数算出部403は、分割部402からの複数のブロック領域のRGB信号からなる特殊光画像信号あるいは通常光画像信号を用いて、信頼度算出用の係数を算出する。本実施形態では、RGB信号から輝度信号を求める公知の算出式で、通常光画像信号を用いて画素ごとの輝度値を算出し、更にブロック領域ごとの輝度平均値Lav(i)を算出する。ここでiは各ブロック領域を判別するために付したブロック領域番号である。この輝度平均値Lav(i)は、対応するブロック領域の輝度代表値となる。なお本実施形態では、通常光画像信号の輝度代表値を算出する構成となっているが、特殊光画像信号の輝度代表値を算出する構成にしてもよい。係数算出部403は、制御部221の制御に基づき、複数のブロック領域のRGB信号からなる特殊光画像信号、通常光画像信号と、複数のブロック領域の輝度代表値Lav(i)を、信頼度判定部404へ転送する。
信頼度判定部404は、係数算出部403からの複数のブロック領域の輝度代表値Lav(i)を用いて、各ブロック領域(iで指定される領域)の信頼度S(i)を設定する。例えば、ROM405から所定の信頼度用の輝度閾値STを読み込み、ブロック領域ごとの輝度代表値Lav(i)と大きさを比較する。そしてブロック領域の輝度代表値Lav(i)が輝度閾値STよりも大きい場合には、そのブロック領域の信頼度S(i)を1に設定する。一方、ブロック領域の輝度代表値Lav(i)が輝度閾値STよりも小さい場合には、そのブロック領域の信頼度S(i)を0に設定する。なお、1ブロック領域を1画素にする構成以外の場合には、各ブロック領域内の全ての画素に対して、ブロック領域の信頼度S(i)を信頼度として付与する。信頼度判定部404は、制御部221の制御に基づき、信頼度S(i)の情報と、複数のブロック領域のRGB信号からなる特殊光画像信号、通常光画像信号を、領域抽出部214へ転送する。
なお本実施形態では、ブロック領域の輝度代表値Lav(i)を用いて信頼度S(i)を設定する構成となっているが、この構成に限定されず、以下のような変形実施も可能である。具体的には係数算出部403において、各ブロック領域内の各画素のR、G、B信号の平均値(Rav,Gav,Bav)を算出する。そしてRGB信号から輝度、色差信号を求める公知の算出式で、各ブロック領域の輝度平均値Lav(i)と色差平均値CRav(i)、CBav(i)を算出する。続いて、色差平均値CRav(i)、CBav(i)を用いて、下式(3)により各ブロック領域の色相代表値H(i)を算出する。
H(i)=arctan{CBav(i)/CRav(i)} ・・・(3)
そして係数算出部403は、算出した複数のブロック領域の色相代表値H(i)と、複数のブロック領域のRGB信号からなる特殊光画像信号及び通常光画像信号を、信頼度判定部404へ転送する。
すると信頼度判定部404は、ROM405から所定の色差領域を代表する目標領域代表角度を取得する。内視鏡検診では、内臓、血液、血管を代表する赤色及び脂肪を代表する黄色が重要視される。このため信頼度判定部404は、図10に示す赤色及び黄色を囲む目標領域の代表角度をROM405から取得して、各ブロック領域の色相代表値H(i)がこの目標領域に入るか否かを判断する。そしてブロック領域の色相代表値H(i)が目標領域に入る場合には、そのブロック領域の信頼度S(i)を1に設定する。一方、ブロック領域の色相代表値H(i)が目標領域に入らない場合には、そのブロック領域の信頼度S(i)を0に設定する。この場合に、各ブロック領域の色相代表値H(i)及び輝度代表値Lav(i)の組み合わせで、各ブロック領域の信頼度S(i)を設定してもよい。
また内視鏡画像において、均一な光で撮影しても、光学レンズの特性及びCCDの配置構成により、撮影された画像の中央部が明るくなり、周辺部(周囲部)が暗くなる現象が発生する場合がある。この現象はシェーディングと呼ばれる。また、体内隆起物が画像の中央部に存在する場合にも、中央部が明るくなり、周辺部が暗くなる現象が発生する。このような場合には、各ブロック領域の位置情報(座標位置)に基づき、信頼度S(i)を設定してもよい。例えば図11に示すように、画像(第1画像)を25個のブロック領域に分割した場合に、太い破線からなる矩形が囲む領域を中央部と想定する。そして中央部に位置するブロック領域(BL6,BL7,BL8,BL11,BL12,BL13,BL16,BL17,BL18)の信頼度S(i)を1(高信頼度)に設定し、それ以外のブロック領域の信頼度S(i)を0(低信頼度)に設定する。
一方、消化器の内視鏡検診において、観察する被写体の多くは空洞のような管空状であり、撮影された画像の中央部にその空洞形態(管空状の形態)が現れる場合が多い。この場合には、図11において、太い破線からなる矩形に囲まれる中央部にある全てのブロック領域の信頼度S(i)を0(低信頼度)に設定し、それ以外のブロック領域の信頼度S(i)を1(高信頼度)に設定する。なお、外部I/F部222を介して信頼度S(i)が1となるブロック領域をユーザが任意に指定できるようにしてもよい。また上述と同様に、1画素を1ブロック領域としてもよい。
更に、ブロック領域の信頼度S(i)を自動的に設定する構成としてもよい。例えば、図11に示す25個のブロック領域の輝度平均値を算出し、全画像信号(全画素)の輝度平均値と比較する。そしてブロック領域の輝度平均値が全画像信号の輝度平均値よりも小さく、その差分が所定の閾値より大きい場合には、対応するブロック領域の信頼度S(i)を0に設定する。一方、それ以外の場合には、対応するブロック領域の信頼度S(i)を1に設定する。こうすることによって、実際の画像中の被写体像の明暗状況に応じて、自動的に信頼度を設定(算出)することが可能となる。
領域抽出部214は、制御部221の制御により、信頼度S(i)の情報に基づいて、信頼度S(i)=1の画素あるいはブロック領域を高信頼度エリアと判定する。一方、信頼度S(i)=0の画素あるいはブロック領域を低信頼度エリアと判定する。そして領域抽出部214は、高信頼度/低信頼度エリアの情報(広義には信頼度情報)と、複数のブロック領域のRGB信号からなる特殊光画像信号及び通常光画像信号を、種類判別部215へ転送する。
2.4 種類判別部
図12に種類判別部215の構成例を示す。種類判別部215は、エリア選定部500、第1特徴量算出部501、第1部位判定部502、第2特徴量算出部503、マッチング部504、第2部位判定部505、合成部506を含む。
図12に種類判別部215の構成例を示す。種類判別部215は、エリア選定部500、第1特徴量算出部501、第1部位判定部502、第2特徴量算出部503、マッチング部504、第2部位判定部505、合成部506を含む。
領域抽出部214は、エリア選定部500を介して第1特徴量算出部501及び第2特徴量算出部503へ接続している。第1特徴量算出部501は、第1部位判定部502及び合成部506を介して出力部216へ接続している。第2特徴量算出部503は、マッチング部504及び第2部位判定部505を介して合成部506へ接続している。保存部217はマッチング部504及び第2部位判定部505へ接続している。制御部221は、エリア選定部500、第1特徴量算出部501、第1部位判定部502、第2特徴量算出部503、マッチング部504、第2部位判定部505及び合成部506と双方向に接続にしている。
エリア選定部500は、図13のA1、A2に示すように高信頼度エリアの通常光・特殊光画像の信号を第1特徴量算出部501へ転送し、低信頼度エリアの通常光・特殊光画像の信号を第2特徴量算出部503へ転送する。具体的にはエリア選定部500は、制御部221の制御により、領域抽出部214からの高信頼度/低信頼度エリアの情報(信頼度情報)に基づき高信頼度エリアと判定されたブロック領域に対応するRGB信号からなる特殊光画像信号及び通常光画像信号を、第1特徴量算出部501へ転送する。一方、低信頼度エリアと判定されたブロック領域に対応するRGB信号からなる特殊光画像信号及び通常光画像信号を、第2特徴量算出部503へ転送する。
第1特徴量算出部501は、図13のA3に示すように、特殊光画像を用いて高信頼度エリアでの特徴量(例えば色相値)を算出する。具体的には、高信頼度エリアと判定されたブロック領域ごとに、対応するRGB信号からなる特殊光画像信号を用いて、RGB信号から輝度、色差信号を求める公知の算出式で、各ブロック領域内の各画素の輝度値L(i,m,n)、色差値CR(i,m,n)、CB(i,m,n)を算出する。ここでiは各ブロック領域を判別するために付したブロック領域番号であり、mはブロック領域内にある画素の横軸座標であり、nはブロック領域内にある画素の縦軸座標である。続いて第1特徴量算出部501は、色差値CR(i,m,n)、CB(i,m,n)を用いて、ブロック領域中の画素ごとの色相値H(i,m,n)を特徴量として下式(4)により算出する。
H(i,m,n)=arctan{CB(i,m,n)/CR(i,m,n)}
・・・(4)
・・・(4)
そして第1特徴量算出部501は、図13のA4に示すように、特徴量、信頼度情報、通常光・特殊光画像の信号を、第1部位判定部502へ転送する。具体的には、算出した複数のブロック領域の各画素の特徴量である色相値H(i,m,n)と、複数のブロック領域のRGB信号からなる特殊光画像信号及び通常光画像信号と、高信頼度/低信頼度エリアの情報を、第1部位判定部502へ転送する。
第1部位判定部502は、図13のA5に示すように特徴量を用いて高信頼度エリアでの注目部/非注目部の判定を行う。具体的には第1部位判定部502は、制御部221の制御により、転送されて来た各画素の特徴量である色相値H(i,m,n)を用いて、病変部/正常部を判定する。本実施形態では、特殊光画像(NBI画像)である狭帯域画像において、扁平上皮癌などの病変部が褐色の領域として現れるため、特徴量として色相Hを用いて病変部を検出している。本実施形態では、各ブロック領域の特殊光画像信号において、各画素の色相値H(i,m,n)を用いて閾値処理を行い、病変部に対応する画素を検出する。ここでは、褐色の領域を病変部として検出するため、例えば色相値H(i,m,n)が−75〜−105の範囲にある画素を病変部(注目部)に対応する画素として検出する。また、それ以外の画素は正常部(非注目部)に対応する画素として認定する。そして第1部位判定部502は、A6に示すように処理後の各画素の病変部/正常部の情報と、高信頼度エリアに所属する複数ブロック領域のRGB信号からなる通常光画像信号及び特殊光画像信号を、合成部506へ転送する。
第2特徴量算出部503は、A7に示すように特殊光画像を用いて低信頼度エリアでの特徴量を算出する。具体的には第2特徴量算出部503は、制御部221の制御に基づき、低信頼度エリアと判定されたブロック領域ごとに、対応するRGB信号からなる特殊光画像信号を用いて、第1特徴量算出部501の処理と同様に、各ブロック領域内の各画素の色相値H(i,m,n)を算出する。そして第2特徴量算出部503は、A8に示すように、複数のブロック領域のRGB信号からなる特殊光画像信号及び通常光画像信号と、各画素の色相値H(i,m,n)をマッチング部504へ転送する。
マッチング部504は、A9に示すように保存部217から過去フレームの画像を読み出し、A10に示すように現在フレームの各ブロック領域の画像とのマッチング処理を行う。具体的にはマッチング部504は、制御部221の制御に基づき、保存部217に保存されている1枚あるいは1枚以上の過去フレームに対応するRGB信号からなる特殊光画像信号、通常光画像信号を抽出し、第2特徴量算出部503からの現在フレームの低信頼度エリアに認定されている各ブロック領域の画像信号とのマッチング処理を行う。
本実施形態では、図14に示すように、低信頼度エリアに設定されている現在フレームの全てのブロック領域の画像信号に対し、ラスタスキャン順で公知のテンプレートマッチング処理を行う。具体的には、第2特徴量算出部503からの現在フレームの各ブロック領域に対応する通常光画像信号B(i)をテンプレートとして、過去フレームに対応する通常光画像信号Refの一番左上の位置から右方向にラスタスキャン順に移動して、画像の類似度を調べる処理を行う。この場合に、テンプレートとなる通常光画像信号B(i)、及びラスタスキャン順に移動して類似度を調べる処理中に形成した複数枚の同一ブロックサイズを有する過去フレームの通常光画像信号C(j)(候補ブロック領域と定義。jは候補ブロック領域の番号)を用いて、二つのブロック領域の画像信号の類似度を算出してマッチング処理を行う。本実施形態では、下式(5)、(6)に示すようにSSD(Sum of Squared Differece)やSAD(Sum of Absolute Difference)を利用したマッチング処理を行う。
上式(5)、(6)では、ブロック領域の大きさをM×Nとし、テンプレートのブロック領域内の各画素位置(k,l)における画素値をB(i,k,l)とし、候補ブロック領域の画素値をC(j,k,l)としている。
本実施形態では、画素値B(i,k,l)及びC(j,k,l)は画素ごとの輝度値として設定する。その輝度値は、公知の算出式によりRGB信号から算出される。SSDやSADの値は、テンプレートとなるB(i)が対応する候補ブロック領域C(j)と完全一致したときに0になる。本実施形態では、まず、保存部217からの過去フレームの通常光画像信号に対して、テンプレートとなるB(i)を用いて、画素ごとにラスタスキャンしながら全てのSADやSSDの値を算出し、その中から最も小さいSADやSSDの値に対応する過去フレームの注目ブロック領域を抽出する。そして抽出した注目ブロック領域に対応するSADやSSDの値が所定の類似度閾値よりも小さい場合に、マッチング成功と判断し、そのときの注目ブロック領域がマッチングブロック領域となる。
そしてテンプレートとなる現在フレームの全てのブロック領域のマッチング処理が完了した後、マッチング部504は、図13のA11に示すように、マッチング情報と、低信頼度エリアと判定された複数のブロック領域のRGB信号からなる特殊光画像信号及び通常光画像信号と、各画素の色相値H(i,m,n)を、第2部位判定部505へ転送する。
なお、内視鏡検診時の照明変動や対象物の表示位置の違いなどが原因で画像信号の明るさ(輝度信号)が変動するリスクが存在するため、マッチングの精度に影響を与える。このようなリスクを低減するため、下式(7)(8)によりSSDやSADの値を算出してもよい。
上式(7)、(8)において、AV(B(i))はテンプレートのブロック領域の輝度平均値であり、AV(C(j))は候補ブロック領域C(j)の輝度平均値であり、Q(j)は輝度補正値である。
第2部位判定部505は、図13のA12、A13に示すように、現在フレームの画像の特徴量と、過去フレームの画像の注目部情報及び信頼度情報を用いて、現在フレームの画像の低信頼度エリアでの注目部/非注目部の判定を行う。
具体的には第2部位判定部505は、制御部221の制御により、マッチング情報に基づきマッチング成功と判断されている現在フレームのブロック領域に対応する各画素の色相値H(i,m,n)を用いて、第1部位判定部502と同様に、褐色の領域(扁平上皮癌などの病変部が褐色)を病変部(注目部)として検出する。例えば現在フレームのブロック領域の特殊光画像信号の色相値H(i,m,n)が−75〜−105の範囲にある画素を、病変候補画素(注目候補画素)として抽出する。
そして第2部位判定部505は、抽出された病変候補画素が低信頼度エリアに存在する場合、A12に示すようにブロック領域に対応する過去フレームのマッチングブロック領域(候補ブロック領域)の病変部/正常部の情報(注目部情報)と、高信頼度/低信頼度エリアの情報(信頼度情報)を、保存部217から読み出す。そして、抽出された病変候補画素に対応する過去フレームのマッチングブロック領域の画素が、高信頼度エリアに存在し病変部であると判断される場合には、その病変候補画素の信頼度を高信頼度エリアに存在することと設定し、その病変候補画素(注目候補画素)を病変部(注目部)と判断する。一方、それ以外の画素は、正常部(非注目部)に対応する画素であると判断する。
そして第2部位判定部505は、低信頼度エリアの全てのブロック領域に対する判定処理が終了した後、A14に示すように処理後の各画素の病変部/正常部の情報(注目部情報)、高信頼度/低信頼度エリアの情報(信頼度情報)と、複数ブロック領域のRGB信号からなる通常光画像信号及び特殊光画像信号を、合成部506へ転送する。
合成部506は、A15に示すように、注目部情報、信頼度情報を、現在フレームの画像の全画素に対応づける合成処理を行う。具体的には、制御部221の制御に基づき、第1部位判定部502及び第2部位判定部505からの各画素の病変部/正常部の情報、高信頼度/低信頼度エリアの情報を用いて、現在フレームの全画素の病変部/正常部の情報、高信頼度/低信頼度エリアの情報を、画素位置に対応して合成する。本実施形態では、診断しやすくするため、病変部/正常部の情報に基づき、特殊光画像信号あるいは通常光画像信号に対して、画素ごとに病変部/正常部を判断する。注目画素が病変部の場合には、その画素の値を所定の警告色となるように変更する。
そして合成部506は、全ての処理が完了後、通常光画像信号あるいは特殊光画像信号を、表示装置などの出力部216へ転送する。本実施形態では、表示装置に表示される通常光画像あるいは特殊光画像において、病変部と診断される部位の色は所定の警告色として表示されるため、医者にとって診断しやすくなる。また合成部506は、A16に示すように、通常光画像信号あるいは特殊光画像信号と、各画素の病変部/正常部の情報、高信頼度/低信頼度エリアの情報を、保存部217へ転送して保存する。
このように本実施形態では、過去フレームの高信頼度エリアの画像信号の病変部/正常部の情報を、現在フレームの低信頼度エリアの画像信号の病変部/正常部の判定に用いることで、リアルタイムでの内視鏡診断能力を高めている。
なお、本実施形態では、狭帯域の透過率特性(G1(530nm〜550nm)、B1(390nm〜445nm))を有するフィルタを用いて、血液中のヘモグロビンに吸収される波長の波長帯域に対応するNBIの特殊光画像を用いる場合について説明したが、本実施形態はこれには限定されない。例えば後述するように、AFIやIRIの特殊光画像を用いる構成にしてもよい。
また、本実施形態では、通常光画像及び特殊光画像を併用して病変部/正常部を判定しているが、通常光画像あるいは特殊光画像の一方を用いて判定する構成としてもよい。
2.5 ソフトウェア処理
以上では、本実施形態の画像処理装置210を構成する各部をハードウェアで構成する場合について主に説明したが、本実施形態はこれに限定されるものではない。例えば、カプセル型内視鏡などの撮像装置を用いて予め取得された画像に対して、CPUが各部の処理を行う構成とし、CPUがプログラムを実行することによってソフトウェアとして実現してもよい。或いは、各部が行う処理の一部をソフトウェアで構成することとしてもよい。具体的には、A/D変換後の画像信号を未処理のままのロー(RAW)データとしてメモリカードなどの記録媒体に記録するとともに、制御部221からの撮像時の情報(AGC感度やホワイトバランス係数など)をヘッダ情報として記録媒体に記録しておく。そして、別途のソフトウェアである画像信号処理プログラムをコンピュータに実行させて、記録媒体の情報をコンピュータに読み取らせて、処理を実行する。なお、撮像装置からコンピュータへの各種情報の転送は、上述のように記録媒体を介して行う手法には限定されず、通信回線などを介して行うようにしてもよい。
以上では、本実施形態の画像処理装置210を構成する各部をハードウェアで構成する場合について主に説明したが、本実施形態はこれに限定されるものではない。例えば、カプセル型内視鏡などの撮像装置を用いて予め取得された画像に対して、CPUが各部の処理を行う構成とし、CPUがプログラムを実行することによってソフトウェアとして実現してもよい。或いは、各部が行う処理の一部をソフトウェアで構成することとしてもよい。具体的には、A/D変換後の画像信号を未処理のままのロー(RAW)データとしてメモリカードなどの記録媒体に記録するとともに、制御部221からの撮像時の情報(AGC感度やホワイトバランス係数など)をヘッダ情報として記録媒体に記録しておく。そして、別途のソフトウェアである画像信号処理プログラムをコンピュータに実行させて、記録媒体の情報をコンピュータに読み取らせて、処理を実行する。なお、撮像装置からコンピュータへの各種情報の転送は、上述のように記録媒体を介して行う手法には限定されず、通信回線などを介して行うようにしてもよい。
本実施形態の画像処理装置210の各部が行う処理をソフトウェアとして実現する場合には、ワークステーションやパソコン等の公知のコンピュータシステムを画像処理装置として用いることができる。そして、画像処理装置210の各部が行う処理を実現するためのプログラム(画像処理プログラム)を予め用意し、この画像処理プログラムをコンピュータシステムのCPUが実行することによって実現できる。
図15は、本変形例におけるコンピュータシステム900の構成を示すシステム構成図であり、図16は、このコンピュータシステム900における本体部910の構成を示すブロック図である。図15に示すように、コンピュータシステム900は、本体部910と、本体部910からの指示によって表示画面921に画像等の情報を表示するためのディスプレイ920と、このコンピュータシステム900に種々の情報を入力するためのキーボード930と、ディスプレイ920の表示画面921上の任意の位置を指定するためのマウス940とを備える。
また、このコンピュータシステム900における本体部910は、図16に示すように、CPU911と、RAM912と、ROM913と、ハードディスクドライブ(HDD)914と、CD−ROM960を受け入れるCD−ROMドライブ915と、USBメモリ970を着脱可能に接続するUSBポート916と、ディスプレイ920、キーボード930及びマウス940を接続するI/Oインターフェース917と、ローカルエリアネットワーク又は広域エリアネットワーク(LAN/WAN)N1に接続するためのLANインターフェース918を備える。
更に、このコンピュータシステム900には、インターネット等の公衆回線N3に接続するためのモデム950が接続されるとともに、LANインターフェース918及びローカルエリアネットワーク又は広域エリアネットワークN1を介して、他のコンピュータシステムであるパソコン(PC)981、サーバ982、プリンタ983等が接続される。
そして、このコンピュータシステム900は、所定の記録媒体に記録された画像処理プログラム(例えば図17〜図19の処理を実現するプログラム)を参照して、後述する処理手順を実現するための画像処理プログラムを読み出して実行することで画像処理装置を実現する。ここで所定の記録媒体とは、可搬用の物理媒体、固定用の物理媒体、或いは通信媒体等であり、コンピュータシステム900によって読み取り可能な画像処理プログラムを記録するあらゆる記録媒体(記憶媒体)を含む。可搬用の物理媒体は、例えばCD−ROM960やUSBメモリ970の他、MOディスクやDVDディスク、フレキシブルディスク(FD)、光磁気ディスク、ICカード等である。固定用の物理媒体は、コンピュータシステム900の内外に備えられるHDD914やRAM912、ROM913等である。通信媒体は、モデム950を介して接続される公衆回線N3や、他のコンピュータシステム(PC)981又はサーバ982が接続されるローカルエリアネットワーク又は広域エリアネットワークN1等のように、プログラムの送信に際して短期的にプログラムを記憶する媒体である。
このように画像処理プログラムは、可搬用の物理媒体、固定用の物理媒体、通信媒体等の記録媒体にコンピュータ読み取り可能に記録されるものであり、コンピュータシステム900は、このような記録媒体から画像処理プログラムを読み出して実行することで画像処理装置を実現する。なお、画像処理プログラムは、コンピュータシステム900により実行される場合に限定されるものではなく、他のコンピュータシステム(PC)981又はサーバ982が画像処理プログラムを実行する場合や、これらが協働して画像処理プログラムを実行するような場合にも、本発明を同様に適用することができる。
各部が行う処理の一部をソフトウェアで構成する場合の一例として、あらかじめ取得された画像に対して、画像処理装置210の処理をソフトウェアで実現する場合の処理手順を、図17〜図19のフローチャートを用いて説明する。
図17は、本実施形態における画像信号処理プログラムの全体的な処理を示すフローチャートである。
この処理を開始すると、まずステップS1にて、通常光画像信号及び特殊光画像信号のローデータやヘッダ情報などを読み込むと共に、画像信号処理プログラムが予め備えている階調特性係数などの情報も読み込んで、ステップS2へ進む。
次に、ステップS2にて、通常光画像信号に対して、公知のベイヤ補間処理(ベイヤ画像信号から三板画像信号への変換)、ホワイトバランス処理、カラーマネージメント処理、階調変換処理などを行う。特殊光画像が図7に示す市松状配列の構成となっているため、上述の式(1)、(2)に基づき補間処理、ホワイトバランス処理、階調変換処理などを行う。処理終了後、ステップS3へ進む。以上は図4の画像取得部212の処理に相当する。
続いて、ステップS3にて、通常光画像信号あるいは特殊光画像信号から信頼度を算出し、ステップS4へ進む。これは、図4の信頼度処理部213の処理に相当する(詳細は後述する)。次に、ステップS4にて、信頼度情報に基づき、通常光画像あるいは特殊光画像から高信頼度エリア/低信頼度エリアを判定し、ステップS5へ進む。これは図4の領域抽出部214の処理に相当する。
そして、ステップS5にて高信頼度エリアの画像信号に対して病変部/正常部を検出する。一方、低信頼度エリアの画像信号については、メモリから過去のフレームの画像信号の高信頼度/低信頼度エリアの情報及び病変部/正常部の情報を読み込んで、病変部/正常部を検出する(詳細は後述する)。処理終了後、通常光画像信号、特殊光画像信号、高信頼度/低信頼度エリアの情報及び病変部/正常部の情報を、過去画像信号及び情報としてメモリに保存する。以上は図4の種類判別部215の処理に相当する。
図18は、図17のステップS3における信頼度取得処理の詳細を示すフローチャートである。
この処理を開始すると、まず、ステップS11にて、メモリから読み込んだ特殊光画像及び通常光画像を、複数のブロック領域(例えば8×8画素のサイズの領域)に分割し、ステップS12へ進む。これは、図9の分割部402の処理に相当する。
続いて、ステップS12にて、RGB信号から輝度信号を求める公知の算出式で、通常光画像信号を用いて各画素の輝度値を算出し、ブロック領域内の画素の輝度平均値Lav(i)を算出する。この輝度平均値Lav(i)は、対応するブロック領域の輝度代表値とする。処理終了後、ステップS13へ進む。以上は図9の係数算出部403の処理に相当する。
次に、ステップS13にて、複数のブロック領域の輝度代表値Lav(i)を用いて各ブロック領域の信頼度S(i)を設定する。例えば、ROM405から所定の輝度閾値STを読み込み、各ブロック領域の輝度代表値Lav(i)と比較する。ブロック領域の輝度代表値Lav(i)が輝度閾値STよりも大きい場合には、そのブロック領域の信頼度S(i)を1に設定する。一方、ブロック領域の輝度代表値Lav(i)が輝度閾値STよりも小さい場合には、そのブロック領域の信頼度S(i)を0に設定する。処理終了後、図17に示した処理へ復帰する。以上は図9の信頼度判定部404の処理に相当する。
図19は、図17のステップS5における種類判別処理の詳細を示すフローチャートである。
この処理を開始すると、まず、ステップS21にて、高信頼度/低信頼度エリアの情報に基づき、高信頼度エリアと判定されたブロック領域を選出して、ステップS22へ進む。一方、低信頼度エリアと判定されたブロック領域を選出して、ステップS24へ進む。これは図12のエリア選定部500の処理に相当する。
次に、ステップS22にて、高信頼度エリアと判定されたブロック領域ごとに、対応するRGB信号からなる特殊光画像信号を用いて、RGB信号から輝度、色差信号を求める公知の算出式で、各ブロック領域内の各画素の輝度値L(i,m,n)、色差値CR(i,m,n)、CB(i,m,n)を算出する。続いて、色差値CR(i,m,n)、CB(i,m,n)を用いて、上述の式(4)により、各ブロック領域内の各画素の色相値H(i,m,n)を特徴量として算出する。処理終了後、ステップS23へ進む。以上は図12の第1特徴量算出部501の処理に相当する。
そして、ステップS23にて、色相値H(i,m,n)を用いて病変部/正常部を判定して、ステップS27へ進む。これは、図12の第1部位判定部502の処理に相当する。一方、ステップS24にて、低信頼度エリアと判定されたブロック領域ごとに、対応するRGB信号からなる特殊光画像信号を用いて、ステップS22の処理と同様に、各ブロック領域の各画素の色相値H(i,m,n)を算出し、ステップS25へ進む。これは、図12の第2特徴量算出部503の処理に相当する。
続いて、ステップS25にて、メモリから、保存されている1枚あるいは1枚以上の過去フレームに対応するRGB信号からなる特殊光画像信号、通常光画像信号を読み出して、現在フレームの低信頼度エリアに認定されている各ブロック領域の画像信号とのマッチング処理を行う。ここでは図14に示すように、低信頼度エリアに認定されている現在フレームの全てのブロック領域の画像信号に対し、ラスタスキャン順に移動して類似度を調べることで公知のテンプレートマッチング処理を行う。処理終了後、ステップS26へ進む。以上は、図12のマッチング部504の処理に相当する。
次に、ステップS26にて、マッチング情報に基づきマッチング成功と判断されている現在フレームのブロック領域に対応する各画素の色相値H(i,m,n)を用いて、褐色の領域(扁平上皮癌などの病変部が褐色)を病変部として検出する。次に、抽出した画素において、対応する過去フレームのマッチングブロック領域の病変部/正常部の情報と、高信頼度/低信頼度エリアの情報を、メモリから読み出す。そして、抽出した病変候補画素に対応する過去フレームの候補領域中の画素は高信頼度エリアに存在し病変部と判断されている場合は、病変候補画素の信頼度を高信頼度エリアに存在することと設定し、その画素を病変部と判断する。一方、それ以外の画素は正常部に対応する画素として認定する。そして処理終了後、ステップS27へ進む。以上は図12の第2部位判別部505の処理に相当する。
最後に、ステップS27にて、ステップS23及びステップS26からの画素ごとの病変部/正常部の情報、高信頼度/低信頼度エリアの情報を用いて、現在フレームの全画素の病変部/正常部の情報、高信頼度/低信頼度エリアの情報を、画素位置に対応して合成する。処理終了後、図17に示した処理へ復帰する。以上は図12の合成部506の処理に相当する。
2.6 本実施形態の手法
次に本実施形態の手法及び基本的な構成についてまとめる。図4に示すように本実施形態の画像処理装置210は、画像を取得する画像取得部212と、信頼度処理部213と、種類判別部215を含む。信頼度処理部213は、取得された画像上の被写体の種類判別についての信頼度を取得(算出、設定)する処理を行う。即ち、判別結果の確からしさを定める信頼度を取得する。また種類判別部215は被写体の種類判別処理を行う。例えば画像に映る被写体が、病変部等の注目部であるのか、正常部等の非注目部であるかを判別する。
次に本実施形態の手法及び基本的な構成についてまとめる。図4に示すように本実施形態の画像処理装置210は、画像を取得する画像取得部212と、信頼度処理部213と、種類判別部215を含む。信頼度処理部213は、取得された画像上の被写体の種類判別についての信頼度を取得(算出、設定)する処理を行う。即ち、判別結果の確からしさを定める信頼度を取得する。また種類判別部215は被写体の種類判別処理を行う。例えば画像に映る被写体が、病変部等の注目部であるのか、正常部等の非注目部であるかを判別する。
そして画像取得部212は、図1(A)〜図1(C)で説明したように、第1画像(IM1)と、第1画像とは取得フレーム(取得タイミング)が異なる第2画像(IM2)を取得する。例えば第1画像は、現在のフレームの画像であり、第2画像は過去のフレームの画像である。或いは後述するように、第1画像が過去のフレームの画像であり、第2画像が現在のフレームの画像であってもよい。そして種類判別部215は、第1画像の被写体の種類判別処理に、第2画像の情報を用いるか否かを、第1画像において取得された信頼度(信頼度情報)に基づいて判断する。例えば第1画像の各領域での画像の信頼度の高低に応じて、第1画像の被写体の種類判別処理に第2画像の情報を用いたり、用いなかったりする。具体的には、第1画像において暗い画像の領域は、信頼度が低い領域であると判断し、被写体の種類判別に第2画像の情報を用いるようにする。このようにすれば、第1画像において信頼度が低い領域であっても、第2画像の情報を流用して被写体の種類を判別できるため、種類判別の精度や信頼性を向上できる。
例えば図2(A)、図2(B)に示すように、信頼度処理部213は、信頼度が高いエリアを高信頼度エリアに設定し、高信頼度エリアよりも信頼度が低いエリアを低信頼度エリアに設定する。例えば基準値(閾値)よりも信頼度が高いエリアが高信頼度エリアになり、基準値よりも信頼度が低いエリアが低信頼度エリアになる。
そして種類判別部215は、第1画像の低信頼度エリアでの被写体の種類判別処理を、第2画像の情報を用いて行う。例えば図2(A)において、画像の輝度が低い周辺部の低信頼度エリアでは、第2画像の情報(注目部情報、信頼度情報)を用いて被写体の種類を判別する。具体的には図3に示すように、種類判別部215は、第1画像の低信頼度エリアでの被写体の種類判別処理を、第2画像の高信頼度エリアでの情報を用いて行う。例えば第1画像の周辺部の低信頼度エリアに存在する被写体については、第2画像の中央部の高信頼度エリアでの情報を用いて、その種類判別を行う。このようにすれば、第1画像において被写体が低信頼度エリアに位置していた場合にも、その被写体が、第2画像においては高信頼度エリアに位置していた場合には、高信頼度エリアに位置していた時に得られた情報を用いて、その被写体が病変部であるのか正常部であるのかを判断できる。従って、被写体の種類判別の精度や信頼性を向上できる。
また図13のA3で説明したように、種類判別部215は、第1画像の高信頼度エリアでの被写体の種類判別処理については、第1画像の情報を用いて行う。例えば輝度が明るい高信頼度エリアでは、第2画像の情報を用いずに、例えば第1画像の情報だけを用いて種類判別を行う。このようにすれば、高信頼度エリアでの種類判別については、第2画像の情報を流用しなくても済むようになるため、処理負荷の軽減や処理の簡素化を図れる。
また図12に示すように種類判別部215は合成部506を含む。そして図13のA6、A14、A15に示すように、この合成部506は、第1画像を用いて行われた高信頼度エリアでの種類判別処理の結果(高信頼度エリアでの注目部情報や信頼度情報)と、第2画像を用いて行われた低信頼度エリアでの種類判別処理の結果(高信頼度エリアでの注目部情報や信頼度情報)を合成する。具体的には、種類判別処理の結果である注目部情報や信頼度情報を、第1画像の全ての画素に対応づける処理を行う。このようにすれば、高信頼度エリアと低信頼度エリアに分けて処理を行った場合にも、これらの各エリアでの種類判別の結果を合成することで、第1画像の全ての画素での情報を取得できるようになる。
また図13のA16に示すように、合成部506は、注目部を判別するための注目部情報と、信頼度を判別するための信頼度情報を、第1画像の各画素に対応づけて保存部217に保存する。このようにすることで、保存された注目部情報や信頼度情報を、それ以降の画像処理に利用することが可能になる。ここで、注目部情報は、処理対象となる画素や領域が、注目部(病変部)なのか、非注目部(正常部)なのかを判別するための情報である。また信頼度情報は、例えば処理対象となる画素や領域が、高信頼度エリアに属するのか(S(i)=1)、低信頼度エリアに属するのか(S(i)=0)を判別するための情報である。
また図13のA13に示すように、種類判別部215は、第1画像の低信頼度エリアでの被写体の種類判別処理を、第1画像の情報と第2画像の情報の両方を用いて行ってもよい。例えば第1画像での各画素の特徴量と、第2画像での注目部情報や信頼度情報を用いて、被写体の種類判別を行う。このようにすれば、例えば第1画像においても、その特徴量から病変部である可能性が高く、第2画像においても、注目部情報等から病変部である蓋然性が高い画素を、病変部に対応する画素であると判定できるようになり、種類判別の精度や信頼性を更に向上できる。
また図13のA12、A13に示すように、種類判別部215は、第1画像の低信頼度エリアでの被写体の種類判別処理を、第2画像の注目部情報と信頼度情報を用いて行ってもよい。このようにすれば、保存部217に保存された注目部情報(病変部/正常部の情報)や信頼度情報(高信頼度/低信頼度エリアの情報)を有効利用して、被写体の種類判別を実現できるようになる。
また図3で説明したように、種類判別部215は、第1画像において被写体の種類判別処理が行われる処理領域が、低信頼度エリアである場合に、処理領域に対応する第2画像の対応処理領域での情報に基づいて、第1画像の処理領域での被写体の種類判別処理を行う。例えば種類判別部215は、処理領域の画像と第2画像とのマッチング処理を行うことで、処理領域に対応する対応処理領域を抽出する。
ここで処理領域は、例えば図3のブロック領域BLであり、対応処理領域はマッチングブロック領域MBLである。図14で説明したように種類判別部215は、処理領域であるブロック領域BLの画像と、第2画像とのマッチング処理を行うことで、対応処理領域であるマッチングブロック領域MBLを抽出する。
そして図3では、処理領域であるブロック領域BLが、低信頼度エリアに属している。従って種類判別部215は、対応処理領域であるマッチングブロック領域MBLでの情報(注目部情報、信頼度情報)を用いて、第1画像のブロック領域BLでの被写体の種類判別処理を行う。こうすることで、ブロック領域BLでの種類判別に、マッチングブロック領域MBLでの情報を流用できるようになる。
この場合に、図13のA13等で説明したように、種類判別部215は、第1画像の処理領域(BL)での画素の特徴量(色相等)に基づいて注目候補画素(病変候補画素)を抽出する。そして抽出された注目候補画素が注目画素(病変画素)であるか否かを、第2画像の対応処理領域(MBL)での情報に基づいて判断する。具体的には、対応処理領域での情報である注目部情報や信頼度情報に基づいて、注目候補画素が注目画素であるか否かを判断する。このようにすれば、低信頼度エリアについては、第1画像の情報(特徴量)と第2画像の情報(注目部情報、信頼度情報)の両方を用いて、被写体の種類判別が行われるようになるため、より信頼性の高い種類判別を実現できる。
また図9に示す信頼度処理部213は、第1画像の被写体像の明るさ情報、第1画像の被写体像の色情報、及び第1画像を撮像した撮像部(撮像素子、光学系)と被写体との間の距離情報の少なくとも1つに基づいて、信頼度を算出することができる。
即ち、内視鏡において病変部/正常部を判断する場合、被写体からの反射光の強度が強ければ、第1画像の被写体像は明るくなり、病変部/正常部などの種類判別の信頼度が向上する。従って、前述のように第1画像の各ブロック領域の輝度平均値を輝度代表値Lav(i)として算出し、この輝度代表値Lav(i)を用いてブロック領域ごとの信頼度S(i)を算出することができる。また撮像素子と光学系を有する撮像部(図4の挿入部102の先端部)と被写体との間の距離が短いほど、被写体像は明るくなり、信頼度が向上する。従って、撮像部と被写体との距離情報を用いて信頼度S(i)を算出してもよい。例えば輝度信号の大きさは、撮像部と被写体との距離が短いほど大きくなるため、輝度信号も距離情報に相当する情報となる。或いは、例えば挿入部102の先端部等に、距離を測定するための測距センサを設け、この測距センサにより検知された距離情報に基づいて、信頼度を算出するようにしてもよい。また例えば前述の式(3)に示すように、色情報の一例である色相代表値H(i)を求め、図10で説明したように、求められた色相代表値H(i)が目標領域に入るか否かを判断することで、信頼度S(i)を算出してもよい。このようにすれば、例えば病変の色に近い色相の領域を、病変部である確からしさが高い高信頼度の領域として抽出できる。
また図11で説明したように、信頼度処理部213は、第1画像内での位置情報(座標位置)に応じて、信頼度を設定してもよい。例えば第1画像内の位置と信頼度とが対応している場合には、第1画像内での位置情報に応じて信頼度が異なる値になるように信頼度を設定する。
具体的には図2(A)では、第1画像の中央部の位置では信頼度が高く、周辺部の位置では信頼度が低い。従って、この場合には信頼度処理部213は、第1画像の中央部を高信頼度エリアに設定し、中央部の周りの周辺部を、高信頼度エリアよりも信頼度が低い低信頼度エリアに設定する。例えば画像取得部212が、体内の隆起物が画像の中央になるように撮像部により撮像された画像を、第1画像として取得する場合には、このように中央部を高信頼度エリアに設定し周辺部を低信頼度エリアに設定する手法が効果的になる。
一方、図2(B)では、第1画像の中央部の位置では信頼度が低く、周辺部の位置では信頼度が高い。従って、この場合には信頼度処理部213は、第1画像の中央部を低信頼度エリアに設定し、周辺部を高信頼度エリアに設定する。例えば画像取得部212が、体内の空洞形態(管空状の形態)が画像の中央になるように撮像部により撮像された画像を、第1画像として取得する場合には、このように中央部を低信頼度エリアに設定し周辺部を高信頼度エリアに設定する手法が効果的になる。即ち、消化器の内視鏡診断においては、被写体の多くは管空状であるため、図2(B)のように信頼度を設定することで、病変部の検出精度の向上や処理負荷の軽減を図れる。
また図9に示すように信頼度処理部213は、第1画像を複数のブロック領域に分割する分割部402を含む。そして信頼度処理部213は、複数のブロック領域の各ブロック領域において、信頼度を取得する。例えば輝度代表値LAV(i)が所定の閾値(基準値)よりも高いブロック領域に対しては、信頼度をS(i)=1に設定し、所定の閾値よりも低いブロック領域に対しては、信頼度をS(i)=0に設定する。これにより、高信頼度エリア、低信頼度エリアの設定が可能になる。
この場合に種類判別部215は、各ブロック領域を処理領域として、被写体の種類判別処理を行うことが望ましい。即ち図3の各ブロック領域BLにおいて信頼度を取得して信頼度の設定処理を行うと共に、この各ブロック領域BLを処理領域として、被写体の種類判別処理も行う。例えば高信頼度エリアのブロック領域では、第1画像の情報(特徴量)を用いて、病変部/正常部の判定を行い、低信頼度エリアのブロック領域では、第1画像の情報のみならず、第2画像の情報(図3のマッチングブロック領域MBLの情報)を用いて、病変部/正常部の判定を行う。このようにすることで、信頼度処理部213と種類判別部215は、同じサイズのブロック領域を用いて信頼度の処理と種類判別の処理を実行できるようになるため、処理の簡素化等を図れる。なお、信頼度処理部213の処理領域のサイズ、形状等と、種類判別部215での処理領域のサイズ、形状等を異ならせる変形実施も可能である。
また種類判別部215は、種類判別処理として、第1画像の被写体が注目部(注目領域、注目画素)であるか非注目部(非注目領域、非注目画素)であるかを判別する処理を行う。具体的には、第1画像の被写体が病変部であるか正常部であるかを判別する処理を行う。
ここで注目部(注目領域、注目画素)とは、使用者にとって観察の優先順位が他の部分よりも相対的に高い部分であり、例えば、使用者が医者であり治療を希望した場合、粘膜部や病変部を写した部分(領域、画素)を指す。また、他の例として、医者が観察したいと欲した対象が泡や便であれば、注目部は、その泡部分や便部分になる。即ち、使用者が注目すべき対象は、その観察目的によって異なるが、いずれにしても、その観察に際し、使用者にとって観察の優先順位が他の部分よりも相対的に高い部分が注目部となる。また、注目部は撮像画像の画素の特徴量(色相、彩度等)を用いて検出することができ、例えば特徴量に対する閾値は、注目部の種類に応じて変化する。例えば第1の種類の注目部に対する色相、彩度等の特徴量の閾値と、第2の種類の注目部に対する特徴量の閾値は異なった値になる。そして、注目部の種類が変わった場合には、この特徴量の閾値を変えるだけで済み、注目部の検出後の処理については、本実施形態で説明した処理と同様の処理で実現することができる。
また画像取得部212は、第1画像及び第2画像の少なくとも1つとして、例えば図6で説明した特定の波長帯域の情報を含む特殊光画像を取得する。具体的には、画像取得部212は、第1画像として、図5で説明した白色光の波長帯域の情報を含む通常光画像と、図6で説明した特定の波長帯域の情報を含む特殊光画像を取得する。
そして図13のA3、A5、A7、A13で説明したように、種類判別部215は、通常光画像及び特殊光画像のうちの少なくとも特殊光画像を用いて、被写体の種類を判別する。このように特殊光画像を用いる手法によれば、通常光画像を用いる手法に比べて病変部等の検出を容易化できる。なお通常光画像及び特殊光画像の両方を用いて種類判別を行うことも可能である。
また画像取得部212は、第2画像として、通常光画像を取得する。或いは第2画像として通常光画像と特殊光画像を取得する。そして図13のA13に示すように種類判別部215は、第2画像の特殊光画像により取得された情報(例えば注目部情報等)を用いて、第1画像の被写体の種類判別処理を行う。このようにすれば、第1画像の特殊光画像のみならず、第2画像の特殊光画像を用いて、病変部/正常部の判定を行うことが可能になり、種類判別の精度や信頼性を向上できる。
また本実施形態における特定の波長帯域は、白色光の波長帯域よりも狭い帯域である(NBI:Narrow Band Imaging)。例えば、通常光画像及び特殊光画像は生体内を写した生体内画像であり、生体内画像に含まれる特定の波長帯域は、血液中のヘモグロビンに吸収される波長の波長帯域である。このヘモグロビンに吸収される波長は、例えば390ナノメータ〜445ナノメータ(第1の狭帯域光。狭帯域光のB2成分)、または530ナノメータ〜550ナノメータ(第2の狭帯域光。狭帯域光のG2成分)である。
これにより、生体の表層部及び、深部に位置する血管の構造を観察することが可能になる。また得られた信号を特定のチャンネル(G2→R、B2→G,B)に入力することで、扁平上皮癌等の通常光では視認が難しい病変などを褐色等で表示することができ、病変部の見落としを抑止することができる。なお、390nm〜445nmまたは530nm〜550nmとは、ヘモグロビンに吸収されるという特性及び、それぞれ生体の表層部または深部まで到達するという特性から得られた数字である。但し、この場合の波長帯域はこれに限定されず、例えばヘモグロビンによる吸収と生体の表層部又は深部への到達に関する実験結果等の変動要因により、波長帯域の下限値が0〜10%程度減少し、上限値が0〜10%程度上昇することも考えられる。
また、本実施形態では、生体内画像に含まれる特定の波長帯域は、蛍光物質が発する蛍光の波長帯域であってもよい。例えば、特定の波長帯域は、490ナノメータ〜625ナノメータの波長帯域であってもよい。
これにより、AFI(Auto Fluorescence Imaging)と呼ばれる蛍光観察が可能となる。励起光(390nm〜470nm)を照射することで、コラーゲンなどの蛍光物質からの自家蛍光(intrinsic fluorescence、490nm〜625nm)を観察することができる。このような観察では病変を正常粘膜とは異なった色調で強調表示することができ、病変部の見落としを抑止すること等が可能になる。なお490nm〜625nmという数字は、前述の励起光を照射した際、コラーゲン等の蛍光物質が発する自家蛍光の波長帯域を示したものである。但し、この場合の波長帯域はこれに限定されず、例えば蛍光物質が発する蛍光の波長帯域に関する実験結果等の変動要因により、波長帯域の下限値が0〜10%程度減少し、上限値が0〜10%程度上昇することも考えられる。また、ヘモグロビンに吸収される波長帯域(540nm〜560nm)を同時に照射し、擬似カラー画像を生成してもよい。
また本実施形態では、生体内画像に含まれる特定の波長帯域は、赤外光の波長帯域であってもよい。例えば、特定の波長帯域は、790ナノメータ〜820ナノメータ、または905ナノメータ〜970ナノメータの波長帯域であってもよい。
これにより、IRI(Infra Red Imaging)と呼ばれる赤外光観察が可能となる。赤外光が吸収されやすい赤外指標薬剤であるICG(インドシアニングリーン)を静脈注射した上で、上記波長帯域の赤外光を照射することで、人間の目では視認が難しい粘膜深部の血管や血流情報を強調表示することができ、胃癌の深達度診断や治療方針の判定などが可能になる。なお、790nm〜820nmという数字は赤外指標薬剤の吸収がもっとも強いという特性から求められ、905nm〜970nmという数字は赤外指標薬剤の吸収がもっとも弱いという特性から求められたものである。但し、この場合の波長帯域はこれに限定されず、例えば赤外指標薬剤の吸収に関する実験結果等の変動要因により、波長帯域の下限値が0〜10%程度減少し、上限値が0〜10%程度上昇することも考えられる。
また本実施形態では、図4の画像取得部212が、取得された通常光画像に基づいて特殊光画像を生成してもよい。
具体的には、画像取得部212は、取得された通常光画像から、白色光の波長帯域における信号を抽出する信号抽出部を含み、画像取得部212は、抽出された白色光の波長帯域における信号に基づいて、特定の波長帯域における信号を含む特殊光画像を生成する。例えば、信号抽出部は、通常光画像のRGB信号から10nm刻みに被写体の分光反射率特性を推定し、画像取得部212は、その推定された信号成分を上記特定の帯域で積算して特殊光画像を生成する。
より具体的には、画像取得部212は、白色光の波長帯域における信号から、特定の波長帯域における信号を算出するためのマトリクスデータを設定するマトリクスデータ設定部を含む。そして画像取得部212は、設定されたマトリクスデータを用いて、白色光の波長帯域における信号から特定の波長帯域における信号を算出して、特殊光画像を生成する。例えば、マトリクスデータ設定部は、特定の波長帯域の照射光の分光特性が10nm刻みに記述されたテーブルデータをマトリクスデータとして設定する。そして、このテーブルデータに記述された分光特性(係数)を、推定された被写体の分光反射率特性に乗算して積算し、特殊光画像を生成する。
これにより、通常光画像に基づいて特殊光画像を生成することができるので、通常光を照射する1つの光源と、通常光を撮像する1つの撮像素子のみでもシステムを実現することが可能になる。そのため、スコープ型内視鏡の挿入部やカプセル型内視鏡を小さくすることができ、また部品が少なくてすむためコストを下げる効果も期待できる。
3.第2の構成例
次に本実施形態の第2の構成例について説明する。前述の図4に示す第1の構成例では、過去フレームの高信頼度エリアの画像信号の病変部/正常部の情報を用いて、現在フレームの低信頼度エリアの画像信号の病変部/正常部の判定を行っている。これに対して第2の構成例では、現在フレームの高信頼度エリアの画像信号の病変部/正常部の情報を用いて、過去フレームの低信頼度エリアの画像信号の病変部/正常部の判定を行う。処理の対象は、例えば撮像済みの時系列的に形成された画像信号である。ここでは第1の構成例と異なる部分について主に説明する。
次に本実施形態の第2の構成例について説明する。前述の図4に示す第1の構成例では、過去フレームの高信頼度エリアの画像信号の病変部/正常部の情報を用いて、現在フレームの低信頼度エリアの画像信号の病変部/正常部の判定を行っている。これに対して第2の構成例では、現在フレームの高信頼度エリアの画像信号の病変部/正常部の情報を用いて、過去フレームの低信頼度エリアの画像信号の病変部/正常部の判定を行う。処理の対象は、例えば撮像済みの時系列的に形成された画像信号である。ここでは第1の構成例と異なる部分について主に説明する。
図20に、本実施形態の第2の構成例を示す。この第2の構成例は、画像保存部231、画像処理装置210、制御部221、外部I/F部222を含む。画像処理装置210は、画像取得部212、信頼度処理部213、領域抽出部214、種類判別部232、保存部217を含む。
画像保存部231は、画像取得部212、信頼度処理部213、領域抽出部214を介して種類判別部232へ接続している。保存部217は、種類判別部232と双方向に接続している。制御部221は、画像保存部231、画像取得部212、信頼度処理部213、領域抽出部214、種類判別部232、保存部217と双方向に接続している。外部I/F部222は制御部221へ接続している。
画像保存部231は、内視鏡システムで撮像したA/D変換後の通常光画像信号(通常光画像データ)及び特殊光画像信号(特殊光画像データ)を保存している。画像保存部231は、制御部221の制御に基づき、通常光画像信号及び特殊光画像信号を画像取得部212へ転送する。画像取得部212、信頼度処理部213、領域抽出部214は、図4の第1の構成例と同様の構成であり、同様の処理を行う。
図21に種類判別部232の構成例を示す。この種類判別部232は、特徴量算出部601、第1部位判定部602、マッチング部603、第2部位判定部604を含む。領域抽出部214は、特徴量算出部601、第1部位判定部602を介して、保存部217へ接続している。第1部位判定部602は、マッチング部603、第2部位判定部604を介して保存部217へ接続している。保存部217はマッチング部603へ接続している。制御部221は、特徴量算出部601、第1部位判定部602、マッチング部603及び第2部位判定部604と双方向に接続している。
特徴量算出部601は、図22のB1に示すように、現在フレームの特殊光画像を用いて特徴量を算出する。具体的には、領域抽出部214からの現在フレームの画像信号からなる全てのブロック領域ごとに、対応するRGB信号からなる特殊光画像信号を用いて、RGB信号から輝度、色差信号を求める公知の算出式で、各ブロック領域内の各画素の輝度値L(i,m,n)、色差値CR(i,m,n)、CB(i,m,n)を算出する。ここでiは各ブロック領域を判別するために付したブロック領域番号であり、mはブロック内にある画素の横軸座標であり、nはブロック内にある画素の縦軸座標である。続いて特徴量算出部601は、色差値CR(i,m,n)、CB(i,m,n)を用いて、各ブロック領域内の各画素の色相値H(i,m,n)を特徴量として算出する(上述の式(4)参照)。
そして特徴量算出部601は、図22のB2に示すように、特徴量、信頼度情報、通常光・特殊光画像の信号を第1部位判定部602へ転送する。具体的には、算出した複数のブロック領域内の各画素の特徴量である色相値H(i,m,n)と、現在フレームの画像信号の全てのブロック領域のRGB信号からなる特殊光画像信号及び通常光画像信号と、高信頼度/低信頼度エリアの情報を、第1部位判定部602へ転送する。
第1部位判定部602は、図22のB3に示すように特徴量を用いて現在フレームの画像の注目部/非注目部の判定を行う。具体的には、制御部221の制御により、転送されて来た各画素の色相値H(i,m,n)を用いて病変部/正常部を判定する。本実施形態では、特殊光画像(NBI画像)である狭帯域画像において、扁平上皮癌などの病変部が褐色の領域として現れるため、特徴量として色相値を用いて病変部を検出することができる。このため第1部位判定部602は、各ブロック領域の特殊光画像信号中の高信頼度エリアと判定されている画素に対して、色相値H(i,m,n)を用いて閾値処理を行い、病変部に対応する画素を検出する。ここでは、褐色の領域を病変部として検出するため、例えば色相値H(i,m,n)が−75〜−105の範囲にある画素を病変部に対応する画素として検出する。また、それ以外の画素は正常部に対応する画素として認定する。処理の終了後、第1部位判定部602は、図22のB4、B5に示すように、通常光画像信号、特殊光画像信号と、各画素の病変部/正常部の情報、高信頼度/低信頼度エリアの情報を、マッチング部603及び保存部217へ転送する。
マッチング部603は、図22のB6、B7に示すように、過去フレームの画像を保存部217から読み出して、現在フレームの各ブロック領域の画像とのマッチング処理を行う。具体的には、制御部221の制御に基づき、保存部217から1枚あるいは1枚以上の過去フレームに対応するRGB信号からなる特殊光画像信号、通常光画像信号を抽出し、第1部位判定部602からの現在フレームの各ブロック領域の画像信号とのマッチング処理を行う。本実施形態は、上述した第1の構成例と同様に、現在フレームの複数のブロック領域の画像信号を用いて、ラスタスキャン順で公知のテンプレートマッチング処理を行う。具体的には、現在フレームの各ブロック領域に対応する通常光画像信号B(i)をテンプレートとして、過去フレームに対応する通常光画像信号Refの一番左上の位置から右方向にラスタスキャン順に移動して、画像の類似度を調べる処理を行う。その場合、テンプレートとなる通常光画像信号B(i)、及びラスタスキャン順に移動して類似度を調べる処理中に形成した複数枚の同一ブロックサイズを有する過去フレームの通常光画像信号C(j)(候補ブロック領域と定義。jは候補ブロック領域の番号)を用いて、二つブロック領域画像信号の類似度を算出して、マッチング処理を行う。
そしてテンプレートとなる現在のフレームの全てのブロック領域のマッチング処理が完了した後、マッチング部603は、図22のB8に示すように、マッチング情報、注目部情報、信頼度情報、特徴量、通常光・特殊光画像信号を、第2部位判定部604に転送する。具体的には、マッチング情報と、現在フレームに関する病変部/正常部の情報、高信頼度/低信頼度エリアの情報と、マッチング成功と判断されている過去フレームのブロック領域に対応する特殊光画像信号及び通常光画像信号と、各画素の色相値H(i,m,n)を、第2部位判定部604へ転送する。
第2部位判定部604は、図22のB9に示すように、過去フレームの画像の特徴量と、現在フレームの画像の注目部情報、信頼度情報を用いて、過去フレームの画像の注目部/非注目部の判定を行う。
具体的には第2部位判定部604は、制御部221の制御により、マッチング情報に基づきマッチング成功と判断されている過去フレームのブロック領域に対応する各画素の色相値H(i,m,n)を用いて、病変部を検出する。例えば過去フレームの特殊光画像信号から色相値H(i,m,n)が−75〜−105の範囲にある病変候補画素を抽出する。
そして、抽出された過去フレームの画像の病変候補画素が低信頼度エリアに存在したとする。また、マッチング部603からの現在フレームのブロック領域の病変部/正常部の情報と、高信頼度/低信頼度エリアの情報に基づき、病変候補画素に対応する現在フレームのブロック領域中の画素が高信頼度エリアに存在し、病変部と判断されているとする。この場合には、第2部位判定部604は、抽出された過去フレームの病変候補画素の信頼度を高信頼度エリアに存在することと設定し、その病変候補画素を病変部と判断して、その画素の病変部/正常部の情報を更新する。
そして第2部位判定部604は、現在フレーム画像信号中の全ての高信頼度エリアのブロック領域に対する判定処理が終了した後に、図22のB10に示すように、処理後の各画素の病変部/正常部の情報、高信頼度/低信頼度エリアの情報と、RGB信号からなる通常光画像信号及び特殊光画像信号を、保存部217へ転送する。
以上のように第2の構成例では、現在フレームの高信頼度エリアの画像信号の病変部/正常部の情報を、過去フレームの低信頼度エリアの画像信号の病変部/正常部の判定に用いている。これにより、過去フレームの画像信号の病変部/正常部の判定精度を向上することができるため、内視鏡画像の診断能力(特にカプセル内視鏡で撮影した画像信号においての診断能力)を高めることができる。
図23は、図21の種類判別部232の処理を示すフローチャートである。
この処理を開始すると、まず、ステップS31にて、現在フレームの画像信号からなる全てのブロック領域ごとに、対応するRGB信号からなる特殊光画像信号を用いて、RGB信号から輝度、色差信号を求める公知の算出式で、各ブロック領域の各画素の輝度値L(i,m,n)、色差値CR(i,m,n)、CB(i,m,n)を算出する。続いて、色差値CR(i,m,n)、CB(i,m,n)を用いて、上述の式(4)により、各ブロック領域の各画素の色相値H(i,m,n)を特徴量として算出する。処理終了後、ステップS32及びステップS33へ進む。以上は図21の特徴量算出部601の処理に相当する。
次に、ステップS32にて、各画素の色相値H(i,m,n)を用いて病変部/正常部を判定する。具体的には、各ブロック領域の特殊光画像信号中の高信頼度エリアと判定されている画素に対して、色相値H(i,m,n)を用いて閾値処理を行い、病変部に対応する画素を検出する。そして、それ以外の画素は正常部に対応する画素として認定する。これは図21の第1部位判定部602の処理に相当する。
一方、ステップS33にて、メモリから1枚あるいは1枚以上の過去フレームに対応するRGB信号からなる特殊光画像信号、通常光画像信号を読み出して、現在フレームの各ブロック領域の画像信号とのマッチング処理を行い、ステップS34へ進む。これは図21のマッチング部603の処理に相当する。
続いて、ステップS34にて、マッチング情報に基づきマッチング成功と判断されている過去フレームのブロック領域に対応する各画素の色相値H(i,m,n)を用いて、病変部を検出する。そして、抽出した画素において、マッチング部603からの現在フレームのブロック領域の病変部/正常部の情報と高信頼度/低信頼度エリアの情報に基づき、抽出した過去フレームのブロック領域中の病変候補画素に対応する現在フレームのブロック領域中の画素が、高信頼度エリアに存在し病変部と判断されたとする。この場合には、その過去フレームのブロック領域中の病変候補画素の信頼度を高信頼度エリアに存在することと設定し、その画素を病変部と判断して、その画素の病変部/正常部の情報を更新する。処理後の各画素の病変部/正常部の情報、高信頼度/低信頼度エリアの情報を、メモリに保存する。以上は図21の第2部位判定部604の処理に相当する。
なお第2の構成例では、現在フレームの高信頼度エリアの画像信号の病変部/正常部の情報を、過去フレームの低信頼度エリアの画像信号の病変部/正常部の判定に用いているが、本実施形態の手法はこれに限定されない。例えば図24に種類判別部232の変形例を示す。
図24の種類判別部232は、特徴量算出部601、第1部位判定部602、マッチング部613、第2部位判定部614、画像検出部615を含む。領域抽出部214は、特徴量算出部601、第1部位判定部602を介して、保存部217へ接続している。保存部217は、マッチング部613、第2部位判定部614、画像検出部615へ接続している。画像検出部615は、マッチング部613及び第2部位判定部614を介して保存部217へ接続している。制御部221は、特徴量算出部601、第1部位判定部602、マッチング部613、第2部位判定部614及び画像検出部615と双方向に接続している。
この変形例では、時系列的に連続撮像された画像信号に対し、2回の種類判別処理を行うことが特徴となっている。まず、1回目の処理において、時系列的に連続撮像された各フレームの画像信号に対し、信頼度に基づき高信頼度エリア/低信頼度エリアを設定する。そして高信頼度エリアの画像信号の病変部/正常部の判定を行い、画像信号、高信頼度エリア/低信頼度エリアの情報、病変部/正常部の情報を保存する。次に、1回目の処理済み後の時系列的に連続撮像された各フレームの低信頼度エリアの画像信号の病変部/正常部の判定において、時系列的に当該フレームの前及び後のフレームで撮像された画像信号の高信頼度エリアの画像信号の病変部/正常部の情報を流用する。
この変形例の具体的な処理の流れについて図25、図26を用いて説明する。
まず特徴量算出部601は、図25のC1に示すように、特殊光画像を用いて特徴量を算出する。具体的には、領域抽出部214からの現在フレームの画像信号からなる全てのブロック領域ごとに、対応するRGB信号からなる特殊光画像信号を用いて、上述の式(4)に示すように、各ブロック領域の各画素の色相値H(i,m,n)を特徴量として算出する。そして特徴量算出部601は、図25のC2に示すように、算出した特徴量、信頼度情報、通常光・特殊光画像の信号を、第1部位判定部602に転送する。具体的には、算出した複数のブロック領域の各画素の色相値H(i,m,n)と、現在フレームの全てのブロック領域のRGB信号からなる特殊光画像信号及び通常光画像信号と、高信頼度/低信頼度エリアの情報を、第1部位判定部602へ転送する。
第1部位判定部602は、図25のC3に示すように、特徴量を用いて注目部/非注目部の判定を行う。具体的には、制御部221の制御により、転送されて来た各画素の色相値H(i,m,n)を用いて病変部/正常部を判定する。そして処理の終了後、C4に示すように、通常光画像信号、特殊光画像信号と、各画素の病変部/正常部の情報、高信頼度/低信頼度エリアの情報を、保存部217へ転送する。
時系列的に連続撮像された全ての画像信号に対して、上述の1回目の処理が完了した後、下記の2回目の処理を行う。
即ち画像検出部615は、図26のD1に示すように、上述の1回目の処理が済んだ後の通常光画像信号あるいは特殊光画像信号と、それに対応する高信頼度/低信頼度エリアの情報及び病変部/正常部の情報を、保存部217から読み出して、マッチング部613へ転送する。
マッチング部613は、図26のD2に示すように、現在フレームの各ブロック領域の画像と、前後のフレームの画像のマッチング処理を行う。具体的にはD3に示すように、制御部221の制御に基づき、在フレームの前及び後のフレームで撮像された所定枚数のRGBからなる特殊光画像信号、通常光画像信号を、保存部217から読み出す。そして、画像検出部615からの現在フレームの各ブロック領域の画像信号とのマッチング処理を行う。本変形例では、第1の構成例と同様に、ラスタスキャン順で公知のテンプレートマッチング処理を行う。例えば本変形例では、図27に示すように、時系列的に現在フレームの前及び後のフレームで撮影された2枚ずつの画像信号を抽出して、現在フレームとのマッチング処理を行う。
テンプレートとなる現在フレームの全てのブロック領域でのマッチング処理が完了した後、D4に示すように、マッチング情報と、現在フレームの前及び後に撮像されたフレームに関する病変部/正常部の情報、高信頼度/低信頼度エリアの情報と、マッチング成功となっている現在フレームの前及び後のフレームのブロック領域のRGB信号からなる特殊光画像信号及び通常光画像信号と、各画素の色相値H(i,m,n)を、第2部位判定部614へ転送する。
第2部位判定部614は、図26のD5に示すように、現在フレームの画像の特徴量と、前後のフレームの画像の注目部情報、信頼度情報を用いて、現在フレームの画像の注目部/非注目部の判定を行う。具体的には、制御部221の制御により、マッチング情報に基づきマッチング成功と判断されている現在フレームの低信頼度のブロック領域に対応する各画素の色相値H(i,m,n)を用いて、病変部を検出することで、病変候補画素を抽出する。次に、マッチング部613からの現在フレームの前及び後に撮像された所定枚数のフレーム画像のブロック領域の病変部/正常部の情報、高信頼度/低信頼度エリアの情報に基づき、病変候補画素とマッチングした注目画素が高信頼度エリアに存在するか否かを判定する。
例えば、図27に示すように、現在フレームの前及び後に撮像された4フレームの画像中に、病変候補画素とマッチングした、高信頼度エリアに属する注目画素が複数存在したとする。この場合には、現在フレームと撮像時間が近接するフレームに属する注目画素の病変部/正常部の情報を、病変候補画素の判定に適用する。その場合、病変候補画素の信頼度を高信頼度エリアに設定し、病変候補画素を病変部と判断して、病変候補画素の病変部/正常部の情報を更新する。そして図26のD6に示すように、処理後の各画素の病変部/正常部の情報、高信頼度/低信頼度エリアの情報と、RGB信号からなる通常光画像信号及び特殊光画像信号を、保存部217へ転送する。
このよう本変形例では、1回目の処理において、時系列的に連続撮像された各フレームの画像信号に対し、信頼度に基づき高信頼度エリア/低信頼度エリアを設定する。そして高信頼度エリアの画像信号の病変部/正常部の判定を行い、画像信号と、高信頼度エリア/低信頼度エリアの情報と、病変部/正常部の情報を保存する。次に、1回目の処理が済んだ後の時系列的に連続撮像された各フレームの低信頼度エリアの画像信号の病変部/正常部の判定において、当該フレームの前及び後に撮像された所定枚数のフレーム画像信号の高信頼度エリアの画像信号の病変部/正常部の情報を流用する。このため、時系列的に各フレームの前及び後に撮像された画像信号中の病変部/正常部の情報が流用できるため、内視鏡画像の診断能力(特にカプセル内視鏡で撮影した画像信号においての診断能力)を高めることができる。
なお、本変形例では、時系列的に現在フレームの前及び後に撮像された画像信号の高信頼度エリアの病変部/正常部の情報を、現在フレームの低信頼度エリアの画像信号の病変部/正常部の判定に流用する場合について説明したが、これに限定されるものではない。例えば現在フレームの高信頼度エリアの画像信号の病変部/正常部の情報を、時系列的に現在フレームの前及び後に撮像された画像信号の低信頼度エリアの病変部/正常部の判定に流用するようにしてもよい。
また図27に示すように、現在フレームの画像である第1画像のブロック領域とマッチングする領域として、複数のマッチングブロック領域が抽出された場合には、これらの複数のマッチングブロック領域から、重み付け信頼度情報により選択されたマッチングブロック領域の情報を用いて、病変部/正常部の判定を行えばよい。例えば、第1画像(現在フレームの画像)を基点として、時系列的な距離情報、及び同じフレーム中のマッチングブロック領域の位置情報に応じて、信頼度の重みを付けて、重み付き信頼度情報を算出する。
具体的には、図27に示すように、現在フレームとの時系列的な距離Fdと、同じフレーム内のマッチングブロック領域の中心位置とそのフレームの中心位置との距離Bdに基づき、下式(10)のように重み付きの信頼度Sd(n)を算出する。なお、図2(A)に示すように画像の中央領域が高信頼度エリアに設定されているものとする。
Sd(n)=α/{Fd(n)*Bd(n)}*S(n,i) ・・・(10)
ここで、αは0より大きい定数であり、nは候補となっている前後フレームの番号であり、iはフレーム内のブロック番号である。また図27において、Center(n,p,q)はフレームの中心位置を示し、Bcenter(n,bp,bq)はマッチングブロック領域の中心位置を示す。また(p,q)、(bp,bq)はフレーム内の2次元座標位置である。
図27では、複数フレーム中のマッチングブロック領域の重み付き信頼度Sd(n)の中から最大値を選択し、重み付き信頼度Sd(n)が最大値になるマッチングブロック領域を、最も高い信頼度を有するマッチングブロック領域であると判定する。例えば図27では、第1画像のブロック領域BL5に画像がマッチングする領域として、E1、E2、E3、E4に示すマッチングブロック領域が抽出されている。この場合には、これらのE1、E2、E3、E4に示すマッチングブロック領域の中から、重み付き信頼度Sd(n)が最大値となるマッチングブロック領域を選択する。そして、選択されたマッチングブロック領域の情報を用いて、第1画像のブロック領域BLでの病変部/正常部の判定を行う。
即ち図27では、時系列的に現在フレームの前及び後に撮影された2枚ずつの画像を抽出して、現在フレームとのマッチング処理を行う。その場合、テンプレートとなる現在フレーム中の各ブロック領域とマッチングした前後のフレームの4つのマッチングブロック領域において、上記のように重み付き信頼度Sd(1)、Sd(2)、Sd(3)、Sd(4)を算出する。そして重み付け信頼度が最も高いエリアの種類判別結果が、対応する現在フレーム中ブロック領域の種類判別結果になる。
なお、上式(10)において、Fd(n)*Bd(n)が0になるマッチングブロック領域が存在する場合には、そのマッチングブロック領域を最も高い信頼度を有するマッチングブロック領域であると判定する。更に、Fd(n)*Bd(n)が0になるマッチングブロック領域が複数存在する場合には、時系列的に最も近いフレームにあるマッチングブロック領域を、最も高い信頼度を有するマッチングブロック領域であると判定する。
以上の本実施形態の手法をまとめると以下のようになる。
即ち本実施形態の画像取得部212は、撮像部により時系列に撮像された画像を、第1画像及び第2画像として取得する。そして図12の第1の構成例の種類判別部215は、図1(A)に示すように第1画像よりも時系列で前のフレームで取得された少なくとも1枚の第2画像の情報を用いて、第1画像の被写体の種類判別処理を行う。このようにすれば、前のフレームで取得された第2画像の情報を有効利用して、第1画像の被写体の種類判別処理を実現できる。
一方、図21の第2の構成例の種類判別部232は、図1(B)に示すように第1画像よりも時系列で後のフレームで取得された少なくとも1枚の第2画像の情報を用いて、第1画像の被写体の種類判別処理を行う。このようにすれば、例えば現在フレームの画像である第2画像を用いて、過去フレームの画像である第1画像の被写体の種類判別処理を実現できる。これにより、例えばカプセル内視鏡で撮影して保存した画像から病変部/正常部を検出する場合に、その検出精度を向上できる。
また図24で説明した変形例の種類判別部232は、図1(C)や図27に示すように、第1画像よりも時系列で前のフレームで取得された少なくとも1枚の第2画像の情報と、第1画像よりも時系列で後のフレームで取得された少なくとも1枚の第2画像の情報を用いて、第1画像の被写体の種類判別処理を行う。別の言い方をすれば、第1画像とは取得フレームが異なる複数枚の第2画像の情報を用いて、第1画像の被写体の種類判別処理を行う。このようにすれば、複数枚の第2画像を利用できるため、1枚の第2画像を用いる場合に比べて、種類判別の精度や信頼性を向上できる。
例えば種類判別部232は、第1画像を分割した複数のブロック領域の各ブロック領域の画像と、上述の複数枚の第2画像の各第2画像とのマッチング処理を行って、第1画像のブロック領域と画像がマッチングする各第2画像内の領域を、マッチングブロック領域として抽出する。例えば図27では、第1画像のブロック領域BL5と画像がマッチングする領域として、E1、E2、E3、E4に示すマッチングブロック領域が抽出されている。従って、この場合には、これらの抽出されたマッチングブロック領域の情報を用いて、第1画像の被写体の種類判別処理を行う。
更に具体的には、種類判別部232は、第1画像の各ブロック領域と画像がマッチングする領域として、複数のマッチングブロック領域が抽出された場合に、複数のマッチングブロック領域の中から重み付け信頼度情報Sd(n)により選択されたマッチングブロック領域の情報を用いて、第1画像の被写体の種類判別処理を行う。このようにすれば、画像がマッチングする複数のマッチングブロック領域の中から、信頼度の重み付けが最も高いマッチングブロック領域を選択して、そのマッチングブロック領域の情報を用いて、第1画像のブロック領域での被写体の種類判別を実現できるようになる。
そして種類判別部232は、重み付け信頼度情報Sd(n)として、例えば上式(10)に示すような情報を用いる。例えば、第1画像と各第2画像との間の時系列的な距離情報Fd(n)、及び各第2画像内でのマッチングブロック領域の位置情報Bd(n)の少なくとも一方を用いる。ここで時系列的な距離情報Fd(n)は、第1画像の取得フレームと第2画像の取得フレームのフレーム差に対応する情報である。また位置情報Bd(n)は、第2画像内でのマッチングブロック領域の相対的な位置を表す情報であり、例えば第2画像の中心位置とマッチングブロック領域の中心位置との間の距離等により表すことができる。このような重み付け信頼度情報を用いれば、例えば第1画像のブロック領域と画像がマッチングする領域として、複数のマッチングブロック領域が抽出された場合に、例えば第1画像との時系列的な距離情報が近いマッチングブロック領域や、第2画像内において高信頼度エリアに位置するマッチングブロック領域を選択することが可能になる。従って、第1画像の被写体の種類判別に利用するマッチングブロック領域として、より高い信頼度を有するマッチングブロック領域を選択できるようになり、第1画像の被写体の種類判別の精度や信頼性を更に向上できる。
なお以上に説明した第1、第2の構成例や変形例の手法は、本実施形態の各部(画像取得部、信頼度処理部、種類判別部、分割部等)としてコンピュータを機能させるプログラムにも適用できる。
これにより、例えばカプセル型内視鏡などのように、まず画像データを蓄積し、その後蓄積された画像データに対してPC等のコンピュータシステムでソフトウェア的に処理を行うことが可能になる。
また本実施形態は、本実施形態の各部(画像取得部、信頼度処理部、種類判別部、分割部等)を実現するプログラムコードが記録されたコンピュータプログラムプロダクトにも適用できる。
ここでコンピュータプログラムプロダクトは、例えば、プログラムコードが記録された情報記憶媒体(DVD等の光ディスク媒体、ハードディスク媒体、メモリ媒体等)、プログラムコードが記録されたコンピュータ、プログラムコードが記録されたインターネットシステム(例えば、サーバとクライアント端末を含むシステム)など、プログラムコードが組み込まれた情報記憶媒体、装置、機器或いはシステム等である。この場合に、本実施形態の各構成要素や各処理プロセスは各モジュールにより実装され、これらの実装されたモジュールにより構成されるプログラムコードは、コンピュータプログラムプロダクトに記録される。
以上のように本実施形態について詳細に説明したが、本発明の新規事項及び効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また画像処理装置、内視鏡システムの構成、動作も本実施形態で説明したものに限定されず、種々の変形実施が可能である。
90 制御装置、100 被写体、101 通常光光源、102 挿入部、
103 ライトガイドファイバ、201 レンズ、202 ハーフミラー、
203 通常光撮像素子、204 フィルタ、205 特殊光撮像素子、
210 画像処理装置、211 A/D変換部、212 画像取得部、
213 信頼度処理部、214 領域抽出部、215 種類判別部、216 出力部、
217 保存部、221 制御部、222 外部I/F部、232 種類判別部、
301 通常光画像処理部、302 特殊光画像処理部、401 バッファ部、
402 分割部、403 係数算出部、404 信頼度判定部、405 ROM、
500 エリア選定部、501 第1特徴量算出部、502 第1部位判定部、
503 第2特徴量算出部、504 マッチング部、505 第2部位判定部、
506 合成部、
601 特徴量算出部、602 第1部位判定部、603 マッチング部、
604 第2部位判定部、613 マッチング部、614 第2部位判定部、
615 画像検出部、
900 コンピュータシステム、910 本体部、911 CPU、
912 RAM、913 ROM、914 HDD、
915 CD−ROMドライブ、916 USBポート、
917 I/Oインターフェース、918 LANインターフェース、
920 ディスプレイ、921 表示画面、930 キーボード、940 マウス、
950 モデム、960 CD−ROM、970 USBメモリ、981 PC、
982 サーバ、983 プリンタ
103 ライトガイドファイバ、201 レンズ、202 ハーフミラー、
203 通常光撮像素子、204 フィルタ、205 特殊光撮像素子、
210 画像処理装置、211 A/D変換部、212 画像取得部、
213 信頼度処理部、214 領域抽出部、215 種類判別部、216 出力部、
217 保存部、221 制御部、222 外部I/F部、232 種類判別部、
301 通常光画像処理部、302 特殊光画像処理部、401 バッファ部、
402 分割部、403 係数算出部、404 信頼度判定部、405 ROM、
500 エリア選定部、501 第1特徴量算出部、502 第1部位判定部、
503 第2特徴量算出部、504 マッチング部、505 第2部位判定部、
506 合成部、
601 特徴量算出部、602 第1部位判定部、603 マッチング部、
604 第2部位判定部、613 マッチング部、614 第2部位判定部、
615 画像検出部、
900 コンピュータシステム、910 本体部、911 CPU、
912 RAM、913 ROM、914 HDD、
915 CD−ROMドライブ、916 USBポート、
917 I/Oインターフェース、918 LANインターフェース、
920 ディスプレイ、921 表示画面、930 キーボード、940 マウス、
950 モデム、960 CD−ROM、970 USBメモリ、981 PC、
982 サーバ、983 プリンタ
Claims (49)
- 画像を取得する画像取得部と、
取得された画像上の被写体の種類判別についての信頼度を取得する処理を行う信頼度処理部と、
被写体の種類判別処理を行う種類判別部とを含み、
前記画像取得部は、
第1画像と、前記第1画像とは取得フレームが異なる第2画像を取得し、
前記種類判別部は、
前記第1画像の被写体の種類判別処理に前記第2画像の情報を用いるか否かを、前記第1画像において取得された前記信頼度に基づいて判断することを特徴とする画像処理装置。 - 請求項1において、
前記信頼度処理部は、
前記信頼度が高いエリアを高信頼度エリアに設定し、前記高信頼度エリアよりも前記信頼度が低いエリアを低信頼度エリアに設定し、
前記種類判別部は、
前記第1画像の前記低信頼度エリアでの被写体の種類判別処理を、前記第2画像の情報を用いて行うことを特徴とする画像処理装置。 - 請求項2において、
前記種類判別部は、
前記第1画像の前記低信頼度エリアでの被写体の種類判別処理を、前記第2画像の前記高信頼度エリアでの情報を用いて行うことを特徴とする画像処理装置。 - 請求項2において、
前記種類判別部は、
前記第1画像の前記高信頼度エリアでの被写体の種類判別処理については、前記第1画像の情報を用いて行うことを特徴とする画像処理装置。 - 請求項4において、
前記種類判別部は、
前記第1画像を用いて行われた前記高信頼度エリアでの種類判別処理の結果と、前記第2画像を用いて行われた前記低信頼度エリアでの種類判別処理の結果とを合成する合成部を含むことを特徴とする画像処理装置。 - 請求項5において、
前記合成部は、
注目部を判別するための注目部情報と、信頼度を判別するための信頼度情報を、前記第1画像の各画素に対応づけて保存部に保存することを特徴とする画像処理装置。 - 請求項2において、
前記種類判別部は、
前記第1画像の前記低信頼度エリアでの被写体の種類判別処理を、前記第1画像の情報と前記第2画像の情報の両方を用いて行うことを特徴とする画像処理装置。 - 請求項2において、
前記第2画像の情報は、注目部を判別するための注目部情報と、信頼度を判別するための信頼度情報を含み、
前記種類判別部は、
前記第1画像の前記低信頼度エリアでの被写体の種類判別処理を、前記第2画像の前記注目部情報と前記信頼度情報を用いて行うことを特徴とする画像処理装置。 - 請求項2において、
前記種類判別部は、
前記第1画像において被写体の種類判別処理が行われる処理領域が、前記低信頼度エリアである場合に、前記処理領域に対応する前記第2画像の対応処理領域での情報に基づいて、前記第1画像の前記処理領域での被写体の種類判別処理を行うことを特徴とする画像処理装置。 - 請求項9において、
前記種類判別部は、
前記処理領域の画像と前記第2画像とのマッチング処理を行うことで、前記処理領域に対応する前記対応処理領域を抽出することを特徴とする画像処理装置。 - 請求項9において、
前記種類判別部は、
前記第1画像の前記処理領域での画素の特徴量に基づいて注目候補画素を抽出し、抽出された前記注目候補画素が注目画素であるか否かを、前記第2画像の前記対応処理領域での情報に基づいて判断することを特徴とする画像処理装置。 - 請求項11において、
前記第2画像の前記対応処理領域での情報は、注目部を判別するための注目部情報と、信頼度を判別するための信頼度情報を含み、
前記種類判別部は、
前記注目部情報と前記信頼度情報に基づいて、前記注目候補画素が前記注目画素であるか否かを判断することを特徴とする画像処理装置。 - 請求項1において、
前記信頼度処理部は、
前記第1画像の被写体像の明るさ情報、前記第1画像の被写体像の色情報、及び前記第1画像を撮像した撮像部と被写体との間の距離情報の少なくとも1つに基づいて、前記信頼度を算出することを特徴とする画像処理装置。 - 請求項1において、
前記信頼度処理部は、
前記第1画像内での位置情報に応じて、前記信頼度を設定することを特徴とする画像処理装置。 - 請求項14において、
前記信頼度処理部は、
前記第1画像の中央部を高信頼度エリアに設定し、前記中央部の周りの周辺部を、前記高信頼度エリアよりも信頼度が低い低信頼度エリアに設定することを特徴とする画像処理装置。 - 請求項14において、
前記信頼度処理部は、
前記第1画像の中央部を低信頼度エリアに設定し、前記中央部の周りの周辺部を、前記低信頼度エリアよりも信頼度が高い高信頼度エリアに設定することを特徴とする画像処理装置。 - 請求項14において、
前記画像取得部は、
体内の隆起物が画像の中央になるように撮像部により撮像された画像を、前記第1画像として取得し、
前記信頼度処理部は、
前記第1画像の中央部を高信頼度エリアに設定し、前記中央部の周りの周辺部を、前高信頼度エリアよりも信頼度が低い低信頼度エリアに設定することを特徴とする画像処理装置。 - 請求項14において、
前記画像取得部は、
体内の管空状の形態が画像の中央になるように撮像部により撮像された画像を、前記第1画像として取得し、
前記信頼度処理部は、
前記第1画像の中央部を低信頼度エリアに設定し、前記中央部の周りの周辺部を、前記低信頼度エリアよりも信頼度が高い高信頼度エリアに設定することを特徴とする画像処理装置。 - 請求項1において、
前記信頼度処理部は、
前記第1画像を、複数のブロック領域に分割する分割部を含み、
前記信頼度処理部は、
前記複数のブロック領域の各ブロック領域において、前記信頼度を取得することを特徴とする画像処理装置。 - 請求項19において、
前記種類判別部は、
前記各ブロック領域を処理領域として、被写体の種類判別処理を行うことを特徴とする画像処理装置。 - 請求項1において、
前記種類判別部は、
前記種類判別処理として、前記第1画像の被写体が注目部であるか非注目部であるかを判別する処理を行うことを特徴とする画像処理装置。 - 請求項21において、
前記種類判別部は、
前記種類判別処理として、前記第1画像の被写体が病変部であるか正常部であるかを判別する処理を行うことを特徴とする画像処理装置。 - 請求項1において、
前記画像取得部は、
前記第1画像及び前記第2画像の少なくとも1つとして、特定の波長帯域の情報を含む特殊光画像を取得することを特徴とする画像処理装置。 - 請求項1において、
前記画像取得部は、
前記第1画像として、白色光の波長帯域の情報を含む通常光画像と、特定の波長帯域の情報を含む特殊光画像を取得し、
前記種類判別部は、
前記通常光画像及び前記特殊光画像のうちの少なくとも前記特殊光画像を用いて、被写体の種類判別処理を行うことを特徴とする画像処理装置。 - 請求項24において、
前記種類判別部は、
前記特殊光画像の特徴量である輝度情報及び色情報の少なくとも一方に基づいて、被写体が病変部であるか正常部であるかの種類判別処理を行うことを特徴とする画像処理装置。 - 請求項24において、
前記信頼度処理部は、
前記通常光画像及び前記特殊光画像のうちの少なくとも前記通常光画像を用いて、前記信頼度を取得することを特徴とする画像処理装置。 - 請求項24において、
前記画像取得部は、
前記第2画像として、特定の波長帯域の情報を含む特殊光画像を取得し、
前記種類判別部は、
前記第2画像の前記特殊光画像により取得された情報を用いて、前記第1画像の被写体の種類判別処理を行うことを特徴とする画像処理装置。 - 請求項24において、
前記特定の波長帯域は、
前記白色光の波長帯域よりも狭い帯域であることを特徴とする画像処理装置。 - 請求項24において、
前記通常光画像及び前記特殊光画像は生体内を写した生体内画像であり、
前記生体内画像に含まれる前記特定の波長帯域は、血液中のヘモグロビンに吸収される波長の波長帯域であることを特徴とする画像処理装置。 - 請求項29において、
前記特定の波長帯域は、390ナノメータ〜445ナノメータ、または530ナノメータ〜550ナノメータであることを特徴とする画像処理装置。 - 請求項24において、
前記通常光画像及び前記特殊光画像は生体内を写した生体内画像であり、
前記生体内画像に含まれる前記特定の波長帯域は、蛍光物質が発する蛍光の波長帯域であることを特徴とする画像処理装置。 - 請求項31において、
前記特定の波長帯域は、490ナノメータ〜625ナノメータの波長帯域であることを特徴とする画像処理装置。 - 請求項24において、
前記通常光画像及び前記特殊光画像は生体内を写した生体内画像であり、
前記生体内画像に含まれる前記特定の波長帯域は、赤外光の波長帯域であることを特徴とする画像処理装置。 - 請求項33において、
前記特定の波長帯域は、790ナノメータ〜820ナノメータ、または905ナノメータ〜970ナノメータの波長帯域であることを特徴とする画像処理装置。 - 請求項24において、
前記画像取得部は、
取得された前記通常光画像に基づいて、前記特殊光画像を生成することを特徴とする画像処理装置。 - 請求項35において、
前記画像取得部は、
取得された前記通常光画像から、白色光の波長帯域における信号を抽出する信号抽出部を含み、
前記画像取得部は、
抽出された前記白色光の波長帯域における信号に基づいて、前記特定の波長帯域における信号を含む前記特殊光画像を生成することを特徴とする画像処理装置。 - 請求項36において、
前記画像取得部は、
前記白色光の波長帯域における信号から、前記特定の波長帯域における信号を算出するためのマトリクスデータを設定するマトリクスデータ設定部を含み、
前記画像取得部は、
設定された前記マトリクスデータを用いて、前記白色光の波長帯域における信号から前記特定の波長帯域における信号を算出して、前記特殊光画像を生成することを特徴とする画像処理装置。 - 請求項1において、
前記画像取得部は、
撮像部により時系列に撮像された画像を、前記第1画像及び前記第2画像として取得し、
前記種類判別部は、
前記第1画像よりも時系列で前のフレームで取得された少なくとも1枚の前記第2画像の情報を用いて、前記第1画像の被写体の種類判別処理を行うことを特徴とする画像処理装置。 - 請求項1において、
前記画像取得部は、
撮像部により時系列に撮像された画像を、前記第1画像及び前記第2画像として取得し、
前記種類判別部は、
前記第1画像よりも時系列で後のフレームで取得された少なくとも1枚の前記第2画像の情報を用いて、前記第1画像の被写体の種類判別処理を行うことを特徴とする画像処理装置。 - 請求項1において、
前記画像取得部は、
撮像部により時系列に撮像された画像を、前記第1画像及び前記第2画像として取得し、
前記種類判別部は、
前記第1画像よりも時系列で前のフレームで取得された少なくとも1枚の前記第2画像の情報と、前記第1画像よりも時系列で後のフレームで取得された少なくとも1枚の前記第2画像の情報を用いて、前記第1画像の被写体の種類判別処理を行うことを特徴とする画像処理装置。 - 請求項1において、
前記画像取得部は、
撮像部により時系列に撮像された画像を、前記第1画像及び前記第2画像として取得し、
前記種類判別部は、
前記第1画像とは取得フレームが異なる複数枚の前記第2画像の情報を用いて、前記第1画像の被写体の種類判別処理を行うことを特徴とする画像処理装置。 - 請求項41において、
前記種類判別部は、
前記第1画像を分割した複数のブロック領域の各ブロック領域の画像と、複数枚の前記第2画像の各第2画像とのマッチング処理を行って、前記第1画像のブロック領域と画像がマッチングする前記各第2画像内の領域を、マッチングブロック領域として抽出し、
抽出された前記マッチングブロック領域の情報を用いて、前記第1画像の被写体の種類判別処理を行うことを特徴とする画像処理装置。 - 請求項42において、
前記種類判別部は、
前記第1画像の前記各ブロック領域と画像がマッチングする領域として、複数のマッチングブロック領域が抽出された場合に、前記複数のマッチングブロック領域の中から重み付け信頼度情報により選択されたマッチングブロック領域の情報を用いて、前記第1画像の被写体の種類判別処理を行うことを特徴とする画像処理装置。 - 請求項43において、
前記種類判別部は、
前記重み付け信頼度情報として、前記第1画像と前記各第2画像との間の時系列的な距離情報、及び前記各第2画像内での前記マッチングブロック領域の位置情報の少なくとも一方を用いることを特徴とする画像処理装置。 - 画像を取得する画像取得部と、
取得された画像上の被写体の種類判別についての信頼度を取得する処理を行う信頼度処理部と、
被写体の種類判別処理を行う種類判別部とを含み、
前記画像取得部は、
第1画像と、前記第1画像とは取得フレームが異なる第2画像を取得し、
前記信頼度処理部は、
前記信頼度が高いエリアを高信頼度エリアに設定し、前記高信頼度エリアよりも前記信頼度が低いエリアを低信頼度エリアに設定し、
前記種類判別部は、
前記第1画像の前記低信頼度エリアでの被写体の種類判別処理を、前記第2画像の情報を用いて行うことを特徴とする画像処理装置。 - 画像を取得する画像取得部と、
取得された画像上の被写体の種類判別についての信頼度を取得する処理を行う信頼度処理部と、
被写体の種類判別処理を行う種類判別部とを含み、
前記画像取得部は、
第1画像と、前記第1画像とは取得フレームが異なる第2画像を取得し、
前記種類判別部は、
前記第1画像の被写体の種類判別処理に前記第2画像の情報を用いるか否かを、前記第1画像において取得された前記信頼度に基づいて判断することを特徴とする内視鏡システム。 - 画像を取得する画像取得部と、
取得された画像上の被写体の種類判別についての信頼度を取得する処理を行う信頼度処理部と、
被写体の種類判別処理を行う種類判別部とを含み、
前記画像取得部は、
第1画像と、前記第1画像とは取得フレームが異なる第2画像を取得し、
前記信頼度処理部は、
前記信頼度が高いエリアを高信頼度エリアに設定し、前記高信頼度エリアよりも前記信頼度が低いエリアを低信頼度エリアに設定し、
前記種類判別部は、
前記第1画像の前記低信頼度エリアでの被写体の種類判別処理を、前記第2画像の情報を用いて行うことを特徴とする内視鏡システム。 - 画像を取得する画像取得部と、
取得された画像上の被写体の種類判別についての信頼度を取得する処理を行う信頼度処理部と、
被写体の種類判別処理を行う種類判別部として、
コンピュータを機能させ、
前記画像取得部は、
第1画像と、前記第1画像とは取得フレームが異なる第2画像を取得し、
前記種類判別部は、
前記第1画像の被写体の種類判別処理に前記第2画像の情報を用いるか否かを、前記第1画像において取得された前記信頼度に基づいて判断することを特徴とするプログラム。 - 画像を取得する画像取得部と、
取得された画像上の被写体の種類判別についての信頼度を取得する処理を行う信頼度処理部と、
被写体の種類判別処理を行う種類判別部として、
コンピュータを機能させ、
前記画像取得部は、
第1画像と、前記第1画像とは取得フレームが異なる第2画像を取得し、
前記信頼度処理部は、
前記信頼度が高いエリアを高信頼度エリアに設定し、前記高信頼度エリアよりも前記信頼度が低いエリアを低信頼度エリアに設定し、
前記種類判別部は、
前記第1画像の前記低信頼度エリアでの被写体の種類判別処理を、前記第2画像の情報を用いて行うことを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010093208A JP2011218090A (ja) | 2010-04-14 | 2010-04-14 | 画像処理装置、内視鏡システム及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010093208A JP2011218090A (ja) | 2010-04-14 | 2010-04-14 | 画像処理装置、内視鏡システム及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011218090A true JP2011218090A (ja) | 2011-11-04 |
Family
ID=45035805
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010093208A Withdrawn JP2011218090A (ja) | 2010-04-14 | 2010-04-14 | 画像処理装置、内視鏡システム及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011218090A (ja) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013115323A1 (ja) * | 2012-01-31 | 2013-08-08 | オリンパス株式会社 | 生体観察装置 |
JP2013206244A (ja) * | 2012-03-29 | 2013-10-07 | Fujifilm Corp | 二次元画像生成装置ならびにその動作制御方法および動作制御プログラム |
WO2014013777A1 (ja) * | 2012-07-17 | 2014-01-23 | Hoya株式会社 | 画像処理装置及び内視鏡装置 |
US9430833B2 (en) | 2012-07-17 | 2016-08-30 | Hoya Corporation | Image processing device and endoscope device |
JP2017000839A (ja) * | 2014-11-25 | 2017-01-05 | ソニー株式会社 | 医療用画像処理装置、および医療用画像処理装置の作動方法 |
WO2017203560A1 (ja) * | 2016-05-23 | 2017-11-30 | オリンパス株式会社 | 内視鏡画像処理装置 |
JP2018041277A (ja) * | 2016-09-07 | 2018-03-15 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および対象物認識方法 |
JP2018126632A (ja) * | 2018-05-25 | 2018-08-16 | Hoya株式会社 | 画像処理装置 |
WO2018159083A1 (ja) | 2017-03-03 | 2018-09-07 | 富士フイルム株式会社 | 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法 |
JPWO2020188727A1 (ja) * | 2019-03-19 | 2020-09-24 | ||
WO2020194497A1 (ja) * | 2019-03-26 | 2020-10-01 | 日本電気株式会社 | 情報処理装置、個人識別装置、情報処理方法及び記憶媒体 |
US10856805B2 (en) | 2015-03-04 | 2020-12-08 | Olympus Corporation | Image processing device, living-body observation device, and image processing method |
WO2022172574A1 (ja) * | 2021-02-12 | 2022-08-18 | 富士フイルム株式会社 | 内視鏡システム、及び内視鏡システムの作動方法 |
WO2022209390A1 (ja) * | 2021-03-31 | 2022-10-06 | 富士フイルム株式会社 | 内視鏡システム及びその作動方法 |
US11559186B2 (en) | 2015-08-13 | 2023-01-24 | Hoya Corporation | Evaluation value calculation device and electronic endoscope system |
US11571108B2 (en) | 2015-08-13 | 2023-02-07 | Hoya Corporation | Evaluation value calculation device and electronic endoscope system |
-
2010
- 2010-04-14 JP JP2010093208A patent/JP2011218090A/ja not_active Withdrawn
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2013115323A1 (ja) * | 2012-01-31 | 2015-05-11 | オリンパス株式会社 | 生体観察装置 |
WO2013115323A1 (ja) * | 2012-01-31 | 2013-08-08 | オリンパス株式会社 | 生体観察装置 |
US10105096B2 (en) | 2012-01-31 | 2018-10-23 | Olympus Corporation | Biological observation apparatus |
CN104066367A (zh) * | 2012-01-31 | 2014-09-24 | 奥林巴斯株式会社 | 活体观察装置 |
JP2013206244A (ja) * | 2012-03-29 | 2013-10-07 | Fujifilm Corp | 二次元画像生成装置ならびにその動作制御方法および動作制御プログラム |
JP2014018333A (ja) * | 2012-07-17 | 2014-02-03 | Hoya Corp | 画像処理装置及び内視鏡装置 |
CN104540438A (zh) * | 2012-07-17 | 2015-04-22 | Hoya株式会社 | 图像处理装置和内窥镜装置 |
EP2875775A4 (en) * | 2012-07-17 | 2016-04-27 | Hoya Corp | IMAGE PROCESSING DEVICE AND ENDOSCOPIC INSTRUMENT |
US9430833B2 (en) | 2012-07-17 | 2016-08-30 | Hoya Corporation | Image processing device and endoscope device |
WO2014013777A1 (ja) * | 2012-07-17 | 2014-01-23 | Hoya株式会社 | 画像処理装置及び内視鏡装置 |
JP2017000839A (ja) * | 2014-11-25 | 2017-01-05 | ソニー株式会社 | 医療用画像処理装置、および医療用画像処理装置の作動方法 |
US10799087B2 (en) | 2014-11-25 | 2020-10-13 | Sony Corporation | Endoscope system, operation method for endoscope system, and program for balancing conflicting effects in endoscopic imaging |
US10856805B2 (en) | 2015-03-04 | 2020-12-08 | Olympus Corporation | Image processing device, living-body observation device, and image processing method |
US11571108B2 (en) | 2015-08-13 | 2023-02-07 | Hoya Corporation | Evaluation value calculation device and electronic endoscope system |
US11559186B2 (en) | 2015-08-13 | 2023-01-24 | Hoya Corporation | Evaluation value calculation device and electronic endoscope system |
JPWO2017203560A1 (ja) * | 2016-05-23 | 2019-03-22 | オリンパス株式会社 | 内視鏡画像処理装置 |
WO2017203560A1 (ja) * | 2016-05-23 | 2017-11-30 | オリンパス株式会社 | 内視鏡画像処理装置 |
JP2018041277A (ja) * | 2016-09-07 | 2018-03-15 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および対象物認識方法 |
WO2018047705A1 (ja) * | 2016-09-07 | 2018-03-15 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および対象物認識方法 |
US11048912B2 (en) | 2016-09-07 | 2021-06-29 | Sony Interactive Entertainment Inc. | Information processing apparatus and target object recognition method |
US11259692B2 (en) | 2017-03-03 | 2022-03-01 | Fujifilm Corporation | Endoscope system, processor device, and method for operating endoscope system |
WO2018159083A1 (ja) | 2017-03-03 | 2018-09-07 | 富士フイルム株式会社 | 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法 |
JP2018126632A (ja) * | 2018-05-25 | 2018-08-16 | Hoya株式会社 | 画像処理装置 |
JP7158562B2 (ja) | 2019-03-19 | 2022-10-21 | オリンパス株式会社 | 内視鏡装置、内視鏡装置の作動方法及びプログラム |
CN113543689A (zh) * | 2019-03-19 | 2021-10-22 | 奥林巴斯株式会社 | 内窥镜装置、内窥镜装置的工作方法以及程序 |
WO2020188727A1 (ja) * | 2019-03-19 | 2020-09-24 | オリンパス株式会社 | 内視鏡装置、内視鏡装置の作動方法及びプログラム |
JPWO2020188727A1 (ja) * | 2019-03-19 | 2020-09-24 | ||
JPWO2020194497A1 (ja) * | 2019-03-26 | 2021-12-02 | 日本電気株式会社 | 情報処理装置、個人識別装置、情報処理方法及び記憶媒体 |
WO2020194497A1 (ja) * | 2019-03-26 | 2020-10-01 | 日本電気株式会社 | 情報処理装置、個人識別装置、情報処理方法及び記憶媒体 |
JP7248102B2 (ja) | 2019-03-26 | 2023-03-29 | 日本電気株式会社 | 情報処理装置、個人識別装置、情報処理方法及び記憶媒体 |
WO2022172574A1 (ja) * | 2021-02-12 | 2022-08-18 | 富士フイルム株式会社 | 内視鏡システム、及び内視鏡システムの作動方法 |
WO2022209390A1 (ja) * | 2021-03-31 | 2022-10-06 | 富士フイルム株式会社 | 内視鏡システム及びその作動方法 |
EP4316338A4 (en) * | 2021-03-31 | 2024-08-14 | Fujifilm Corp | ENDOSCOPY SYSTEM AND METHOD OF OPERATING SUCH A SYSTEM |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011218090A (ja) | 画像処理装置、内視鏡システム及びプログラム | |
JP5541914B2 (ja) | 画像処理装置、電子機器、プログラム及び内視鏡装置の作動方法 | |
JP5591570B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP5658873B2 (ja) | 画像処理装置、電子機器、内視鏡システム及びプログラム | |
JP5802364B2 (ja) | 画像処理装置、電子機器、内視鏡システム及びプログラム | |
JP6112879B2 (ja) | 画像処理装置、内視鏡装置、画像処理装置の作動方法及び画像処理プログラム | |
US8767057B2 (en) | Image processing device, image processing method, and program | |
JP2011255006A (ja) | 画像処理装置、内視鏡装置、プログラム及び画像処理方法 | |
JP5948831B2 (ja) | 測定装置、測定方法、プログラム及び記録媒体 | |
JP2012005512A (ja) | 画像処理装置、内視鏡装置、内視鏡システム、プログラム及び画像処理方法 | |
JP2011156203A (ja) | 画像処理装置、内視鏡システム、プログラム及び画像処理方法 | |
KR20200070062A (ko) | 인공신경망을 이용하여 캡슐형 내시경 영상에서 병변을 감지하는 시스템 및 방법 | |
JP6150617B2 (ja) | 検出装置、学習装置、検出方法、学習方法及びプログラム | |
US9323978B2 (en) | Image processing device, endoscope apparatus, and image processing method | |
JP5940604B2 (ja) | 画像処理装置、画像処理装置の作動方法及びプログラム | |
Akbari et al. | Hyperspectral imaging and diagnosis of intestinal ischemia | |
JP6168878B2 (ja) | 画像処理装置、内視鏡装置及び画像処理方法 | |
Pruitt et al. | A dual-camera hyperspectral laparoscopic imaging system | |
JP7142754B1 (ja) | 畳み込みニューラルネットワークを使用して食道癌の画像を検出する方法 | |
JPWO2017104056A1 (ja) | 生体情報計測装置、生体情報計測方法および生体情報計測プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20130702 |