[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6045417B2 - 画像処理装置、電子機器、内視鏡装置、プログラム及び画像処理装置の作動方法 - Google Patents

画像処理装置、電子機器、内視鏡装置、プログラム及び画像処理装置の作動方法 Download PDF

Info

Publication number
JP6045417B2
JP6045417B2 JP2013065117A JP2013065117A JP6045417B2 JP 6045417 B2 JP6045417 B2 JP 6045417B2 JP 2013065117 A JP2013065117 A JP 2013065117A JP 2013065117 A JP2013065117 A JP 2013065117A JP 6045417 B2 JP6045417 B2 JP 6045417B2
Authority
JP
Japan
Prior art keywords
information
unit
subject
image
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013065117A
Other languages
English (en)
Other versions
JP2014138691A5 (ja
JP2014138691A (ja
Inventor
佐々木 寛
佐々木  寛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2013065117A priority Critical patent/JP6045417B2/ja
Priority to PCT/JP2013/075870 priority patent/WO2014097702A1/ja
Priority to CN201380066931.5A priority patent/CN104883946B/zh
Priority to EP13864535.3A priority patent/EP2937033A4/en
Publication of JP2014138691A publication Critical patent/JP2014138691A/ja
Priority to US14/744,572 priority patent/US20150287192A1/en
Publication of JP2014138691A5 publication Critical patent/JP2014138691A5/ja
Application granted granted Critical
Publication of JP6045417B2 publication Critical patent/JP6045417B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0684Endoscope light sources using light emitting diodes [LED]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/046Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for infrared imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/31Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the rectum, e.g. proctoscopes, sigmoidoscopes, colonoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0084Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters
    • A61B5/0086Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters using infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1077Measuring of profiles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2415Stereoscopic endoscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/64Analysis of geometric attributes of convexity or concavity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30092Stomach; Gastric

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Astronomy & Astrophysics (AREA)
  • Geometry (AREA)
  • Data Mining & Analysis (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、画像処理装置、電子機器、内視鏡装置、プログラム及び画像処理装置の作動方法等に関する。
内視鏡装置を用いた生体内部の観察、診断においては、生体表面の微小な凹凸状態を観察することで早期病変部か否かの識別を行う手法が広く用いられている。また、生体用の内視鏡装置ではなく、工業用の内視鏡装置においても、被写体(狭義には被写体表面)の凹凸構造を観察することは有用であり、例えば直接の目視が難しいパイプ内部等に発生した亀裂の検出等が可能になる。また、内視鏡装置以外の画像処理装置においても、処理対象となる画像から被写体の凹凸構造を検出することが有用であることは多い。
従来、撮像画像の構造(例えば溝等の凹凸構造)の強調処理としては、特定の空間周波数を強調する処理が広く用いられているが、この手法は上述したような微小な凹凸状態の検出には適していない。また、画像処理により凹凸状態を検出するのではなく、被写体側に何らかの変化を生じさせて、変化後の被写体を撮像する手法も知られている。一例としては、生体用の内視鏡装置であれば、インジゴカルミン等の色素を散布することで、生体自体を染色し表層粘膜にコントラストをつける手法がある。しかし、色素散布は手間やコストがかかる上、散布した色素により被写体本来の色味が損なわれたり、凹凸以外の構造の視認性が落ちるおそれもある。さらに生体に対する色素散布であれば、患者にとって侵襲製が高いという問題も生じうる。
特許文献1では、局所的な抽出領域の注目画素をその周辺画素の輝度レベルを比較し、注目領域が周辺領域よりも暗い場合には着色される処理を行うことで、凹凸構造を強調する手法が開示されている。
生体の凹凸構造の具体例としては、生体表面の腺管構造(ピットパターンと呼ばれている)を用いるものが考えられる。例えば、大腸での早期病変診断にピットパターンが利用されている。この診断方法はピットパターン診断と呼ばれており、正常状態から病変の種類に応じて6種類のタイプ(I型からV型まで)に分類されたピットパターン形状に対して、観察されるピットパターンがどの分類に類似するかにより判定するものである。
特許文献2では、内視鏡および光プローブを用いた三次元光断層画像を取得する装置が記載されており、この三次元光断層画像を基に、生体組織の深さ方向に垂直な平面のXY画面像を複数の深さ位置について切り出し、その平均画像からピットパターン形状を強調表示する手法が開示されている。
特開2003−88498号公報 特開2010−68865号公報
特許文献1の処理は、撮像部から被写体(生体表面)までの距離が遠い場合は、生体表面から反射してくる反射光量が少なくなる事で暗く撮像されるという仮定に基づく処理となる。よって、例えば輝点周辺部や手前の構造による影の領域や、血管とその周辺の粘膜等といった直接生体表面の微細な凹凸に関係の無い場合にも、輝度変化が発生する領域では凹凸構造を誤検出してしまうことになる。
また、ピットパターン診断を実施する場合とは、既にスクリーニング観察で病変部と疑われる領域が見つかっている状態であり、その領域に内視鏡先端を接近して精査観察をしている状態に当たる。近接、及び拡大観察状態では観察対象となる生体表面の撮像画像は倍率が大きくなるので、生体と撮像部との相対的な動きによる影響が大きい。特に、特許文献2の手法により上記三次元光断層画像を取得する場合には、光プローブのスキャン動作が必要となるため、生体と撮像部との相対的な動きに起因するXY画像内のピット形状の変形は無視できない。そのため、ピットパターン検出に用いるモデルパターンとの類似度を安定して算出できず、精度のよい画像を取得できないという課題がある。
本発明の幾つかの態様によれば、被写体に関する既知特性情報と距離情報とに基づいて、当該被写体の凹凸部を精度よく検出する画像処理装置、電子機器、内視鏡装置、プログラム及び画像処理方法を提供することができる。
本発明の一態様は、撮像部の撮像により、被写体の像を含む撮像画像を取得する画像取得部と、前記撮像の際の前記撮像部から前記被写体までの距離に基づく距離情報を取得する距離情報取得部と、前記被写体の構造に関する既知の特性を表す情報である既知特性情報を取得する既知特性情報取得部と、前記距離情報と前記既知特性情報に基づいて、前記撮像画像に撮像された前記被写体から、前記既知特性情報により特定される特性と合致する前記被写体の凹凸部を特定する凹凸特定処理を行う凹凸特定部と、を含む画像処理装置に関係する。
本発明の一態様では、被写体までの距離情報と既知特性情報を取得し、既知特性情報により特定される特性と合致する被写体の凹凸部を特定する。これにより、画像処理を用いた手法により精度よく凹凸部を特定すること等が可能になる。
本発明の他の態様は、上記の画像処理装置を含む電子機器に関係する。
本発明の他の態様は、上記の画像処理装置を含む内視鏡装置に関係する。
本発明の他の態様によれば、生体の凹凸部を撮像画像において特定することができるため、病変部の発見等を容易にすること等が可能になる。
本発明の他の態様は、上記の各部としてコンピュータを機能させるプログラムに関係する。
本発明の他の態様は、撮像部の撮像により、被写体の像を含む撮像画像を取得する処理を行い、前記撮像の際の前記撮像部から前記被写体までの距離に基づく距離情報を取得する処理を行い、前記被写体の構造に関する既知の特性を表す情報である既知特性情報を取得する処理を行い、前記距離情報と前記既知特性情報に基づいて、前記撮像画像に撮像された前記被写体から、前記既知特性情報により特定される特性と合致する前記被写体の凹凸部を特定する凹凸特定処理を行う画像処理方法に関係する。
画像処理装置のシステム構成例。 第1の実施形態に係る画像処理装置を含む内視鏡装置の構成例。 第1の実施形態の画像処理部の構成例。 図4(A)〜図4(F)は第1の実施形態の抽出処理を説明する図。 第1の実施形態の距離情報取得部、凹凸情報抽出部の構成例。 第2の実施形態に係る画像処理装置を含む内視鏡装置の構成例。 第2の実施形態の画像処理部の構成例。 図8(A)〜図8(D)は第2の実施形態の抽出処理を説明する図。 第2の実施形態の凹凸情報抽出部の構成例。 第3の実施形態に係る画像処理装置を含む内視鏡装置の構成例。 第3の実施形態の画像処理部の構成例。 第3の実施形態の凹凸情報抽出部の構成例。 第3の実施形態の距離情報取得部の構成例。 第4の実施形態に係る画像処理装置を含む画像記録再生装置及びカプセル内視鏡の構成例。 第4の実施形態の画像処理部の構成例。 第5の実施形態の画像処理部の構成例。 図17(A)は腺管構造の断面図の例、図17(B)は撮像画像における腺管構造の例。 図18(A)、図18(B)は表面形状情報を求める処理の説明図。 図19(A)、図19(B)は基準パターンと修正パターンの例。 表面形状算出部の構成例。 第5の実施形態の分類処理部の構成例。 分類処理の結果である分類マップの例。 第6の実施形態に係る画像処理装置を含む内視鏡装置の構成例。 第6の実施形態の分類処理部の構成例。 複数の基準パターンを保持する場合の例。 図26(A)〜図26(D)は複数の基準パターンを用いた場合の分類処理の結果である分類マップの例。 図27(A)〜図27(F)は類似度算出処理を説明する図。 図28(A)〜図28(F)はピットパターンの例。
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
1.本実施形態の手法
本実施形態の画像処理装置は、図1に示したように、撮像部(後述する図2の撮像部200等)の撮像により、被写体の像を含む撮像画像を取得する画像取得部390と、撮像の際の撮像部から被写体までの距離に基づく距離情報を取得する距離情報取得部340と、被写体の構造に関する既知の特性を表す情報である既知特性情報を取得する既知特性情報取得部350と、距離情報と既知特性情報に基づいて、撮像画像に撮像された被写体から、既知特性情報により特定される特性と合致する被写体の凹凸部を特定する凹凸特定処理を行う凹凸特定部310を含む。
ここで、凹凸特定部310により特定される凹凸部とは、既知特性情報により特定される所与のディメンジョン(幅、深さ、高さ等)を有する溝やポリープ等の、微小な凹凸構造であってもよいし、上述した生体表面の腺管構造(ピットパターン)であってもよい。
まず、微小な凹凸構造を対象とする場合について説明する。距離情報取得部340が取得する距離情報は、撮像部から被写体までの距離に対応する情報であるため、図4(A)に示したように被写体(生体用の内視鏡装置であれば生体であり、特にその表面)の構造を表す情報である。つまり、距離情報は被写体表面の微小な凹凸構造を含んでいる。
しかし、距離情報には被写体表面の他の構造の情報も含まれている。例えば内視鏡装置で観察する生体は、食道や大腸等、管腔状のものが多い。その場合、生体壁面は所与の曲率を有する曲面となるため、距離情報により表される距離は当該局面に応じた値の変動を含むことになる。図4(A)の例であれば、距離情報はさまざまな他の構造を含みつつも、全体としては右方向に行くほど撮像部から被写体までの距離は増加する構造を表している。
また、被写体表面には、本実施形態の手法により特定したい凹凸構造とは異なる凹凸構造も含まれうる。例えば、胃や大腸等の生体の表面には、図2の2,3,4に示したように襞構造が見られる。距離情報には、これらの襞構造に関する情報も含まれることになるが、本実施形態において内視鏡装置を用いた観察で想定している凹凸部とは、そのような生体表面に当然に見られる構造とはディメンジョンの異なる微小な凹凸構造である。
よって、強調処理等を行う際に有用な凹凸部を適切に特定するには、種々の構造に起因する距離変動を含む距離情報のうち、所望の凹凸構造に関する情報を適切に抽出する必要がある。これは工業用の内視鏡装置でも同様であり、距離情報には円形パイプの曲面に相当する距離変動や、パイプに所与の機能を持たせるためにあらかじめ掘られた溝や、深刻度が低いために見逃しても差し支えない傷等の情報が含まれうるが、それらを除外して有用な凹凸構造を抽出凹凸情報として抽出するとよい。
そこで本出願人は、被写体の構造に関する既知の特性を表す情報である既知特性情報を取得し、当該既知特性情報により特定される特性に合致する被写体の凹凸部を撮像画像において特定する手法を提案する。既知特性情報は、被写体表面の構造のうち、本実施形態において有用な構造とそうでない構造とを分離可能な情報である。具体的には、上述した生体壁面の曲率等の情報や、襞のディメンジョン情報等を既知特性情報として保持しておき、距離情報のうち既知特性情報と合致する情報を除外し、除外処理後の情報を抽出凹凸情報とすることで凹凸部を特定してもよい。或いは、有用な凹凸構造のディメンジョン情報を既知特性情報としてもよく、この場合距離情報のうち既知特性情報と合致する情報を抜き出して抽出凹凸情報として、凹凸部を特定すればよい。つまり、既知特性情報には、除外対象に対応する情報と、抽出対象に対応する情報とが含まれることになるが、以下の説明ではこの両方を用いるものとして説明する。ここでの「既知特性情報により特定される特性」とは、抽出対象に対応し、且つ除外対象に対応しない特性を表すものであり、例えば抽出対象と除外対象を明確に分離可能な値を境界値として有する(或いは当該境界値により決定される範囲の値を有する)特性である。
なお、典型的な襞のサイズ、或いは有用な凹凸構造のディメンジョン等は、観察対象となる部位(上部消化器系であれば胃、下部消化器系であれば大腸等)に応じて異なることが想定される。よって、既知特性情報は1つの情報ではなく、観察対象に応じて選択、変更等が可能にしておくことが望ましい。
また、既知特性情報が被写体の実サイズ(例えばマイクロメートル等の単位のサイズ)の情報として取得されていたとしても、画像上(距離情報上)でのサイズに変換する処理も必要である。例えば、所与の実サイズである襞構造も、撮像部から近い位置で撮像された場合には画像上でのサイズは大きくなるのに対して、撮像部から遠い位置で撮像された場合では画像上サイズは小さくなる。そこで本実施形態では、距離情報により表される値(距離)に応じて、適応的に処理を変更するものとする。具体的には、距離情報から抽出凹凸情報を抽出する際に用いられる抽出処理パラメータを、距離情報の値に応じて適応的に制御する。
次に、凹凸部としてピットパターンを特定する例について説明する。なお、以下ではピットパターンを例にとって説明するが、本実施形態は2次元パターンを用いたマッチング処理により、構造物を特定する手法に広く適用可能であり、ピットパターン以外のパターンを用いることが可能である。
生体表面のピットパターンは、図28(A)〜図28(F)に示したように、正常状態であるか異常状態であるかに応じて、また異常状態である場合には病変の進行度等に応じて、その形状が変化することが知られている。例えば、正常粘膜であれば図28(A)に示したようにピットパターンは円形に近く、病変が進行すると図28(B)の星芒状や、図28(C)、図28(D)の管状型といった複雑な形状になり、さらに進行すると図28(F)に示したようにピットパターンが消失したりする。よって、これらの典型的なパターンを基準パターンとして保持しておき、撮像画像に撮像された被写体表面と、当該基準パターンとの類似度等を判定することで、被写体の状態を判定することができる。このようなピットパターン診断をアシストする手法は特許文献2等に開示されている。
しかし、ピットパターンの典型的な形状と、撮像画像上でのピットパターンの見え方とが一致するとは限らない。上述したように、生体には管腔構造の壁面や、襞等の構造が含まれる。よって、撮像部の光軸方向と生体表面とが直交しないことも充分考えられ、その場合、生体表面には円形のピットパターンがあったとしても、撮像画像上では楕円形等の形状となることが考えられる。例えば、図17(A)に示すように、生体表面に襞2があり、当該襞2の表面に円形のピットパターン40が見られる被写体を撮像する場合を考える。この場合、図17(B)に示したように、撮像部の光軸方向と生体表面のなす角度に起因して、本来円形状であるピットパターンが、種々の変形をされて観察されることになる。
図17(B)から明らかなように、単純に基準パターンと撮像画像とのマッチング処理を行ったとしても、上述の理由によりピットパターンが変形している領域においては、精度のよい検出処理を行うことができない。そして、ピットパターン診断が近接、拡大観察時に行われるため、撮像部と生体との相対的な動きによる影響が大きい点、及び特許文献2の手法では光プローブのスキャン動作が必要となる点を考慮すると、撮像画像でのピットパターンの変形は無視できるものではない。
そこで本出願人は、既知特性情報と距離情報に基づいて、被写体表面の構造を表す表面形状情報を取得し、当該表面形状情報を用いて設定された分類基準を用いた分類処理により凹凸部を特定する手法を提案する。ここで表面形状情報とは、被写体表面の大局的な構造を表すものであり、例えば図18(B)に示した曲面(図18(A)の微小な凹凸構造を除外した距離情報)であってもよし、当該曲面の法線ベクトルの集合であってもよい。
表面形状情報を用いることで、図19(A)、図19(B)に示すように、処理対象としている被写体表面領域に、基準パターンが存在するとしたら、当該パターンは撮像画像上でどのように変形されて観察されるかを推定することができる。つまり、被写体表面に基準パターンに対応するピットパターンが見られるか否かは、図19(B)に示したように、表面形状情報により変形処理が行われた後のパターン(以下、修正パターン)を分類基準として分類処理を行えばよい。
なお、ピットパターンを例に説明する分類処理においては、既知特性情報とはピットパターンであり、具体的にはピット形状やサイズ等の情報となる。
以下、第1〜第6の実施形態について説明する。なお、以下では図2に示すように内視鏡装置を例にとって説明するが、図1で上述したように、本実施形態は内視鏡装置に限定されない画像処理装置に適用可能である。
第1〜第4の実施形態は、抽出凹凸情報を用いて微小な凹凸構造を特定する手法に対応する。第1の実施形態では複数の視点に対応する撮像画像から得られる視差情報に基づいて距離情報を取得するとともに、モルフォロジー処理により距離情報から抽出凹凸情報を抽出する手法を説明する。第1の実施形態では、抽出処理パラメータは、モルフォロジー処理に用いられる構造要素のサイズとなる。また、第2の実施形態ではTime of Flight方式を用いて距離情報を取得するとともに、フィルタ処理(特にローパスフィルタ処理)により抽出凹凸情報を抽出する手法を説明する。第2の実施形態では、抽出処理パラメータは、フィルタ処理に用いられるフィルタの周波数特性を決定するパラメータとなる。
また、第3の実施形態では、複数の視点に対応する撮像画像から得られる視差情報に基づく手法、及びTime of Flight方式を組み合わせて距離情報を取得するとともに、フィルタ処理(特にハイパスフィルタ処理)により抽出凹凸情報を抽出する手法を説明する。また、第4の実施形態では、カプセル内視鏡を対象とした実施形態について説明する。
なお、距離情報の取得処理と、抽出凹凸情報の抽出処理の組み合わせは種々の変更が可能である。つまり、視差情報に基づく手法とフィルタ処理を組み合わせてもよいし、Time of Flight方式とモルフォロジー処理を組み合わせてもよい。その他、本実施形態は上述した手法の任意の組み合わせにより実現可能である。
また、第5〜第6の実施形態は、表面形状情報を用いて分類基準を生成して分類処理を行うことで、凹凸部(狭義には腺管構造だがこれに限定されない)を特定する手法に対応する。第5の実施形態では、正常状態のピットパターンを基準パターンとして保持し、撮像画像の被写体の各領域を正常状態か否かに分類する分類処理を行う手法を説明する。
また、第6の実施形態では、複数の状態のピットパターン(例えば正常状態と、1又は複数の異常状態のピットパターン)を基準パターンとして保持し、撮像画像の被写体の各領域をいずれの状態に該当するか(或いはいずれにも該当しないか)に分類する分類処理を行う手法を説明する。また、第6の実施形態では、基準パターンを変形した修正パターンを用いて、撮像画像から第2の基準パターンを取得し、当該第2の基準パターンを表面形状情報で変形した第2の修正パターンを分類基準とする手法についても説明する。このように、実際撮像された被写体から分類基準を求めることで、検出精度のさらなる向上が期待できる。
2.第1の実施形態
図2に第1の実施形態に係る画像処理装置(画像処理部301に対応)を含む内視鏡装置の構成例を示す。第1実施形態を構成する内視鏡装置は、光源部100と撮像部200とプロセッサ部300と表示部400と外部I/F部500からなる。
光源部100は、白色光源101と複数の分光透過率を持った回転色フィルタ102と回転色フィルタ102を駆動させる回転駆動部103と回転色フィルタ102からの分光特性を持った光をライトガイドファイバ201の入射端面に集光させる集光レンズ104とからなる。
回転色フィルタ102は三原色の赤の色フィルタと緑の色フィルタと青の色フィルタと回転モータとから構成されている。
回転駆動部103はプロセッサ部300の制御部302からの制御信号に基づき撮像素子206と207の撮像期間と同期して回転色フィルタ102を所定回転数で回転させる。例えば色フィルタを1秒間に20回転させると、各色フィルタは60分の1秒間隔で入射白色光を横切る事になり、撮像素子206と207は60分の1秒間隔で3原色の各色光(R或いはG或いはB)に対する観察対象からの反射光を撮像し、画像の転送を完了することになる。つまりこの実施例はR画像、G画像、B画像が60分の1秒間隔で面順次で撮像される内視鏡装置の例となり、実質のフレームレートは20fpsとなる。
撮像部200は例えば胃や大腸などの体腔への挿入を可能にするため細長くかつ湾曲可能に形成されている。撮像部200には、光源部100で集光された光を導くためのライトガイドファイバ201と、ライトガイドファイバ201により先端まで導かれた光を拡散させて観察対象に照射する照明レンズ203と、観察対象から戻る反射光を集光する対物レンズ204、205と、集光した結像光を検出するための撮像素子206、207と撮像素子206、207からの光電変換されたアナログ信号をデジタル信号に変換するA/D変換部209と、撮像部200のスコープID情報と製造バラツキを含めた固有情報が記録されているメモリ210と、プロセッサ部300と着脱可能なコネクタ212を備えている。ここで前記撮像素子206、207はモノクロ単板撮像素子とし、CCDやCMOS等が利用できる。
対物レンズ204、205は所定間隔離した位置に配置され所定の視差画像(以降、ステレオ画像と記す)が撮影可能な位置に配置されており、撮像素子206、207にそれぞれ左画像、及び右画像が結像されるようになっている。また撮像素子206、及び207から出力された左画像と右画像はA/D変換部209でデジタル信号に変換されて画像処理部301へ出力される。またメモリ210は制御部302と接続されておりスコープID情報と製造バラツキを含めた固有情報が制御部302へ送られる。
プロセッサ部300は画像処理部301と制御部302とから構成される。
表示部400はCRTや液晶モニタ等の動画表示可能な表示装置である。
外部I/F部500は、この内視鏡装置に対するユーザからの入力等を行うためのインターフェースであり、電源のオン/オフを行うための電源スイッチ、撮影操作を開始するためのシャッタボタン、撮影モードやその他各種のモードを切り換えるためのモード切換スイッチ(例えば生体表面の凹凸部の選択的な強調処理を行う為のスイッチ)などを含んで構成されている。そして、この外部I/F部500は、入力された情報を制御部302へ出力するようになっている。
また胃や大腸等の生体表面は正常な生体が予め有している襞2、3、4と病変部10、20、30があるものとする。病変部10は陥凹型の僅かに凹んだ早期病変であり、病変20は隆起型の僅かに出っ張った早期病変であり、病変部30は粘膜面が不整となった早期病変である。なお、病変部10の周辺や、襞4の右側にも凹凸部を示したように、病変部に見られる凹凸と同様の(例えばディメンジョンがよく似た)凹凸部は、正常部にも見られるものである。本実施形態の手法は、病変部の検出そのものではなく、病変検出等に有用な抽出凹凸情報の取得を行うものであるため、病変部に含まれる凹凸部と、正常部に含まれる凹凸部とを区別して取り扱うものではない。
続いて画像処理部301の詳細について図3に基づいて説明する。画像処理部301は、画像取得部390、画像構成部320、距離情報取得部340(距離マップ算出部)、既知特性情報取得部350、凹凸特定部310、強調処理部330からなり、凹凸特定部310は更に凹凸情報抽出部360、特定処理部370から構成される。
撮像部200の撮像素子206、207から出力される左画像と右画像からなるステレオ画像が画像取得部390により取得され、取得されたステレオ画像は、画像構成部320と、距離情報取得部340に入力される。画像構成部320は撮像されたステレオ画像に対して表示部400に出力可能画像とする為に所定画像処理(OB処理、ゲイン処理、γ処理)を施し強調処理部330へ出力される。
距離情報取得部340は撮像されたステレオ画像を構成する左画像を基準画像とし、左画像の局所領域の中央に位置する注目画素を通るエピポーラ線上で右画像の局所領域とのマッチング演算を行い、最大相関となる位置を視差として算出する。距離情報取得部340では更に算出された視差をZ方向の距離に変換して距離情報(狭義には距離マップ)を取得し、取得された距離情報は、凹凸特定部310の凹凸情報抽出部360へ出力される。
既知特性情報取得部350は、制御部302(或いは不図示の記憶部)から既知特性情報を取得する。具体的には、生体表面から病変部起因の抽出したい生体固有の凹凸部のサイズ(幅や高さや深さ等などのディメンジョン情報)、及び観察部位情報に基づく部位固有の管腔及び襞のサイズ(幅や高さや奥行き等のディメンジョン情報)等を、既知特性情報として取得する。ここで観察部位情報は、制御部302にメモリ210から入力されるスコープID情報に基づき決定される、観察対象としている部位を表す情報であり、当該観察部位情報も既知特性情報に含まれてもよい。例えば上部消化器用スコープだと観察部位は食道、胃、十二指腸であり、下部消化器用スコープだと観察部位は大腸と判定される情報である。抽出したい凹凸部のディメンジョン情報、及び部位固有の管腔及び襞のディメンジョン情報は、部位に応じて異なるものであるため、既知特性情報取得部350では、観察部位情報に基づき取得された標準的な管腔及び襞のサイズ等の情報を凹凸情報抽出部360へ出力する。なお、観察部位情報はスコープID情報により決定されるものに限定されず、外部I/F部500においてユーザが操作可能なスイッチを用いて選択される等、他の手法により決定されてもよい。
凹凸情報抽出部360は、既知特性情報に基づいて抽出処理パラメータを決定し、決定された抽出処理パラメータに基づいて抽出凹凸情報の抽出処理を行う。
まず凹凸情報抽出部360は、入力された距離情報に対してN×N画素の所定サイズのローパスフィルタ処理を施し、大まかな距離情報を抽出する。そして抽出された大まかな距離情報に基づいて、適応的に抽出処理パラメータを決定する。抽出処理パラメータの詳細については以降で説明するが、例えば距離マップの距離情報と直交する平面位置での距離情報に適応したモルフォロジーのカーネルサイズ(構造要素のサイズ)であったり、前記平面位置の距離情報に適応したローパス特性のフィルタであったり、前記平面位置に適応したハイパス特性のフィルタであったりする。つまり距離情報に応じた適応的な非線形、及び線形のローパスフィルタやハイパスフィルタを変更する変更情報となる。
次に、凹凸情報抽出部360は、決定された抽出処理パラメータに基づいて、抽出処理を行うことで被写体に実在する所望サイズの凹凸部のみを抽出する。これら抽出した凹凸部は特定処理部370において撮像画像と対応づけられる。ここでの抽出凹凸情報とは、後述する図4(C)や図4(E)等の情報であり、撮像画像との対応付けに所定の処理が必要となる場合も考えられるためである。例えば、抽出凹凸情報が撮像画像の定数倍のサイズを有する凹凸画像として取得された場合、凹凸画像上での凹凸部の位置を撮像画像上での位置に変換するために、特定処理部370では凹凸画像の変倍処理等を行うことになる。ただし、凹凸情報抽出部360において、画像構成部320から出力される画像と同一サイズの抽出凹凸情報(凹凸画像)が取得される場合には、特定処理部370を省略する構成として、当該抽出凹凸情報が強調処理部330へ出力されるものとしてもよい。
強調処理部330は特定された凹凸部に対応する所望の強調処理(例えば、輝度に対する強調であったり、色に対する色相や彩度強調であってもよい)を、撮像画像(例えば画像構成部320から出力された左右画像の内の視差算出の基準とした左画像)に対して処理し、処理した左画像のみを表示部400へ出力する。つまり立体画像としては出力せず、2D画像表示を行う。ただし本実施形態での表示画像はこれに限定されず、強調表示された立体画像を出力してもよい。或いは、強調表示された2D画像と、強調表示されていない立体画像の両方を出力して切り替え表示を可能としてもよい。
続いて凹凸情報抽出部360における抽出処理パラメータの決定処理の詳細を、図4(A)〜図4(F)を用いて説明する。図4(A)〜図4(F)の抽出処理パラメータはモルフォロジー処理のオープニング処理とクロージング処理に利用する構造要素(球)の直径である。図4(A)は、被写体の生体表面と撮像部200の垂直方向の断面を模式的に示した図である。生体表面にある襞2、3、4は例えば胃壁の襞であるとする。また早期病変部10、20、30が生体表面に形成されているものとする。
凹凸情報抽出部360における抽出処理パラメータの決定処理にて実現したいのは、このような生体表面から襞2、3、4は抽出せずに早期病変部10、20、30のみを抽出するための抽出処理パラメータを決定することである。
これを実現するには、制御部302からの病変部起因の抽出したい生体固有の凹凸部のサイズ(幅や高さや深さ等などのディメンジョン情報)、及び観察部位情報に基づく部位固有の管腔及び襞のサイズ(幅や高さや奥行き等のディメンジョン情報)を用いる必要がある。
この2つの情報を使って実際の生体表面をオープニング処理及びクロージング処理でなぞる球の直径を決定すれば特定のディメンジョン特性を有する凹凸部のみを抽出できる。球の直径は観察部位情報に基づく部位固有の管腔及び襞のサイズよりも小さく、病変部起因の抽出したい生体固有の凹凸部のサイズよりも大きい直径を設定する。より詳細には襞のサイズの半分以下の直径で病変起因の抽出したい生体固有の凹凸部のサイズ以上に設定するのがよい。上記条件を満たす球をオープニング処理とクロージング処理に使用した例が、図4(A)〜図4(F)に描かれている。
図4(B)はクロージング処理した後の生体表面であり、適切な抽出処理パラメータ(構造要素のサイズ)を決定することで、生体壁面による距離変化や、襞等の構造を維持しつつ、抽出対象としているディメンジョンの凹凸部のうち、凹部が埋められた情報が得られることがわかる。クロージング処理により得られた情報と、元の生体表面(図4(A)に対応)との差分を取る事で図4(C)のような生体表面の凹部のみを抽出できる。
同様に図4(D)はオープニング処理した後の生体表面であり、抽出対象としているディメンジョンの凹凸部のうち、凸部が削られた情報が得られることがわかる。よってオープニング処理により得られた情報と、元の生体表面との差分を取る事で図4(E)のような生体表面の凸部のみを抽出できる。
上記のように実際の生体表面に対して全て同一サイズの球を使ったオープニング処理、クロージング処理を行えばよいのだが、ステレオ画像は距離情報が遠い程小さい領域として撮像素子上に結像されるので、所望サイズの凹凸部を抽出するには、距離情報が近い場合には上記球の直径を大きく、距離情報が遠い場合は上記球の直径を小さくするように制御すれば良い。
図4(F)には距離マップに対するオープニング処理、クロージング処理を行う場合の平均的な距離情報に対して、球の直径を変更する様に制御している事を示している。つまり距離マップに対して所望の凹凸部を抽出するには生体表面のリアルな大きさを撮像素子上の結像画像上の画素ピッチの大きさと一致させるために光学倍率で補正する必要がある。そのため、凹凸情報抽出部360は、メモリ210からのスコープID情報に基づき決定される撮像部200の光学倍率等を取得しておくとよい。
続いて図5に示した距離情報取得部340、既知特性情報取得部350、凹凸情報抽出部360の詳細ブロック図の説明を行う。距離情報取得部340はステレオマッチング部341と視差・距離変換部342からなる。また凹凸情報抽出部360は、局所平均距離算出部361、モルフォロジー特性設定部362、クロージング処理部363−1、オープニング処理部363−2、凹部抽出部364、凸部抽出部365からなる。
撮像部200から出力されたステレオ画像はステレオマッチング部341へ入力され、左画像を基準画像として、処理対象画素とその周辺領域(所定サイズのブロック)が右画像に対してエピポーラ線上をブロックマッチングして視差情報を算出する。算出した視差情報は視差・距離変換部342にて距離情報に変換される。この変換は撮像部200の光学倍率の補正処理を含んでいる。
変換された距離情報は、狭義にはステレオ画像と同一サイズの画素からなる距離マップとして局所平均距離算出部361へ出力される。局所平均距離算出部361は、入力される距離マップに対して例えば3×3画素での平均値算出を行い局所的な領域での平均距離を算出する。算出した平均距離はモルフォロジー特性設定部362に入力され、更に制御部302からの病変部起因の抽出したい生体固有の凹凸部のサイズ(幅や高さや深さ等などのディメンジョン情報)、及び観察部位情報に基づく部位固有の管腔及び襞のサイズ(幅や高さや奥行き等のディメンジョン情報)によりオープニング処理及びクロージング処理に用いる球の直径(本実施形態での抽出処理パラメータ)を決定する。
決定した球の直径情報は距離マップと同一の画素数を持つ直径マップとしてクロージング処理部363−1とオープニング処理部363−2へ入力される。クロージング処理部363−1とオープニング処理部363−2は、直径マップにより画素単位で直径を変更してクロージング処理及びオープニング処理を行う。クロージング処理部363−1の処理結果は凹部抽出部364へ出力される。またオープニング処理部363−2の処理結果は凸部抽出部365へ出力される。
凹部抽出部364にはクロージング処理前後の距離マップが入力され、クロージング処理前の距離マップからクロージング処理後の距離マップを引き算する事で所望の凹部のみが抽出された凹部画像が出力される。一方、凸部抽出部365にはオープニング処理前後の距離マップが入力され、オープニング処理前の距離マップからオープニング処理後の距離マップを引き算する事で所望の凸部のみが抽出された凸部画像が出力される。
以上のように第1実施形態によれば、観察部位固有の襞や管腔形状に影響されずに病変部起因の抽出したい生体固有の凹凸部を高精度に抽出できるので、表示画像に対して病変部起因の凹凸部を選択的に強調表示すること等が可能となる。
以上の本実施形態では、画像処理装置は図1や図3に示したように、撮像部200の撮像により、被写体の像を含む撮像画像を取得する画像取得部390と、撮像の際の撮像部200から被写体までの距離に基づく距離情報を取得する距離情報取得部340と、被写体の構造に関する既知の特性を表す情報である既知特性情報を取得する既知特性情報取得部350と、距離情報と既知特性情報に基づいて、撮像画像に撮像された被写体から、既知特性情報により特定される特性と合致する被写体の凹凸部を特定する凹凸特定処理を行う凹凸特定部310を含む。
ここで距離情報とは、撮像部200から被写体までの距離に基づいて取得される種々の情報である。例えば、本実施形態で上述したようにステレオ光学系で三角測量する場合は、視差を生む2つのレンズ(図2の対物レンズ204,205)を結ぶ面の任意の点を基準にした距離を距離情報とすればよい。一方、第2の実施形態等で後述するTime of Flight方式を用いた場合は、例えば、撮像素子面の各画素位置を基準にした距離を距離情報として取得することになる。これらは、距離計測の基準点を撮像部200に設定した例であるが、基準点は、撮像部200以外の任意の場所、例えば、撮像部や被写体を含む3次元空間内の任意の場所に設定してもよく、そのような基準点を用いた場合の情報も本実施形態の距離情報に含まれる。
撮像部200から被写体までの距離とは、例えば撮像部200から被写体までの奥行き方向の距離であることが考えられる。一例としては、撮像部200の光軸方向での距離を用いればよく、図4(A)に示したように光軸に対して垂直な方向に視点を設定した場合には、当該視点において観察される距離(図4(A)の例であれば矢印で示した上下方向での撮像部200から被写体までの距離)であってもよい。
例えば、距離情報取得部340は、撮像部200の第1の基準点を原点とした第1の座標系における各対応点の座標を、公知の座標変換処理によって、3次元空間内の第2の基準点を原点とした第2の座標系における対応点の座標に変換し、その変換後の座標をもとに距離を計測してもよい。この場合、第2の座標系における第2の基準点から各対応点までの距離は、第1の座標系における第1の基準点から各対応点までの距離、すなわち「撮像部から各対応点までの距離」となり、両者は一致する。
また、距離情報取得部340は、撮像部200に基準点を設定した場合に取得される距離マップ上の各画素間の距離値の大小関係と同様の大小関係が維持できるような位置に仮想の基準点を設置することで、撮像部200から対応点までの距離をもとにした距離情報を取得してもよい。例えば、距離情報取得部340は、撮像部200から3つの対応点までの実際の距離が「3」、「4」、「5」である場合、各画素間の距離値の大小関係が維持されたまま、それら距離が一律に半分にされた「1.5」、「2」、「2.5」を取得してもよい。この場合、凹凸情報抽出部360は、撮像部200に基準点を設定した場合と比較して、抽出処理パラメータとして異なるパラメータを用いることになる。抽出処理パラメータの決定には距離情報を用いる必要があるため、距離計測の基準点が変わることで距離情報の表し方が変化した場合には、抽出処理パラメータの決定手法も変化するためである。例えば、本実施形態で上述したように、モルフォロジー処理により抽出凹凸情報を抽出する場合には、抽出処理に用いる構造要素のサイズ(例えば球の直径)を調整して、調整後の構造要素を用いて凹凸部の抽出処理を実施する。
これにより、既知特性情報と距離情報を用いて、撮像画像に撮像された被写体から、所与の特性を有する凹凸部を特定することができるため、精度よく被写体の凹凸部(狭義には被写体表面の凹凸部であるがこれには限定されない)を検出することが可能になる。その際、色素散布等の被写体側を変化させる手法を用いる必要がないため、強調対象以外の被写体の視認性低下や、生体を対象とした場合の侵襲性の問題等を考慮しなくてもよいという利点もある。
また、凹凸特定部310は、距離情報と既知特性情報に基づいて、既知特性情報により特定される特性と合致する被写体の凹凸部を表す情報を、抽出凹凸情報として距離情報から抽出する凹凸情報抽出部360を含んでもよい。そして、凹凸特定部310は、抽出凹凸情報とに基づいて凹凸特定処理を行う。
これにより、距離情報(例えば図4(A)に示した情報)から、抽出凹凸情報(例えば図4(C)や図4(E)に示した情報)を抽出し、当該抽出凹凸情報を用いて撮像画像上で凹凸部を特定することが可能になる。つまり、被写体の三次元情報を含む距離情報を用いて、所望の特性を有する凹凸部に関する情報を取得し、その情報と撮像画像を対応づけることで、撮像された被写体のうち、どの部分に所望の凹凸部が位置するかを特定する処理を行うことができる。なお、抽出凹凸情報は狭義には、距離マップ、或いは画像構成部320で構成される画像に対応する画素数(例えば同一の画素数)を有し、各画素値が凹凸に対応する値となる凹凸画像であってもよい。凹凸に対応する値とは、例えば凸部が正、凹部が負の値となり、凸部の高さが高いほど、また凹部の深さが深いほど、その絶対値が大きくなる値が考えられる。ただし、抽出凹凸情報は凹凸画像に限定されず、他の形式の情報であってもよい。
また、凹凸情報抽出部360は、既知特性情報に基づいて抽出処理パラメータを決定し、決定された抽出処理パラメータに基づいて、被写体の凹凸部を抽出凹凸情報として抽出してもよい。
これにより、既知特性情報により決定された抽出処理パラメータを用いて抽出凹凸情報の抽出処理(例えば分離処理)を行うことが可能になる。抽出処理の具体的な手法は、本実施形態で上述したモルフォロジー処理や、後述するフィルタ処理等が考えられるが、いずれにせよ抽出凹凸情報を精度よく抽出するためには、距離情報に含まれる種々の構造の情報から、所望の凹凸部に関する情報を抽出しつつ、他の構造(例えば襞等の生体固有の構造)を除外する制御が必要になる。ここでは既知特性情報に基づいて抽出処理パラメータを設定することで、そのような制御を実現する。
また、既知特性情報取得部350は、被写体の種類を表す種類情報と、種類情報に関連づけられた被写体の凹凸部に関する情報である凹凸特性情報を、既知特性情報として取得してもよい。そして凹凸情報抽出部360は、種類情報と凹凸特性情報に基づいて、抽出処理パラメータを決定し、決定された抽出処理パラメータに基づいて、被写体の凹凸部を抽出凹凸情報として抽出する。
ここで種類情報とは、被写体の種類を特定するための情報である。例えば、工業用の内視鏡を考えた場合、観察対象とする装置等を特定する情報であってもよい。或いはより狭い範囲での種類を特定する情報でもよく、例えば装置に含まれる太さの異なる複数のパイプのうち、どの太さのパイプを観察しているかを特定する情報でもよい。凹凸特性情報とは、距離情報から抽出したい被写体の凹凸の特性を特定する情報である。具体的には、距離情報に含まれる凹凸のうち、除外対象とする凹凸の特性を表す情報と、抽出対象とする凹凸の特性を表す情報との少なくとも一方の情報を含む。
これにより、種類情報と凹凸特性情報を既知特性情報として用いて抽出処理パラメータを決定することが可能になる。上述したパイプの太さの例でもわかるように、観察対象の種類が異なれば抽出すべき凹凸部のディメンジョン等は異なるものになる。よって、本実施形態の画像処理装置は、凹凸特性情報を種類情報毎に複数保持しておき、取得された種類情報に応じて適切なものを選択することで、適切な抽出処理パラメータを決定するものとする。なお、凹凸特性情報は基準となる1つの情報であってもよく、当該1つの値を種類情報に応じて変換して用いるものであってもよい。
また、撮像画像が、生体の内部を撮像した生体内画像であり、既知特性情報取得部350は、被写体が生体のいずれの部位に対応するかを表す部位情報と、生体の凹凸部に関する情報である凹凸特性情報を、既知特性情報として取得してもよい。そして凹凸情報抽出部360は、部位情報と、凹凸特性情報に基づいて、抽出処理パラメータを決定し、決定された抽出処理パラメータに基づいて、被写体の凹凸部を抽出凹凸情報として抽出する。
これにより、生体内画像を対象とする場合(例えば生体用の内視鏡装置に本実施形態の画像処理装置が用いられる場合)に、当該生体内画像の被写体の部位に関する部位情報を、既知特性情報として取得することが可能になる。本実施形態の手法を生体内画像を対象として適用する場合には、早期病変部の検出等に有用な凹凸構造を抽出凹凸情報として抽出することが想定されるが、早期病変部に特徴的な凹凸部の特性(例えばディメンジョン情報)は部位によって異なる可能性がある。また、除外対象である生体固有の構造(襞等)は部位によって当然異なる。よって、生体を対象とするのであれば、部位に応じた適切な処理を行う必要があり、本実施形態では部位情報に基づいて当該処理を行うものとする。
具体的な手法は種々考えられるが、例えば不図示の記憶部は、前記生体の第1〜第Nの部位の各部位に対応する第1〜第Nの凹凸特性情報を記憶しておき、前記部位情報により前記被写体が第kの部位に対応すると特定された場合に、前記凹凸情報抽出部360は、前記第1〜第Nの凹凸特性情報のうち第kの凹凸特性情報を用いて前記抽出処理パラメータを決定するとしてもよい。或いは、不図示の記憶部は、前記凹凸特性情報として基準凹凸特性情報を記憶しておき、前記凹凸情報抽出部360は、前記部位情報に基づいて前記基準凹凸特性情報に対して変換処理を行い、前記変換処理後の前記凹凸特性情報を用いて前記抽出処理パラメータを決定するとしてもよい。
また、凹凸情報抽出部360は、既知特性情報に基づいて、オープニング処理及びクロージング処理に用いられる構造要素のサイズを、抽出処理パラメータとして決定し、決定されたサイズの構造要素を用いたオープニング処理及びクロージング処理を行って、被写体の凹凸部を抽出凹凸情報として抽出してもよい。
これにより、図4(A)〜図4(F)に示したように、オープニング処理及びクロージング処理(広義にはモルフォロジー処理)に基づいて抽出凹凸情報を抽出することが可能になる。その際の抽出処理パラメータは、オープニング処理及びクロージング処理で用いられる構造要素のサイズである。図4(A)では構造要素として球を想定しているため、抽出処理パラメータとは球の直径等を表すパラメータとなる。具体的には上述したように、襞等の除外対象とする形状に対して構造要素による処理を行った場合(図4(A)では表面で球を滑らせた場合)には、当該形状を潰さない(形状に追従して球が移動する)ような構造要素のサイズを決定する。逆に、抽出凹凸情報として抽出対象となる凹凸部に対して構造要素による処理を行った場合には、当該凹凸部をなくす(上から滑らせた場合に凹部に入り込まない、或いは下から滑らせた場合に凸部に入り込まない)ような構造要素のサイズを決定すればよい。なおモルフォロジー処理については広く知られた手法であるため詳細な説明は省略する。
また、凹凸情報抽出部360は、オープニング処理及びクロージング処理の処理対象画素に対応する距離情報の値が大きいほど、抽出処理パラメータである構造要素のサイズを小さく設定してもよい。
これにより、実サイズと画像上サイズとの対応を取ることが可能になる。既知特性情報は被写体の構造に関する既知の特性であるため、実空間で考えた場合の実サイズ(例えばマイクロメートル、ミリメートル等の単位で決定されるサイズ)で表現されることが想定される。しかし図4(A)等を考えればわかるように、撮像部200から被写体までの距離にはばらつきがある以上、実サイズが同じ被写体(例えば同じ幅の溝)であっても距離が小さいものの方が距離が大きいものに比べて大きく観察されることになる。よって、実サイズと、距離情報上での見た目のサイズ(距離情報が画素単位で表される距離マップであれば、ピクセル単位で決定されるサイズ)との変換を行わなくては、既知特性情報により特定される特性と合致する凹凸部の抽出を行うことは困難である。そこで本実施形態では、距離情報の値に応じて抽出処理パラメータを変更することでその変換を行うものとする。具体的には、距離が大きいほど抽出すべき対象の凹凸部が小さく見えることから、構造要素のサイズも小さく設定すればよい。なお、この場合には撮像部200における撮像倍率によっても、実サイズと画像上サイズとの対応関係は変化するため、凹凸情報抽出部360は撮像部200から撮像倍率の情報を取得しておき、当該撮像倍率による変換処理も行うことが望ましい。
また、被写体は、大局的な三次元構造と、大局的な三次元構造に比べて局所的な凹凸構造とを有し、凹凸情報抽出部360は、被写体が有する大局的な三次元構造と局所的な凹凸構造のうち、既知特性情報により特定される特性と合致する被写体の凹凸部を、抽出凹凸情報として抽出してもよい。
これにより、被写体が大局的な構造と局所的な構造とを有する場合に、既知特性情報を用いていずれの構造を抽出すべきであるかを決定し、決定された構造に関する情報を抽出凹凸情報として抽出することが可能になる。
また、撮像画像が、生体の内部を撮像した生体内画像であり、被写体は、生体内部の管腔構造である生体の大局的な三次元構造と、管腔構造に形成され、大局的な三次元構造に比べて局所的な凹凸構造とを有し、凹凸情報抽出部360は、被写体に含まれる大局的な三次元構造と凹凸部のうち、既知特性情報により特定される特性と合致する被写体の凹凸部を、抽出凹凸情報として抽出してもよい。
これにより、生体内画像を対象とする場合には、本実施形態の手法は、距離情報に含まれる大局的な(ここでは凹凸部に比べて空間周波数が低い構造を指す)三次元構造と、凹凸部のうち、凹凸部を抽出する処理として実現することが可能になる。上述したように、本実施形態で生体内画像を対象とする場合には、早期病変部の発見に有用な凹凸部を抽出対象とする。つまり、生体固有の襞や、壁面の曲率に起因する構造等の生体固有の三次元構造は抽出対象とする必要はなく、凹凸情報抽出部360はそれらを除いて凹凸部を抽出すればよい。この場合、除外されるものが大局的(空間周波数が低い構造)となり、抽出対象が局所的(空間周波数が高い構造)となるため、その中間に相当する空間周波数等を境界として設定する(狭義には抽出処理パラメータとする)処理等を行うことになる。
また、距離情報取得部340は、取得された撮像画像の各画素において、撮像部から各画素に撮像された被写体までの距離に関する情報を対応づけた距離マップを、距離情報として取得してもよい。
ここで距離マップとは、距離情報の下位概念であり、例えば撮像部200の光軸方向をZ軸とした場合に、XY平面の各点(例えば各画素)について、被写体までのZ軸方向での距離(奥行き・深度)を当該点の値としたマップのことである。
これにより、距離情報として距離マップを取得することが可能になる。この場合、距離情報、及び当該距離情報から抽出される抽出凹凸情報と、画像構成処理等が行われた被写体の画像(画像構成部320で取得される画像)とを、画素毎に容易に対応付けることができる。よって、被写体画像のどの位置に抽出対象となった凹凸部があるかを容易に把握することができ、強調処理部330等を用いた凹凸部の強調処理を行う際にも、強調すべき画素とそうでない画素の判定が容易である。
また、撮像部200は、複数の視点を有するものであり、画像取得部390は、撮像部200を介して、複数の視点のそれぞれに対応する撮像画像を複数取得し、距離情報取得部340は、取得された複数の撮像画像から得られる視差情報に基づいて、距離情報を取得してもよい。
これにより、複数の視点からの画像により取得される視差情報に基づいて、距離情報を取得することが可能になる。視差情報の取得手法、及び距離情報への変換手法等については、ステレオマッチング処理として広く知られているため、詳細な説明は省略する。この場合、撮像素子(図2では206及び207)としては、ベイヤ配列の単板素子等、広く用いられているものを利用可能であるため、実現が容易である。また、そのような素子は小型化等も進んでいるため、視点数に対応するだけの素子と光学系が必要となることを考慮しても、撮像部200を小型化することは可能であり、内視鏡装置等、利用分野が広い。
また、以上の本実施形態は、上記の画像処理装置を含む電子機器に適用できる。
これにより、本実施形態の手法により凹凸部を検出する電子機器を実現することができる。ここでの電子機器は、撮像部200及び距離情報を作成するためのハードウェア(本実施形態であればステレオの光学系であるが、後述するTime of Flight方式でのレーザー光源105や測距センサ214等であってもよい)を含むものでもよいし、その一方のみを含むものでもよいし、或いはその両方を含まないものでもよい。本実施形態の電子機器は例えば人工衛星からの情報を取得する機器(例えばPCやサーバ)であってもよい。この場合、人工衛星からレーザーを発することで人工衛星から富士山までの距離を計測し、本発明に係る電子機器は、人工衛星から、富士山が写った画像と距離情報を、ネットワークを介して取得する。そして電子機器は、富士山上のカルデラ(凹部)の幾何学的情報を示す情報を既知特性情報として記録部から取得し、その特性をもとに、画像上において富士山上に形成されているカルデラ部分を認識するといった処理を行うことが考えられる。
また、以上の本実施形態は、図2に示したように上記の画像処理装置を含む内視鏡装置に適用できる。
これにより、本実施形態の手法により凹凸部を検出する内視鏡装置を実現することができる。上述したように、生体の微小な凹凸部は早期病変部の発見に有用であることが知られているのに対して、従来は当該凹凸部の検出精度が十分でなかったり、画像処理ではなく被験者にとって侵襲製の高い色素散布等の手法が用いられていた。本実施形態の手法によれば、凹凸部を画像処理により精度よく検出することが可能になるため、医療分野等において有用である。なお、本実施形態の手法では早期病変部等に見られる凹凸部と同様の特性の凹凸部を検出するため、図2の病変部10,20,30の凹凸部だけでなく、正常部の凹凸部も区別なく検出する。つまり、出力される抽出凹凸情報が早期病変部の発見に有用であることは確かであるが、実際に早期病変部をどのように検出するかについては本実施形態の手法が関知するものではない。
なお、本実施形態の画像処理装置等は、その処理の一部または大部分をプログラムにより実現してもよい。この場合には、CPU等のプロセッサがプログラムを実行することで、本実施形態の画像処理装置等が実現される。具体的には、情報記憶媒体に記憶されたプログラムが読み出され、読み出されたプログラムをCPU等のプロセッサが実行する。ここで、情報記憶媒体(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクドライブ)、或いはメモリ(カード型メモリー、ROM等)などにより実現できる。そして、CPU等のプロセッサは、情報記憶媒体に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち、情報記憶媒体には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。
3.第2の実施形態
図6は第2の実施形態となる内視鏡装置の機能ブロック図である。第2実施形態を構成する内視鏡装置も光源部100と撮像部200とプロセッサ部300と表示部400と外部I/F部500からなる。
まず光源部100は、白色LEDと青色レーザー光源105と白色LEDと青色レーザーの合成光をライトガイドファイバ201の入射端面に集光させる集光レンズ104とからなる。白色LEDと青色レーザー光源105は制御部302からの制御によりパルス点灯制御される。また青色レーザーは例えば白色LEDが発光する青色よりもより短波長の波長を使用する。
撮像部200は、例えば胃や大腸などの体腔への挿入を可能にするため細長くかつ湾曲可能に形成されている。撮像部200には、光源部100で集光された光を導くためのライトガイドファイバ201と、ライトガイドファイバ201により先端まで導かれた光を拡散させて観察対象に照射する照明レンズ203と、観察対象から戻る反射光を集光する対物レンズ204と、集光した結像光を青色レーザー光の波長のみ反射してそれ以外の波長の光を透過するダイクロイックプリズム215と、青色レーザー光の発光開始から撮像開始時刻までの時間を検出するTime of Flight方式の測距センサ214と、白色LED光の結像光を検出する撮像素子213が配置されている。さらに撮像部200は、撮像素子213からの光電変換されたアナログ信号と、測距センサ214からの距離情報のアナログ信号をデジタル信号に変換するA/D変換部209と、撮像部200のスコープID情報と製造バラツキを含めた固有情報が記録されているメモリ210と、プロセッサ部300と着脱可能なコネクタ212を備えている。ここで前記撮像素子213は原色単板撮像素子(ベイヤ配列)とし、CCDやCMOS等が利用できる。
またA/D変換部209でデジタル信号に変換された撮像素子213からの画像は画像処理部301へ出力され、測距センサ214からの距離情報はA/D変換部209でデジタル信号に変換されて距離マップ記録部303へ出力される。またメモリ210は制御部302と接続されておりスコープID情報と製造バラツキを含めた固有情報が制御部302へ送られる。
プロセッサ部300は画像処理部301と制御部302と距離マップ記録部303とから構成される。
表示部400はCRTや液晶モニタ等の動画表示可能な表示装置である。
外部I/F部500は、この内視鏡装置に対するユーザからの入力等を行うためのインターフェースであり、電源のオン/オフを行うための電源スイッチ、撮影操作を開始するためのシャッタボタン、撮影モードやその他各種のモードを切り換えるためのモード切換スイッチ(例えば生体表面の凹凸部の選択的な強調処理を行う為のスイッチ)などを含んで構成されている。そして、この外部I/F部500は、入力された情報を制御部302へ出力するようになっている。
続いて画像処理部301の詳細について図7に基づいて説明する。画像処理部301は、画像取得部390、画像構成部320、既知特性情報取得部350、凹凸特定部310、強調処理部330からなり、凹凸特定部310は更に凹凸情報抽出部360、特定処理部370から構成される。
撮像部200の撮像素子213から出力される画像が画像取得部390により取得され、取得された画像は画像構成部320に入力される。また測距センサ214からの距離情報が距離マップ記録部303に入力される。画像構成部320は撮像された画像に対して表示部400に出力可能画像とする為に所定画像処理(OB処理、ゲイン処理、γ処理)を施し強調処理部330へ出力される。
距離マップ記録部303に記録された測距センサ214からの距離マップ(撮像素子213の画素数と同一画素であるとする)は、凹凸情報抽出部360へ出力される。
第2実施形態の凹凸情報抽出部360を図9で説明する。凹凸情報抽出部360は、局所平均距離算出部361、ローパス特性設定部366、ローパス処理部367,凹部抽出部364、及び凸部抽出部365からなる。
ここで本実施形態の凹凸情報抽出部360は、ローパスフィルタの周波数特性を局所平均距離により変更させる事で第1実施形態のモルフォロジーに類似した処理を行う。なお、ローパスフィルタは線形なガウシアンであっても、非線形なバイラテラルフィルタでもよい。つまり距離が近い場合は画像内の病変起因の凹凸部が大きくなり、距離が遠い場合には小さくなるため、所望の凹凸部の抽出に必要な基準面を距離情報に基づいて前記ローパスフィルタの特性を変更して作成する必要が発生する。つまり、本実施形態における抽出処理パラメータとは、ローパスフィルタの特性(狭義には周波数特性)を決定するパラメータとなる。
距離マップ記録部303から出力された距離マップは、局所平均距離算出部361で第1実施形態と同様な例えば3×3画素の平均値を算出し、ローパス特性設定部366へ出力される。
ローパス特性設定部366には、既知特性情報取得部350から、病変部起因の抽出したい生体固有の凹凸部のサイズ(幅や高さや深さ等などのディメンジョン情報)、及び観察部位情報に基づく部位固有の管腔及び襞のサイズ(幅や高さや奥行き等のディメンジョン情報)が既知特性情報として入力される。またローパス特性設定部366には、撮像部200の光学倍率と、局所平均距離が入力され、まず距離マップ(Z方向)の大きさとz方向と直交する座標系(画素ピッチ)に対応する被写体の大きさを一致させた後、上記病変部起因の抽出したい生体固有の凹凸部は平滑化可能で、観察部位固有の管腔及び襞の構造が保持されるローパスフィルタの特性を決定する。
ローパスフィルタは公知のガウスフィルタやバイラテラルフィルタとし、その特性はσで制御し、距離マップの画素に一対一対応するσマップを作成してもよい(バイラテラルフィルタの場合は輝度差のσと距離のσの両方或いはどちらか1つでσマップを作成してもよい)。ここで「輝度差のσ」における輝度とは、距離マップを画像と見なしたときの画素値を表すものであるため、輝度差とはZ方向での距離の差を表す。一方、「距離のσ」における距離とは、XY方向の注目画素と周辺画素との間の距離を表すものである。なお、ガウスフィルタは下式(1)、バイラテラルフィルタは下式(2)で表すことができる。
例えばここでこのσマップは画素単位でなくても間引き処理したσマップを作成してローパス処理部367へ出力されてもよい。ローパス処理部367では距離マップとσマップにより距離マップに対して所望のローパスフィルタを作用させる。
ローパスフィルタの特性を決めるσは、例えば抽出したい生体固有の凹凸部のサイズに対応する距離マップの画素間距離D1の所定倍α(>1)よりも大きく、観察部位固有の管腔及び襞のサイズに対応する距離マップの画素間距離D2の所定倍β(<1)よりも小さい値を設定する。例えば、σ=(α*D1+β*D2)/2*Rσとしてもよい。
また、ローパスフィルタの特性として、より急峻なシャープカットな特性を設定することもできる。この場合はσではなくカットオフ周波数fcでフィルタ特性を制御することになる。カットオフ周波数fcは、上記D1周期の周波数F1をカットし、D2周期の周波数F2を通過するように指定すればよい。例えば、fc=(F1+F2)/2*Rfとしてもよい。
ここでRσは局所平均距離の関数であり、局所平均距離が小さくなれば出力値が大きく、局所平均距離が大きくなれば小さくなる。一方、Rfは局所平均距離が小さくなれば出力値が小さく、局所平均距離が大きくなれば大きくなる関数である。
凹部抽出部364は、ローパス処理部367の出力と距離マップ記録部303からの距離マップが入力され、ローパス処理していない距離マップからローパス処理結果を減算して負となる領域だけ抽出することで凹部画像を出力できる。凸部抽出部365は、ローパス処理部367の出力と距離マップ記録部303からの距離マップが入力され、ローパス処理していない距離マップからローパス処理結果を減算して正となる領域だけ抽出することで凸部画像を出力できる。
ローパスフィルタによる病変由来の所望の凹凸部の抽出に関する考え方を図8(A)〜図8(D)に示す。図8(A)の距離マップに対して、ローパスフィルタを用いたフィルタ処理を行うことで、図8(B)に示すように、生体壁面による距離変化や、襞等の構造を維持しつつ、抽出対象としているディメンジョンの凹凸部が除かれた情報が得られることがわかる。第1実施形態のようなオープニング処理とクロージング処理の2つの処理を行わなくてもローパスフィルタ処理結果が所望の凹凸部を抽出する基準局面(図8(B))となるので、大本の距離マップ(図8(A))との減算処理で、図8(C)に示したように凹凸部を抽出できる。第1の実施形態で大まかな距離情報に応じて構造要素のサイズを適応的に変更したのと同様に、第2の実施形態では、大まかな距離情報に応じてローパスフィルタの特性を変更するとよく、その例を図8(D)に示す。
以降の処理は第1実施形態と同様であるので省略する。
以上により第2実施形態によれば、距離情報をTime of Flight方式の測距センサを設け、更に測距用の照明を青色レーザーとしたので、粘膜層への進入が少なく生体表面の凹凸に対応する距離情報を抽出できるので、結果として観察部位固有の襞や管腔形状に影響されずに病変部起因の抽出したい生体固有の凹凸部のみを高精度に抽出できる。
以上の本実施形態では、凹凸情報抽出部360は、既知特性情報に基づいて、距離情報に対するフィルタリング処理に用いられるフィルタの周波数特性を、抽出処理パラメータとして決定し、決定された周波数特性を有するフィルタ用いたフィルタリング処理を行って、被写体の凹凸部を抽出凹凸情報として抽出する。
これにより、図8(A)〜図8(D)に示したように、フィルタ処理(本実施形態ではローパスフィルタを用いて説明したが、第3の実施形態で後述するハイパスフィルタ、或いはバンドパスフィルタを用いてもよい)に基づいて抽出凹凸情報を抽出することが可能になる。その際の抽出処理パラメータは、フィルタ処理で用いられるフィルタの特性(狭義には空間周波数特性)である。具体的には上述したように、襞等の除外対象に対応する周波数と、凹凸部に対応する周波数とに基づいてσの値やカットオフ周波数を決定すればよい。
また、撮像部200は、図6に示したように青色光を射出する光源部105と、被写体による青色光の反射光を受光する測距素子(測距センサ214)とを含み、距離情報取得部340は、光源部105から青色光が射出されたタイミングから、測距素子で反射光を受光するタイミングまでの時間情報に基づいて、距離情報を取得してもよい。
これにより、Time of Flight方式を用いて距離情報を取得することが可能になる。この方式を用いることで、測距センサ214からのセンサ情報そのものから、或いはセンサ情報に対して単純な補正処理を行うだけで距離情報を取得することができるため、ステレオマッチング等に比べて処理が容易となる。また、波長の短い青色光を用いることで、照射光が被写体内部(狭義には生体内部)まで進入してしまうことを抑止できる。よって、被写体の凹凸部として特に被写体表面の凹凸部を抽出する際には、被写体表面までの距離情報が精度よく求められることになるため、抽出精度を向上させること等が可能になる。
4.第3の実施形態
図10は第3の実施形態となる内視鏡装置の機能ブロック図である。第3実施形態を構成する内視鏡装置も光源部100と撮像部200とプロセッサ部300と表示部400と外部I/F部500からなる。
第2実施形態との違いは、光源部100が白色LEDと赤外レーザー光源106となり、撮像部200に撮像素子215と216の2つが設けられている点である。撮像素子215,216は、第1実施形態のようにステレオ画像をプロセッサ部300へ出力し、撮像素子215と216は少なくともどちらか1つに赤外光に対してTime of Flight方式の測距センサ画素が原色単板のRGB画素の下層に積層されているものとする。このような構成によりステレオ画像は画像処理部301へ出力され、距離マップ記録部303には赤外線で検出された距離マップが出力される。
続いて画像処理部301の詳細を図11を使って説明する。画像処理部301は、画像取得部390、画像構成部320、距離情報取得部601、既知特性情報取得部350、凹凸特定部310、強調処理部330からなり、凹凸特定部310は更に凹凸情報抽出部360、特定処理部370から構成される。
撮像部200の撮像素子215、216から出力される左画像と右画像からなるステレオ画像が画像取得部390により取得され、取得されたステレオ画像は、画像構成部320と、距離情報取得部601に入力される。
画像構成部320は撮像されたステレオ画像に対して表示部400に出力可能画像とする為に所定画像処理(OB処理、ゲイン処理、γ処理)を施し強調処理部330へ出力される。
距離情報取得部601は、図13に示すようにステレオマッチング部602と、視差・距離変換部342からなる。ステレオマッチング部602は、撮像されたステレオ画像を構成する左画像を基準画像とし左画像の局所領域の中央に位置する注目画素を通るエピポーラ線上で右画像の局所領域とのマッチング演算を行い、最大相関となる位置を視差として算出する。この時、マッチング演算は、距離マップ記録部303に記録されている距離に対応する視差の位置辺りのみ探索するものとする。つまり本実施形態では、Time of Flight方式により取得され距離マップ記録部303に記憶された距離マップにより、距離情報取得の際の探索範囲を限定しておき、ステレオ画像を用いた距離情報取得においては限定された当該探索範囲を探索する。よってステレオマッチングにおいて、高速にマッチングが出来るだけでなく、誤判定の防止にも役に立つ。距離情報取得部601では、マッチング処理からは視差情報が取得されるため、取得された視差情報をZ方向の距離に変換し、変換された距離マップを凹凸情報抽出部360へ出力する。
第3実施形態では、凹凸情報抽出部360は、抽出凹凸情報の抽出処理にハイパスフィルタを利用する。その詳細が図12で、距離情報取得部601で取得された距離マップが、局所平均距離算出部361に入力され、第1、第2実施形態と同様の局所平均距離を算出してハイパス特性設定部368へ出力される。
ハイパス特性設定部368は、第2実施形態と同じように、既知特性情報取得部350から、病変部起因の抽出したい生体固有の凹凸部のサイズ(幅や高さや深さ等などのディメンジョン情報)、及び観察部位情報に基づく部位固有の管腔及び襞のサイズ(幅や高さや奥行き等のディメンジョン情報)が既知特性情報として入力される。またハイパス特性設定部368には、撮像部200の光学倍率と、局所平均距離が入力され、まず距離マップ(Z方向)の大きさとz方向と直交する座標系(画素ピッチ)に対応する被写体の大きさを一致させた後、上記病変部起因の抽出したい生体固有の凹凸部を保持し、観察部位固有の管腔及び襞の構造がカットされるハイパスフィルタの特性を決定する。
ハイパスフィルタの特性として、例えばカットオフ周波数fhcでフィルタ特性を制御する。カットオフ周波数fhcは、上記D1周期の周波数F1を通過し、D2周期の周波数F2をカットするように指定すればよい。例えば、fhc=(F1+F2)/2*Rfとしてもよい。ここで、Rfは局所平均距離が小さくなれば出力値が小さく、局所平均距離が大きくなれば大きくなる関数である。
ハイパスフィルタ特性については第2実施形態と同様に画素毎に設定し、ハイパス処理部369にて、直接病変部起因の抽出したい凹凸部を抽出できる。具体的には、図8(C)に示したように、差分を取らなくとも直接抽出凹凸情報が取得されることになり、取得された抽出凹凸情報は、凹部抽出部364、凸部抽出部365へ出力される。
凹部抽出部364は、入力される凹凸部からなる抽出凹凸情報から符号が負の領域のみを抽出することで凹部画像を出力する。また凸部抽出部365は、入力される凹凸部からなる抽出凹凸情報から符号が正の領域のみを抽出することで凸部画像を出力する。
以降の処理は第1、第2実施形態と同様であるので省略する。
以上により第3実施形態によれば、距離情報の取得はステレオ画像及びTime of Flight方式の測距センサを設け、まず測距用の照明を赤色レーザーとして生体表面の距離情報を抽出し、その後でステレオマッチングで高精度に距離情報を算出するようにした。これによりステレオマッチングのマッチング範囲を前記距離情報により制限をかけられるので、マッチング誤判定を低減でき、更に処理速度の向上が図れる。
以上の本実施形態では、距離情報取得部340は、撮像部200から被写体までの距離を表す低精度の暫定距離情報を取得し、取得した暫定距離情報により絞り込みが行われた探索範囲を対象として、複数の撮像画像から得られる視差情報に基づいて、暫定距離情報に比べて精度の高い距離情報を取得する。
これにより、視差情報を取得して距離情報を求める処理(ステレオマッチング)を行う場合に、処理負荷の軽減及び処理時間の短縮等が可能になる。探索範囲を絞り込まない場合には、計算量が膨大になる他、何らかの要因によりマッチングがとれないような場合に無理にマッチングを取ろうとすることで、取得される距離情報の精度が著しく低下するおそれがある。その点、抽出凹凸情報の抽出に用いられる最終的な距離情報よりも精度が低かったとしても、距離情報の概要をつかんでおくことができれば、その情報を活用した上で探索を行うことで上述の問題が発生することを抑止できる。
また、撮像部200は図10に示したように、赤外光を射出する光源部106と、被写体による赤外光の反射光を受光する測距素子とを含み、距離情報取得部340は、光源部106から赤外光が射出されたタイミングから、測距素子で反射光を受光するタイミングまでの時間情報に基づいて、暫定距離情報を取得してもよい。
この際、撮像部200は、撮像画像の構成に用いられるRGB画素が配置された単板素子の下層に、測距素子が積層された撮像素子を有してもよい。図10では撮像素子215,216の一方がこのような素子であることを想定している。
これにより、赤外光を用いたTime of Flight方式により、暫定距離情報を取得することが可能になる。赤外光はTime of Flight方式で広く用いられる照射光であるが、波長が長いため被写体表面で反射せずに被写体内部(狭義には生体内部)まで入り込み、当該被写体内部で散乱した光が測距素子により検出されるおそれがある。この場合、正確な距離情報の取得が難しいことが考えられるが、ステレオマッチングの探索範囲を限定するために用いられるのであれば十分な情報が取得可能である。さらに、通常の素子(例えば単板ベイヤ配列の素子)の下層に測距素子を積層することも可能であり、この場合図6の例とは異なり、画像構成用の光と測距用の光を分離する必要がなくなる(図10はこれを想定しており、図6のダイクロイックプリズム217に相当するものがない)ため、撮像部200の構成を簡略化することができ、撮像部200の小型化等が可能になる。
5.第4の実施形態
図14は第4の実施形態となるカプセル内視鏡装置の機能ブロック図である。第4実施形態を構成するカプセル内視鏡装置700は、白色LED701と、赤外線レーザー701と、対物レンズ706と、照明用レンズ704及び705と、第3実施形態で用いたのと同じ撮像素子703(Time of Flight方式の測距センサ(赤外光利用)が合体した素子)と制御部707と無線送信部708とからなる。
白色LED701及び赤外線レーザー702はパルス発光させるように制御部707が制御し、発光タイミングに合わせて撮像素子703は撮像画像及び距離マップを無線送信部708へ出力する。
無線送信部708は画像記録&再生装置710の無線受信部711と無線通信して撮像画像と距離マップが画像記録&再生装置710へ転送される。転送された撮像画像と距離マップは、画像処理部720へ出力される。画像処理部720は距離マップと撮像画像に基づき病変認識処理を行い、画像記憶部730及び表示部740へ出力する。画像記憶部730に蓄積された画像は無線送信部750を経由してサーバーへ送信される。
画像処理部720の詳細は図15に示されており、距離情報取得部721、既知特性情報取得部729、凹凸特定部722、画像構成部(前半)723、既知特性情報記憶部726、病変認識処理部727、画像選択&画像構成部(後半)728から構成される。
凹凸特定部722は、第1〜第3実施形態と同様に、凹凸情報抽出部7222と、特定処理部7223からなる。なお、既知特性情報取得部729及び特定処理部7223の処理は第1〜第3の実施形態の、既知特性情報取得部350及び特定処理部370と同様であるため詳細な説明は省略する。また、凹凸情報抽出部7222についても、Time of Flight方式に用いる光が赤外光という違いはあるものの、第2の実施形態の凹凸情報抽出部360と同様の処理となるため説明を省略する。
画像構成部(前半)723はOB処理、WB処理、デモザイキング、色マトリックス処理まで行い、病変認識処理部727と画像選択&画像構成部(後半)728へ出力される。
凹凸特定部722から凹凸部が特定された情報が、病変認識処理部727へ出力される。病変認識処理部727では凹凸部が特定された撮像画像と、凹凸部に対応する画像の色情報により、病変部の有無を判定する。
判定結果は画像選択&画像構成部(後半)728へ送られ、画像構成処理部(前半)723で処理された画像に対してγ処理、拡大縮小、エンハンス処理を行い、表示部740、及び画像記憶部730へ出力される。
以上により第4実施形態によれば、距離情報の取得をTime of Flight方式の測距センサを用いて行うので生体表面の凹凸部を画像認識処理に利用でき、これにより画像認識の誤判定率を低減できるので不要な画像を削除でき、画像要約が効果的に実現できる。
6.第5の実施形態
第5の実施形態となる内視鏡装置の機能ブロック図は、第1の実施形態において示した図1と同様である。ただし本実施形態では、図17(A)に示したように、観察対象である大腸の生体表面1は隆起病変のポリープ2を有しており、ポリープ2の粘膜表層には正常腺管40と異常腺管50を有しているものとし、またポリープ2の付け根には腺管構造が消失した陥凹型病変60を有しているものとする。また図17(B)が生体表面1のポリープ2の上部を上から見た模式図であり、正常腺管40は略円形の形状を示し、異常腺管50は正常腺管40とは異形な形状を呈している。
続いて画像処理部301の詳細について図16に基づいて説明する。画像処理部301は、第1の実施形態等と同様に、画像取得部390、画像構成部320、距離情報取得部340、既知特性情報取得部350、凹凸特定部310、強調処理部330から構成される。そして、第1の実施形態の図3と比較した場合に、凹凸特定部310の構成が異なり、本実施形態の凹凸特定部310は、表面形状算出部380、分類処理部385から構成される。以下、第1の実施形態等と同様の構成については説明を省略し、凹凸特定部310の各部について説明する。
表面形状算出部380は、距離情報取得部340から入力される距離情報(例えば距離マップ)に対して、クロージング処理、或いは適応ローパスフィルタをかける処理を施すことで所定構造要素以上の構造を抽出する。ここで所定構造要素は観察部位の生体表面1に形成されている分類判定したい腺管構造である。
構造要素情報は、既知特性情報の一つとして既知特性情報取得部350により取得されるものであり、既知特性情報取得部350から表面形状算出部380へ出力される。具体的には、構造要素情報はメモリ210からのスコープID情報に基づき決定される撮像部200の光学倍率と生体表面1の表面構造から分類したい腺管構造のサイズ(幅の情報)で決定される大きさ情報であり、これは前記腺管構造が所定距離で撮像された場合の撮像画像上のサイズに対応する。
ここで観察部位は、例えば制御部302にてメモリ210から入力されるスコープID情報に基づき決定される。例えば上部消化器用スコープだと観察部位は食道、胃、十二指腸であり、下部消化器用スコープだと観察部位は大腸と判定される情報である。前記観察部位に基づき標準的な腺管サイズが予め制御部302内に記録されており、この情報が表面形状算出部380へ出力される。観察部位の決定方法をスコープID情報以外の方法で行う例としては外部I/F部500にてユーザが操作可能なスイッチにより選択するようにしてもよい。
表面形状算出部380は、入力される距離情報に基づき適応的に表面形状算出情報を生成する。表面形状算出情報の詳細については以降で説明するが、例えば距離マップの注目位置の距離情報に適応したモルフォロジーのカーネルサイズ(構造要素のサイズ)であったり、前記距離情報に適応したローパス特性のフィルタであったりする。つまり距離情報に応じた適応的な非線形、及び線形のローパスフィルタを変更する変更情報となる。
生成された表面形状情報は、距離マップと共に分類処理部385に入力され、分類処理部385では前記腺管構造(ピットパターン)を分類するための1つの正常腺管構造をモデル化した基本ピット(2値画像)を修正し、撮像画像の生体表面の三次元形状に適応させた修正ピットを、分類基準として生成する。ここではピットパターンを想定しているため、基本ピット、修正ピットという用語を用いるが、より広義な用語として基準パターン、修正パターンと置き換えることが可能である。
さらに分類処理部385は、生成された分類基準(修正ピット)による分類処理を行う。分類処理部385には更に画像構成部320からの所定画像処理された画像が入力され、修正ピットが撮像画像上に存在するかどうかを公知のパターンマッチング処理により判定し、図22に示すように分類領域をグルーピングした分類マップ(2値画像)が強調処理部330へ出力される。更に強調処理部330には画像構成部320から出力される所定画像処理を行った画像(前記分類画像と同一サイズ)が入力される。
そして強調処理部330では、図22の分類結果を表す情報を用いて、画像構成部320から出力される画像に対して強調処理を行う。
続いて表面形状算出部380についての詳細を、図18(A)、図18(B)を用いて説明する。図18(A)では被写体の生体表面1と撮像部200の垂直方向の断面を示しており、更にモルフォロジー処理(クロージング処理)により表面形状を算出している状態を模式化している。ここでクロージング処理に利用する構造要素(球)の半径は表面形状算出情報である分類したい腺管構造のサイズの2倍以上としている。これは正常腺管40と異常腺管50と腺管消失領域60の微小な凹凸を拾わずに、生体表面1のより滑らかな三次元表面形状を抽出し前記基本ピットを修正した修正ピットの修正誤差を低減することにある。
図18(B)は、クロージング処理した後の生体表面の断面であり、更に生体表面に対して法線ベクトルを算出した結果を示している。この法線ベクトルが表面形状情報となる。ただし、表面形状情報は法線ベクトルに限定されるものではなく、図18(B)で示した曲面そのものであってもよいし、その他表面形状を表現できる他の情報であってもよい。
これを実現するには、既知特性情報取得部350から、生体固有の腺管のサイズ(長手方向の幅など)を既知特性情報として取得すればよい。この情報を使って実際の生体表面をクロージング処理でなぞる球の半径を決定すれば、所望の表面形状のみを抽出できる。球の半径は前記腺管のサイズよりも大きく設定する。
構造要素のサイズについては差異があるものの、クロージング処理自体については第1の実施形態と同様であるため詳細な説明は省略する。また、構造要素のサイズを、距離情報や、撮像部200の撮像倍率等を用いて適応的に決定してもよい点も、第1の実施形態と同様である。
続いて図20に示した表面形状算出部380の詳細ブロック図の説明を行う。表面形状算出部380はモルフォロジー特性設定部381、クロージング処理部382、法線ベクトル算出部383から構成される。
既知特性情報取得部350から、既知特性情報である生体固有の腺管のサイズ(長手方向の幅など)がモルフォロジー特性設定部381に入力され、表面形状算出情報(クロージング処理に用いる球の半径等)が決定される。
決定した球の半径情報は、距離マップと同一の画素数を持つ半径マップとしてクロージング処理部382へ入力される。クロージング処理部382は、前記半径マップにより画素単位で半径を変更してクロージング処理を行う。クロージング処理部382の処理結果は法線ベクトル算出部383へ出力される。
法線ベクトル算出部383は、クロージング処理後の距離マップが入力され、距離マップの注目サンプル位置とその隣接する2つのサンプル位置の三次元情報により平面を定義し、定義した平面の法線ベクトルを算出する。算出した法線ベクトルは距離マップと同一サンプリング数の法線ベクトルマップとして分類処理部385へ出力される。
分類処理部385は、図21に示すように分類基準データ記憶部3851、射影変換部3852、探索領域サイズ設定部3853、類似度算出部3854、領域設定部3855から構成される。
分類基準データ記憶部3851には、図19(A)に示す生体表面に露出している正常腺管をモデル化した基本ピットが記憶されている。この基本ピットは2値画像であり、所定距離にある正常腺管を撮像した場合に相当する大きさの画像である。この基本ピットは射影変換部3852へ出力される。
射影変換部3852には、距離情報取得部340からの距離マップと、表面形状算出部380からの法線ベクトルマップ、更に制御部302から光学倍率が入力される。距離マップの注目サンプル位置の距離情報と対応するサンプル位置の法線ベクトルを抽出し、基本ピットに対する射影変換を行い、更に光学倍率に合わせて倍率補正を行って修正ピットを生成し、分類基準として類似度算出部3854へ出力される。修正ピットの例を、図19(B)に示す。射影変換部3852で生成した修正ピットのサイズは探索領域サイズ設定部3853へ出力される。
探索領域サイズ設定部3853は、修正ピットのサイズの縦横2倍の領域を、類似度算出処理の探索領域として設定して、類似度算出部3854へ出力する。
類似度算出部3854には、射影変換部3852からの注目サンプル位置の修正ピットと、探索領域サイズ設定部3853からの前記修正ピットに対応する探索領域が入力され、画像構成部320から出力される所定画像処理された画像から前記探索領域が抽出される。
類似度算出部3854では、抽出された探索領域画像に対してハイパスフィルタ、あるいはバンドパスフィルタ処理を施して低周波成分をカットした後に2値化処理を行った2値探索領域を生成する。2値探索領域内を、分類基準である修正ピットでパターンマッチング処理(相関値は差分絶対値和で算出)して相関値を算出し、そのピーク位置と最大相関値(差分絶対値和の最小値)マップが領域設定部3855へ出力される。なお、相関値の算出方法としてはPOC(Phase Only Correlation)等、他の手法を用いてもよい。POCを用いる場合には、回転や倍率変化について不変となるので、相関算出の精度を高めることが可能である。
領域設定部3855は、類似度算出部3854から入力される最大相関値マップに基づいて、差分絶対値和が所定閾値T以下の領域を抽出し、更にその領域内の最大相関値の位置と隣接探索範囲の最大相関値の位置との間で三次元距離を算出する。算出された三次元距離が所定誤差の範囲に含まれている場合はその最大相関位置を含む領域を正常領域としてグルーピングを行い、図22に示したような分類マップを強調処理部330へ出力する。
以上のように第5実施形態によれば、生体の表面形状に基づく正常腺管のピット形状の変更に対応した分類判定を行うので異常腺管領域との分類精度を高める事が可能となる。
以上の本実施形態では、凹凸特定部310は図16に示したように、距離情報と既知特性情報に基づいて、被写体の表面形状情報を求める表面形状算出部380と、表面形状情報に基づいて分類基準を生成し、生成した分類基準を用いた分類処理を行う分類処理部385とを含む。そして凹凸特定部310は、分類基準を用いた分類処理を、凹凸特定処理として行う。
これにより、距離情報及び既知特性情報に基づいて表面形状情報を求め、当該表面形状情報を用いて生成した分類基準を用いた分類処理により凹凸部を特定することが可能になる。よって、表面形状情報により表される表面形状に基づいて、適応的に分類基準を生成し分類処理を行うこと等ができる。上述した撮像部200の光軸方向と被写体表面のなす角度に起因する撮像画像上での構造物の変形等、表面形状による分類処理の精度低下要因は種々考えられるが、本実施形態の手法によれば、そのような場合でも精度よく分類処理、すなわち凹凸特定処理を行うことが可能である。
また、既知特性情報取得部350は、所与の状態における被写体の構造物に対応する基準パターンを、既知特性情報として取得し、分類処理部385は、基準パターンに対して、表面形状情報に基づく変形処理を行うことで取得される修正パターンを分類基準として生成し、生成した分類基準を用いて分類処理を行ってもよい。
これにより、既知特性情報として取得した基準パターンに対して、表面形状情報による変形処理を行った修正パターンを分類基準として分類処理を行うことができるため、被写体の構造物が表面形状によって変形された状態で撮像された場合にも、精度よく分類処理を行うことが可能になる。具体的には、円形の腺管構造は図17(B)に示したように、種々の変形をされた状態で撮像されるが、基準パターン(図19(A)の基準ピット)から表面形状に応じて適切な修正パターン(図19(B)の修正ピット)を生成して分類基準とすることで、変形された領域においても適切にピットパターンを検出、分類することができる。なお、表面形状情報に基づく変形処理は、例えば図21に示した射影変換部3852で行われる。
また、分類処理部385は、撮像画像に撮像された被写体の構造物と、修正パターンである分類基準との類似度を、撮像画像の各画像内位置で求め、求めた類似度に基づいて、分類処理を行ってもよい。
これにより、撮像画像中の構造物と、分類基準(修正パターン)との類似度を用いて分類処理を行うことが可能になる。具体例を図27(A)〜図27(F)に示す。ある画像内位置を図27(A)に示すように処理対象位置とした場合、当該処理対象位置での表面形状情報により基準パターンを変形することで、図27(B)に示したように当該処理対象位置での修正パターンが取得される。取得された修正パターンから、図27(C)に示すように処理対象位置の周辺の探索領域(上述の例であれば修正パターンの縦横2倍のサイズの領域)を設定し、図27(D)に示したように当該探索領域において、撮像された構造物と修正パターンとのマッチングをとる。このマッチングを画素単位で行ったとすれば、画素毎に類似度が算出される。そして、図27(E)に示したように、探索領域での類似度のピークに対応する画素を特定し、当該画素での類似度が所与の閾値以上であるか否かを判定する。類似度が閾値以上であれば、当該ピーク位置を基準とする修正パターンの大きさの領域(図27(E)では修正パターンの中心部を基準位置としているが、これに限定されない)に、修正パターンが検出されたということであるから、当該領域は基準パターンに合致する領域であるという分類をすることができる。なお、図27(F)に示したように、修正パターンを表す形状の内部を分類基準に合致する領域としてもよく、種々の変形実施が可能である。一方、類似度が閾値未満の場合には、処理対象位置の周辺領域では基準パターンにマッチングする構造はないということになる。この処理を各画像内位置で行うことで、撮像画像内に、0個、1個、或いは複数の基準パターンに合致する領域と、それ以外の領域とが設定されることになる。そして、基準パターンに合致する領域が複数ある場合には、それらのうち重なり合うものや近接するものを統合していくことで、最終的に図22に示したような分類結果が得られることになる。ただし、ここで述べた類似度に基づく分類処理の手法は一例であり、他の手法により分類処理を行ってもよい。また、類似度の具体的な算出手法については、画像間類似度、画像間相違度を算出する種々の手法が知られているため、詳細な説明は省略する。
また、既知特性情報取得部350は、正常状態における被写体の構造物に対応する基準パターンを、既知特性情報取得として取得してもよい。
これにより、図22に示したように、撮像画像を正常である領域と、正常でない領域とに分類する分類処理を行うことが可能になる。正常でない領域とは、例えば生体用内視鏡であれば、生体の病変部であることが疑われる領域である。このような領域はユーザにとって注目度が高いことが想定されるため、適切に分類することで注目すべき領域の見逃しを抑止すること等が可能になる。
また、被写体は、大局的な三次元構造と、前記大局的な三次元構造に比べて局所的な凹凸構造とを有し、表面形状算出部380は、被写体が有する大局的な三次元構造と局所的な凹凸構造のうち、大局的な三次元構造を距離情報から抽出することで、表面形状情報を求めてもよい。
これにより、被写体の構造を大局的なものと局所的なものに分けた場合に、大局的な構造から表面形状情報を求めることが可能になる。本実施形態では表面形状情報に基づいて分類基準を生成する。その場合、基準パターンに比べて小さい凹凸構造があったとしても、当該凹凸構造による、撮像画像上での基準パターンの変形等の影響は大きくなく、分類処理の精度低下要因としては、基準パターンに比べて大きい構造である大局的な構造に起因するものが支配的である。さらにいえば、局所的な凹凸構造まで用いて分類基準を作成することで、基準パターンの変形処理(修正パターンを求める処理)の精度が低下するおそれもある。例えば、撮像部200の光軸方向に対して被写体面が垂直であり、当該面の一部に基準パターンに比べて小さい凹みがあったとする。その場合、被写体を撮像して得られる画像上では、基準パターンに相当する被写体構造は基準パターン通り、或いはそれに充分近い形状に撮像されることが想定され、基準パターンをそのまま使えばマッチングが可能である。しかし、局所的な凹みの情報まで用いてしまうと、当該凹み部分での被写体面と光軸方向のなす角度は、90度とは大きく異なることになり、凹み部分周辺での分類基準である修正パターンに無用な変形を加えることになってしまう。よって、本実施形態では大局的な三次元構造から表面形状情報を求めることで、精度よく分類処理を行うものとしている。
また、表面形状算出部380は、大局的な三次元構造により表される被写体の表面における法線ベクトルを、表面形状情報として求めてもよい。
これにより、図18(B)に示したように、被写体表面における(狭義には直交する)法線ベクトルを表面形状情報とすることが可能になる。ただし、表面形状情報は法線ベクトルに限定されるものではなく、大局的な三次元構造を表す面そのもの(図18(B)でいえば、クロージング処理の結果を表す情報)でもよいし、被写体面に接する接線の集合であってもよいし、表面形状を表す他の情報であってもよい。
また、既知特性情報取得部350は、所与の状態における被写体の構造物に対応する基準パターンを、既知特性情報取得として取得し、分類処理部385は、基準パターンに対して、所与の基準方向に対する法線ベクトルの向く角度に基づく変形処理を行うことで取得される修正パターンを分類基準として生成し、生成した分類基準を用いて分類処理を行ってもよい。
これにより、表面形状情報として法線ベクトルを求めた場合には、当該法線ベクトルの方向を用いた変形処理により分類基準を生成することが可能になる。ここで所与の基準方向とは、撮像部200の光軸方向、或いは当該光軸方向により決定される方向であり、基準方向と法線ベクトルの向く角度を用いることで、当該法線ベクトルに対応する位置での被写体構造が、どの程度変形されて撮像画像に撮像されるかを推定することができる。よって、基準パターンに対して推定結果と同様の変形処理を図19(A)、図19(B)に示したように施すことで、精度よく分類処理を行うことが可能になる。
7.第6の実施形態
図23は第6の実施形態となる内視鏡装置の機能ブロック図である。本発明の第6の実施形態を構成する内視鏡装置も光源部100と撮像部200とプロセッサ部300と表示部400と外部I/F部500からなる。
第3の実施形態との違いは、光源部100が白色LEDと赤外レーザー光源106となり、撮像部200の撮像素子215は1つとし、赤外光に対してTime of Flight方式の測距センサー画素が原色単板のRGB画素の下層に積層されているものとする。このような構成により撮像素子215からの画像は画像処理部301へ出力され、距離マップ記録部303には赤外線で検出された距離マップが出力される。
本実施形態の画像処理部301の構成は、第5の実施形態で説明した図16と同様であるため、詳細な説明は省略する。また、表面形状算出部380の処理も、第5実施形態の内容と変化が無い。ただし、第2の実施形態と同様に、モルフォロジー処理ではなくフィルター処理を行う等の変形が可能である。
本実施形態の分類処理部385の構成例を図24に示す。第5の実施形態の図21と比較した場合に、第2の分類基準データ生成部3856が追加された構成となっている。
本実施形態では、分類基準である基本ピットが正常腺管だけでなく、異常腺管に対しても用意する点、更に実際の撮像画像のピットを抽出し第2の分類基準データ(第2の基準パターン)として分類基準データを置き換えて、置き換え後の第2の分類基準データに基づいて、類似度算出をし直す点が第5実施形態と異なっている。
相違点について詳細に説明する。分類処理部385の分類基準データ記憶部3851には、正常腺管の基本ピットだけでなく図25に示すような複数のピットが記録されており、射影変換部3852へ出力される。射影変換部3852の処理は第5の実施形態と同様であり、分類基準データ記憶部3851に格納されている全てのピットに対して射影変換処理を行い、複数の分類タイプに対する修正ピットが探索領域サイズ設定部3853と、類似度算出部3854へ出力される。
類似度算出部3854では、複数の修正ピットに対してそれぞれの最大相関値マップが生成される。ただし本実施形態では、この時点での最大相関値マップは分類マップの生成(分類処理の最終出力の生成)に用いられるものではなく、第2の分類基準データ生成部3856に出力され、新たな分類基準データの生成に用いられることになる。
第2の分類基準データ生成部3856では、類似度算出部3854で類似度が高い(差分絶対値が所定値以下)と判定された画像上の位置のピット画像を分類基準として採用する。これにより予め用意されている標準的なモデル化したピットではなく、より最適な精度の高い分類判定が可能となる。
具体的には、第2の分類基準データ生成部3856には、類似度算出部3854からの分類毎の最大相関値マップと、画像構成部320からの画像と、距離情報取得部340からの距離マップと、制御部302からの光学倍率と、既知特性情報取得部350からの分類毎の腺管のサイズと、が入力される。そして第2の分類基準データ生成部3856は、分類毎の最大相関値のサンプル位置に対応する画像データをその位置の距離情報と腺管のサイズと光学倍率に基づき抽出する。
さらに第2の分類基準データ生成部3856は、抽出された実画像から低周波成分を除いたグレースケール画像(明るさの違いをキャンセルする為)を取得し、当該グレースケール画像を第2の分類基準データとして、法線ベクトル及び距離情報と併せて分類基準データ記憶部3851へ出力し、分類基準データ記憶部3851は、出力された第2の分類基準データ、及び関連情報を記憶する。これにより各分類で、被写体との相関性が高い第2の分類基準データが収集できたことになる。
なお、上記の第2の分類基準データは、撮像部200の光軸方向と被写体面のなす角度、及び撮像部200から被写体面までの距離による変形の影響が排除されていない。よって、第2の分類基準データ生成部3856は、それらの影響をキャンセルする処理を行った上で第2の分類基準データを生成してもよい。具体的には、上記グレースケール画像に対して、所与の基準方向から所与の距離にあるものとして撮像した場合に相当するように変形処理(射影変換処理及び変倍処理)を行った結果を第2の分類基準データとすればよい。
第2の分類基準データが生成された後は、当該第2の分類基準データを対象として、射影変換部3852、探索領域サイズ設定部3853、類似度算出部3854において、再度処理を行えばよい。具体的には、第2の分類基準データに対して射影変換処理を行って第2の修正パターンを生成し、生成した第2の修正パターンを分類基準として第5の実施形態と同様の処理を行う。
なお、本実施形態で用いる異常腺管の基本ピットは、点対象で無い場合がほとんどである。よって、類似度算出部3854での類似度算出(修正パターンを用いる場合と、第2の修正パターンを用いる場合の両方において)では、回転不変のPOC(Phase Only Correction)を実施して類似度を算出するとよい。
領域設定部3855では、図26(A)〜図26(D)に示すような分類マップが生成される。図26(A)は、正常腺管に分類される修正ピットで相関が得られた領域であり、図26(B)と図26(C)は、それぞれ異なる異常腺管に分類される修正ピットで相関が得られた領域である。そして、図26(D)は3つの分類マップ(多値画像)を合成したものである。それぞれの分類で相関が得られた領域のオーバーラップ領域は分類未確定領域としてもよいし、悪性レベルの高い方の分類に置き換えてもよい。領域設定部3855からは、図26(D)の合成した分類マップが強調処理部330へ出力される。
そして、強調処理部330では多値画像の分類マップに基づき、輝度、或は色の強調処理等がなされる。
その他、本実施形態で説明を省略した処理は第5実施形態と同様である。以上により第6実施形態によれば、正常腺管のみならず多様な異常腺管のパターンも含めて分類判定を行うのと、分類基準自体を平均的な基準ではなく撮像画像から取得するので分類判定の精度を向上させることが可能である。
以上の本実施形態では、既知特性情報取得部350は、異常状態における被写体の構造物に対応する基準パターンを、既知特性情報取得として取得する。
これにより、例えば図25に示したように、複数の基準パターンを取得し、それらを用いて分類基準を生成し、分類処理を行うことが可能になる。分類処理の具体的な手法は種々考えられるが、例えば第1〜第N(Nは2以上の整数)の基準パターンから、第1〜第Nの分類基準を生成し、それぞれの分類基準について、撮像画像を分類基準に合致する領域と、合致しない領域とに分け、その結果を統合すればよい。それぞれの分類基準を用いた処理結果の例が、図26(A)〜図26(C)であり、それらを統合した結果(分類処理の結果出力)の例が図26(D)である。
また、既知特性情報取得部350は、所与の状態における被写体の構造物に対応する基準パターンを、既知特性情報として取得し、分類処理部385は、基準パターンに対して、表面形状情報に基づく変形処理を行うことで修正パターンを取得し、撮像画像に撮像された被写体の構造物と、修正パターンとの類似度を、撮像画像の各画像内位置で求め、求めた類似度に基づいて、第2の基準パターン候補を取得してもよい。そして、分類処理部385は、取得した第2の基準パターン候補と、表面形状情報に基づいて、新たな基準パターンである第2の基準パターンを生成し、第2の基準パターンに対して、表面形状情報に基づく変形処理を行うことで取得される第2の修正パターンを分類基準として生成し、生成した分類基準を用いて分類処理を行ってもよい。
これにより、撮像画像に基づいて第2の基準パターンを生成し、当該第2の基準パターンを用いて分類処理を行うことが可能になる。よって、実際に撮像画像に撮像された被写体から分類基準を作成することができるため、当該分類基準は処理対象としている被写体の特性をよく反映したものとなり、既知特性情報として取得された基準パターンをそのまま用いる場合に比べて、分類処理の精度をより向上させること等が可能になる。
以上、本発明を適用した6つの実施の形態1〜6およびその変形例について説明したが、本発明は、各実施の形態1〜6やその変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施の形態1〜6や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、各実施の形態1〜6や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態や変形例で説明した構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。
10,20,30 病変部、40 正常腺管、50 異常腺管、60 腺管消失領域、
100 光源部、101 白色光源、102 回転色フィルタ、103 回転駆動部、
104 集光レンズ、105 青色レーザー光源、106 赤外レーザー光源、
200 撮像部、201 ライトガイドファイバ、203 照明レンズ、
204 対物レンズ、206,215,216 撮像素子、209 A/D変換部、
210 メモリ、212 コネクタ、213 撮像素子、214 測距センサ、
217 ダイクロイックプリズム、300 プロセッサ部、301 画像処理部、
302 制御部、303 距離マップ記録部、310 凹凸特定部、
320 画像構成部、330 強調処理部、340 距離情報取得部、
341 ステレオマッチング部、342 視差・距離変換部、
350 既知特性情報取得部、360 凹凸情報抽出部、361 局所平均距離算出部、
362 モルフォロジー特性設定部、363−1 クロージング処理部、
363−2 オープニング処理部、364 凹部抽出部、365 凸部抽出部、
366 ローパス特性設定部、367 ローパス処理部、368 ハイパス特性設定部、
369 ハイパス処理部、370 特定処理部、380 表面形状算出部、
381 モルフォロジー特性設定部、382 クロージング処理部、
383 法線ベクトル算出部、385 分類処理部、390 画像取得部、
3851 分類基準データ記憶部、3852 射影変換部、
3853 探索領域サイズ設定部、3854 類似度算出部、3855 領域設定部、
3856 分類基準データ生成部400 表示部、500 外部I/F部、
601 距離情報取得部、700 カプセル内視鏡装置、701 白色LED、
702 赤外線レーザー、703 撮像素子、704 照明用レンズ、
706 対物レンズ、707 制御部、708 無線送信部、710 再生装置、
711 無線受信部、720 画像処理部、721 距離情報取得部、
722 凹凸特定部、726 既知特性情報記憶部、727 病変認識処理部、
729 既知特性情報取得部、730 画像記憶部、740 表示部、
750 無線送信部、7222 凹凸情報抽出部、7223 特定処理部

Claims (29)

  1. 撮像部の撮像により、被写体の像を含む撮像画像を取得する画像取得部と、
    前記撮像の際の前記撮像部から前記被写体までの距離に基づく距離情報を取得する距離情報取得部と、
    前記被写体の構造に関する既知の特性を表す情報である既知特性情報を取得する既知特性情報取得部と、
    前記距離情報と前記既知特性情報に基づいて、前記撮像画像に撮像された前記被写体から、前記既知特性情報により特定される特性と合致する前記被写体の凹凸部を特定する凹凸特定処理を行う凹凸特定部と、
    を含むことを特徴とする画像処理装置。
  2. 請求項1において、
    前記凹凸特定部は、
    前記距離情報と前記既知特性情報に基づいて、前記既知特性情報により特定される前記特性と合致する前記被写体の前記凹凸部を表す情報を、抽出凹凸情報として前記距離情報から抽出する凹凸情報抽出部を含み、
    前記凹凸特定部は、
    前記抽出凹凸情報に基づいて前記凹凸特定処理を行うことを特徴とする画像処理装置。
  3. 請求項2において、
    前記凹凸情報抽出部は、
    前記既知特性情報に基づいて抽出処理パラメータを決定し、決定された前記抽出処理パラメータに基づいて、前記被写体の前記凹凸部を前記抽出凹凸情報として抽出することを特徴とする画像処理装置。
  4. 請求項3において、
    前記既知特性情報取得部は、
    前記被写体の種類を表す種類情報と、前記種類情報に関連づけられた前記被写体の前記凹凸部に関する情報である凹凸特性情報を、前記既知特性情報として取得し、
    前記凹凸情報抽出部は、
    前記種類情報と前記凹凸特性情報に基づいて、前記抽出処理パラメータを決定し、決定された前記抽出処理パラメータに基づいて、前記被写体の前記凹凸部を前記抽出凹凸情報として抽出することを特徴とする画像処理装置。
  5. 請求項3において、
    前記撮像画像が、生体の内部を撮像した生体内画像であり、
    前記既知特性情報取得部は、
    前記被写体が前記生体のいずれの部位に対応するかを表す部位情報と、前記生体の前記凹凸部に関する情報である凹凸特性情報を、前記既知特性情報として取得し、
    前記凹凸情報抽出部は、
    前記部位情報と前記凹凸特性情報に基づいて、前記抽出処理パラメータを決定し、決定された前記抽出処理パラメータに基づいて、前記被写体の前記凹凸部を前記抽出凹凸情報として抽出することを特徴とする画像処理装置。
  6. 請求項3において、
    前記凹凸情報抽出部は、
    前記既知特性情報に基づいて、オープニング処理及びクロージング処理に用いられる構造要素のサイズを、前記抽出処理パラメータとして決定し、
    決定されたサイズの前記構造要素を用いた前記オープニング処理及び前記クロージング処理を行って、前記被写体の前記凹凸部を前記抽出凹凸情報として抽出することを特徴とする画像処理装置。
  7. 請求項6において、
    前記凹凸情報抽出部は、
    前記オープニング処理及び前記クロージング処理の処理対象画素に対応する前記距離情報の値が大きいほど、前記抽出処理パラメータである前記構造要素の前記サイズを小さく設定することを特徴とする画像処理装置。
  8. 請求項3において、
    前記凹凸情報抽出部は、
    前記既知特性情報に基づいて、前記距離情報に対するフィルタリング処理に用いられるフィルタの周波数特性を、前記抽出処理パラメータとして決定し、
    決定された前記周波数特性を有する前記フィルタ用いた前記フィルタリング処理を行って、前記被写体の前記凹凸部を前記抽出凹凸情報として抽出することを特徴とする画像処理装置。
  9. 請求項2において、
    前記被写体は、大局的な三次元構造と、前記大局的な三次元構造に比べて局所的な凹凸構造とを有し、
    前記凹凸情報抽出部は、
    前記被写体が有する前記大局的な三次元構造と前記局所的な凹凸構造のうち、前記既知特性情報により特定される特性と合致する前記被写体の前記凹凸部を、前記抽出凹凸情報として抽出することを特徴とする画像処理装置。
  10. 請求項2において、
    前記撮像画像が、生体の内部を撮像した生体内画像であり、
    前記被写体は、前記生体内部の管腔構造である大局的な三次元構造と、前記管腔構造に形成され、前記大局的な三次元構造に比べて局所的な凹凸構造とを有し、
    前記凹凸情報抽出部は、
    前記被写体が有する前記大局的な三次元構造と前記局所的な凹凸構造のうち、前記既知特性情報により特定される特性と合致する前記被写体の前記凹凸部を、前記抽出凹凸情報として抽出することを特徴とする画像処理装置。
  11. 請求項1において、
    前記距離情報取得部は、
    取得された前記撮像画像の各画素において、前記撮像部から前記各画素に撮像された前記被写体までの前記距離に関する情報を対応づけた距離マップを、前記距離情報として取得することを特徴とする画像処理装置。
  12. 請求項1において、
    前記撮像部は、複数の視点を有するものであり、
    前記画像取得部は、
    前記撮像部を介して、前記複数の視点のそれぞれに対応する前記撮像画像を複数取得し、
    前記距離情報取得部は、
    取得された複数の前記撮像画像から得られる視差情報に基づいて、前記距離情報を取得することを特徴とする画像処理装置。
  13. 請求項12において、
    前記距離情報取得部は、
    前記撮像部から前記被写体までの距離を表す低精度の暫定距離情報を取得し、
    取得した前記暫定距離情報により絞り込みが行われた探索範囲を対象として、複数の前記撮像画像から得られる前記視差情報に基づいて、前記暫定距離情報に比べて精度の高い前記距離情報を取得することを特徴とする画像処理装置。
  14. 請求項13において、
    前記撮像部は、
    赤外光を射出する光源部と、前記被写体による前記赤外光の反射光を受光する測距素子とを含み、
    前記距離情報取得部は、
    前記光源部から前記赤外光が射出されたタイミングから、前記測距素子で前記反射光を受光するタイミングまでの時間情報に基づいて、前記暫定距離情報を取得することを特徴とする画像処理装置。
  15. 請求項14において、
    前記撮像部は、
    前記撮像画像の構成に用いられるRGB画素が配置された単板素子の下層に、前記測距素子が積層された撮像素子を有することを特徴とする画像処理装置。
  16. 請求項1において、
    前記撮像部は、
    青色光を射出する光源部と、前記被写体による前記青色光の反射光を受光する測距素子とを含み、
    前記距離情報取得部は、
    前記光源部から前記青色光が射出されたタイミングから、前記測距素子で前記反射光を受光するタイミングまでの時間情報に基づいて、前記距離情報を取得することを特徴とする画像処理装置。
  17. 請求項1において、
    前記凹凸特定部は、
    前記距離情報と前記既知特性情報に基づいて、前記被写体の表面形状情報を求める表面形状算出部と、
    前記表面形状情報に基づいて分類基準を生成し、生成した前記分類基準を用いた分類処理を行う分類処理部と、
    を含み、
    前記凹凸特定部は、
    前記分類基準を用いた前記分類処理を、前記凹凸特定処理として行うことを特徴とする画像処理装置。
  18. 請求項17において、
    前記既知特性情報取得部は、
    所与の状態における前記被写体の構造物に対応する基準パターンを、前記既知特性情報として取得し、
    前記分類処理部は、
    前記基準パターンに対して前記表面形状情報に基づく変形処理を行うことで取得される修正パターンを、前記分類基準として生成し、生成した前記分類基準を用いて前記分類処理を行うことを特徴とする画像処理装置。
  19. 請求項18において、
    前記分類処理部は、
    前記撮像画像に撮像された前記被写体の前記構造物と、前記修正パターンである前記分類基準との類似度を、前記撮像画像の各画像内位置で求め、求めた前記類似度に基づいて、前記分類処理を行うことを特徴とする画像処理装置。
  20. 請求項18において、
    前記既知特性情報取得部は、
    正常状態における前記被写体の前記構造物に対応する前記基準パターンを、前記既知特性情報として取得することを特徴とする画像処理装置。
  21. 請求項20において、
    前記既知特性情報取得部は、
    異常状態における前記被写体の前記構造物に対応する前記基準パターンを、前記既知特性情報として取得することを特徴とする画像処理装置。
  22. 請求項17において、
    前記既知特性情報取得部は、
    所与の状態における前記被写体の構造物に対応する基準パターンを、前記既知特性情報として取得し、
    前記分類処理部は、
    前記基準パターンに対して前記表面形状情報に基づく変形処理を行うことで、修正パターンを取得し、
    前記撮像画像に撮像された前記被写体の前記構造物と、前記修正パターンとの類似度を、前記撮像画像の各画像内位置で求め、求めた前記類似度に基づいて、第2の基準パターン候補を取得し、
    取得した前記第2の基準パターン候補と、前記表面形状情報に基づいて、新たな基準パターンである第2の基準パターンを生成し、
    前記第2の基準パターンに対して前記表面形状情報に基づく変形処理を行うことで取得される第2の修正パターンを、前記分類基準として生成し、生成した前記分類基準を用いて前記分類処理を行うことを特徴とする画像処理装置。
  23. 請求項17において、
    前記被写体は、大局的な三次元構造と、前記大局的な三次元構造に比べて局所的な凹凸構造とを有し、
    前記表面形状算出部は、
    前記被写体が有する前記大局的な三次元構造と前記局所的な凹凸構造のうち、前記大局的な三次元構造を前記距離情報から抽出することで、前記表面形状情報を求めることを特徴とする画像処理装置。
  24. 請求項23において、
    前記表面形状算出部は、
    前記大局的な三次元構造により表される前記被写体の表面における法線ベクトルを、前記表面形状情報として求めることを特徴とする画像処理装置。
  25. 請求項24において、
    前記既知特性情報取得部は、
    所与の状態における前記被写体の構造物に対応する基準パターンを、前記既知特性情報として取得し、
    前記分類処理部は、
    前記基準パターンに対して所与の基準方向に対する前記法線ベクトルの向く角度に基づく変形処理を行うことで取得される修正パターンを、前記分類基準として生成し、生成した前記分類基準を用いて前記分類処理を行うことを特徴とする画像処理装置。
  26. 請求項1乃至25のいずれかに記載の画像処理装置を含むことを特徴とする電子機器。
  27. 請求項1乃至25のいずれかに記載の画像処理装置を含むことを特徴とする内視鏡装置。
  28. 撮像部の撮像により、被写体の像を含む撮像画像を取得する処理を行い、
    前記撮像の際の前記撮像部から前記被写体までの距離に基づく距離情報を取得する処理を行い、
    前記被写体の構造に関する既知の特性を表す情報である既知特性情報を取得する処理を行い、
    前記距離情報と前記既知特性情報に基づいて、前記撮像画像に撮像された前記被写体から、前記既知特性情報により特定される特性と合致する前記被写体の凹凸部を特定する凹凸特定処理を行う、
    ステップをコンピュータに実行させるプログラム。
  29. 画像取得部と、距離情報取得部と、既知特性情報取得部と、凹凸特定部と、を含む画像処理装置の作動方法であって、
    前記画像取得部が、撮像部の撮像により、被写体の像を含む撮像画像を取得する処理を行い、
    前記距離情報取得部が、前記撮像の際の前記撮像部から前記被写体までの距離に基づく距離情報を取得する処理を行い、
    前記既知特性情報取得部が、前記被写体の構造に関する既知の特性を表す情報である既知特性情報を取得する処理を行い、
    前記凹凸特定部が、前記距離情報と前記既知特性情報に基づいて、前記撮像画像に撮像された前記被写体から、前記既知特性情報により特定される特性と合致する前記被写体の凹凸部を特定する凹凸特定処理を行うことを特徴とする画像処理装置の作動方法
JP2013065117A 2012-12-20 2013-03-26 画像処理装置、電子機器、内視鏡装置、プログラム及び画像処理装置の作動方法 Active JP6045417B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013065117A JP6045417B2 (ja) 2012-12-20 2013-03-26 画像処理装置、電子機器、内視鏡装置、プログラム及び画像処理装置の作動方法
PCT/JP2013/075870 WO2014097702A1 (ja) 2012-12-20 2013-09-25 画像処理装置、電子機器、内視鏡装置、プログラム及び画像処理方法
CN201380066931.5A CN104883946B (zh) 2012-12-20 2013-09-25 图像处理装置、电子设备、内窥镜装置和图像处理方法
EP13864535.3A EP2937033A4 (en) 2012-12-20 2013-09-25 Image processing apparatus, electronic device, endoscope apparatus, program, and image processing method
US14/744,572 US20150287192A1 (en) 2012-12-20 2015-06-19 Image processing device, electronic device, endoscope apparatus, information storage device, and image processing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012278216 2012-12-20
JP2012278216 2012-12-20
JP2013065117A JP6045417B2 (ja) 2012-12-20 2013-03-26 画像処理装置、電子機器、内視鏡装置、プログラム及び画像処理装置の作動方法

Publications (3)

Publication Number Publication Date
JP2014138691A JP2014138691A (ja) 2014-07-31
JP2014138691A5 JP2014138691A5 (ja) 2016-05-12
JP6045417B2 true JP6045417B2 (ja) 2016-12-14

Family

ID=50978052

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013065117A Active JP6045417B2 (ja) 2012-12-20 2013-03-26 画像処理装置、電子機器、内視鏡装置、プログラム及び画像処理装置の作動方法

Country Status (5)

Country Link
US (1) US20150287192A1 (ja)
EP (1) EP2937033A4 (ja)
JP (1) JP6045417B2 (ja)
CN (1) CN104883946B (ja)
WO (1) WO2014097702A1 (ja)

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8672837B2 (en) 2010-06-24 2014-03-18 Hansen Medical, Inc. Methods and devices for controlling a shapeable medical device
US9057600B2 (en) 2013-03-13 2015-06-16 Hansen Medical, Inc. Reducing incremental measurement sensor error
US9271663B2 (en) 2013-03-15 2016-03-01 Hansen Medical, Inc. Flexible instrument localization from both remote and elongation sensors
US9014851B2 (en) 2013-03-15 2015-04-21 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
US9629595B2 (en) 2013-03-15 2017-04-25 Hansen Medical, Inc. Systems and methods for localizing, tracking and/or controlling medical instruments
US11020016B2 (en) 2013-05-30 2021-06-01 Auris Health, Inc. System and method for displaying anatomy and devices on a movable display
JP6128989B2 (ja) 2013-06-27 2017-05-17 オリンパス株式会社 画像処理装置、内視鏡装置及び画像処理装置の作動方法
WO2016035366A1 (ja) * 2014-09-04 2016-03-10 オリンパス株式会社 撮像システム
JP6294255B2 (ja) 2015-03-25 2018-03-14 富士フイルム株式会社 内視鏡診断装置、画像処理方法、プログラムおよび記録媒体
US10269114B2 (en) 2015-06-12 2019-04-23 International Business Machines Corporation Methods and systems for automatically scoring diagnoses associated with clinical images
JP6596278B2 (ja) * 2015-09-14 2019-10-23 オリンパス株式会社 情報処理装置、情報処理装置の制御方法、及び情報処理プログラム
EP4070723A1 (en) 2015-09-18 2022-10-12 Auris Health, Inc. Navigation of tubular networks
KR102457724B1 (ko) * 2015-09-22 2022-10-24 삼성전자주식회사 영상 처리를 수행하기 위한 방법 및 그 전자 장치
US10143526B2 (en) 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
JP6800676B2 (ja) * 2016-09-27 2020-12-16 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6333921B2 (ja) * 2016-11-09 2018-05-30 ファナック株式会社 撮像装置及び撮像方法
US10244926B2 (en) 2016-12-28 2019-04-02 Auris Health, Inc. Detecting endolumenal buckling of flexible instruments
FR3063374B1 (fr) * 2017-02-27 2019-06-07 Stmicroelectronics Sa Procede et dispositif de determination d'une carte de profondeurs d'une scene
KR101888963B1 (ko) 2017-03-06 2018-08-17 (주)오앤드리메디컬로봇 레이저 치료를 위한 영역 분할 방법, 그를 이용한 레이저 치료 방법 및 장치
WO2018183727A1 (en) 2017-03-31 2018-10-04 Auris Health, Inc. Robotic systems for navigation of luminal networks that compensate for physiological noise
JP6984168B2 (ja) * 2017-05-17 2021-12-17 セイコーエプソン株式会社 撮像装置および内視鏡
JP6716853B2 (ja) * 2017-05-25 2020-07-01 日本電気株式会社 情報処理装置、制御方法、及びプログラム
US10022192B1 (en) 2017-06-23 2018-07-17 Auris Health, Inc. Automatically-initialized robotic systems for navigation of luminal networks
KR102578978B1 (ko) 2017-06-28 2023-09-19 아우리스 헬스, 인코포레이티드 전자파 왜곡 검출
WO2019005699A1 (en) 2017-06-28 2019-01-03 Auris Health, Inc. ELECTROMAGNETIC FIELD GENERATOR ALIGNMENT
US10555778B2 (en) 2017-10-13 2020-02-11 Auris Health, Inc. Image-based branch detection and mapping for navigation
US11058493B2 (en) 2017-10-13 2021-07-13 Auris Health, Inc. Robotic system configured for navigation path tracing
WO2019116708A1 (ja) * 2017-12-12 2019-06-20 ソニー株式会社 画像処理装置と画像処理方法およびプログラムと情報処理システム
US10832808B2 (en) 2017-12-13 2020-11-10 International Business Machines Corporation Automated selection, arrangement, and processing of key images
US11510736B2 (en) 2017-12-14 2022-11-29 Auris Health, Inc. System and method for estimating instrument location
US11160615B2 (en) 2017-12-18 2021-11-02 Auris Health, Inc. Methods and systems for instrument tracking and navigation within luminal networks
JP7077093B2 (ja) * 2018-03-26 2022-05-30 三菱重工業株式会社 領域検出装置、領域検出方法及びそのプログラム
JP7225259B2 (ja) 2018-03-28 2023-02-20 オーリス ヘルス インコーポレイテッド 器具の推定位置を示すためのシステム及び方法
EP3773131B1 (en) 2018-03-28 2024-07-10 Auris Health, Inc. Systems for registration of location sensors
JP7250824B2 (ja) 2018-05-30 2023-04-03 オーリス ヘルス インコーポレイテッド 位置センサベースの分岐予測のためのシステム及び方法
CN110831538B (zh) 2018-05-31 2023-01-24 奥瑞斯健康公司 基于图像的气道分析和映射
CN112236083B (zh) 2018-05-31 2024-08-13 奥瑞斯健康公司 用于导航检测生理噪声的管腔网络的机器人系统和方法
JP7371026B2 (ja) 2018-05-31 2023-10-30 オーリス ヘルス インコーポレイテッド 管状網の経路ベースのナビゲーション
KR20210069670A (ko) 2018-09-28 2021-06-11 아우리스 헬스, 인코포레이티드 동시 내시경술 및 경피 의료 절차를 위한 로봇 시스템 및 방법
CN109752837B (zh) * 2019-02-02 2024-03-29 深圳市艾丽尔特科技有限公司 用于内窥镜的冷光源及采用该冷光源的内窥镜
WO2020170621A1 (ja) * 2019-02-19 2020-08-27 ソニー株式会社 医療用観察システム、医療用システム及び距離測定方法
CN110327046B (zh) * 2019-04-28 2022-03-25 安翰科技(武汉)股份有限公司 一种基于摄像系统的消化道内物体测量方法
US20220222843A1 (en) * 2019-05-22 2022-07-14 Omron Corporation Three-dimensional measurement system and three-dimensional measurement method
JP7261301B2 (ja) * 2019-07-31 2023-04-19 オリンパス株式会社 光学装置、光源装置、集光方法及び内視鏡システム
US11207141B2 (en) 2019-08-30 2021-12-28 Auris Health, Inc. Systems and methods for weight-based registration of location sensors
KR20220058918A (ko) 2019-08-30 2022-05-10 아우리스 헬스, 인코포레이티드 기구 이미지 신뢰성 시스템 및 방법
KR20220056220A (ko) 2019-09-03 2022-05-04 아우리스 헬스, 인코포레이티드 전자기 왜곡 검출 및 보상
JP2023508521A (ja) 2019-12-31 2023-03-02 オーリス ヘルス インコーポレイテッド 解剖学的特徴の識別及び標的化
WO2021137109A1 (en) 2019-12-31 2021-07-08 Auris Health, Inc. Alignment techniques for percutaneous access
US11602372B2 (en) 2019-12-31 2023-03-14 Auris Health, Inc. Alignment interfaces for percutaneous access
US11588734B2 (en) * 2020-04-28 2023-02-21 Pensando Systems Inc. Systems for providing an LPM implementation for a programmable data plane through a distributed algorithm
US11258707B1 (en) 2020-08-21 2022-02-22 Pensando Systems Inc. Systems for building data structures with highly scalable algorithms for a distributed LPM implementation
CN112294236B (zh) * 2020-10-14 2022-03-25 北京大学 内窥镜前端弯曲部形态检测系统及其检测方法
US20220354613A1 (en) * 2021-02-23 2022-11-10 Asensus Surgical Us, Inc. Creating Surgical Annotations Using Anatomy Identification
WO2022202520A1 (ja) * 2021-03-26 2022-09-29 富士フイルム株式会社 医療情報処理装置、内視鏡システム、医療情報処理方法、及び医療情報処理プログラム
JP7503019B2 (ja) * 2021-03-31 2024-06-19 Hoya株式会社 電子内視鏡用プロセッサ及び電子内視鏡システム
WO2023182290A1 (ja) * 2022-03-25 2023-09-28 パナソニックIpマネジメント株式会社 視差情報生成装置、視差情報生成方法、および、視差情報生成プログラム
CN116664457B (zh) * 2023-08-02 2023-10-13 聊城市洛溪信息科技有限公司 一种用于增强去噪的图像处理方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4667229A (en) * 1984-05-18 1987-05-19 Fuji Photo Optical Company, Ltd. Color video endoscope system
US5749830A (en) * 1993-12-03 1998-05-12 Olympus Optical Co., Ltd. Fluorescent endoscope apparatus
US5861987A (en) * 1994-08-30 1999-01-19 Olympus Optical Co., Ltd. Stereoscopic-vision endoscope offering a large angle of introversion and a necessary and sufficient sense of three-dimensionality
US6466815B1 (en) * 1999-03-30 2002-10-15 Olympus Optical Co., Ltd. Navigation apparatus and surgical operation image acquisition/display apparatus using the same
US6947784B2 (en) * 2000-04-07 2005-09-20 The General Hospital Corporation System for digital bowel subtraction and polyp detection and related techniques
JP2003088498A (ja) * 2001-09-19 2003-03-25 Pentax Corp 電子内視鏡装置
CN101404923B (zh) * 2006-03-16 2010-12-22 奥林巴斯医疗株式会社 医疗用图像处理装置
JP4994737B2 (ja) * 2006-07-27 2012-08-08 オリンパスメディカルシステムズ株式会社 医療用画像処理装置及び医療用画像処理方法
JP4855868B2 (ja) * 2006-08-24 2012-01-18 オリンパスメディカルシステムズ株式会社 医療用画像処理装置
JP2009273655A (ja) * 2008-05-14 2009-11-26 Fujifilm Corp 画像処理システム
JP5346938B2 (ja) * 2008-09-01 2013-11-20 株式会社日立メディコ 画像処理装置、及び画像処理装置の作動方法
JP2010068865A (ja) * 2008-09-16 2010-04-02 Fujifilm Corp 画像診断装置
JP5385188B2 (ja) * 2010-03-26 2014-01-08 富士フイルム株式会社 電子内視鏡システム
JP5658931B2 (ja) * 2010-07-05 2015-01-28 オリンパス株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JP5435746B2 (ja) * 2011-01-24 2014-03-05 富士フイルム株式会社 内視鏡装置
US8929629B1 (en) * 2011-06-29 2015-01-06 Given Imaging Ltd. Method and system for image-based ulcer detection
WO2013175686A1 (ja) * 2012-05-22 2013-11-28 パナソニック株式会社 撮像処理装置および内視鏡

Also Published As

Publication number Publication date
US20150287192A1 (en) 2015-10-08
WO2014097702A1 (ja) 2014-06-26
JP2014138691A (ja) 2014-07-31
CN104883946B (zh) 2017-06-13
CN104883946A (zh) 2015-09-02
EP2937033A4 (en) 2017-02-08
EP2937033A1 (en) 2015-10-28

Similar Documents

Publication Publication Date Title
JP6045417B2 (ja) 画像処理装置、電子機器、内視鏡装置、プログラム及び画像処理装置の作動方法
JP6150583B2 (ja) 画像処理装置、内視鏡装置、プログラム及び画像処理装置の作動方法
JP6176978B2 (ja) 内視鏡用画像処理装置、内視鏡装置、内視鏡用画像処理装置の作動方法及び画像処理プログラム
JP6112879B2 (ja) 画像処理装置、内視鏡装置、画像処理装置の作動方法及び画像処理プログラム
JP6049518B2 (ja) 画像処理装置、内視鏡装置、プログラム及び画像処理装置の作動方法
JP6348078B2 (ja) 分岐構造判定装置、分岐構造判定装置の作動方法および分岐構造判定プログラム
JP6967602B2 (ja) 検査支援装置、内視鏡装置、内視鏡装置の作動方法、及び検査支援プログラム
US9826884B2 (en) Image processing device for correcting captured image based on extracted irregularity information and enhancement level, information storage device, and image processing method
JP6405138B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP6150554B2 (ja) 画像処理装置、内視鏡装置、画像処理装置の作動方法及び画像処理プログラム
JP6150555B2 (ja) 内視鏡装置、内視鏡装置の作動方法及び画像処理プログラム
JP6168876B2 (ja) 検出装置、学習装置、検出方法、学習方法及びプログラム
JP2014161355A (ja) 画像処理装置、内視鏡装置、画像処理方法及びプログラム
JP6150617B2 (ja) 検出装置、学習装置、検出方法、学習方法及びプログラム
JP6128989B2 (ja) 画像処理装置、内視鏡装置及び画像処理装置の作動方法
JP6168878B2 (ja) 画像処理装置、内視鏡装置及び画像処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160315

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161115

R151 Written notification of patent or utility model registration

Ref document number: 6045417

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250