JP2008295512A - Endoscope apparatus for measurement, and program - Google Patents
Endoscope apparatus for measurement, and program Download PDFInfo
- Publication number
- JP2008295512A JP2008295512A JP2007141685A JP2007141685A JP2008295512A JP 2008295512 A JP2008295512 A JP 2008295512A JP 2007141685 A JP2007141685 A JP 2007141685A JP 2007141685 A JP2007141685 A JP 2007141685A JP 2008295512 A JP2008295512 A JP 2008295512A
- Authority
- JP
- Japan
- Prior art keywords
- measurement
- defect
- image
- point
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Endoscopes (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、電子内視鏡を用いて撮像した画像に基づいて計測対象物の計測処理を行う計測用内視鏡装置、およびその動作を制御するためのプログラムに関する。 The present invention relates to a measurement endoscope apparatus that performs measurement processing of a measurement object based on an image captured using an electronic endoscope, and a program for controlling the operation thereof.
主に航空機に使われるガスタービンでは、異物等の侵入により、タービンブレードあるいはコンプレッサブレードのエッジに欠損が生じることがある。このブレードの欠損サイズはブレードの交換を判断する条件のひとつであり、その検査は極めて重要なものである。このような状況に対して、従来の計測用内視鏡においては、タービンブレードあるいはコンプレッサブレードの欠損のエッジを仮想曲線および仮想点で近似し、それらを元に欠損サイズを計測していた(例えば特許文献1参照)。
しかし、従来の方法では、欠損のエッジをパラメトリック曲線で近似していたため、1つの仮想曲線を算出するために少なくとも3点の基準点を指定する必要があり、また、算出された仮想曲線を手動で調整してエッジの形状変更を行う必要があったため、操作が煩雑になるという問題があった。また、角の頂点を含む計測対象物の角に形成された欠損に対しては、角の欠損のエッジを、1つの仮想曲線とその曲線上の仮想点とで近似していたため、少なくとも4点の基準点を指定する必要があり、ここでも操作が煩雑になるという問題があった。 However, in the conventional method, since the missing edge is approximated by a parametric curve, it is necessary to specify at least three reference points in order to calculate one virtual curve, and manually calculate the calculated virtual curve. There is a problem that the operation becomes complicated because it is necessary to change the shape of the edge by adjusting the edge. In addition, with respect to the defect formed at the corner of the measurement object including the vertex of the corner, the edge of the corner defect is approximated by one virtual curve and a virtual point on the curve. In this case, there is a problem that the operation becomes complicated.
本発明は、上述した課題に鑑みてなされたものであって、操作の煩わしさを低減し操作性を向上することができる計測用内視鏡装置およびプログラムを提供することを目的とする。 The present invention has been made in view of the above-described problems, and an object of the present invention is to provide an endoscope apparatus for measurement and a program that can reduce the troublesomeness of the operation and improve the operability.
本発明は、上記の課題を解決するためになされたもので、計測対象物を撮像し撮像信号を生成する電子内視鏡と、前記撮像信号に基づいて映像信号を生成する画像処理手段と、前記映像信号に基づいて前記計測対象物の計測処理を行う計測処理手段と、前記映像信号に基づいた画像を表示する表示手段とを備えた計測用内視鏡装置において、前記計測処理手段は、前記計測対象物上の2つの基準点を指定する基準点指定手段と、前記基準点に基づいて、前記計測対象物の輪郭を近似する輪郭近似線を算出する輪郭近似線算出手段と、前記基準点および前記輪郭近似線に基づいて、前記計測対象物に形成された欠損の輪郭を構成する欠損構成点を算出する欠損構成点算出手段と、前記欠損構成点に基づいて前記欠損のサイズを計測する欠損計測手段と、前記映像信号に基づいた画像の階調を削減する階調削減手段と、を備え、前記表示手段はさらに、前記階調削減手段によって階調の削減された画像を表示することを特徴とする計測用内視鏡装置である。 The present invention has been made in order to solve the above-described problems. An electronic endoscope that images a measurement object and generates an imaging signal, an image processing unit that generates a video signal based on the imaging signal, In a measurement endoscope apparatus comprising a measurement processing unit that performs measurement processing of the measurement object based on the video signal, and a display unit that displays an image based on the video signal, the measurement processing unit includes: Reference point designating means for designating two reference points on the measurement object, contour approximate line calculation means for calculating a contour approximation line that approximates the contour of the measurement object based on the reference point, and the reference A missing component point calculating means for calculating a missing component point constituting the outline of the defect formed in the measurement object based on the point and the contour approximation line; and measuring the size of the defect based on the missing component point Defect measurement And a gradation reduction means for reducing the gradation of the image based on the video signal, and the display means further displays the image with the gradation reduced by the gradation reduction means. Is an endoscope apparatus for measurement.
また、本発明の計測用内視鏡装置において、前記輪郭近似線算出手段は、前記電子内視鏡の先端に設置された撮像光学系の歪みを補正した前記輪郭近似線を算出することを特徴とする。 In the measurement endoscope apparatus according to the present invention, the contour approximate line calculation means calculates the contour approximate line in which distortion of an imaging optical system installed at a distal end of the electronic endoscope is corrected. And
また、本発明の計測用内視鏡装置において、前記計測処理手段は、前記2つの基準点に対応した2本の前記輪郭近似線が形成する角度に応じて前記欠損の種類を判別する欠損種類判別手段をさらに備えたことを特徴とする。 In the measurement endoscope apparatus according to the present invention, the measurement processing unit may determine the type of defect according to an angle formed by the two contour approximate lines corresponding to the two reference points. It is characterized by further comprising a discrimination means.
また、本発明の計測用内視鏡装置において、前記欠損計測手段は、前記欠損のサイズを示すパラメータとして、前記欠損の種類に応じた前記パラメータを算出することを特徴とする。 In the measurement endoscope apparatus according to the present invention, the defect measurement means calculates the parameter according to the type of defect as a parameter indicating the size of the defect.
また、本発明の計測用内視鏡装置において、前記欠損構成点算出手段は、前記2つの基準点に対応した2本の前記輪郭近似線の交点を前記欠損構成点の1つとして算出することを特徴とする。 In the measurement endoscope apparatus of the present invention, the missing component point calculating means calculates an intersection of the two contour approximation lines corresponding to the two reference points as one of the missing component points. It is characterized by.
また、本発明の計測用内視鏡装置において、前記欠損計測手段は、前記欠損のサイズを示すパラメータとして、少なくとも2種類の前記パラメータを算出することを特徴とする。 In the measurement endoscope apparatus according to the present invention, the defect measurement means calculates at least two kinds of parameters as parameters indicating the size of the defect.
また、本発明の計測用内視鏡装置において、前記輪郭近似線算出手段は、1つの前記基準点の周辺にある前記計測対象物の輪郭線上の少なくとも2つの特徴点を算出し、前記少なくとも2つの特徴点に基づいて前記輪郭近似線を算出することを特徴とする。 In the measurement endoscope apparatus according to the present invention, the contour approximate line calculation means calculates at least two feature points on the contour line of the measurement object around one reference point, and the at least 2 The contour approximation line is calculated based on one feature point.
また、本発明の計測用内視鏡装置において、前記階調削減手段は、前記映像信号に基づいた画像を、信号レベルを2値化した2値化画像に変換することを特徴とする。 In the measurement endoscope apparatus according to the present invention, the gradation reduction unit converts the image based on the video signal into a binarized image in which the signal level is binarized.
また、本発明の計測用内視鏡装置において、前記階調削減手段によって階調の削減された画像を少なくとも表示する第1の状態と、前記階調削減手段によって階調の削減された画像を表示せずに、前記階調削減手段によって階調の削減される前の画像を表示する第2の状態との間で表示状態を切り替える切替手段をさらに備えたことを特徴とする。 In the measurement endoscope apparatus according to the present invention, a first state in which at least an image whose gradation is reduced by the gradation reduction means is displayed, and an image whose gradation is reduced by the gradation reduction means are displayed. The image processing apparatus further includes switching means for switching a display state between a second state in which an image before the gradation is reduced by the gradation reduction means is displayed without displaying.
また、本発明の計測用内視鏡装置は、前記表示状態を切り替えるタイミングをユーザが入力する入力手段をさらに備え、前記切替手段は、前記入力手段に入力された前記タイミングで前記表示状態を切り替えることを特徴とする。 The measurement endoscope apparatus of the present invention further includes input means for a user to input timing for switching the display state, and the switching means switches the display state at the timing input to the input means. It is characterized by that.
また、本発明の計測用内視鏡装置は、予め設定された時間を計測する時間計測手段をさらに備え、前記切替手段は、前記表示状態を切り替えた第1のタイミングから、前記時間計測手段によって計測された時間が経過した第2のタイミングで前記表示状態を再度切り替えることを特徴とする。 In addition, the measuring endoscope apparatus according to the present invention further includes a time measuring unit that measures a preset time, and the switching unit starts from the first timing when the display state is switched by the time measuring unit. The display state is switched again at a second timing when the measured time has elapsed.
また、本発明の計測用内視鏡装置において、前記表示手段は、画像を表示可能な第1および第2の画像表示領域を有しており、前記階調削減手段によって階調の削減された画像を前記第1および第2の画像表示領域の一方または両方に表示することを特徴とする。 In the measurement endoscope apparatus according to the present invention, the display means includes first and second image display areas in which an image can be displayed, and the gradation is reduced by the gradation reduction means. An image is displayed in one or both of the first and second image display areas.
また、本発明の計測用内視鏡装置は、計測対象物を撮像し撮像信号を生成する電子内視鏡と、前記撮像信号に基づいて映像信号を生成する画像処理手段と、前記映像信号に基づいて前記計測対象物の計測処理を行う計測処理手段と、前記映像信号に基づいた画像を表示する表示手段とを備えた計測用内視鏡装置の動作を制御するためのプログラムにおいて、前記計測処理手段は、前記計測対象物上の2つの基準点を指定する基準点指定手段と、前記基準点に基づいて、前記計測対象物の輪郭を近似する輪郭近似線を算出する輪郭近似線算出手段と、前記基準点および前記輪郭近似線に基づいて、前記計測対象物に形成された欠損の輪郭を構成する欠損構成点を算出する欠損構成点算出手段と、前記欠損構成点に基づいて前記欠損のサイズを計測する欠損計測手段と、前記映像信号に基づいた画像の階調を削減する階調削減手段と、を備え、前記表示手段は、前記階調削減手段によって階調の削減された画像を表示することを特徴とするプログラムである。 In addition, an endoscope apparatus for measurement according to the present invention includes an electronic endoscope that images a measurement object and generates an imaging signal, an image processing unit that generates a video signal based on the imaging signal, and a video signal. In the program for controlling the operation of the measurement endoscope apparatus including measurement processing means for performing measurement processing of the measurement object based on and display means for displaying an image based on the video signal, the measurement The processing means includes reference point designating means for designating two reference points on the measurement object, and contour approximate line calculation means for calculating an outline approximate line for approximating the contour of the measurement object based on the reference points. And, based on the reference point and the contour approximation line, a missing constituent point calculating means for calculating a missing constituent point that constitutes the outline of the missing formed on the measurement object, and the missing point based on the missing constituent point Measure the size of Loss measurement means, and gradation reduction means for reducing the gradation of the image based on the video signal, wherein the display means displays the image with gradation reduced by the gradation reduction means Is a program characterized by
本発明によれば、2つの基準点を指定すれば欠損サイズの計測が可能となるので、操作の煩わしさを低減し操作性を向上することができるという効果が得られる。 According to the present invention, since it is possible to measure the defect size by designating two reference points, it is possible to reduce the troublesomeness of the operation and improve the operability.
以下、図面を参照し、本発明の実施形態を説明する。図1は、本発明の一実施形態による計測用内視鏡装置の構成を示している。図1に示すように、本実施形態による計測用内視鏡装置は、内視鏡2と、コントロールユニット3と、リモートコントローラ4(入力手段)と、液晶モニタ5と、フェイスマウントディスプレイ(FMD)6と、FMDアダプタ6aと、光学アダプタ7a,7b,7cと、内視鏡ユニット8と、カメラコントロールユニット9と、制御ユニット10とから構成されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows the configuration of a measuring endoscope apparatus according to an embodiment of the present invention. As shown in FIG. 1, the measurement endoscope apparatus according to the present embodiment includes an endoscope 2, a control unit 3, a remote controller 4 (input means), a
計測対象物を撮像し撮像信号を生成する内視鏡2(電子内視鏡)は細長の挿入部20を備えている。挿入部20は、先端側から順に、硬質な先端部21と、例えば上下左右に湾曲可能な湾曲部22と、柔軟性を有する可撓管部23とを連設して構成されている。挿入部20の基端部は内視鏡ユニット8に接続されている。先端部21は、観察視野を2つ有するステレオ用の光学アダプタ7a,7bあるいは観察視野が1つだけの通常観察光学アダプタ7c等、各種の光学アダプタが例えば螺合によって着脱自在な構成になっている。
An endoscope 2 (electronic endoscope) that captures an image of a measurement object and generates an imaging signal includes an
コントロールユニット3は、内視鏡ユニット8、画像処理手段であるカメラコントロールユニット(以下、CCUと記載する。)9、および制御装置である制御ユニット10を内部に備えている。内視鏡ユニット8は、観察時に必要な照明光を供給する光源装置と、挿入部20を構成する湾曲部22を湾曲させる湾曲装置とを備えている。CCU9は、挿入部20の先端部21に内蔵されている固体撮像素子2aから出力された撮像信号を入力し、これをNTSC信号等の映像信号に変換して制御ユニット10に供給する。
The control unit 3 includes an endoscope unit 8, a camera control unit (hereinafter referred to as CCU) 9 that is an image processing unit, and a
制御ユニット10は、音声信号処理回路11と、映像信号処理回路12と、ROM13と、RAM14と、PCカードインターフェース(以下、PCカードI/Fと記載する。)15と、USBインターフェース(以下、USB I/Fと記載する。)16と、RS−232Cインターフェース(以下、RS−232C I/Fと記載する。)17と、計測処理部18とから構成されている。
The
マイク34によって集音された音声信号や、メモリカード等の記録媒体を再生して得られる音声信号、あるいは計測処理部18によって生成された音声信号が音声信号処理回路11に供給される。映像信号処理回路12は、CCU9から供給された内視鏡画像とグラフィックによる操作メニューとを合成した合成画像を表示するために、CCU9からの映像信号を、計測処理部18の制御により生成される操作メニュー等のための表示信号と合成する処理を行う。また、映像信号処理回路12は、液晶モニタ5の画面上に映像を表示するために合成後の映像信号に所定の処理を施して液晶モニタ5に供給する。
An audio signal collected by the
PCカードI/F15は、PCMCIAメモリカード32やフラッシュメモリカード33等のメモリカード(記録媒体)を自由に着脱できるようになっている。メモリカードを装着することにより、計測処理部18の制御に従って、このメモリカードに記憶されている制御処理情報や画像情報等を取り込んだり、制御処理情報や画像情報等をメモリカードに記録したりすることができる。
The PC card I / F 15 can freely attach and detach a memory card (recording medium) such as the PCMCIA
USB I/F16は、コントロールユニット3とパーソナルコンピュータ31(入力手段)とを電気的に接続するためのインターフェースである。このUSB I/F16を介してコントロールユニット3とパーソナルコンピュータ31とを電気的に接続することにより、パーソナルコンピュータ31側で内視鏡画像の表示の指示や計測時における画像処理等の各種の制御指示を行うことが可能となる。また、コントロールユニット3とパーソナルコンピュータ31との間で各種の処理情報やデータを入出力することが可能となる。
The USB I / F 16 is an interface for electrically connecting the control unit 3 and the personal computer 31 (input means). By electrically connecting the control unit 3 and the
RS−232C I/F17には、CCU9および内視鏡ユニット8が接続されると共に、これらCCU9や内視鏡ユニット8等の制御および動作指示を行うリモートコントローラ4が接続されている。ユーザがリモートコントローラ4を操作すると、その操作内容に基づいて、CCU9および内視鏡ユニット8を動作制御する際に必要な通信が行われる。 The RS-232C I / F 17 is connected to the CCU 9 and the endoscope unit 8, and is connected to the remote controller 4 for controlling and operating the CCU 9 and the endoscope unit 8. When the user operates the remote controller 4, communication necessary for controlling the operation of the CCU 9 and the endoscope unit 8 is performed based on the operation content.
図2は計測処理部18の構成を示している。図2に示すように計測処理部18は、制御部18aと、基準点指定部18bと、基準曲線算出部18cと、欠損構成点算出部18dと、欠損種類判別部18eと、欠損サイズ算出部18fと、記憶部18gと、階調削減部18hと、時間計測部18iとから構成されている。計測処理部18内の各構成が計測処理専用のハードウェアとして構成されていてもよいし、ROM13に格納されているプログラムをCPUが実行することによって、計測処理部18内の各構成に相当する機能をCPUが実行してもよい。
FIG. 2 shows the configuration of the measurement processing unit 18. As shown in FIG. 2, the measurement processing unit 18 includes a
制御部18a(制御手段、切替手段)は計測処理部18内の各部を制御する。また、制御部18aは、液晶モニタ5またはフェイスマウントディスプレイ6(表示手段)に計測結果や操作メニュー等を表示させるための表示信号を生成して映像信号処理回路12へ出力する機能も有している。
The
基準点指定部18b(基準点指定手段)は、リモートコントローラ4あるいはパーソナルコンピュータ31から入力される信号に基づいて、計測対象物上の基準点(基準点の詳細は後述する)を指定する。ユーザが、液晶モニタ5あるいはフェイスマウントディスプレイ6に表示された計測対象物の画像を見ながら所望の基準点を2点入力すると、それらの座標が基準点指定部18bによって算出される。
The reference
基準曲線算出部18c(輪郭近似線算出手段)は、基準点指定部18bによって指定された基準点に基づいて、計測対象物の輪郭を近似する輪郭近似線に相当する基準曲線(基準曲線の詳細は後述する)を算出する。欠損構成点算出部18d(欠損構成点算出手段)は、基準点および基準曲線に基づいて、計測対象物に形成された欠損の輪郭(エッジ)を構成する欠損構成点(欠損構成点の詳細は後述する)を算出する。
The reference
欠損種類判別部18e(欠損種類判別手段)は、基準点指定部18bによって指定された2つの基準点に対応した2本の基準曲線がなす角度を算出し、その角度に応じて欠損の種類を判別する。欠損サイズ算出部18f(欠損計測手段)は、欠損構成点に基づいて欠損のサイズを計測する。記憶部18gは、計測処理部18内で処理される各種情報を記憶する。記憶部18gに格納された情報は、適宜制御部18aによって読み出されて各部へ出力される。
The defect
階調削減部18h(階調削減手段)は、映像信号に基づいた画像の階調を削減する処理を実行する。より具体的には、階調削減部18hは画像から輝度データを取り出し、例えば256値の輝度からなるグレースケール画像を生成し、そのグレースケール画像を、2値、4値、あるいは8値等の輝度からなる画像に変換する。以下では、階調削減部18hが、撮像した画像の信号レベルを2値化し、画像を2値化画像(白黒化画像)に変換するものとして説明を行う。時間計測部18i(時間計測手段)は、制御部18aからの指示に従って時間の計測を実行する。
The
次に、本実施形態で使用する用語の内容を説明する。まず、図3を参照し、基準点、基準曲線、および基準点エリアを説明する。基準点301,302は、表示される計測画面上においてユーザが実際に指定する点であり、図3のように欠損300の両側に位置し、かつ欠損の存在しないエッジ上の点である。
Next, the contents of terms used in the present embodiment will be described. First, a reference point, a reference curve, and a reference point area will be described with reference to FIG. The
基準曲線311,312は、計測対象物の輪郭(エッジ)を近似する曲線であり、2つの基準点301,302に基づいて算出される。本実施形態では特に、内視鏡2の先端(先端部21内)に設置された撮像光学系、および内視鏡2の先端に別途装着される撮像光学系(光学アダプタ7a,7b,7c)の歪みを補正した歪補正曲線として基準曲線が算出される。
The reference curves 311 and 312 are curves that approximate the contour (edge) of the measurement object, and are calculated based on the two
基準点エリア321,322は、基準曲線311,312を求める際に基準点周囲のエッジを抽出するための画像範囲である。基準点エリア321,322のサイズは、歪補正曲線の算出に適した値に設定するのが良い。
The
次に、図4〜図5を参照し、欠損の種類、欠損始点・終点・頂点、および欠損構成点を説明する。本実施形態で計測対象となる欠損には、辺の欠損と角の欠損の2種類がある。辺の欠損は図4の欠損400のように計測対象のエッジの辺上に形成された欠損であり、角の欠損は図5の欠損500のように計測対象のエッジの角に形成された欠損である。
Next, with reference to FIG. 4 to FIG. 5, types of defects, defect start points / end points / vertices, and defect component points will be described. There are two types of defects to be measured in the present embodiment: edge defects and corner defects. The side defect is a defect formed on the edge of the measurement target edge like the
欠損始点401,501は、表示される計測画面上において、後述する欠損計算で欠損を構成する点として最初に認識される点である。欠損終点402,502は、欠損を構成する点として最後に認識される点である。欠損頂点503は、角の欠損500において、2つの基準曲線521,522の交点として認識される点である。欠損構成点410,510は、計測対象物に形成された欠損のエッジを構成する点であり、欠損始点・欠損終点・欠損頂点を含む。
The defect start points 401 and 501 are points that are first recognized as points constituting a defect in the defect calculation described later on the displayed measurement screen. The
次に、図6〜図7を参照し、欠損サイズを説明する。欠損サイズとは、検出された欠損の大きさを表すパラメータである。本実施形態で計算される欠損サイズは、辺の欠損では欠損の幅、深さ、面積であり、角の欠損では欠損の幅、辺の長さ、面積である。より具体的には、欠損の幅は欠損始点−欠損終点間の空間距離である。欠損の深さは、所定の欠損構成点から、欠損始点と欠損終点を結んだ直線までの空間距離である。欠損の辺は欠損頂点−欠損始点間の空間距離および欠損頂点−欠損終点間の空間距離である。欠損の面積は、全ての欠損構成点で囲まれた領域の空間面積である。 Next, the defect size will be described with reference to FIGS. The defect size is a parameter representing the size of the detected defect. The defect size calculated in the present embodiment is the width, depth, and area of the defect in the defect of the side, and the width, length, and area of the defect in the defect of the corner. More specifically, the width of the defect is a spatial distance between the defect start point and the defect end point. The depth of the defect is a spatial distance from a predetermined defect constituent point to a straight line connecting the defect start point and the defect end point. The missing edges are the spatial distance between the missing vertex and the missing start point and the spatial distance between the missing vertex and the missing end point. The area of the defect is a spatial area of a region surrounded by all the defect composing points.
図6は辺の欠損サイズを示しており、欠損の幅600は、後述する欠損計算で欠損始点611と欠損終点612の空間距離として算出される。欠損の深さ601は所定の欠損構成点613から、欠損始点611と欠損終点612を結んだ直線までの空間距離として算出される。欠損の面積は、図示していない欠損構成点を含む全ての欠損構成点で囲まれた領域620の空間面積として算出される。
FIG. 6 shows the defect size of the side, and the
図7は角の欠損サイズを示しており、欠損の幅700は、後述する欠損計算で欠損始点711と欠損終点712の空間距離として算出される。欠損の辺701は欠損頂点713と欠損始点711の空間距離として算出され、欠損の辺702は欠損頂点713と欠損終点712の空間距離として算出される。欠損の面積は、図示していない欠損構成点を含む全ての欠損構成点で囲まれた領域720の空間面積として算出される。
FIG. 7 shows a corner defect size, and a
次に、図8を参照し、計測点および計測点エリアを説明する。計測点801は、表示される計測画面上における計測対象物のエッジ上の点であり、後述する欠損計算で第1の基準点802から第2の基準点803に向かう方向(方向T8)に順次サーチ(探索)される。さらに、サーチされた計測点の一部は、欠損構成点として認識される。
Next, measurement points and measurement point areas will be described with reference to FIG. The
計測点エリア804は、計測点801をサーチする際に、計測点周囲のエッジを抽出するための画像範囲である。計測点エリア804のサイズは、エッジ抽出を行うのに適した値に設定するのが良い。
The
次に、図9〜図10を参照し、特徴点を説明する。特徴点901,902および特徴点1001,1002は、基準点903を含む基準点エリア910および計測点1003を含む計測点エリア1010内で抽出されるエッジ上の特徴的な点である。基準点エリア910内で抽出された特徴点901,902は、後述する欠損計算で基準曲線を算出するために用いられる。また、計測点エリア1010等で抽出された特徴点の一部は、欠損計算で計測点として選択される。
Next, feature points will be described with reference to FIGS. The feature points 901 and 902 and the feature points 1001 and 1002 are characteristic points on the edge extracted in the
次に、本実施形態における欠損計測の手順を説明する。まず、図11〜図12を参照し、欠損計測の手順と計測画面を説明する。図11は欠損計測の手順を示し、図12は計測画面を示している。以後の説明に用いる図12等の計測画面では、操作メニュー等が説明に不要な場合、その図示を省略することがある。図12において、計測画面1200,1210,1220は、辺の欠損を計測対象としたときの計測画面であり、計測画面1230,1240,1250は、角の欠損を計測対象としたときの計測画面である。
Next, the procedure of defect measurement in this embodiment will be described. First, with reference to FIG. 11 to FIG. 12, a procedure for defect measurement and a measurement screen are described. FIG. 11 shows a procedure for defect measurement, and FIG. 12 shows a measurement screen. In the measurement screen shown in FIG. 12 or the like used for the following description, the operation menu or the like may be omitted if it is not necessary for the description. In FIG. 12,
本実施形態では、ステレオ計測による欠損計測が行われる。ステレオ計測においては、ステレオ光学アダプタを内視鏡2の先端部21に装着した状態で計測対象物を撮像するため、計測画面では計測対象物の画像が左右1対で表示される。
In this embodiment, loss measurement by stereo measurement is performed. In stereo measurement, since the measurement object is imaged with the stereo optical adapter attached to the
欠損計測では、まず、液晶モニタ5またはフェイスマウントディスプレイ6に表示された計測画面上において、リモートコントローラ4あるいはパーソナルコンピュータ31の操作により、ユーザが基準点を2つ指定すると、指定された基準点の情報が計測処理部18に入力される(ステップSA)。このとき、ユーザは、欠損の両側に位置する点であって欠損の存在しないエッジ上の点を基準点として選択することが望ましい。図12において、左画像内の基準点1201,1202と基準点1231,1232が指定されている。
In the defect measurement, first, when the user designates two reference points on the measurement screen displayed on the liquid crystal monitor 5 or the face mount display 6 by operating the remote controller 4 or the
続いて、指定された基準点の座標に基づいて、計測処理部18が欠損計算を行う(ステップSB)。欠損計算では、欠損構成点の座標や欠損サイズの算出、欠損の種類の判別が行われる。計測画面1210,1240は計算中の計測画面である。欠損計算の詳細については後述する。
Subsequently, based on the coordinates of the designated reference point, the measurement processing unit 18 performs loss calculation (step SB). In the defect calculation, the coordinates of the defect component points and the defect size are calculated, and the defect type is determined.
欠損計算が終了すると、計測処理部18の指示により、検出された欠損領域が計測画面上に表示される(ステップSC)と共に、欠損の種類および欠損サイズが表示される(ステップSD〜SE)。図12に示すように、欠損領域は計測画面1220の左画面1221上および計測画面1250上の左画面1251上に表示される。より具体的には、算出された欠損構成点が線で結ばれて表示される。さらに、欠損構成点の中で、欠損始点・終点・頂点が、それぞれ○・*・□のカーソルで表示される。
When the defect calculation is completed, the detected defect area is displayed on the measurement screen (step SC) and the defect type and the defect size are displayed (steps SD to SE) according to an instruction from the measurement processing unit 18. As shown in FIG. 12, the missing area is displayed on the
また、検出された欠損の種類は計測画面1220,1250の右画面1222,1252上の結果ウィンドウ1223,1253の上部にイメージで表示される。さらに、検出された欠損のサイズが計測画面1220,1250の右画面1222,1252上の結果ウィンドウ1223,1253の下部に文字で表示される。
Further, the type of the detected defect is displayed as an image on the upper part of the
次に、図13を参照し、図11のステップSBにおける欠損計算の手順を説明する。ユーザによって指定された左画面内の2つの基準点の位置情報が計測処理部18に入力されると、基準点指定部18bは2つの基準点の画像座標(液晶モニタ5またはフェイスマウントディスプレイ6に表示される画像上の2次元座標)を算出する(ステップSB1)。続いて、基準曲線算出部18cは、2つの基準点の画像座標に基づいて、2つの基準曲線を算出する(ステップSB2)。
Next, with reference to FIG. 13, the procedure of the loss calculation in step SB of FIG. 11 will be described. When the position information of the two reference points in the left screen designated by the user is input to the measurement processing unit 18, the reference
続いて、欠損種類判別部18eは、2本の基準曲線がなす角度を算出し、その角度に応じて欠損の種類を判別する(ステップSB3)。続いて、欠損構成点算出部18dは、2つの基準点の画像座標に基づいて(角の欠損の場合には基準曲線も用いて)欠損構成点の画像座標を算出する(ステップSB4)。
Subsequently, the defect
続いて、欠損構成点算出部18dは、算出した左画面内の各欠損構成点に対応した右画面内のマッチング点の画像座標を算出し(ステップSB5)、算出された欠損構成点およびそのマッチング点の画像座標に基づいて各欠損構成点の空間座標(現実の空間上の3次元座標)を算出する(ステップSB6)。
Subsequently, the missing component
空間座標の計算方法は、特開2004−49638号公報に記載されているものと同様である。最後に、欠損サイズ算出部18fは、算出された欠損構成点の空間座標に基づいて、欠損の種類に応じた欠損サイズを算出する(ステップSB7)。
The method for calculating the spatial coordinates is the same as that described in Japanese Patent Application Laid-Open No. 2004-49638. Finally, the defect
次に、図14を参照し、図12のステップSB2における基準曲線の算出処理の手順を説明する。基準点指定部18bによって算出された2つの基準点の画像座標が入力される(ステップSB21)と、基準曲線算出部18cは、入力された基準点の画像座標に基づいて、各基準点について特徴点を2つずつ算出する(ステップSB22)。
Next, the procedure of the reference curve calculation process in step SB2 of FIG. 12 will be described with reference to FIG. When the image coordinates of the two reference points calculated by the reference
続いて、基準曲線算出部18cは、2つの特徴点に基づいて、撮像光学系の歪みを補正した歪補正曲線を算出する(ステップSB23)。基準点が2つであるので、2本の歪補正曲線が算出される。最後に、基準曲線算出部18cは、この歪補正曲線の情報(曲線を構成する点の画像座標または曲線の式)を基準曲線の情報として制御部18aへ出力する(ステップSB24)。
Subsequently, the reference
以下、図15を参照し、上記のステップSB22における特徴点の算出処理の手順を説明する。特徴点の算出処理は基準曲線の算出時だけでなく欠損構成点の算出時にも行われる。欠損構成点の算出処理については後述するが、ここでは特徴点の算出処理をまとめて説明する。 Hereinafter, the procedure of the feature point calculation process in step SB22 will be described with reference to FIG. The feature point calculation process is performed not only when the reference curve is calculated but also when the missing component points are calculated. The calculation process of the missing constituent points will be described later, but here, the calculation process of the feature points will be described together.
また、図16〜図17は特徴点の算出処理の手順を模式的に示しており、適宜図16〜図17も参照する。図16は基準点周囲の特徴点を算出する場合の手順を示し、図17は計測点周囲の特徴点を算出する場合の手順を示している。 16 to 17 schematically show the procedure of feature point calculation processing, and FIGS. 16 to 17 are also referred to as appropriate. FIG. 16 shows a procedure for calculating feature points around the reference point, and FIG. 17 shows a procedure for calculating feature points around the measurement point.
基準点の画像座標もしくは計測点の画像座標が入力される(ステップSF1)と、入力された基準点の画像座標もしくは計測点の画像座標に基づいて、基準点エリア内もしくは計測点エリア内のエリア画像が抽出される(ステップSF2)。これによって、基準点1600を含む基準点エリア内のエリア画像1601、もしくは計測点1700を含む計測点エリア内のエリア画像1701が抽出される。
When the image coordinates of the reference point or the image coordinates of the measurement point are input (step SF1), the area within the reference point area or the measurement point area is determined based on the input image coordinates of the reference point or measurement point. An image is extracted (step SF2). As a result, an
続いて、抽出されたエリア画像がグレースケール化され(ステップSF3)、グレースケール化された画像に対してエッジ抽出が行われる(ステップSF4)。続いて、抽出されたエッジの近似直線が算出され(ステップSF5)、算出されたエッジ近似直線とエリア境界線との2つの交点が算出される(ステップSF6)。これによって、エッジ近似直線1602もしくはエッジ近似直線1702が算出され、エッジ近似直線1602とエリア境界線との交点1603,1604もしくはエッジ近似直線1702とエリア境界線との交点1703,1704が算出される。
Subsequently, the extracted area image is grayscaled (step SF3), and edge extraction is performed on the grayscaled image (step SF4). Subsequently, an approximated straight line of the extracted edge is calculated (step SF5), and two intersections between the calculated edge approximated line and the area boundary line are calculated (step SF6). As a result, the edge
最後に、算出された各交点と抽出されたエッジとの最近傍点が算出され(ステップSF7)、算出された2つの最近傍点が特徴点として制御部18aへ出力される(ステップSF8)。これによって、交点1603,1604に対応した最近傍点1605,1606、もしくは交点1703,1704に対応した最近傍点1705,1706が特徴点として出力される。
Finally, the nearest neighbor point between each calculated intersection and the extracted edge is calculated (step SF7), and the two calculated nearest neighbor points are output to the
ステップSF4のエッジ抽出後にエッジ近似直線の算出を行うため、エッジ抽出には、抽出後の画像にできるだけノイズが発生しない処理を用いるのが良い。例えばSobel・Prewitt・Gradientフィルタ等の1次微分フィルタやLaplacianフィルタ等の2次微分フィルタを用いると良い。 Since the edge approximate straight line is calculated after the edge extraction in step SF4, it is preferable to use a process that generates as little noise as possible in the extracted image. For example, a primary differential filter such as a Sobel / Prewitt / Gradient filter or a secondary differential filter such as a Laplacian filter may be used.
また、膨張・収縮・差分処理およびノイズ低減フィルタ等を組み合わせた処理を用いてエッジ抽出を行っても良い。このとき、グレースケール画像を2値化する必要があるが、2値化閾値には固定値を用いても良いし、P−タイル法、モード法、判別分析法など、グレースケール画像の輝度に基づいて閾値を変更する方法を用いても良い。 Alternatively, edge extraction may be performed using a process that combines expansion / contraction / difference processing and a noise reduction filter. At this time, it is necessary to binarize the grayscale image. However, a fixed value may be used as the binarization threshold, and the luminance of the grayscale image may be increased by a P-tile method, a mode method, a discriminant analysis method, or the like. You may use the method of changing a threshold based on this.
また、ステップSF5のエッジ近似直線の算出では、ステップSF4で抽出されたエッジの情報に基づいて、例えば最小2乗法を用いて近似直線を算出する。なお、上記では、エッジの形状に対して直線近似を行っているが、2次以上の関数を使って曲線近似を行っても良い。エッジの形状が直線よりも曲線に近い場合には、曲線近似を行った方がより精度の良い特徴点算出が可能となる。 Further, in the calculation of the edge approximate straight line in step SF5, the approximate straight line is calculated using, for example, the least square method based on the edge information extracted in step SF4. In the above description, linear approximation is performed on the shape of the edge, but curve approximation may be performed using a quadratic or higher function. When the edge shape is closer to a curve than a straight line, more accurate feature point calculation is possible by curve approximation.
次に、図14のステップSB23における歪補正曲線の算出処理の手順を説明する。本実施形態による計測用内視鏡装置1に適用される内視鏡2では、各内視鏡2特有の撮像光学系の光学データが測定される。測定された光学データは例えばメモリカード33に記録される。この光学データを用いることにより、計測画像を、撮像光学系の歪みを補正した歪補正画像に変換することができる。
Next, the procedure of the distortion correction curve calculation process in step SB23 of FIG. 14 will be described. In the endoscope 2 applied to the measurement endoscope apparatus 1 according to the present embodiment, optical data of an imaging optical system unique to each endoscope 2 is measured. The measured optical data is recorded in the
以下、図18を参照し、歪補正曲線の算出方法を説明する。原画像1800は計測対象物の画像であり、点P1,P2は、図14のステップSB22で算出された2つの特徴点である。光学データを用いて原画像1800を変換すると歪補正画像1801となる。点P1’,P2’はそれぞれ点P1,P2の変換後の点である。
Hereinafter, a method for calculating a distortion correction curve will be described with reference to FIG. The
この点P1’,P2’を歪補正画像1801上で結んだ直線を直線Lとし、光学データを用いて直線L上の各画素点を逆変換すると、直線Lは原画像1802上において曲線L’に変換される。この曲線L’の情報が、点P1,P2を通る歪曲線の情報として制御部18aへ出力される。光学データの内容およびその作成方法、歪補正方法に関しては、特開2004−49638号公報に記載された内容と同じである。
When a straight line connecting the points P1 ′ and P2 ′ on the distortion corrected
次に、図19を参照し、図13のステップSB3における欠損種類の判別処理の手順を説明する。2本の基準曲線の情報が制御部18aから入力される(ステップSB31)と、欠損種類判別部18eは2本の基準曲線がなす角度を算出する(ステップSB32)。続いて、欠損種類判別部18eは、2本の基準曲線のなす角度が所定の範囲であるか否かを判定する(ステップSB33)。
Next, with reference to FIG. 19, the procedure of the defect type determination process in step SB3 of FIG. 13 will be described. When information on two reference curves is input from the
2本の基準曲線のなす角度が所定の範囲であった場合(例えば角度が180°に近い値の場合)、欠損種類判別部18eは、欠損が辺の欠損であると判断し、欠損の判別結果を制御部18aへ出力する。制御部18aは欠損の判別結果を記憶部18gに格納する(ステップSB34)。また、2本の基準曲線のなす角度が所定の範囲でなかった場合(例えば角度が90°に近い値の場合)、欠損種類判別部18eは、欠損が角の欠損であると判断し、欠損の判別結果を制御部18aへ出力する。制御部18aは欠損の判別結果を記憶部18gに格納する(ステップSB35)。
When the angle formed by the two reference curves is within a predetermined range (for example, when the angle is a value close to 180 °), the defect
次に、図13のステップSB4における欠損構成点の算出処理の手順を説明する。欠損構成点の算出処理は、欠損頂点算出処理、欠損始点算出処理、2種類の計測点算出処理、および欠損終点算出処理で構成される。まず、図20を参照し、欠損頂点算出処理の手順を説明する。 Next, the procedure of the missing component point calculation process in step SB4 in FIG. 13 will be described. The calculation process of the missing component point includes a missing vertex calculation process, a missing start point calculation process, two types of measurement point calculation processes, and a missing end point calculation process. First, the procedure of the missing vertex calculation process will be described with reference to FIG.
制御部18aから欠損の判別結果が入力される(ステップSB411a)と、欠損構成点算出部18dは、判別結果に基づいて欠損の種類を判別する(ステップSB411b)。欠損の種類が角の欠損であった場合、制御部18aから2本の基準曲線の情報が入力される(ステップSB411c)。
When a defect determination result is input from the
欠損構成点算出部18dは、入力された情報に基づいて2本の基準曲線の交点を算出し(ステップSB411d)、算出した交点の画像座標を制御部18aへ出力する。制御部18aは2本の基準曲線の交点の画像座標を欠損構成点(欠損頂点)の画像座標として記憶部18gに格納する(ステップSB411e)。続いて、図21に示す第1の計測点算出処理へ処理が移行する。また、欠損の種類が辺の欠損であった場合、ステップSB411bに続いて、図21に示す第1の計測点算出処理へ処理が移行する。
The missing component
次に、図21を参照し、第1の計測点算出処理の手順を説明する。また、図22は第1の計測点算出処理の手順を模式的に示しており、適宜図22も参照する。ユーザによって指定された2つの基準点のうち、最初に指定された第1の基準点の画像座標が制御部18aから入力される(ステップSB412a)と、欠損構成点算出部18dは図15に示した特徴点の算出処理を実行し、2つの特徴点を算出する(ステップSB412b)。これによって、第1の基準点2200に対応した2つの特徴点2201,2202が算出される。
Next, the procedure of the first measurement point calculation process will be described with reference to FIG. FIG. 22 schematically shows the procedure of the first measurement point calculation process, and FIG. 22 is also referred to as appropriate. When the image coordinates of the first reference point specified first among the two reference points specified by the user are input from the
続いて、第2の基準点の画像座標が制御部18aから入力される(ステップSB412c)。欠損構成点算出部18dは2つの特徴点と第2の基準点の2次元距離を算出し、2つの特徴点のうち第2の基準点に近い方を次の計測点とする(ステップSB412d)。第2の基準点のある方向が図22の方向T22である場合、特徴点2201,2202のうち特徴点2202が次の計測点2203となる。
Subsequently, the image coordinates of the second reference point are input from the
続いて、欠損構成点算出部18dは、算出した計測点の画像座標を制御部18aへ出力する。制御部18aは計測点の画像座標を記憶部18gに格納する(ステップSB412e)。続いて、図23に示す欠損始点算出処理へ処理が移行する。
Subsequently, the missing component
次に、図23を参照し、欠損始点算出処理の手順を説明する。また、図24は欠損始点算出処理の手順を模式的に示しており、適宜図24も参照する。まず、前回求めた計測点の画像座標が制御部18aから入力され(ステップSB413a)、2本の基準曲線のうち第1の基準点から算出された第1の基準曲線の情報が制御部18aから入力される(ステップSB413b)。
Next, with reference to FIG. 23, the procedure of the missing start point calculation process will be described. FIG. 24 schematically shows the procedure of the missing start point calculation process, and FIG. 24 is also referred to as appropriate. First, the image coordinates of the measurement point obtained last time are input from the
続いて、欠損構成点算出部18dは第1の基準曲線と計測点の2次元距離を算出し(ステップSB413c)、算出した2次元距離が所定値以上であるか否かを判定する(ステップSB413d)。算出した2次元距離が所定値以上であった場合、欠損構成点算出部18dは、計測対象物のエッジを近似する直線であるエッジ近似直線を算出する(ステップSB413e)。例えば図24に示すように、第1の基準点2401から算出された第1の基準曲線2410と計測点2402の2次元距離D24が所定値以上であった場合、エッジ近似直線2411が算出される。
Subsequently, the missing component
続いて、欠損構成点算出部18dは第1の基準曲線とエッジ近似直線の交点を算出する(ステップSB413f)。これによって、第1の基準曲線2410とエッジ近似直線2411の交点2403が算出される。
Subsequently, the missing component
続いて、欠損構成点算出部18dは、算出した交点の画像座標を制御部18aへ出力する。制御部18aは交点の画像座標を欠損構成点(欠損始点)の画像座標として記憶部18gに格納する(ステップSB413g)。続いて、図25に示す第2の計測点算出処理へ処理が移行する。また、ステップSB413cで算出した2次元距離が所定値未満であった場合、ステップSB413dに続いて、図25に示す第2の計測点算出処理へ処理が移行する。
Subsequently, the missing component
次に、図25を参照し、第2の計測点算出処理の手順を説明する。また、図26は第2の計測点算出処理の手順を模式的に示しており、適宜図26も参照する。前回求めた計測点の画像座標が制御部18aから入力される(ステップSB414a)と、欠損構成点算出部18dは図15に示した特徴点の算出処理を実行し、2つの特徴点を算出する(ステップSB414b)。これによって、計測点2600に対応した2つの特徴点2601,2602が算出される。
Next, the procedure of the second measurement point calculation process will be described with reference to FIG. FIG. 26 schematically shows the procedure of the second measurement point calculation process, and FIG. 26 is also referred to as appropriate. When the image coordinates of the measurement point obtained last time are input from the
続いて、欠損構成点算出部18dは、前回求めた計測点と2つの特徴点のそれぞれとの2次元距離を算出し、2つの特徴点のうち、前回求めた計測点から遠い方を次の計測点とする(ステップSB414c)。前回求めた計測点のある方向が図26の方向T26である場合、特徴点2601,2602のうち特徴点2602が次の計測点2603となる。
Subsequently, the missing component
続いて、欠損構成点算出部18dは、欠損始点の画像座標が既に記憶部18gに格納されているか否かを判定する(ステップSB414d)。欠損始点の画像座標が既に記憶部18gに格納されている場合、欠損構成点算出部18dは、算出した計測点の画像座標を制御部18aへ出力する。制御部18aは計測点の画像座標を欠損構成点の画像座標として記憶部18gに格納する(ステップSB414e)。続いて、図27に示す欠損終点算出処理へ処理が移行する。また、欠損始点の画像座標が記憶部18gにまだ格納されていない場合、図23に示す欠損始点算出処理へ処理が再度移行する。
Subsequently, the missing component
次に、図27を参照し、欠損終点算出処理の手順を説明する。また、図28は欠損終点算出処理の手順を模式的に示しており、適宜図28も参照する。まず、前回求めた計測点の画像座標が制御部18aから入力され(ステップSB415a)、2本の基準曲線のうち第2の基準点から算出された第2の基準曲線の情報が制御部18aから入力される(ステップSB415b)。
Next, with reference to FIG. 27, the procedure of the missing end point calculation process will be described. FIG. 28 schematically shows the procedure of the defect end point calculation process, and FIG. 28 is also referred to as appropriate. First, the image coordinates of the measurement point obtained last time are input from the
続いて、欠損構成点算出部18dは第2の基準曲線と計測点の2次元距離を算出し(ステップSB415c)、算出した2次元距離が所定値以下であるか否かを判定する(ステップSB415d)。算出した2次元距離が所定値以下であった場合、欠損構成点算出部18dは、計測対象物のエッジを近似する直線であるエッジ近似直線を算出する(ステップSB415e)。例えば図28に示すように、第2の基準点2800から算出された第2の基準曲線2810と計測点2801の2次元距離D28が所定値以下であった場合、エッジ近似直線2811が算出される。
Subsequently, the missing component
続いて、欠損構成点算出部18dは第2の基準曲線とエッジ近似直線の交点を算出する(ステップSB415f)。これによって、第2の基準曲線2810とエッジ近似直線2811の交点2803が算出される。
Subsequently, the missing component
続いて、欠損構成点算出部18dは、算出した交点の画像座標を制御部18aへ出力する。制御部18aは交点の画像座標を欠損構成点(欠損終点)の画像座標として記憶部18gに格納する(ステップSB415g)。この処理によって、上述した欠損構成点の算出処理の全体が終了する。また、ステップSB415cで算出した2次元距離が所定値を超えた場合、ステップSB415dに続いて、図25に示した第2の計測点算出処理へ処理が再度移行する。
Subsequently, the missing component
次に、図29を参照し、図23のステップSB413eおよび図27のステップSB415eにおけるエッジ近似直線の算出処理の手順を説明する。計測点の画像座標が入力される(ステップSG1)と、欠損構成点算出部18dは、入力された計測点の画像座標に基づいて、計測点エリア内のエリア画像を抽出する(ステップSG2)。
Next, with reference to FIG. 29, the procedure of the edge approximate straight line calculation process in step SB413e in FIG. 23 and step SB415e in FIG. 27 will be described. When the image coordinates of the measurement point are input (step SG1), the missing component
続いて、欠損構成点算出部18dは、抽出したエリア画像をグレースケール化し(ステップSG3)、グレースケール化した画像に対してエッジ抽出を行う(ステップSG4)。続いて、欠損構成点算出部18dは、抽出したエッジの近似直線を算出し(ステップSG5)、算出したエッジ近似直線の情報を制御部18aへ出力する(ステップSG6)。上記のステップSG1〜SG5の処理は図15のステップSF1〜SF5の処理と同様である。
Subsequently, the missing component
次に、図13のステップSB5におけるマッチング点の算出方法を説明する。欠損構成点算出部18dは、上述した欠損計算で算出した欠損構成点に基づいてパターンマッチング処理を実行し、左右2画像の対応点であるマッチング点を算出する。このパターンマッチング処理の方法は特開2004−49638号公報に記載されたものと同じである。
Next, a method for calculating a matching point in step SB5 in FIG. 13 will be described. The missing component
しかし、欠損の種類が角の欠損であった場合、欠損頂点は計測対象物の背景に位置しており、画像上ではエッジ等の特徴的なパターンが存在しないので、パターンマッチング処理がうまく機能せず、マッチング点を算出できないことがある。そこで、本実施形態では、欠損の種類が角の欠損であった場合、欠損頂点のマッチング点の算出は以下のようにして行われる。 However, if the type of defect is a corner defect, the missing vertex is located in the background of the measurement object, and there is no characteristic pattern such as an edge on the image. Therefore, the matching point may not be calculated. Therefore, in the present embodiment, when the type of defect is a corner defect, the calculation of the matching point of the missing vertex is performed as follows.
図30(a)に示すように、まず、左画像3000の基準点3001,3002に対応した右画像3020のマッチング点3021,3022が算出される。続いて、基準点3001,3002のそれぞれを通る基準曲線3010,3011と、マッチング点3021,3022のそれぞれを通る基準曲線3030,3031とが算出される。
As shown in FIG. 30A, first, matching
続いて、図30(b)に示すように、左画像3000の基準曲線3010,3011の交点3003が欠損頂点として算出される。また、右画像3020の基準曲線3030,3031の交点3023が算出され、欠損頂点のマッチング点とみなされる。
Subsequently, as shown in FIG. 30B, the
次に、図31を参照し、図13のステップSB7における欠損サイズの算出処理の手順を説明する。欠損構成点の空間座標(3次元座標)および欠損の判別結果が制御部18aから入力される(ステップSB71)と、欠損サイズ算出部18fは欠損の幅(欠損始点−欠損終点間の空間距離)を算出する(ステップSB72)。
Next, with reference to FIG. 31, the procedure of the defect size calculation process in step SB7 of FIG. 13 will be described. When the spatial coordinates (three-dimensional coordinates) of the missing constituent points and the discrimination result of the missing are input from the
続いて、欠損サイズ算出部18fは、欠損の判別結果に基づいて欠損の種類を判定する(ステップSB73)。欠損の種類が辺の欠損であった場合、欠損サイズ算出部18fは欠損の深さ(所定の欠損構成点から、欠損始点と欠損終点を結んだ直線までの空間距離)を算出する(ステップSB74)。さらに、欠損サイズ算出部18fは欠損の面積(全ての欠損構成点で囲まれた領域の空間面積)を算出する(ステップSB75)。
Subsequently, the defect
続いて、欠損サイズ算出部18fは、算出した欠損サイズを制御部18aへ出力する。制御部18aは欠損サイズを記憶部18gに格納する(ステップSB76)。また、欠損の種類が角の欠損であった場合には、欠損サイズ算出部18fは欠損の辺(欠損頂点−欠損始点間の空間距離および欠損頂点−欠損終点間の空間距離)を算出する(ステップSB77)。これに続いて、処理はステップSB75に移行する。以上が、特願2007−20906に開示された欠損計測の内容と同様の内容である。
Subsequently, the defect
次に、本実施形態で新たに開示する処理の内容を説明する。上記の基準曲線の算出処理(図13のステップSB2)および欠損構成点の算出処理(図13のステップSB4)には、画像をグレースケール化する処理が含まれているため、前述したように画像内の背景部分に、反射等による明るい部分が存在すると、その部分がノイズとなり被写体の一部として誤認識され、計測精度が悪くなる場合がある。 Next, the contents of processing newly disclosed in this embodiment will be described. The reference curve calculation process (step SB2 in FIG. 13) and the missing component point calculation process (step SB4 in FIG. 13) include the process of converting the image to gray scale. If a bright part due to reflection or the like exists in the background part, the part becomes noise and is erroneously recognized as a part of the subject, and the measurement accuracy may deteriorate.
図32(a)に示すように、撮像された画像において、背景3200と被写体3201のコントラストがはっきりしている場合には、図32(b)に示すように、2値化画像においてもノイズの発生はない。この場合には、本来の欠損始点3210および欠損終点3211が高精度に認識され、計測精度は高い。
As shown in FIG. 32 (a), when the contrast between the
一方、図33(a)に示すように、撮像された画像において、背景3300に反射等による高輝度領域3300aが存在する場合には、図33(b)に示すように、2値化画像において、高輝度領域3300aに対応する領域3301がノイズとして現れる。この2値化画像を用いて欠損計測を実行すると、図33(c)のように点3320,3321,3322がそれぞれ欠損始点、欠損終点、欠損頂点となり、欠損部が誤認識されるため、計測精度が悪化する。
On the other hand, as shown in FIG. 33 (a), when a
そこで、本実施形態では、液晶モニタ5またはフェイスマウントディスプレイ6が2値化画像を表示することによって、被写体の一部として誤認識されるノイズの有無をユーザが確認することができるようになっている。図34および図35は2値化画像の表示例を示している。 Therefore, in the present embodiment, the liquid crystal monitor 5 or the face mount display 6 displays the binarized image, so that the user can confirm the presence or absence of noise that is erroneously recognized as a part of the subject. Yes. 34 and 35 show display examples of the binarized image.
図34は基準点の指定前の表示例を示しており、図12の計測画面1230の前に表示される計測画面を示している。基準点の指定前に2値化画像が表示される場合、ユーザは欠損計測の開始前に計測精度を予めイメージすることができる。図34(a)では左画像3400が2値化画像となっており、図34(b)では左画像3410と右画像3420が共に2値化画像となっている。
FIG. 34 shows a display example before designation of the reference point, and shows a measurement screen displayed before the
図35は計測結果出力時の表示例を示しており、図12の計測画面1250の後に表示される計測画面を示している。図35では、左画像3500のみが2値化画像となっているが、左画像3500と右画像3510が共に2値化画像となっていてもよい。計測結果出力時に2値化画像が表示される場合、ユーザは、ノイズによる誤認識がなく、計測が狙い通りに実行されたか否かを欠損計測の終了後に確認することができる。
FIG. 35 shows a display example when outputting a measurement result, and shows a measurement screen displayed after the
次に、2値化画像の表示処理の手順を説明する。図36〜図39に示す処理は、図11に示した処理に対応しており、既に説明した処理の内容については説明を省略する。図36は、基準点の指定前に2値化画像を表示する場合の処理手順を示している。まず、制御部18aは、リモートコントローラ4あるいはパーソナルコンピュータ31の操作を監視し、計測精度の確認用画像である2値化画像の出力が設定されたか否かを判定する(ステップSG1)。
Next, the procedure of the binarized image display process will be described. The processes shown in FIGS. 36 to 39 correspond to the process shown in FIG. 11, and the description of the contents of the processes already described is omitted. FIG. 36 shows a processing procedure for displaying a binarized image before designating the reference point. First, the
2値化画像の出力が設定されなかった場合には、処理がステップSAに進む。また、2値化画像の出力が設定された場合には、2値化画像が表示される(ステップSG2)。続いて、処理がステップSAに進み、前述したステップSA〜SEの処理が順に実行される。 If the output of the binarized image is not set, the process proceeds to step SA. If the output of the binarized image is set, the binarized image is displayed (step SG2). Subsequently, the process proceeds to step SA, and the processes of steps SA to SE described above are executed in order.
図40はステップSG2の処理の手順を示している。まず、制御部18aは、映像信号を構成する画像データを映像信号処理回路12から取得し、階調削減部18hへ出力する(ステップSG21)。階調削減部18hは画像データから輝度データ(信号レベル)を取り出すことによって画像をグレースケール化し(ステップSG22)、さらに所定の輝度を閾値として輝度データを2値に変換することによって2値化画像を生成する(ステップSG23)。ステップSG23では、例えば各画素の輝度値が0〜255のいずれかの値をとる場合、128を閾値として輝度値が0または255に変換される。
FIG. 40 shows the procedure of step SG2. First, the
続いて、制御部18aは、階調削減部18hから2値化画像を取得し、映像信号処理回路12へ出力する。映像信号処理回路12によって、2値化画像と操作メニュー等を合成する処理が実行された後、液晶モニタ5またはフェイスマウントディスプレイ6によって2値化画像が表示される(ステップSG24)。これによって、2値化画像が少なくとも表示されるが、図34(a)に示したように左画像のみを2値化画像として表示してもよいし、図34(b)に示したように左画像と右画像の両方を2値化画像として表示してもよい。
Subsequently, the
図37は、計測結果出力時に2値化画像を表示する場合の処理手順を示している。まず、前述したステップSA〜SEの処理が順に実行される。続いて、図36に示したステップSG1〜SG2の処理が順に実行され、2値化画像の出力が設定された場合には、2値化画像が表示される。 FIG. 37 shows a processing procedure for displaying a binarized image when outputting the measurement result. First, the processes of steps SA to SE described above are executed in order. Subsequently, the processes of steps SG1 to SG2 shown in FIG. 36 are sequentially executed, and when the output of the binarized image is set, the binarized image is displayed.
図38は、基準点の指定前に2値化画像と通常の画像を交互に表示する場合の処理手順を示している。まず、制御部18aは、画像の表示形態を判定するのに使用するフラグを0に設定する(ステップSG101)。続いて、制御部18aはフラグの値を判定する(ステップSG102)。この判定結果に応じて、以降の処理内容が変わる。また、この判定と並行して、制御部18aは、映像信号を構成する画像データを映像信号処理回路12から取得する。
FIG. 38 shows a processing procedure when a binarized image and a normal image are alternately displayed before the reference point is designated. First, the
フラグの値が0であった場合、制御部18aは、画像データを階調削減部18hへ出力し、階調削減処理を階調削減部18hに実行させると共に、2値化画像を表示するための処理を実行する(ステップSG103)。ステップSG103の処理は、図40に示した処理と同様である。
When the flag value is 0, the
ステップSG103の処理の終了後、制御部18aはフラグを1に設定し(ステップSG104)、さらに時間の計測開始を時間計測部18iに指示する(ステップSG105)。制御部18aは、計測時間を監視し、予め設定されている所定時間が経過したか否かを判定する(ステップSG106)。所定時間が経過していない場合には、処理がステップSG106に戻り、計測時間の監視が続行される。また、所定時間が経過した場合には、処理がステップSG111に進む。この場合、制御部18aの指示により、時間計測部18iは時間の計測を終了する。
After the process of step SG103 is completed, the
一方、ステップSG102において、フラグの値が1であった場合、制御部18aは、通常の画像を表示するための処理を実行する(ステップSG107)。このとき、液晶モニタ5またはフェイスマウントディスプレイ6によって通常の画像が表示され、2値化画像は表示されない。ステップSG108の処理の終了後、制御部18aはフラグを0に設定し(ステップSG108)、さらに時間の計測開始を時間計測部18iに指示する(ステップSG109)。制御部18aは、計測時間を監視し、予め設定されている所定時間が経過したか否かを判定する(ステップSG110)。所定時間が経過していない場合には、処理がステップSG110に戻り、計測時間の監視が続行される。また、所定時間が経過した場合には、処理がステップSG111に進む。この場合、制御部18aの指示により、時間計測部18iは時間の計測を終了する。
On the other hand, when the value of the flag is 1 in step SG102, the
図38には示していないが、上記のステップS101〜S110の処理と並行して、基準点の指定に係る処理も実行されている。ステップS111では、制御部18aは、基準点の指定が終了したか否かを判定する(ステップSG111)。基準点の指定が終了していない場合には、処理がステップSG102に戻る。また、基準点の指定が終了した場合には、前述したステップSB〜SEの処理が順に実行される。
Although not shown in FIG. 38, in parallel with the processing in steps S101 to S110 described above, processing related to designation of a reference point is also executed. In step S111, the
図39は、計測結果出力時に2値化画像と通常の画像を交互に表示する場合の処理手順を示している。まず、前述したステップSA〜SEの処理が順に実行される。続いて、2値化画像または通常の画像の表示に係る処理が実行される(ステップSG101〜SG110)。ステップSG101〜SG110の処理は上記と同様であるので説明を省略する。ステップSG112では、制御部18aはリモートコントローラ4あるいはパーソナルコンピュータ31の操作を監視し、処理の終了が指示されたか否かを判定する(ステップSG112)。処理の終了が指示されていない場合には、処理がステップSG102に戻る。また、処理の終了が指示された場合には、処理が終了する。
FIG. 39 shows a processing procedure when a binarized image and a normal image are alternately displayed at the time of measurement result output. First, the processes of steps SA to SE described above are executed in order. Subsequently, processing relating to display of a binarized image or a normal image is executed (steps SG101 to SG110). Since the processing of steps SG101 to SG110 is the same as described above, the description thereof is omitted. In step SG112, the
図38および図39に示した処理では、2値化画像を表示する状態と、通常の画像を表示する状態とが所定時間間隔で自動的に切り替わる。この他に、制御部18aがリモートコントローラ4あるいはパーソナルコンピュータ31の操作を監視し、その操作状態に応じて表示状態を切り替えることにより、ユーザが希望する任意のタイミングで2値化画像と通常の画像を交互に表示するようにしてもよい。
In the processing shown in FIGS. 38 and 39, the state of displaying a binarized image and the state of displaying a normal image are automatically switched at predetermined time intervals. In addition to this, the
上述したように、本実施形態によれば、2つの基準点を指定すれば欠損サイズの計測が可能となるので、従来のように3点あるいは4点以上の基準点を指定する場合と比較して、操作の煩わしさを低減し操作性を向上することができる。また、階調の削減された2値化画像等が表示されるので、被写体の一部として誤認識されるノイズの有無をユーザが確認することが可能となり、計測が狙い通りに実行されているか否かをユーザが確認することができる。 As described above, according to the present embodiment, if two reference points are specified, the defect size can be measured. Compared to the conventional case where three or four or more reference points are specified. Thus, the troublesome operation can be reduced and the operability can be improved. In addition, since a binarized image or the like with reduced gradation is displayed, it is possible for the user to confirm the presence or absence of noise that is misrecognized as part of the subject, and whether the measurement is being performed as intended. The user can confirm whether or not.
図12に示した計測画面1220,1250の結果ウィンドウ1223,1253に表示される計測結果から計測精度を確認することも可能であるが、計測精度の確認には必要でない情報も表示されることや、計測精度の確認に必要な情報の表示スペースが限られることから、ユーザが計測精度を直感的に理解することができるとは限らない。これに対して、階調の削減された画像を表示することによって、その画像からユーザが計測精度をより直感的に理解することができる。
Although it is possible to check the measurement accuracy from the measurement results displayed in the
また、前述したように、計測精度の確認用に表示される画像は2値化画像に限らず、4値化画像や8値化画像等でもよいが、リアルタイム性の観点からは、より軽い処理負荷で生成することができる2値化画像を表示することが望ましい。 Further, as described above, the image displayed for confirmation of measurement accuracy is not limited to the binarized image, but may be a quaternary image, an octanized image, or the like. It is desirable to display a binarized image that can be generated with a load.
また、2値化画像等と通常の画像との表示の切替を可能とすることによって、ユーザが計測用の画像と実際の被写体の画像とを見比べて、計測精度をより詳細に確認することが可能となり、計測作業を効率良く進めることができる。さらに、リモートコントローラ4あるいはパーソナルコンピュータ31に入力されたユーザの指定タイミングで上記の2種類の表示状態を切り替えることによって、ユーザが希望する任意のタイミングで計測精度を確認することができる。さらに、一旦表示状態を切り替えたタイミングから所定時間が経過したタイミングで表示状態を自動的に再度切り替えることによって、ユーザの操作負担を軽減することができる。
In addition, by enabling display switching between a binarized image and a normal image, the user can check the measurement accuracy in more detail by comparing the measurement image with the actual subject image. This enables measurement work to be performed efficiently. Furthermore, by switching between the two types of display states at the timing designated by the user input to the remote controller 4 or the
また、電子内視鏡の先端に設置される撮像光学系の歪みを補正した歪補正曲線を基準曲線として算出することによって、欠損サイズの計測精度を向上することができる。 Further, by calculating a distortion correction curve obtained by correcting the distortion of the imaging optical system installed at the tip of the electronic endoscope as a reference curve, it is possible to improve the measurement accuracy of the defect size.
また、2つの基準点に対応した2本の基準曲線が形成する角度に応じて欠損の種類を判別することによって、欠損の種類に応じた自動計測を行うことが可能となるので、操作の煩わしさを低減し操作性を向上することができる。特に、欠損のサイズを示すパラメータとして、欠損の種類に応じたパラメータを自動的に選択して算出することによって、ユーザが欠損の種類を特に意識しなくても最適な自動計測を行うことが可能となるので、操作の煩わしさを低減し操作性を向上することができる。 Also, by determining the type of defect according to the angle formed by the two reference curves corresponding to the two reference points, it is possible to perform automatic measurement according to the type of defect, which is cumbersome to operate. Therefore, the operability can be improved. In particular, by automatically selecting and calculating a parameter according to the type of defect as a parameter indicating the size of the defect, it is possible to perform optimum automatic measurement even if the user is not particularly aware of the type of defect. Therefore, it is possible to reduce the troublesome operation and improve the operability.
また、従来の計測用内視鏡装置では、角の頂点を含む計測対象物の角に形成された角の欠損のエッジを、1つの仮想曲線とその曲線上の仮想点とで近似しており、角の欠損の頂点に相当する上記の仮想点の選択が手動で行われていたため、欠損サイズの計測精度を低下させるおそれがあるという問題があった。これに対して、本実施形態のように、2つの基準点に対応した2本の基準曲線の交点を欠損構成点の1つ(欠損頂点)として算出することによって、欠損サイズの計測精度を向上することができる。 Further, in the conventional measuring endoscope apparatus, the edge of the missing corner formed at the corner of the measurement object including the vertex of the corner is approximated by one virtual curve and the virtual point on the curve. However, since the selection of the virtual point corresponding to the apex of the corner defect is performed manually, there is a problem that the measurement accuracy of the defect size may be lowered. On the other hand, as in this embodiment, by calculating the intersection of two reference curves corresponding to two reference points as one of the missing component points (missing vertex), the measurement accuracy of the missing size is improved. can do.
また、欠損のサイズを示すパラメータとして、少なくとも2種類のパラメータを算出することによって、欠損のサイズを詳細に知ることができる。 Further, by calculating at least two kinds of parameters as parameters indicating the size of the defect, the size of the defect can be known in detail.
また、1つの基準点について計測対象物のエッジ上の少なくとも2つの特徴点を算出し、それらの特徴点に基づいて基準曲線を算出することによって、基準曲線の算出精度を向上し、ひいては欠損サイズの計測精度を向上することができる。 Also, by calculating at least two feature points on the edge of the measurement object for one reference point and calculating a reference curve based on those feature points, the calculation accuracy of the reference curve is improved, and as a result, the defect size The measurement accuracy can be improved.
以上、図面を参照して本発明の実施形態について詳述してきたが、具体的な構成は上記の実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。 As described above, the embodiments of the present invention have been described in detail with reference to the drawings. However, the specific configuration is not limited to the above-described embodiments, and includes design changes and the like without departing from the gist of the present invention. .
1・・・計測用内視鏡装置、18・・・計測処理部、18a・・・制御部、18b・・・基準点指定部、18c・・・基準曲線算出部、18d・・・欠損構成点算出部、18e・・・欠損種類判別部、18f・・・欠損サイズ算出部、18g・・・記憶部、18h・・・階調削減部、18i・・・時間計測部 DESCRIPTION OF SYMBOLS 1 ... Measurement endoscope apparatus, 18 ... Measurement processing part, 18a ... Control part, 18b ... Reference point designation | designated part, 18c ... Reference curve calculation part, 18d ... Defect structure Point calculation unit, 18e ... defect type determination unit, 18f ... defect size calculation unit, 18g ... storage unit, 18h ... tone reduction unit, 18i ... time measurement unit
Claims (13)
前記計測処理手段は、
前記計測対象物上の2つの基準点を指定する基準点指定手段と、
前記基準点に基づいて、前記計測対象物の輪郭を近似する輪郭近似線を算出する輪郭近似線算出手段と、
前記基準点および前記輪郭近似線に基づいて、前記計測対象物に形成された欠損の輪郭を構成する欠損構成点を算出する欠損構成点算出手段と、
前記欠損構成点に基づいて前記欠損のサイズを計測する欠損計測手段と、
前記映像信号に基づいた画像の階調を削減する階調削減手段と、
を備え、前記表示手段はさらに、前記階調削減手段によって階調の削減された画像を表示する
ことを特徴とする計測用内視鏡装置。 An electronic endoscope that images a measurement object and generates an imaging signal, an image processing unit that generates a video signal based on the imaging signal, and a measurement process that performs measurement processing of the measurement object based on the video signal In a measurement endoscope apparatus comprising: means; and display means for displaying an image based on the video signal,
The measurement processing means includes
Reference point designating means for designating two reference points on the measurement object;
A contour approximation line calculating means for calculating a contour approximation line that approximates the contour of the measurement object based on the reference point;
Based on the reference point and the contour approximation line, a missing component point calculating means for calculating a missing component point constituting the outline of the defect formed in the measurement object;
A defect measuring means for measuring the size of the defect based on the defect constituent point;
Gradation reduction means for reducing the gradation of the image based on the video signal;
And the display means further displays an image with gradations reduced by the gradation reduction means.
前記切替手段は、前記入力手段に入力された前記タイミングで前記表示状態を切り替える
ことを特徴とする請求項9に記載の計測用内視鏡装置。 It further comprises an input means for the user to input the timing for switching the display state,
The measuring endoscope apparatus according to claim 9, wherein the switching unit switches the display state at the timing input to the input unit.
前記切替手段は、前記表示状態を切り替えた第1のタイミングから、前記時間計測手段によって計測された時間が経過した第2のタイミングで前記表示状態を再度切り替える
ことを特徴とする請求項9に記載の計測用内視鏡装置。 It further comprises time measuring means for measuring a preset time,
The said switching means switches the said display state again at the 2nd timing when the time measured by the said time measurement means passed from the 1st timing which switched the said display state. Endoscope device for measurement.
前記計測処理手段は、
前記計測対象物上の2つの基準点を指定する基準点指定手段と、
前記基準点に基づいて、前記計測対象物の輪郭を近似する輪郭近似線を算出する輪郭近似線算出手段と、
前記基準点および前記輪郭近似線に基づいて、前記計測対象物に形成された欠損の輪郭を構成する欠損構成点を算出する欠損構成点算出手段と、
前記欠損構成点に基づいて前記欠損のサイズを計測する欠損計測手段と、
前記映像信号に基づいた画像の階調を削減する階調削減手段と、
を備え、前記表示手段は、前記階調削減手段によって階調の削減された画像を表示する
ことを特徴とするプログラム。 An electronic endoscope that images a measurement object and generates an imaging signal, an image processing unit that generates a video signal based on the imaging signal, and a measurement process that performs measurement processing of the measurement object based on the video signal In a program for controlling the operation of the measuring endoscope apparatus including means and a display means for displaying an image based on the video signal,
The measurement processing means includes
Reference point designating means for designating two reference points on the measurement object;
A contour approximation line calculating means for calculating a contour approximation line that approximates the contour of the measurement object based on the reference point;
Based on the reference point and the contour approximation line, a missing component point calculating means for calculating a missing component point constituting the outline of the defect formed in the measurement object;
A defect measuring means for measuring the size of the defect based on the defect constituent point;
Gradation reduction means for reducing the gradation of the image based on the video signal;
And the display means displays an image with gradations reduced by the gradation reduction means.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007141685A JP5127302B2 (en) | 2007-05-29 | 2007-05-29 | Endoscope device for measurement and program |
US12/011,741 US8200042B2 (en) | 2007-01-31 | 2008-01-29 | Endoscope apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007141685A JP5127302B2 (en) | 2007-05-29 | 2007-05-29 | Endoscope device for measurement and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008295512A true JP2008295512A (en) | 2008-12-11 |
JP5127302B2 JP5127302B2 (en) | 2013-01-23 |
Family
ID=40169626
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007141685A Expired - Fee Related JP5127302B2 (en) | 2007-01-31 | 2007-05-29 | Endoscope device for measurement and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5127302B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011182977A (en) * | 2010-03-09 | 2011-09-22 | Olympus Corp | Endoscope apparatus and program |
US10019643B2 (en) | 2013-01-22 | 2018-07-10 | Olympus Corporation | Measurement apparatus and program |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0430831A (en) * | 1990-05-25 | 1992-02-03 | Olympus Optical Co Ltd | Enddoscope apparatus for measurement |
JPH07123345A (en) * | 1993-10-20 | 1995-05-12 | Fuji Photo Optical Co Ltd | Hard copy device for ultrasonic endoscope |
JPH09281055A (en) * | 1996-04-09 | 1997-10-31 | Hitachi Metals Ltd | Inspection method for chip |
JPH10248806A (en) * | 1997-03-12 | 1998-09-22 | Olympus Optical Co Ltd | Measuring endoscopic device |
JPH11132743A (en) * | 1997-10-31 | 1999-05-21 | Meidensha Corp | Defect inspecting device by image signal processing |
JP2002336188A (en) * | 2001-05-21 | 2002-11-26 | Olympus Optical Co Ltd | Endoscope system for measurement |
JP2005204724A (en) * | 2004-01-20 | 2005-08-04 | Olympus Corp | Endoscope apparatus for measurement |
JP2005348870A (en) * | 2004-06-09 | 2005-12-22 | Olympus Corp | Measurement endoscope |
JP2008185895A (en) * | 2007-01-31 | 2008-08-14 | Olympus Corp | Endoscope device for measurement |
-
2007
- 2007-05-29 JP JP2007141685A patent/JP5127302B2/en not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0430831A (en) * | 1990-05-25 | 1992-02-03 | Olympus Optical Co Ltd | Enddoscope apparatus for measurement |
JPH07123345A (en) * | 1993-10-20 | 1995-05-12 | Fuji Photo Optical Co Ltd | Hard copy device for ultrasonic endoscope |
JPH09281055A (en) * | 1996-04-09 | 1997-10-31 | Hitachi Metals Ltd | Inspection method for chip |
JPH10248806A (en) * | 1997-03-12 | 1998-09-22 | Olympus Optical Co Ltd | Measuring endoscopic device |
JPH11132743A (en) * | 1997-10-31 | 1999-05-21 | Meidensha Corp | Defect inspecting device by image signal processing |
JP2002336188A (en) * | 2001-05-21 | 2002-11-26 | Olympus Optical Co Ltd | Endoscope system for measurement |
JP2005204724A (en) * | 2004-01-20 | 2005-08-04 | Olympus Corp | Endoscope apparatus for measurement |
JP2005348870A (en) * | 2004-06-09 | 2005-12-22 | Olympus Corp | Measurement endoscope |
JP2008185895A (en) * | 2007-01-31 | 2008-08-14 | Olympus Corp | Endoscope device for measurement |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011182977A (en) * | 2010-03-09 | 2011-09-22 | Olympus Corp | Endoscope apparatus and program |
US8913110B2 (en) | 2010-03-09 | 2014-12-16 | Olympus Corporation | Endoscope apparatus and measurement method |
US10019643B2 (en) | 2013-01-22 | 2018-07-10 | Olympus Corporation | Measurement apparatus and program |
Also Published As
Publication number | Publication date |
---|---|
JP5127302B2 (en) | 2013-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5574555B2 (en) | Endoscope device | |
JP4070493B2 (en) | X-ray diagnostic apparatus and medical image analysis apparatus | |
US8004560B2 (en) | Endoscope apparatus | |
JP4891636B2 (en) | Image analysis device | |
US20090092278A1 (en) | Endoscope apparatus and program | |
US8913110B2 (en) | Endoscope apparatus and measurement method | |
EP2284797B1 (en) | Image processing apparatus and image processing method | |
US20150249790A1 (en) | Image processing apparatus, image display apparatus and imaging apparatus having the same, image processing method, and computer-readable medium storing image processing program | |
US20110187824A1 (en) | Endoscope apparatus and measurement method | |
JP4873794B2 (en) | Image processing measuring apparatus and measuring endoscope apparatus | |
JP2009258273A (en) | Measuring endoscope apparatus and program thereof | |
JP4790223B2 (en) | Endoscope device for measurement | |
JP5127302B2 (en) | Endoscope device for measurement and program | |
JP4077716B2 (en) | Endoscope insertion direction detection device | |
JP6095429B2 (en) | Measuring device and program | |
JP5073384B2 (en) | Endoscope device for measurement | |
JP2008185895A (en) | Endoscope device for measurement | |
JP4738236B2 (en) | Image display device | |
JP5361246B2 (en) | Endoscope apparatus and program | |
JP2010008394A (en) | Endoscopic device and program | |
JP5412215B2 (en) | Image processing apparatus and program | |
JP5385048B2 (en) | Image processing apparatus and program | |
JP5519202B2 (en) | Image processing apparatus and program | |
JP2006015117A (en) | Endoscope apparatus | |
JP2012154672A (en) | Image processing method, program, and image processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100325 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120710 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120829 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20120830 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121002 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121030 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5127302 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151109 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |