JP2012055412A - Image processor, endoscope apparatus, image processing method, and program - Google Patents
Image processor, endoscope apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2012055412A JP2012055412A JP2010199772A JP2010199772A JP2012055412A JP 2012055412 A JP2012055412 A JP 2012055412A JP 2010199772 A JP2010199772 A JP 2010199772A JP 2010199772 A JP2010199772 A JP 2010199772A JP 2012055412 A JP2012055412 A JP 2012055412A
- Authority
- JP
- Japan
- Prior art keywords
- image
- magnification
- unit
- images
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Endoscopes (AREA)
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
Abstract
Description
本発明は、画像処理装置、内視鏡装置、画像処理方法及びプログラム等に関する。 The present invention relates to an image processing apparatus, an endoscope apparatus, an image processing method, a program, and the like.
内視鏡診断では、体腔内の病変検出精度を向上させたいという要求がある。この精度向上の一般的な手法として、拡大光学系を備えた内視鏡(拡大内視鏡)を用いて、病変部と正常部の組織上の違いを顕微鏡相当の拡大率で拡大観察する手法が知られている。このような拡大内視鏡は、例えば数十倍から数百倍の拡大率を有し、ピットパターンや血管走行パターンの観察に用いられる。病変部と正常部ではこれらのパターンに違いが表れることが知られており、病変診断の1つの判定基準となっている。 In endoscopic diagnosis, there is a demand for improving the accuracy of detecting a lesion in a body cavity. As a general technique for improving accuracy, an endoscope (magnifying endoscope) equipped with a magnifying optical system is used to magnify and observe the difference in tissue between the lesioned part and the normal part at a magnification equivalent to that of a microscope. It has been known. Such a magnifying endoscope has an enlargement ratio of, for example, several tens to several hundred times, and is used for observation of a pit pattern or a blood vessel running pattern. It is known that there is a difference in these patterns between the lesioned part and the normal part, which is one criterion for lesion diagnosis.
しかしながら、このような拡大観察では、拡大率が大きいため視野が非常に狭くなってしまう。そのため、スコープと観察対象との間に相対的に小さな動きが発生しただけでも、観察対象のどの位置を観察しているかの判断が困難となるという課題がある。このように観察位置が分からなくなった場合、拡大観察を止め、拡大率の小さい通常観察に戻し、観察したい領域に位置合わせを行い、再度拡大観察を行なうという手順を繰り返す必要がある。そのため、診断時間が延び、患者に負担がかかってしまう。 However, in such magnified observation, the field of view becomes very narrow due to the large magnification. For this reason, there is a problem that it is difficult to determine which position of the observation target is observed even if a relatively small movement occurs between the scope and the observation target. In this way, when the observation position is lost, it is necessary to repeat the procedure of stopping the enlarged observation, returning to the normal observation with a small enlargement ratio, aligning the region to be observed, and performing the enlarged observation again. Therefore, the diagnosis time is extended and the patient is burdened.
例えば、特許文献1には、スコープ先端と観察対象との間の相対的な動きに伴う画像ずれを相殺するための補正湾曲角度を計算し、その補正湾曲角度でスコープ先端を湾曲させることで、画像ずれを補正する手法が開示されている。この手法では、スコープ先端と観察対象との間の相対的な動きが小さい場合は画像ずれの補正が可能である。しかしながら、この手法では、撮像画像の視野を越えるような画像ずれが発生した場合には、撮像画像から画像ずれを算出できないため、補正湾曲角度を算出できないという課題がある。また、この手法では、倍率が高くなるほど許容されるずれ量は小さくなるため、高倍率な拡大内視鏡ほど実用性が低くなる。 For example, Patent Document 1 calculates a correction curve angle for offsetting image shift caused by relative movement between the scope tip and the observation target, and curves the scope tip at the correction curve angle. A method for correcting image shift is disclosed. In this method, when the relative movement between the scope tip and the observation target is small, it is possible to correct the image shift. However, with this method, when an image shift that exceeds the field of view of the captured image occurs, the image shift cannot be calculated from the captured image, and thus there is a problem that the correction curve angle cannot be calculated. Further, in this method, since the allowable deviation amount becomes smaller as the magnification becomes higher, the magnifying endoscope with higher magnification becomes less practical.
本発明の幾つかの態様によれば、拡大観察におけるスコープ先端と観察対象との間の相対的な動きの許容範囲を向上する画像処理装置、内視鏡装置、画像処理方法及びプログラム等を提供できる。 According to some aspects of the present invention, there are provided an image processing device, an endoscope device, an image processing method, a program, and the like that improve an allowable range of relative movement between a distal end of a scope and an observation target in magnified observation. it can.
本発明の一態様は、観察対象物を複数の異なる倍率で拡大して撮像することにより得られた複数の画像を取得する画像取得部と、前記複数の画像の中から、各画像間の倍率が相対的に異なる第1〜第n倍率画像(nは、n≧2の自然数)を選択する画像選択部と、前記第1〜第n倍率画像の中から、基準画像と前記基準画像より高倍率の検出対象画像を選択し、前記検出対象画像に対応する前記基準画像上の領域を検出して、前記検出対象画像を前記領域に対応付ける領域検出部と、を含む画像処理装置に関係する。 One aspect of the present invention is an image acquisition unit that acquires a plurality of images obtained by enlarging and imaging an observation object at a plurality of different magnifications, and a magnification between the images from the plurality of images. An image selection unit that selects first to nth magnification images (n is a natural number of n ≧ 2) that are relatively different from each other, and a reference image and a higher image than the reference image among the first to nth magnification images. The present invention relates to an image processing apparatus that includes a region detection unit that selects a detection target image with a magnification, detects a region on the reference image corresponding to the detection target image, and associates the detection target image with the region.
本発明の一態様によれば、複数の画像の中から第1〜第n倍率画像が選択され、その第1〜第n倍率画像の中から基準画像と基準画像より高倍率の検出対象画像が選択され、その検出対象画像に対応する基準画像上の領域が検出されて、その領域に検出対象画像が対応付けられる。これにより、拡大観察におけるスコープ先端と観察対象との間の相対的な動きの許容範囲の向上等が可能になる。 According to an aspect of the present invention, the first to nth magnification images are selected from a plurality of images, and the reference image and the detection target image having a higher magnification than the reference image are selected from the first to nth magnification images. A region on the reference image corresponding to the detection target image is selected, and the detection target image is associated with the region. This makes it possible to improve the allowable range of relative movement between the scope tip and the observation target in magnified observation.
また、本発明の他の態様は、上記に記載の画像処理装置を含む内視鏡装置に関係する。 Another aspect of the present invention relates to an endoscope apparatus including the image processing apparatus described above.
また、本発明の他の態様は、観察対象物を複数の異なる倍率で拡大して撮像することにより得られた複数の画像を取得し、前記複数の画像の中から、各画像で相対的に倍率が異なる第1〜第n倍率画像(nは、n≧2の自然数)を選択し、前記第1〜第n倍率画像の中から、基準画像と前記基準画像より高倍率の検出対象画像を選択し、前記検出対象画像に対応する前記基準画像上の領域を検出して、前記検出対象画像を前記領域に対応付ける画像処理方法に関係する。 According to another aspect of the present invention, a plurality of images obtained by enlarging and imaging an observation object at a plurality of different magnifications are acquired, and each of the plurality of images is relatively compared with each other. First to nth magnification images (n is a natural number of n ≧ 2) having different magnifications are selected, and a reference image and a detection target image having a higher magnification than the reference image are selected from the first to nth magnification images. The present invention relates to an image processing method for selecting, detecting an area on the reference image corresponding to the detection target image, and associating the detection target image with the area.
また、本発明の他の態様は、観察対象物を複数の異なる倍率で拡大して撮像することにより得られた複数の画像を取得する画像取得部と、前記複数の画像の中から、各画像で相対的に倍率が異なる第1〜第n倍率画像(nは、n≧3の自然数)を選択する画像選択部と、前記第1〜第n倍率画像の中から、基準画像と前記基準画像より高倍率の検出対象画像を選択し、前記検出対象画像に対応する前記基準画像上の領域を検出して、前記検出対象画像を前記領域に対応付ける領域検出部として、コンピュータを機能させるプログラムに関係する。 According to another aspect of the present invention, an image acquisition unit that acquires a plurality of images obtained by enlarging and imaging an observation object at a plurality of different magnifications, and each image from the plurality of images. An image selection unit that selects first to nth magnification images (n is a natural number of n ≧ 3) having relatively different magnifications, and a reference image and the reference image from among the first to nth magnification images This relates to a program that selects a higher magnification detection target image, detects a region on the reference image corresponding to the detection target image, and causes the computer to function as a region detection unit that associates the detection target image with the region. To do.
また、本発明の他の態様は、観察対象物を撮像することにより得られた一連の動画画像を取得する画像取得部と、前記一連の動画画像を第1の表示領域に表示する制御を行う表示制御部と、を含み、前記表示制御部は、前記第1の表示領域に表示される動画画像よりも低倍率の画像であって、前記一連の動画画像の中から選択された動画画像を、低倍率画像として第2の表示領域に表示する制御を行い、前記表示制御部は、前記第1の表示領域に表示される動画画像に対応する前記低倍率画像上の領域を表す情報であって、前記一連の動画画像の視野範囲の移動に応じて前記低倍率画像上を移動する識別情報を前記第2の表示領域に表示する制御を行う内視鏡装置に関係する。 According to another aspect of the present invention, an image acquisition unit that acquires a series of moving image images obtained by imaging an observation target and a control for displaying the series of moving image images in a first display area are performed. A display control unit, wherein the display control unit displays a moving image selected from the series of moving images, the image having a lower magnification than the moving image displayed in the first display area. The display control unit performs control to display the image on the second display area as a low-magnification image, and the display control unit is information representing an area on the low-magnification image corresponding to the moving image displayed on the first display area. In addition, the present invention relates to an endoscope apparatus that performs control to display identification information that moves on the low-magnification image in accordance with movement of the visual field range of the series of moving image images in the second display area.
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。 Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.
1.本実施形態の手法
まず図1を用いて、上述の拡大撮影での課題について説明する。図1のA1に示すように、拡大撮影時には、内視鏡のスコープを観察対象Tgに近づけて撮影するため、スコープの視野FA1は非常に狭くなる。そのため、A2に示すように、消化管の動きやスコープのブレが起きると、動きが小さくても視野が大きくずれ、視野FA2がFA1から容易に外れてしまう。この場合、FA1とFA2を撮影した重複のない画像のみから、観察対象Tgを再び視野に導入することは困難である。
1. First, a problem in the above-described enlarged photographing will be described with reference to FIG. As shown at A1 in FIG. 1, at the time of enlargement photographing, the scope scope FA1 becomes very narrow because the scope of the endoscope is photographed close to the observation target Tg. Therefore, as shown in A2, when the motion of the digestive tract or the blurring of the scope occurs, the visual field is greatly shifted even if the motion is small, and the visual field FA2 is easily detached from FA1. In this case, it is difficult to introduce the observation target Tg into the field of view again from only the images that do not overlap FA1 and FA2.
そこで、本実施形態では、低倍率撮影時の画像を取得しておき、その画像と高倍率撮影時の画像との位置関係を検出することで、観察対象Tgの再導入を可能にする。この本実施形態の手法について、図2、図3を用いて具体的に説明する。 Therefore, in the present embodiment, an image at the time of low-magnification shooting is acquired, and the positional relationship between the image and the image at the time of high-magnification shooting is detected, whereby the observation target Tg can be reintroduced. The method of this embodiment will be specifically described with reference to FIGS.
図2のB1に示すように、拡大撮影では、観察対象Tgから離れた位置からスコープを徐々に近づけることが一般的である。そして、B2に示すように、最大倍率となる位置までスコープを観察対象Tgに近づけていく。視野はFB1からFB2に狭まる。B3に示すように、視野FB3が観察対象Tgからずれても、FB1内であればFB3の位置を知ることが可能である。 As shown in B1 of FIG. 2, in the enlarged photographing, the scope is generally gradually approached from a position away from the observation target Tg. Then, as shown in B2, the scope is brought closer to the observation target Tg up to the position where the maximum magnification is obtained. The field of view narrows from FB1 to FB2. As shown in B3, even if the visual field FB3 deviates from the observation target Tg, the position of the FB3 can be known within the FB1.
具体的には、図3に示すように、視野FB1を撮像した画像PB1と、視野FB2,FB3を最大倍率で撮像した画像PB2,PB3とのマッチング処理を行う。そして、そのマッチング処理の結果を用いて、現在の撮影範囲を画像PB1上に表示したり、スコープ先端を観察対象Tgの方向に自動的に曲げる制御を行う。なお、後述するように、本実施形態では低倍率画像と最大倍率画像のマッチング処理を、中間倍率画像を用いて段階的に行い、100倍等の高倍率であっても高精度なマッチングを可能にする。 Specifically, as shown in FIG. 3, matching processing is performed between an image PB1 obtained by imaging the field of view FB1 and images PB2 and PB3 obtained by imaging the fields of view FB2 and FB3 at the maximum magnification. Then, using the result of the matching process, the current shooting range is displayed on the image PB1, or the scope tip is automatically bent in the direction of the observation target Tg. As will be described later, in this embodiment, the matching process between the low-magnification image and the maximum-magnification image is performed in stages using the intermediate magnification image, and high-precision matching is possible even at a high magnification such as 100 times. To.
2.内視鏡装置
図4に、観察対象Tgの再導入を容易にする本実施形態の内視鏡装置の構成例を示す。この内視鏡装置は、光源部100と、撮像部200と、制御装置300(制御装置)と、表示部400と、外部I/F部500を含む。
2. Endoscopic Device FIG. 4 shows a configuration example of the endoscope device of the present embodiment that facilitates reintroduction of the observation target Tg. The endoscope apparatus includes a light source unit 100, an imaging unit 200, a control device 300 (control device), a display unit 400, and an external I / F unit 500.
光源部100は、白色光源101と、それぞれ分光透過率が異なる複数のフィルタを有する回転色フィルタ102と、回転色フィルタ102を駆動させる回転駆動部103と、回転色フィルタ102からの分光特性を持った光をライトガイドファイバ201の入射端面に集光させる集光レンズ104を含む。 The light source unit 100 has spectral characteristics from the white light source 101, a rotating color filter 102 having a plurality of filters each having a different spectral transmittance, a rotation driving unit 103 that drives the rotating color filter 102, and the rotating color filter 102. A condensing lens 104 that condenses the collected light on the incident end face of the light guide fiber 201.
図5に示すように、回転色フィルタ102は、例えば三原色の赤の色フィルタ601と、三原色の青の色フィルタ602と、三原色の緑の色フィルタ603と、回転モータ803とから構成されている。図6に、これら3つの色フィルタの分光特性例を示す。図6に示すように、それぞれ波長580〜700nm、400〜500nm、480〜600nmを透過する。 As shown in FIG. 5, the rotation color filter 102 includes, for example, three primary color red color filters 601, three primary color blue color filters 602, three primary color green color filters 603, and a rotation motor 803. . FIG. 6 shows examples of spectral characteristics of these three color filters. As shown in FIG. 6, it transmits wavelengths 580 to 700 nm, 400 to 500 nm, and 480 to 600 nm, respectively.
回転駆動部103は、制御装置300の制御部302からの制御信号に基づいて、撮像素子209の撮像期間と同期して回転色フィルタ102を所定回転数で回転させる。例えば、色フィルタを1秒間に20回転させると、各色フィルタは60分の1秒間隔で入射白色光を横切る。そして、撮像素子209は、例えばモノクロ単板撮像素子であり、60分の1秒間隔で3原色の各色光(Rまたは、Gまたは、B)での反射光の画像データの撮像と転送を完了する。すなわち、R画像データ、G画像データ、B画像データが60分の1秒間隔で面順次で撮像される。 The rotation driving unit 103 rotates the rotating color filter 102 at a predetermined number of rotations in synchronization with the imaging period of the imaging element 209 based on a control signal from the control unit 302 of the control device 300. For example, if the color filters are rotated 20 times per second, each color filter crosses the incident white light at 1/60 second intervals. The imaging device 209 is, for example, a monochrome single-plate imaging device, and completes imaging and transfer of reflected light image data with each of the three primary colors (R, G, or B) at 1/60 second intervals. To do. That is, R image data, G image data, and B image data are captured in a frame sequential manner at 1/60 second intervals.
撮像部200は、例えば体腔への挿入を可能にするため細長くかつ湾曲可能に形成されている。撮像部200は、光源部100で集光された光を導くためのライトガイドファイバ201と、そのライトガイドファイバ201により先端まで導かれてきた光を拡散させて観察対象に照射する照明レンズ202を含む。また、撮像部200は、観察対象から戻る反射光を集光する対物レンズ203と、可変絞り制御部204と、可変絞り部205と、焦点位置制御部206と、焦点位置調整レンズ207を含む。また、撮像部200は、集光した結像光を検出するための撮像素子209と、撮像素子209により光電変換されて得られたアナログ信号をデジタル信号に変換するA/D変換部210を含む。撮像素子209は、例えばCCDやCMOSにより構成される。 The imaging unit 200 is formed to be elongated and bendable, for example, to enable insertion into a body cavity. The imaging unit 200 includes a light guide fiber 201 for guiding the light collected by the light source unit 100, and an illumination lens 202 that diffuses the light guided to the tip by the light guide fiber 201 and irradiates the observation target. Including. The imaging unit 200 includes an objective lens 203 that collects reflected light returning from the observation target, a variable aperture control unit 204, a variable aperture unit 205, a focal position control unit 206, and a focal position adjustment lens 207. In addition, the imaging unit 200 includes an imaging element 209 for detecting the focused imaging light, and an A / D conversion unit 210 that converts an analog signal obtained by photoelectric conversion by the imaging element 209 into a digital signal. . The image sensor 209 is configured by, for example, a CCD or a CMOS.
制御装置300は、画像処理部301と、制御部302を含む。画像処理部301は、A/D変換部210からの画像データを画像処理したり、上述のマッチング処理を行ったり、マッチング処理の結果から現在の撮像領域を表示部400に表示する制御を行ったりする。制御部302は、内視鏡装置の各構成要素を制御する。 The control device 300 includes an image processing unit 301 and a control unit 302. The image processing unit 301 performs image processing on the image data from the A / D conversion unit 210, performs the above-described matching processing, and performs control to display the current imaging region on the display unit 400 from the result of the matching processing. To do. The control unit 302 controls each component of the endoscope apparatus.
表示部400は、動画表示可能な表示装置であり、例えばCRTや液晶モニタにより構成される。 The display unit 400 is a display device capable of displaying moving images, and is configured by, for example, a CRT or a liquid crystal monitor.
外部I/F部500は、内視鏡装置に対するユーザからの入力等を行うためのインターフェースである。外部I/F部500は、例えば電源のオン/オフを行うための電源スイッチや、撮影操作を開始するためのシャッタボタンや、撮影モードやその他各種のモードを切り換えるためのモード切換ノブを含む。モード切替ノブは、例えば図10に示すズーム操作ノブ501である。このズーム操作ノブ501を拡大観察モードとなる方向に動かすことで焦点位置調整レンズが移動され、より被写体に近接した位置でピントが合う状態が得られる。外部I/F部500は、入力された情報を制御部302へ出力する。 The external I / F unit 500 is an interface for performing input from the user to the endoscope apparatus. The external I / F unit 500 includes, for example, a power switch for turning on / off the power, a shutter button for starting a photographing operation, and a mode switching knob for switching a photographing mode and various other modes. The mode switching knob is, for example, a zoom operation knob 501 shown in FIG. By moving the zoom operation knob 501 in the direction of the magnification observation mode, the focus position adjustment lens is moved, and a state in which the subject is in focus at a position closer to the subject is obtained. The external I / F unit 500 outputs the input information to the control unit 302.
次に、本実施形態の2つの観察モードについて説明する。観察モードの1つは、高深度低解像度となる通常観察モード(全域観察モード)であり、もう1つは、低深度高解像度となる拡大観察モード(近接拡大観察モード)である。 Next, the two observation modes of this embodiment will be described. One of the observation modes is a normal observation mode (entire observation mode) that achieves high depth and low resolution, and the other is an enlargement observation mode (close-up observation mode) that achieves low depth and high resolution.
この2つの観察モードを切り替えるために、制御部302は、外部I/F部500のモード切換ボタンによるユーザからのモード切換要求に基づいて、可変絞り制御部204と焦点位置制御部206に制御信号を送信する。可変絞り制御部204は、受信した制御信号に基づいて可変絞り部205の絞り量を制御する。焦点位置制御部206は、受信した制御信号に基づいて焦点位置調整レンズ207を制御する。 In order to switch between the two observation modes, the control unit 302 sends a control signal to the variable aperture control unit 204 and the focus position control unit 206 based on a mode switching request from the user using the mode switching button of the external I / F unit 500. Send. The variable aperture control unit 204 controls the aperture amount of the variable aperture unit 205 based on the received control signal. The focal position control unit 206 controls the focal position adjustment lens 207 based on the received control signal.
拡大観察モードを選択した場合には、絞りを開けてレンズ開口を大きくする。具体的には、許容錯乱円を撮像素子209の限界解像度が得られる大きさに設定し、レンズの焦点での錯乱円が許容錯乱円以下となるように絞りを設定する。また、焦点位置制御部206は、予め設定された所定の焦点位置となるように焦点位置調整レンズを駆動する。 When the magnification observation mode is selected, the aperture is opened to enlarge the lens aperture. Specifically, the permissible circle of confusion is set to a size that allows the limit resolution of the image sensor 209 to be obtained, and the aperture is set so that the circle of confusion at the focal point of the lens is equal to or less than the permissible circle of confusion. Further, the focal position control unit 206 drives the focal position adjustment lens so that a predetermined focal position is set in advance.
一方、通常観察モードを選択した場合には、絞りを絞ってレンズ開口を小さくする。具体的には、実用的な解像度と被写界深度が得られる錯乱円の大きさとなるように絞りを設定する。また、焦点位置制御部206は、実用的な被写界深度を得るための焦点位置となるように焦点位置調整レンズを駆動する。 On the other hand, when the normal observation mode is selected, the aperture is reduced to reduce the lens aperture. Specifically, the aperture is set so as to have a circle of confusion that provides practical resolution and depth of field. Further, the focal position control unit 206 drives the focal position adjustment lens so as to obtain a focal position for obtaining a practical depth of field.
これらのモードの切り替えは、まず通常観察モードにおいて深度内限界まで被写体に近接し、その状態で拡大観察モードに切り替えることで行う。このようにして、近接拡大観察時の被写界深度が非常に狭い状態でも、ピントが合った高精細な画像を撮像できる。 Switching between these modes is performed by first approaching the subject to the depth limit in the normal observation mode and switching to the magnification observation mode in that state. In this way, a high-definition image that is in focus can be captured even when the depth of field during close-up magnification observation is very narrow.
3.画像処理部
図7に、上述のマッチング処理等を行う画像処理部301の詳細な構成例を示す。画像処理部301は、画像構成処理部310、目標倍率画像群選択部320、異倍率画像間位置決定部330、表示情報生成部340、合成部350を含む。
3. Image Processing Unit FIG. 7 shows a detailed configuration example of the image processing unit 301 that performs the above-described matching processing and the like. The image processing unit 301 includes an image configuration processing unit 310, a target magnification image group selection unit 320, a different magnification image position determination unit 330, a display information generation unit 340, and a synthesis unit 350.
A/D変換部210から出力された画像データは、画像構成処理部310に入力される。画像構成処理部310には、さらに制御部302が接続されており、制御部302に予め保存されている処理パラメータが入力される。例えば、処理パラメータは、OBクランプ値や、WB係数、色補正係数、階調変換テーブル、輪郭強調レベル等である。画像構成処理部310は、それらの処理パラメータに基づいて、入力された画像データから表示部400で観察可能な動画像を生成し、目標倍率画像群選択部320と合成部350へ出力する。 The image data output from the A / D conversion unit 210 is input to the image configuration processing unit 310. A control unit 302 is further connected to the image configuration processing unit 310, and processing parameters stored in advance in the control unit 302 are input. For example, the processing parameters are an OB clamp value, a WB coefficient, a color correction coefficient, a gradation conversion table, an edge enhancement level, and the like. Based on these processing parameters, the image configuration processing unit 310 generates a moving image that can be observed on the display unit 400 from the input image data, and outputs it to the target magnification image group selection unit 320 and the synthesis unit 350.
目標倍率画像群選択部320には、画像構成処理部310から出力される動画像が入力され、外部I/F部500でユーザ指定された観察モード信号が制御部302から入力される。観察モード信号は、拡大観察モードか通常観察モードかを示す情報である。また、目標倍率画像群選択部320には、撮像部200の最大倍率情報により予め設定された複数の選択すべき目標倍率情報が入力される。最大倍率情報は、光学系の設計情報に基づく最近接合焦時の像倍率である。 A moving image output from the image configuration processing unit 310 is input to the target magnification image group selection unit 320, and an observation mode signal designated by the user in the external I / F unit 500 is input from the control unit 302. The observation mode signal is information indicating the magnification observation mode or the normal observation mode. The target magnification image group selection unit 320 receives a plurality of pieces of target magnification information to be selected that are set in advance based on the maximum magnification information of the imaging unit 200. The maximum magnification information is the image magnification at the time of the most recent focusing based on the design information of the optical system.
目標倍率画像群選択部320は、複数の目標倍率の代表画像を選択する。より具体的には、目標倍率画像群選択部320は、拡大観察モードにおいて動作状態となる。拡大観察では、観察対象領域10と対物レンズ203との相対距離が近づくにつれて、観察対象領域10の倍率が大きくなる。例えば、目標倍率画像群選択部320は、このような動画像から光学系の最大倍率の1、1/4、1/16、1/64倍に相当する目標倍率の代表画像を選択する。そして、目標倍率画像群選択部320は、入力される動画像から目標倍率を逐次選択し、選択した画像を目標倍率画像の最新画像として上書き保存し、その保存済みの目標倍率画像とその更新情報を異倍率画像間位置決定部330に出力する。詳細については後述する。 The target magnification image group selection unit 320 selects representative images having a plurality of target magnifications. More specifically, the target magnification image group selection unit 320 is in an operating state in the magnification observation mode. In magnified observation, the magnification of the observation target region 10 increases as the relative distance between the observation target region 10 and the objective lens 203 approaches. For example, the target magnification image group selection unit 320 selects a representative image having a target magnification corresponding to 1, 1/4, 1/16, or 1/64 times the maximum magnification of the optical system from such a moving image. Then, the target magnification image group selection unit 320 sequentially selects the target magnification from the input moving image, overwrites and saves the selected image as the latest image of the target magnification image, the saved target magnification image and its update information. Is output to the different magnification image position determination unit 330. Details will be described later.
ここで、代表画像選択時の基準となる倍率は、例えば観察モードが拡大観察モードに切り替わった時点の撮像画像である。そして、目標倍率は、この基準画像から最大倍率までを所定整数で分割した倍率である。 Here, the reference magnification when selecting a representative image is, for example, a captured image at the time when the observation mode is switched to the magnification observation mode. The target magnification is a magnification obtained by dividing the reference image to the maximum magnification by a predetermined integer.
異倍率画像間位置決定部330には、目標倍率画像群選択部320から出力された複数の目標倍率の代表画像と、制御部302からの観察モード信号と目標倍率情報が入力される。異倍率画像間位置決定部330は、入力される複数倍率の代表画像間で画像間マッチング処理を行い、高倍率画像が低倍率画像の何処に位置するかを示す位置情報を算出する。そして、異倍率画像間位置決定部330は、画像間マッチング処理で使用した低倍率画像と位置情報を表示情報生成部340へ出力する。 The different magnification image position determination unit 330 receives a representative image of a plurality of target magnifications output from the target magnification image group selection unit 320, an observation mode signal from the control unit 302, and target magnification information. The different magnification image position determination unit 330 performs an image matching process between the input representative images of a plurality of magnifications, and calculates position information indicating where the high magnification image is located in the low magnification image. Then, the different magnification inter-image position determination unit 330 outputs the low magnification image and the position information used in the inter-image matching processing to the display information generation unit 340.
表示情報生成部340は、入力された低倍率画像と位置情報に基づいて、現在観察中の観察領域を矩形枠等で表した低倍率画像を生成し、生成した画像を合成部350へ出力する。 Based on the input low-magnification image and position information, the display information generation unit 340 generates a low-magnification image representing the observation area currently being observed with a rectangular frame or the like, and outputs the generated image to the synthesis unit 350. .
合成部350には、表示情報生成部340からの観察領域が表された低倍率画像と、画像構成処理部310から出力される動画像と、制御部302からの観察モード信号が入力される。合成部350は、観察モード信号が拡大観察モードを示す場合には、例えば2画面表示の表示画像を生成する。合成部350は、その表示画像を表示部400に出力する。 The composition unit 350 receives the low-magnification image representing the observation region from the display information generation unit 340, the moving image output from the image configuration processing unit 310, and the observation mode signal from the control unit 302. For example, when the observation mode signal indicates the magnification observation mode, the synthesis unit 350 generates a display image having a two-screen display. The combining unit 350 outputs the display image to the display unit 400.
図8に、2画面表示の表示画像の例を示す。図8のD1に示すように、画面左側の表示領域には、現在観察している動画像を表示する。D2に示すように、画面右側の表示領域には、低倍率画像を表示する。低倍率画像は、後述する目標倍率画像のうちの例えば最低倍率の画像である。例えば、これらの表示領域は、表示枠で囲まれる。D3に示すように、現在の観察領域を表す枠線を低倍率画像上に表示する。また、D4に示すように、観察ターゲットを表す枠線を低倍率画像上に表示する。なお、通常観察モードでは、D1に示す動画像と表示枠を合成した表示画像が生成される。 FIG. 8 shows an example of a two-screen display image. As shown in D1 of FIG. 8, the currently observed moving image is displayed in the display area on the left side of the screen. As shown in D2, a low-magnification image is displayed in the display area on the right side of the screen. The low-magnification image is, for example, an image with the lowest magnification among target magnification images described later. For example, these display areas are surrounded by a display frame. As indicated by D3, a frame line representing the current observation area is displayed on the low-magnification image. In addition, as indicated by D4, a frame line representing the observation target is displayed on the low-magnification image. In the normal observation mode, a display image is generated by combining the moving image indicated by D1 and the display frame.
表示部400には、合成部350から出力される合成画像が入力される。入力される画像は、例えばハイビジョン信号である。表示部400は、例えば液晶モニタ等の表示装置であり、入力された合成画像を表示する。 The composite image output from the composition unit 350 is input to the display unit 400. The input image is, for example, a high vision signal. The display unit 400 is a display device such as a liquid crystal monitor, for example, and displays an input composite image.
4.目標倍率画像群選択部
図9に、目標倍率画像群選択部320の詳細な構成例を示す。目標倍率画像群選択部320は、フレームメモリ321、画像選択部322、領域抽出部323、倍率補正部324、目標倍率画像選択部325、マッチング処理部326、参照倍率画像選択部327、フレームメモリ328、目標倍率画像選択制御部329を含む。
4). Target Magnification Image Group Selection Unit FIG. 9 shows a detailed configuration example of the target magnification image group selection unit 320. The target magnification image group selection unit 320 includes a frame memory 321, an image selection unit 322, a region extraction unit 323, a magnification correction unit 324, a target magnification image selection unit 325, a matching processing unit 326, a reference magnification image selection unit 327, and a frame memory 328. The target magnification image selection control unit 329 is included.
フレームメモリ321は、画像構成処理部310からの動画像を保存する。画像構成処理部310から出力される動画像は、観察対象領域に撮像部200の先端を徐々に近づけながら(例えば図10のE1)撮像されたものである。そのため、フレームメモリ321には、時間と共に像倍率が高くなる傾向の動画像が保存される。 The frame memory 321 stores the moving image from the image configuration processing unit 310. The moving image output from the image configuration processing unit 310 is captured while the tip of the imaging unit 200 is gradually approaching the observation target region (for example, E1 in FIG. 10). Therefore, the frame memory 321 stores a moving image that tends to increase the image magnification with time.
例えば、フレームメモリ321は、数秒分の動画像を保存できる容量を有し、リングバッファとして機能する。すなわち、フレームメモリ321は、既に保存されている画像を新しい画像で逐次上書きする。フレームメモリ321に保存されている動画像は、画像選択部322により所定位置の1フレーム画像が選択され、選択された画像は、領域抽出部323と目標倍率画像選択部325へ出力される。なお、フレームメモリ321に保存する動画像は、所定間隔でフレームを間引いてもよい。この場合、より長時間の動画像の保存が可能となる。 For example, the frame memory 321 has a capacity capable of storing a moving image for several seconds and functions as a ring buffer. That is, the frame memory 321 sequentially overwrites an already stored image with a new image. As the moving image stored in the frame memory 321, one frame image at a predetermined position is selected by the image selection unit 322, and the selected image is output to the region extraction unit 323 and the target magnification image selection unit 325. Note that moving images stored in the frame memory 321 may be thinned at predetermined intervals. In this case, the moving image can be stored for a longer time.
領域抽出部323には、画像選択部322からの1フレーム画像と、目標倍率画像選択制御部329からの目標倍率に対応する抽出領域情報が入力される。領域抽出部323は、抽出領域情報に基づいて、1フレーム画像の中央部あるいは中央部付近で最もコントラストが高い領域周辺を所定領域分抽出し、その抽出領域画像を倍率補正部324へ出力する。 The region extraction unit 323 receives one frame image from the image selection unit 322 and extraction region information corresponding to the target magnification from the target magnification image selection control unit 329. Based on the extracted region information, the region extracting unit 323 extracts a predetermined region around the region having the highest contrast at or near the center of one frame image, and outputs the extracted region image to the magnification correcting unit 324.
倍率補正部324には、領域抽出部323から出力された抽出領域画像と、目標倍率画像選択制御部329からの目標倍率情報が入力される。倍率補正部324は、抽出領域画像を目標倍率情報に基づいて縮小処理し、その縮小抽出領域画像をマッチング処理部326へ出力する。 The magnification correction unit 324 receives the extracted region image output from the region extraction unit 323 and the target magnification information from the target magnification image selection control unit 329. The magnification correction unit 324 performs reduction processing on the extracted region image based on the target magnification information, and outputs the reduced extraction region image to the matching processing unit 326.
目標倍率画像選択部325には、目標倍率画像選択制御部329からの目標倍率情報と、マッチング処理部326から出力されるマッチング判定情報が入力される。目標倍率画像選択部325は、これらの情報に基づいて、フレームメモリ321から目標倍率画像を選択し、選択した目標倍率画像をフレームメモリ328へ出力する。目標倍率画像選択部325は、目標倍率情報が最小倍率である場合には、マッチング処理部326からの情報に依らず、拡大観察モードに切り替わった時点でフレームメモリ321に格納されたフレーム画像を、最小倍率の目標倍率画像としてフレームメモリ328へ出力する。フレームメモリ328には、目標倍率画像選択部325から出力されるフレーム画像が、目標倍率毎に指定された格納領域に上書き保存される。 The target magnification image selection unit 325 receives the target magnification information from the target magnification image selection control unit 329 and the matching determination information output from the matching processing unit 326. The target magnification image selection unit 325 selects a target magnification image from the frame memory 321 based on these pieces of information, and outputs the selected target magnification image to the frame memory 328. When the target magnification information is the minimum magnification, the target magnification image selection unit 325 does not depend on the information from the matching processing unit 326, and the frame image stored in the frame memory 321 at the time of switching to the magnification observation mode is The image is output to the frame memory 328 as a target magnification image having the minimum magnification. In the frame memory 328, the frame image output from the target magnification image selection unit 325 is overwritten and saved in a storage area designated for each target magnification.
参照倍率画像選択部327は、目標倍率画像選択制御部329から出力される目標倍率情報に基づいて、参照倍率画像をフレームメモリ328から読み出し、読み出した参照倍率画像をマッチング処理部326へ出力する。参照倍率画像は、マッチング処理部326において縮小抽出領域画像とマッチングを取る画像である。 The reference magnification image selection unit 327 reads the reference magnification image from the frame memory 328 based on the target magnification information output from the target magnification image selection control unit 329, and outputs the read reference magnification image to the matching processing unit 326. The reference magnification image is an image that is matched with the reduced extraction region image in the matching processing unit 326.
マッチング処理部326は、参照倍率画像と縮小抽出領域とのマッチング処理を行い、最も相関が高くなる位置での相関値を目標倍率画像選択部325へ出力する。例えば、マッチング処理部326は、参照倍率画像と縮小抽出領域に対して血管構造をより強調させるための強調処理を施した後に、その2つの画像間でマッチング処理を行う。マッチング処理は、例えば差分絶対値和(または差分自乗和)が利用される。マッチング処理でのテンプレート画像は縮小抽出領域画像であり、マッチング処理での探索範囲画像は参照倍率画像である。すなわち、縮小抽出領域画像は参照倍率画像よりもサイズが小さく、テンプレート画像を探索範囲画像内で移動させて差分絶対値和が算出される。そして、算出された差分絶対値和の最小値が、画像間の相関値として目標倍率画像選択部325へ出力される。 The matching processing unit 326 performs a matching process between the reference magnification image and the reduced extraction region, and outputs a correlation value at a position where the correlation is highest to the target magnification image selection unit 325. For example, the matching processing unit 326 performs enhancement processing for further emphasizing the blood vessel structure on the reference magnification image and the reduced extraction region, and then performs matching processing between the two images. For the matching process, for example, a sum of absolute differences (or a sum of squared differences) is used. The template image in the matching process is a reduced extraction area image, and the search range image in the matching process is a reference magnification image. That is, the reduced extraction area image is smaller than the reference magnification image, and the sum of absolute differences is calculated by moving the template image within the search range image. Then, the calculated minimum sum of absolute differences is output to the target magnification image selection unit 325 as a correlation value between images.
目標倍率画像選択部325は、入力される相関値を複数フレーム期間分保存する。そして、目標倍率画像選択部325は、その複数の相関値の中で最小の相関値に対応するフレーム画像を、目標倍率画像としてフレームメモリ321から読み出し、フレームメモリ328の所定格納領域へ保存する。目標倍率画像選択部325は、目標倍率画像の選択完了を表す情報を目標倍率画像選択制御部329に出力する。 The target magnification image selection unit 325 stores input correlation values for a plurality of frame periods. Then, the target magnification image selection unit 325 reads out a frame image corresponding to the smallest correlation value among the plurality of correlation values from the frame memory 321 as a target magnification image, and stores it in a predetermined storage area of the frame memory 328. The target magnification image selection unit 325 outputs information indicating the completion of selection of the target magnification image to the target magnification image selection control unit 329.
目標倍率画像選択制御部329は、選択が完了した目標倍率画像の更新情報を保存しており、この更新情報を異倍率画像間位置決定部330へ出力する。この目標倍率画像の更新情報は、最も新しく更新された画像の倍率判定が可能な形式で保存される。例えば、選択すべき目標倍率が4つの場合には、4ビットの情報を用意し、更新された倍率に対応するビットのみ1を立てることで更新情報とする。 The target magnification image selection control unit 329 stores update information of the target magnification image that has been selected, and outputs the update information to the different magnification image position determination unit 330. The update information of the target magnification image is stored in a format in which the magnification of the most recently updated image can be determined. For example, when there are four target magnifications to be selected, 4-bit information is prepared, and only 1 bit corresponding to the updated magnification is set as update information.
目標倍率画像選択部325は、拡大観察モードにおいて、最大倍率画像まで更新したら目標倍率を最大倍率に固定し、以降は撮像画像を最大倍率の目標倍率画像として選択し続ける。この場合、マッチング処理部326からの相関値の大きさが安定して所定閾値以下の場合には、次の異倍率画像間位置決定部330での位置検出(フレーミング)が可能な状態として、上記選択を続ける。一方、相関値の大きさが所定閾値より大きい場合が連続して発生する場合は、位置検出が不可能であるとして、更新情報のビットを全て0にリセットし、その更新情報を異倍率画像間位置決定部330に出力してもよい。この場合、表示情報生成部340は、フレーミング不可である旨のアラート情報がスーパーインポーズされた低倍率画像を生成し、その画像を合成部350に出力する。 In the magnification observation mode, the target magnification image selection unit 325 fixes the target magnification to the maximum magnification after updating up to the maximum magnification image, and thereafter continues to select the captured image as the maximum magnification target magnification image. In this case, when the magnitude of the correlation value from the matching processing unit 326 is stable and equal to or less than the predetermined threshold value, a state in which position detection (framing) can be performed by the next different magnification image inter-position determining unit 330 is possible. Continue to select. On the other hand, when the case where the correlation value is larger than the predetermined threshold continuously occurs, it is assumed that position detection is impossible, and all the bits of the update information are reset to 0, and the update information is set between different magnification images. You may output to the position determination part 330. FIG. In this case, the display information generation unit 340 generates a low-magnification image on which alert information indicating that framing is impossible is superimposed, and outputs the image to the synthesis unit 350.
図10〜図12を用いて、目標倍率画像群選択部の動作について詳細に説明する。なお以下では、目標倍率が最大倍率の1/64倍,1/16倍,1/4倍,1倍である場合を例に説明する。また、以下で用いる最低倍率とは、目標倍率のうちの最も低い倍率のことであり、光学系が本来有する最低倍率と同一とは限らない。 The operation of the target magnification image group selection unit will be described in detail with reference to FIGS. In the following, a case where the target magnification is 1/64, 1/16, 1/4, or 1 times the maximum magnification will be described as an example. The minimum magnification used below is the lowest magnification among the target magnifications, and is not necessarily the same as the minimum magnification originally possessed by the optical system.
図10のE1に示すように、拡大観察モードに切り替えてスコープを徐々に観察対象に近づけながら観察対象を拡大していく。そして、E2に示すように、その一連の撮像画像から目標倍率画像を順次選択していく。例えば、最低倍率(基準倍率)を1倍とし、最大倍率を64倍とすれば、目標倍率は、1倍,4倍,16倍,64倍となる。 As indicated by E1 in FIG. 10, the observation target is enlarged while switching to the magnification observation mode and gradually bringing the scope closer to the observation target. Then, as indicated by E2, a target magnification image is sequentially selected from the series of captured images. For example, if the minimum magnification (reference magnification) is set to 1 and the maximum magnification is set to 64 times, the target magnifications are 1 time, 4 times, 16 times, and 64 times.
より具体的には、図11(A)に示すように、通常観察モードにおいて、被写界深度の近点KP1が観察対象に接近するまで(近点KP1’)、スコープを観察対象に近づける。このときの撮像倍率が最低倍率である。そして、図11(B)に示すように、拡大観察モードに切り替え、近点KP2が観察対象に接近するまで(近点KP2’)、スコープを観察対象に近づける。このときの撮像倍率が最大倍率である。 More specifically, as shown in FIG. 11A, in the normal observation mode, the scope is brought closer to the observation object until the near point KP1 of the depth of field approaches the observation object (near point KP1 '). The imaging magnification at this time is the minimum magnification. Then, as shown in FIG. 11B, the mode is switched to the magnification observation mode, and the scope is brought closer to the observation object until the near point KP2 approaches the observation object (near point KP2 '). The imaging magnification at this time is the maximum magnification.
そして、図12に示すように、拡大観察モードに切り替えた時のフレーム画像FP2を1倍の目標倍率画像BP1として記憶する。次に、フレーム画像FP3を1/4の画像サイズに縮小してテンプレート画像KP3を生成し、目標倍率画像BP1を参照倍率画像としてテンプレート画像KP3とのマッチング処理を行う。そして、FP4以降のフレーム画像を同様に順次縮小してマッチング処理を行い、相関性が最も高いフレーム画像FP4を4倍の目標倍率画像BP2として選択する。次に、目標倍率画像BP2を参照倍率画像としてマッチング処理を行い、16倍の目標倍率画像を選択する。このようにして、順次目標倍率画像を選択し、64倍の目標倍率画像まで選択する。64倍の目標倍率画像までそろったら、以後は64倍の目標倍率画像を撮像画像で更新する。 Then, as shown in FIG. 12, the frame image FP2 at the time of switching to the magnification observation mode is stored as a 1 × target magnification image BP1. Next, the frame image FP3 is reduced to a quarter image size to generate a template image KP3, and the target magnification image BP1 is used as a reference magnification image and matching processing with the template image KP3 is performed. Then, the frame images after FP4 are similarly reduced and matched in the same manner, and the frame image FP4 having the highest correlation is selected as the 4 × target magnification image BP2. Next, matching processing is performed using the target magnification image BP2 as a reference magnification image, and a 16 × target magnification image is selected. In this way, the target magnification images are sequentially selected, and the target magnification image of 64 times is selected. After the 64 × target magnification image is prepared, the 64 × target magnification image is updated with the captured image.
5.異倍率画像間位置決定部
図13に、異倍率画像間位置決定部330の詳細な構成例を示す。異倍率画像間位置決定部330は、第1画像選択部331(第1倍率画像選択部)、第2画像選択部332(第2倍率画像選択部)、領域抽出部333、倍率補正部334、マッチング処理部335、倍率・抽出領域制御部336を含む。なお、以下では、フレームメモリ328に4つの目標倍率画像BP1〜BP4が格納されている場合を例に説明する。
5. Different Magnification Image Position Determination Unit FIG. 13 shows a detailed configuration example of the different magnification image position determination unit 330. The different magnification image position determination unit 330 includes a first image selection unit 331 (first magnification image selection unit), a second image selection unit 332 (second magnification image selection unit), an area extraction unit 333, a magnification correction unit 334, A matching processing unit 335 and a magnification / extraction region control unit 336 are included. Hereinafter, a case where four target magnification images BP1 to BP4 are stored in the frame memory 328 will be described as an example.
第1画像選択部331と第2画像選択部332には、倍率・抽出領域制御部336から出力される画像間マッチングを行う階層レベル情報が入力される。図14に示すように、4種類の倍率画像の場合、階層レベルは3階層である。第1階層は、現在観察している最大倍率の画像BP4と、次に倍率が大きい画像BP3との間のマッチングである。第2階層は、画像BP3と、3番目に倍率が大きい画像BP2との間のマッチングである。第3階層は、3番目に倍率が大きい画像BP2と、一番倍率が小さい画像BP1との間のマッチングである。 The first image selection unit 331 and the second image selection unit 332 receive hierarchy level information for performing matching between images output from the magnification / extraction region control unit 336. As shown in FIG. 14, in the case of four types of magnification images, the hierarchy level is three. The first layer is a matching between the image BP4 with the maximum magnification currently observed and the image BP3 with the next highest magnification. The second hierarchy is matching between the image BP3 and the image BP2 having the third largest magnification. The third hierarchy is matching between the image BP2 having the third largest magnification and the image BP1 having the smallest magnification.
以下では、上記第1階層における処理を例に各構成要素について説明する。なお、他の階層においても同様の処理が行われるため、同様の処理については適宜説明を省略する。 Hereinafter, each component will be described by taking the processing in the first hierarchy as an example. In addition, since the same process is performed also in another hierarchy, description is abbreviate | omitted suitably about the same process.
第1画像選択部331は、フレームメモリ328から最も倍率が大きい現在観察している画像BP4を読み出して領域抽出部333へ出力する。第2画像選択部332は、フレームメモリ328から2番目に倍率が大きい画像BP3を読み出してマッチング処理部335へ出力する。 The first image selection unit 331 reads the currently observed image BP4 having the highest magnification from the frame memory 328 and outputs the read image BP4 to the region extraction unit 333. The second image selection unit 332 reads the image BP3 having the second largest magnification from the frame memory 328 and outputs the image BP3 to the matching processing unit 335.
領域抽出部333は、倍率・抽出領域制御部336からの抽出領域情報に基づいて、入力画像内の指定領域を抽出し、その抽出領域画像を倍率補正部334へ出力する。 The region extraction unit 333 extracts a specified region in the input image based on the extraction region information from the magnification / extraction region control unit 336 and outputs the extracted region image to the magnification correction unit 334.
倍率補正部334は、倍率・抽出領域制御部336からの補正倍率情報に基づいて、抽出領域画像を縮小(倍率補正)した縮小抽出領域画像を生成し、その縮小抽出領域画像をマッチング処理部335へ出力する。 The magnification correction unit 334 generates a reduced extraction region image obtained by reducing the extraction region image (magnification correction) based on the correction magnification information from the magnification / extraction region control unit 336, and the reduced extraction region image is matched with the matching processing unit 335. Output to.
マッチング処理部335は、倍率補正部334からの縮小抽出領域画像と、第2倍率画像選択部から出力される画像BP3との間のマッチング処理を行う。ここで、マッチング処理は、例えば差分絶対値和(または差分自乗和)が利用される。そして、マッチング処理でのテンプレート画像は、画像BP4に対応する縮小抽出領域画像であり、マッチング処理での探索範囲画像は、画像BP3である。すなわち、縮小抽出領域画像は画像BP3よりもサイズが小さく、テンプレート画像を探索範囲画像内で移動させて差分絶対値和が算出される。そして、算出された差分絶対値和が最小値となる位置での位置情報を、第1階層でのマッチング位置情報として倍率・抽出領域制御部336へ出力する。 The matching processing unit 335 performs a matching process between the reduced extraction area image from the magnification correction unit 334 and the image BP3 output from the second magnification image selection unit. Here, the matching process uses, for example, a sum of absolute differences (or a sum of squared differences). The template image in the matching process is a reduced extraction area image corresponding to the image BP4, and the search range image in the matching process is the image BP3. That is, the reduced extraction area image is smaller than the image BP3, and the sum of absolute differences is calculated by moving the template image within the search range image. Then, the position information at the position where the calculated sum of absolute differences is the minimum value is output to the magnification / extraction area control unit 336 as matching position information in the first hierarchy.
第2階層では、領域抽出部333は、倍率・抽出領域制御部336からの第1階層で算出されたマッチング位置情報に基づいて、入力画像内の指定領域を抽出し、その抽出領域画像を倍率補正部334へ出力する。第3階層においても同様に第2階層で算出されたマッチング位置情報に基づいて領域抽出が行われる。 In the second hierarchy, the area extraction unit 333 extracts a designated area in the input image based on the matching position information calculated in the first hierarchy from the magnification / extraction area control unit 336, and the extracted area image is scaled up. The data is output to the correction unit 334. Similarly in the third layer, region extraction is performed based on the matching position information calculated in the second layer.
このようにして第1〜第3階層でマッチング位置情報が算出され、それらのマッチング位置情報が表示情報生成部340へ出力される。拡大観察モードに切り替わってからフレームメモリ328に最初に記憶された最大倍率画像BP4は、ユーザが観察したいターゲット位置の画像であると考えられる。そのターゲット位置情報として、最初に記憶された画像BP4に対して第3階層において算出されたマッチング位置情報が、表示情報生成部340の図示しないメモリに記録される。図8のD4に示すように、そのターゲット位置情報に基づいて表示情報が表示される。 In this way, the matching position information is calculated in the first to third hierarchies, and the matching position information is output to the display information generation unit 340. The maximum magnification image BP4 first stored in the frame memory 328 after switching to the magnification observation mode is considered to be an image of the target position that the user wants to observe. As the target position information, matching position information calculated in the third hierarchy for the image BP4 stored first is recorded in a memory (not shown) of the display information generation unit 340. As shown in D4 of FIG. 8, display information is displayed based on the target position information.
このようにして、現在拡大観察している領域の画像BP4が、倍率が小さい広視野画像BP1内の何処にあるかを検出できる。このとき、2番目に倍率が大きい画像BP3の範囲内のずれ(変位)まで許容された検出が可能である。 In this way, it is possible to detect where the image BP4 of the region currently being magnified and observed is in the wide field image BP1 with a small magnification. At this time, it is possible to allow detection up to a deviation (displacement) within the range of the image BP3 having the second largest magnification.
次に、図15を用いて、異倍率画像間位置決定部の動作について詳細に説明する。なお、以下では、画像BP4〜BP1の倍率を64倍,16倍,4倍,1倍とする。まず、最初のマッチング処理の対象として画像BP4,BP3を選択する。次に、画像BP4を1/4の画像サイズに縮小してテンプレート画像TP4を生成する。そして、テンプレート画像TP4と画像BP3とのマッチング処理を行い、F1に示すように、テンプレート画像TP4に対応する領域を検出する。 Next, the operation of the different magnification image position determination unit will be described in detail with reference to FIG. In the following, the magnifications of the images BP4 to BP1 are 64 times, 16 times, 4 times, and 1 time. First, images BP4 and BP3 are selected as targets for the first matching process. Next, the template image TP4 is generated by reducing the image BP4 to ¼ the image size. Then, matching processing between the template image TP4 and the image BP3 is performed, and an area corresponding to the template image TP4 is detected as indicated by F1.
次に、2回目のマッチング処理の対象として画像BP3,BP2を選択する。F2に示すように、テンプレート画像TP4に対応する領域とその周辺領域を画像BP3から抽出する。抽出した画像を1/4の画像サイズに縮小してテンプレート画像TP3を生成する。そして、テンプレート画像TP3と画像BP2とのマッチング処理を行い、F3に示すように、テンプレート画像TP3に対応する領域を検出する。そして、同様の処理を各階層で繰り返し、最終的に画像BP4に対応する画像BP1上の領域を検出する。 Next, the images BP3 and BP2 are selected as targets for the second matching process. As shown in F2, an area corresponding to the template image TP4 and its peripheral area are extracted from the image BP3. A template image TP3 is generated by reducing the extracted image to an image size of 1/4. Then, matching processing between the template image TP3 and the image BP2 is performed, and an area corresponding to the template image TP3 is detected as indicated by F3. Then, the same processing is repeated for each layer, and finally an area on the image BP1 corresponding to the image BP4 is detected.
さて、上述のように、拡大観察では視野が狭いため、小さなぶれでも観察対象が視野から外れてしまい、低倍率に戻って再び観察対象を拡大する操作を繰り返す必要がある。このように、拡大観察におけるぶれに対する許容範囲が狭いという課題がある。 Now, as described above, since the field of view is narrow in magnified observation, even if a small shake occurs, the observation target deviates from the field of view, and it is necessary to repeat the operation of returning to a low magnification and enlarging the observation target again. Thus, the subject that the tolerance | permissible_range with respect to the blurring in expansion observation is narrow occurs.
この点、本実施形態によれば、図7に示すように、画像処理装置(画像処理部301)は、画像取得部(画像構成処理部310)と、画像選択部(目標倍率画像群選択部320)と、領域検出部(異倍率画像間位置決定部330)を含む。そして、画像取得部は、観察対象物を複数の異なる倍率で拡大して撮像することにより得られた複数の画像を取得する。画像選択部は、その複数の画像の中から、各画像間の倍率が相対的に異なる第1〜第n倍率画像(目標倍率画像)を選択する(nは、n≧2の自然数)。領域検出部は、その第1〜第n倍率画像の中から、基準画像と、その基準画像より高倍率の検出対象画像を選択し、その検出対象画像に対応する基準画像上の領域を検出して、その領域に検出対象画像を対応付ける。 In this regard, according to the present embodiment, as shown in FIG. 7, the image processing apparatus (image processing unit 301) includes an image acquisition unit (image configuration processing unit 310) and an image selection unit (target magnification image group selection unit). 320) and an area detection unit (inter-magnification image position determination unit 330). Then, the image acquisition unit acquires a plurality of images obtained by enlarging and imaging the observation object at a plurality of different magnifications. An image selection part selects the 1st-nth magnification image (target magnification image) from which the magnification between each image differs relatively from the several images (n is a natural number of n> = 2). The region detection unit selects a reference image and a detection target image having a higher magnification than the reference image from the first to nth magnification images, and detects a region on the reference image corresponding to the detection target image. Then, the detection target image is associated with the area.
これにより、拡大観察におけるスコープ先端と観察対象とのずれの許容範囲の向上が可能になる。すなわち、本実施形態によれば、拡大率の異なる(撮像画像の視野が異なる)複数の画像間で階層的にずれ量を算出できる。そのため、高倍率観察時にその撮像画像の視野を越えるずれ量が発生しても観察対象領域とのずれ量を算出することができる。これにより、拡大観察状態を保持したまま表示画像を確認することで素早く観察対象領域を視野内に導入することが可能になる。 As a result, it is possible to improve the allowable range of deviation between the scope tip and the observation target in the magnified observation. That is, according to the present embodiment, it is possible to calculate a shift amount hierarchically between a plurality of images having different magnification rates (different fields of view of captured images). Therefore, even when a deviation amount exceeding the field of view of the captured image occurs during high-magnification observation, the deviation amount from the observation target region can be calculated. This makes it possible to quickly introduce the observation target region into the field of view by confirming the display image while maintaining the magnified observation state.
ここで、上記対応付けとは、基準画像上において検出された領域の座標と、基準画像と、検出対象画像とを対応付けることであり、例えばこれらの情報を1組みのデータとして図示しないメモリに記憶することで対応付けが行われる。 Here, the association is to associate the coordinates of the area detected on the reference image, the reference image, and the detection target image. For example, these pieces of information are stored in a memory (not shown) as a set of data. By doing so, association is performed.
また本実施形態では、図14に示すように、第1〜第n倍率画像(BP1〜BP4)の中の第i倍率画像が第i−1倍率画像よりも高倍率である(iは、2≦i≦nの整数)。この場合に、領域検出部は、第i−1倍率画像(例えばBP1)を基準画像として選択し、第i倍率画像(BP2)を検出対象画像として選択する。そして、領域検出部は、第i倍率画像に対応する第i−1倍率画像上の領域を検出し、各階層で順次検出を繰り返し、第n倍率画像(BP4)に対応する第1倍率画像(BP1)上の領域を検出する。 In the present embodiment, as shown in FIG. 14, the i-th magnification image in the first to n-th magnification images (BP1 to BP4) has a higher magnification than the i-1th magnification image (i is 2). ≦ i ≦ n integer). In this case, the region detection unit selects the i−1 magnification image (for example, BP1) as the reference image, and selects the i th magnification image (BP2) as the detection target image. Then, the region detection unit detects a region on the i-1th magnification image corresponding to the i-th magnification image, sequentially repeats the detection in each layer, and the first magnification image (BP4) corresponding to the nth magnification image (BP4). An area on BP1) is detected.
このようにすれば、階層的に検出を繰り返すことで、第1倍率画像上での観察対象領域の位置を検出できる。また、階層的に検出を繰り返すことで、第n倍率画像と第1倍率画像を直接マッチングする場合に比べて、マッチング精度を向上できる。 In this way, the position of the observation target region on the first magnification image can be detected by repeating detection hierarchically. Further, by repeating the detection hierarchically, the matching accuracy can be improved as compared with the case where the nth magnification image and the first magnification image are directly matched.
また本実施形態では、図9に示すように、画像選択部は、倍率補正部324と、マッチング処理部326と、目標倍率画像選択部325を含む。そして、図12に示すように、倍率補正部324は、複数の画像の中のマッチング対象画像(例えばFP3〜FP5)を所定倍率(1/4倍)で縮小する。マッチング処理部326は、その縮小されたマッチング対象画像(KP3〜KP5)と、第1〜第n倍率画像の中の基準倍率画像(BP1)とのマッチング処理を行う。目標倍率画像選択部325は、マッチング処理において最も相関性が高い画像(FP4)を複数の画像(FP3〜FP5)の中から選択する。 In the present embodiment, as illustrated in FIG. 9, the image selection unit includes a magnification correction unit 324, a matching processing unit 326, and a target magnification image selection unit 325. Then, as illustrated in FIG. 12, the magnification correction unit 324 reduces the matching target images (for example, FP3 to FP5) in the plurality of images at a predetermined magnification (1/4). The matching processing unit 326 performs matching processing between the reduced matching target image (KP3 to KP5) and the reference magnification image (BP1) in the first to nth magnification images. The target magnification image selection unit 325 selects an image (FP4) having the highest correlation in the matching process from a plurality of images (FP3 to FP5).
このようにすれば、撮像画像から目標倍率画像を選択できる。また、マッチング対象画像を所定倍率で縮小してマッチング処理することで、所定倍率間隔の目標倍率画像を選択できる。 In this way, the target magnification image can be selected from the captured image. Further, by reducing the matching target image at a predetermined magnification and performing matching processing, a target magnification image at a predetermined magnification interval can be selected.
また本実施形態では、図9に示すように、画像選択部は繰り返し制御部(目標倍率画像選択制御部329)を含む。そして、繰り返し制御部は、マッチング処理と、マッチング処理において最も相関性が高い画像を選択する処理と、その選択された最も相関性が高い画像を次のマッチング処理に用いられる基準倍率画像として選択する処理とを繰り返す制御を行う。 In the present embodiment, as shown in FIG. 9, the image selection unit includes a repetition control unit (target magnification image selection control unit 329). Then, the repetitive control unit selects the matching process, the process of selecting the image having the highest correlation in the matching process, and the selected image having the highest correlation as the reference magnification image used for the next matching process. Control to repeat the process.
より具体的には、画像選択部は、記憶部(フレームメモリ328)と、基準倍率画像選択部(参照倍率画像選択部327)を含む。そして、図12に示すように、基準倍率画像選択部は、第j倍率画像(例えばBP1)が記憶部に記憶されている場合に、その第j倍率画像を基準倍率画像として選択する(jはn−1以下の自然数)。マッチング処理部326は、その第j倍率画像を用いてマッチング処理を行う。目標倍率画像選択部325は、最も相関性が高い画像を第k倍率画像(BP2)として選択する(kは2≦k≦nの整数)。記憶部は、その第k倍率画像を記憶する。そして、基準倍率画像選択部は、次のマッチング処理に用いられる基準倍率画像として、その第k倍率画像(BP2)を選択する。 More specifically, the image selection unit includes a storage unit (frame memory 328) and a standard magnification image selection unit (reference magnification image selection unit 327). Then, as shown in FIG. 12, when the jth magnification image (for example, BP1) is stored in the storage unit, the reference magnification image selection unit selects the jth magnification image as the reference magnification image (j is n-1 or less natural number). The matching processing unit 326 performs matching processing using the j-th magnification image. The target magnification image selection unit 325 selects an image having the highest correlation as the kth magnification image (BP2) (k is an integer of 2 ≦ k ≦ n). The storage unit stores the kth magnification image. Then, the reference magnification image selection unit selects the kth magnification image (BP2) as the reference magnification image used for the next matching process.
このようにすれば、マッチング処理を繰り返すことで、撮像画像から目標倍率画像を順次選択できる。また、基準倍率画像とマッチング対象画像を順次選択することで、マッチング処理を共通化できる。 In this way, the target magnification image can be sequentially selected from the captured image by repeating the matching process. Further, the matching process can be made common by sequentially selecting the reference magnification image and the matching target image.
また本実施形態では、図9に示すように、画像選択部は、マッチング対象画像の中からマッチング対象領域を抽出する領域抽出部323を有する。そして、倍率補正部324は、そのマッチング対象領域を所定倍率で縮小し、マッチング処理部326は、その縮小されたマッチング対象領域と基準倍率画像とのマッチング処理を行う。 In the present embodiment, as illustrated in FIG. 9, the image selection unit includes a region extraction unit 323 that extracts a matching target region from the matching target image. Then, the magnification correction unit 324 reduces the matching target region at a predetermined magnification, and the matching processing unit 326 performs matching processing between the reduced matching target region and the reference magnification image.
このようにすれば、マッチング処理に適した領域を抽出してマッチング処理を行うことができる。これによりマッチング精度を向上できる。例えば、画像の中央部を抽出すれば、光学系による像歪みの影響を軽減できる。 In this way, it is possible to extract a region suitable for the matching process and perform the matching process. Thereby, matching accuracy can be improved. For example, if the center portion of the image is extracted, the influence of image distortion due to the optical system can be reduced.
なお上記実施形態では、低倍率側の画像を縮小してマッチング処理を行う場合について説明したが、本実施形態では、高倍率側の画像を拡大してマッチング処理を行ってもよい。すなわち、画像処理装置は、第1〜第n倍率画像の中の基準倍率画像(例えばBP1)を所定倍率(4倍)で拡大する倍率補正部と、その拡大された基準倍率画像と、マッチング対象画像(FP3〜FP5)とのマッチング処理を行うマッチング処理部と、を含んでもよい。 In the above embodiment, the case where the matching process is performed by reducing the image on the low magnification side has been described. However, in the present embodiment, the matching process may be performed by enlarging the image on the high magnification side. That is, the image processing apparatus includes a magnification correction unit that enlarges a reference magnification image (for example, BP1) in the first to nth magnification images at a predetermined magnification (4 times), the enlarged reference magnification image, and a matching target A matching processing unit that performs matching processing with the images (FP3 to FP5).
また本実施形態では、図13に示すように、領域検出部は、検出対象画像選択部(第1画像選択部331)と、基準画像選択部(第2画像選択部)と、倍率補正部334と、マッチング処理部335を含む。そして、図15に示すように、検出対象画像選択部は、第1〜第n倍率画像(BP1〜BP4)の中から検出対象画像(例えばBP4)を選択する。基準画像選択部は、第1〜第n倍率画像の中から基準画像(BP3)を選択する。倍率補正部は、検出対象画像を基準画像の倍率に縮小する(1/4倍する)。そして、マッチング処理部335は、その縮小された検出対象画像(TP4)と基準画像(BP3)とのマッチング処理を行う。 In the present embodiment, as illustrated in FIG. 13, the region detection unit includes a detection target image selection unit (first image selection unit 331), a reference image selection unit (second image selection unit), and a magnification correction unit 334. And a matching processing unit 335. As illustrated in FIG. 15, the detection target image selection unit selects a detection target image (for example, BP4) from the first to nth magnification images (BP1 to BP4). The reference image selection unit selects a reference image (BP3) from the first to nth magnification images. The magnification correction unit reduces the detection target image to the magnification of the reference image (by 1/4). Then, the matching processing unit 335 performs matching processing between the reduced detection target image (TP4) and the reference image (BP3).
このようにすれば、目標倍率画像の各階層において画像間の位置検出を行うことができる。また、検出対象画像を基準画像の倍率に縮小してマッチング処理することで、倍率の異なる画像間においてマッチング処理が可能になる。 In this way, position detection between images can be performed in each layer of the target magnification image. Further, by performing the matching process after reducing the detection target image to the magnification of the reference image, the matching process can be performed between images having different magnifications.
また本実施形態では、図13に示すように、領域検出部は、繰り返し制御部(倍率・抽出領域制御部336)を含む。そして、繰り返し制御部は、マッチング処理と、マッチング処理に用いられた基準画像を次のマッチング処理に用いられる検出対象画像として選択する処理と、その検出対象画像の次に低倍率の画像を第1〜第n倍率画像の中から次のマッチング処理に用いられる基準画像として選択する処理とを繰り返す。 In the present embodiment, as shown in FIG. 13, the region detection unit includes a repetition control unit (magnification / extraction region control unit 336). The repetitive control unit first selects a matching process, a process of selecting a reference image used for the matching process as a detection target image used for the next matching process, and a low-magnification image next to the detection target image. The process of selecting as a reference image to be used for the next matching process from the nth magnification image is repeated.
具体的には、図15に示すように、検出対象画像選択部は、検出対象画像として第m倍率画像(例えばBP4)を選択する。基準画像選択部は、基準画像として第m倍率画像(BP4)の次に低倍率の第p倍率画像(BP3)を選択する。マッチング処理部335は、第m倍率画像(BP4)に対応する第p倍率画像(BP3)上の領域(F1)を検出する。そして、検出対象画像選択部は、次のマッチング処理に用いられる検出対象画像として、第p倍率画像(BP3)を選択する。基準画像選択部は、次のマッチング処理に用いられる基準画像として、第p倍率画像(BP3)の次に低倍率である第q倍率画像(BP2)を選択する。 Specifically, as illustrated in FIG. 15, the detection target image selection unit selects the mth magnification image (for example, BP4) as the detection target image. The reference image selection unit selects the p-th magnification image (BP3) having the lower magnification next to the m-th magnification image (BP4) as the reference image. The matching processing unit 335 detects a region (F1) on the pth magnification image (BP3) corresponding to the mth magnification image (BP4). Then, the detection target image selection unit selects the p-th magnification image (BP3) as the detection target image used for the next matching process. The reference image selection unit selects the qth magnification image (BP2), which is the next lower magnification than the pth magnification image (BP3), as the reference image used for the next matching process.
このようにすれば、目標倍率画像の各階層の位置検出を繰り返して、第1倍率画像における現在の撮影領域を検出できる。また、基準画像と検出対象画像を順次選択することで、マッチング処理を共通化できる。 In this way, it is possible to detect the current shooting area in the first magnification image by repeatedly detecting the position of each layer of the target magnification image. Further, the matching process can be made common by sequentially selecting the reference image and the detection target image.
また本実施形態では、図13に示すように、領域検出部は領域抽出部333を含む。そして、図15に示すように、領域抽出部333は、第m倍率画像(BP4)に対応する第p倍率画像(BP3)上の領域(F1)を含む周辺領域(F2)を第p倍率画像(BP3)から抽出し、次のマッチング処理に用いる検出対象画像として設定する。 In the present embodiment, as shown in FIG. 13, the region detection unit includes a region extraction unit 333. Then, as illustrated in FIG. 15, the region extraction unit 333 converts the peripheral region (F2) including the region (F1) on the pth magnification image (BP3) corresponding to the mth magnification image (BP4) to the pth magnification image. Extracted from (BP3) and set as a detection target image used in the next matching process.
このようにすれば、テンプレート画像が小さくなりすぎてマッチング精度が低下してしまうことを抑制できる。 In this way, it is possible to suppress the matching accuracy from being lowered due to the template image becoming too small.
また本実施形態では、図8に示すように、第1倍率画像(D2)と、第n倍率画像に対応する領域を表す識別情報(D3)を表示する制御を行う表示制御部(図7に示す合成部350)を含む。 In this embodiment, as shown in FIG. 8, the display control unit (see FIG. 7) performs control to display the first magnification image (D2) and the identification information (D3) representing the area corresponding to the nth magnification image. A combining unit 350).
また本実施形態では、表示制御部は、第1倍率画像(D2)において観察のターゲットとなるターゲット領域を表す識別情報(D4)を表示する制御を行う。 In the present embodiment, the display control unit performs control to display identification information (D4) representing a target region that is an observation target in the first magnification image (D2).
また本実施形態では、画像取得部(画像構成処理部310)は、観察対象物を撮像することにより得られた一連の動画画像を取得する。表示制御部(合成部350)は、その一連の動画画像を第1の表示領域(D1)に表示する制御を行う。そして、第2の表示領域(D2)には、第1の表示領域に表示される動画画像よりも低倍率の画像であって、一連の動画画像の中から選択された動画画像が、低倍率画像(第1倍率画像)として表示される。第2の表示領域(D2)には、第1の表示領域(D1)に表示される動画画像に対応する低倍率画像上の領域を表す情報であって、一連の動画画像の視野範囲の移動に応じて低倍率画像上を移動する識別情報(D3)が表示される。 In the present embodiment, the image acquisition unit (image configuration processing unit 310) acquires a series of moving image images obtained by imaging the observation target. The display control unit (compositing unit 350) performs control to display the series of moving image images in the first display area (D1). In the second display area (D2), a moving image that has a lower magnification than the moving image displayed in the first display area, and that is selected from the series of moving images, has a lower magnification. It is displayed as an image (first magnification image). The second display area (D2) is information representing an area on the low-magnification image corresponding to the moving image displayed in the first display area (D1), and moves the viewing range of the series of moving images. The identification information (D3) that moves on the low-magnification image in response to is displayed.
このようにすれば、現在の撮影領域を低倍率画像上に表示できる。これにより、撮影領域がターゲットからずれた場合であっても現在の撮影領域の位置を知ることができる。また、ターゲット領域を表示することで、ターゲットをすばやく視野に戻すことができる。 In this way, the current shooting area can be displayed on the low-magnification image. As a result, the current position of the shooting area can be known even when the shooting area is deviated from the target. Moreover, the target can be quickly returned to the field of view by displaying the target area.
6.内視鏡装置の第2の構成例
本実施形態では、上述のマッチング処理の結果を用いてスコープ先端を曲げ、観察対象を自動的に視野範囲に導入してもよい。また本実施形態では、白色光だけでなく狭帯域光により撮影を行い、その狭帯域光画像を用いてマッチング処理を行ってもよい。
6). Second Configuration Example of Endoscopic Device In the present embodiment, the scope tip may be bent using the result of the matching process described above, and the observation target may be automatically introduced into the visual field range. In the present embodiment, not only white light but also narrow band light may be taken, and matching processing may be performed using the narrow band light image.
図16に、このような内視鏡装置の第2の構成例を示す。この内視鏡装置は、光源部100と、撮像部200と、制御装置300と、表示部400と、外部I/F部500を含む。なお、図4等で上述の構成要素と同一の構成要素には同一の符号を付し、以下では適宜説明を省略する。 FIG. 16 shows a second configuration example of such an endoscope apparatus. This endoscope apparatus includes a light source unit 100, an imaging unit 200, a control device 300, a display unit 400, and an external I / F unit 500. In FIG. 4 and the like, the same components as those described above are denoted by the same reference numerals, and description thereof will be omitted below as appropriate.
光源部100は、白色光と狭帯域光を出力する。この光源部100は、白色光源101と、回転色フィルタ102と、回転駆動部103と、集光レンズ104を含む。 The light source unit 100 outputs white light and narrowband light. The light source unit 100 includes a white light source 101, a rotating color filter 102, a rotation driving unit 103, and a condenser lens 104.
図17に回転色フィルタ102の詳細な構成例を示す。この回転色フィルタ102は、白色光の分光透過率を示す色フィルタ801と、特殊光としての狭帯域の分光透過率を示す色フィルタ802と、回転モータ803とから構成されている。図18に示すように、色フィルタ801は、例えば波長380nm〜650nmの光を透過する分光特性を有している。図19に示すように、色フィルタ802は、波長390nm〜445nm(B2)と、波長530nm〜550nm(G2)の光を透過する分光特性を有している。 FIG. 17 shows a detailed configuration example of the rotating color filter 102. The rotating color filter 102 includes a color filter 801 that shows the spectral transmittance of white light, a color filter 802 that shows a narrow-band spectral transmittance as special light, and a rotary motor 803. As shown in FIG. 18, the color filter 801 has spectral characteristics that transmit light with a wavelength of, for example, 380 nm to 650 nm. As shown in FIG. 19, the color filter 802 has spectral characteristics that transmit light having a wavelength of 390 nm to 445 nm (B2) and a wavelength of 530 nm to 550 nm (G2).
回転駆動部103は、制御装置300の制御部302からの制御信号に基づいて、撮像素子209の撮像期間と同期して回転色フィルタ102を所定回転数で回転させる。例えば、色フィルタを1秒間に30回転させると、各色フィルタは60分の1秒間隔で入射白色光を横切る。そして、撮像素子209は、60分の1秒間隔で白色光と特殊光(NBI)に対する反射光の画像データの撮像と転送を完了する。 The rotation driving unit 103 rotates the rotating color filter 102 at a predetermined number of rotations in synchronization with the imaging period of the imaging element 209 based on a control signal from the control unit 302 of the control device 300. For example, if the color filters are rotated 30 times per second, each color filter crosses incident white light at 1/60 second intervals. Then, the image sensor 209 completes imaging and transfer of image data of reflected light with respect to white light and special light (NBI) at 1/60 second intervals.
撮像部200は、ライトガイドファイバ201と、照明レンズ202と、対物レンズ203と、可変絞り制御部204と、可変絞り部205と、焦点位置制御部206と、焦点位置調整レンズ207と、撮像素子209と、A/D変換部210を含む。 The imaging unit 200 includes a light guide fiber 201, an illumination lens 202, an objective lens 203, a variable diaphragm control unit 204, a variable diaphragm unit 205, a focal position control unit 206, a focal position adjustment lens 207, and an imaging element. 209 and an A / D conversion unit 210.
撮像素子209は、カラー撮像可能な撮像素子であり、例えばベイヤ配列の原色単板撮像素子により構成される。あるいは、撮像素子209は、補色単板撮像素子により構成されてもよい。 The image sensor 209 is an image sensor that can perform color imaging, and is configured by, for example, a Bayer array primary color single-plate image sensor. Alternatively, the imaging element 209 may be configured by a complementary color single plate imaging element.
制御装置300は、画像処理部301と、制御部302と、先端湾曲駆動部303を含む。制御部302は、図4等で上述の制御に加え、さらに先端湾曲駆動部303の制御と後述するAF制御部360の制御を行う。また、制御部302は、回転色フィルタ102の構成に応じた制御を行う。 The control device 300 includes an image processing unit 301, a control unit 302, and a tip bending drive unit 303. In addition to the control described above with reference to FIG. 4 and the like, the control unit 302 further controls the tip bending drive unit 303 and an AF control unit 360 described later. The control unit 302 performs control according to the configuration of the rotating color filter 102.
図20に、画像処理部301の第2の詳細な構成例を示す。この画像処理部301は、画像構成処理部310、目標倍率画像群選択部320、異倍率画像間位置決定部330、表示情報生成部340、合成部350、AF制御部360を含む。この画像処理部301は、図7で上述の構成要素に加え、さらにAF制御部360を含んでいる。 FIG. 20 shows a second detailed configuration example of the image processing unit 301. The image processing unit 301 includes an image configuration processing unit 310, a target magnification image group selection unit 320, a different magnification image position determination unit 330, a display information generation unit 340, a synthesis unit 350, and an AF control unit 360. The image processing unit 301 further includes an AF control unit 360 in addition to the components described above with reference to FIG.
AF制御部360は、撮像部200に対してオートフォーカス制御を行う。具体的には、AF制御部360は、コントラスト法等によりオートフォーカス制御を行い、焦点位置制御部206を制御して被写体像を合焦させる。 The AF control unit 360 performs autofocus control on the imaging unit 200. Specifically, the AF control unit 360 performs autofocus control using a contrast method or the like, and controls the focus position control unit 206 to focus the subject image.
図21に、撮像部200(スコープ)の先端部を模式的に示す。撮像部200は、表示画像の横方向(水平走査方向)に先端を湾曲させるためのワイヤ1001,1003と、表示画像の縦方向(垂直方向)に先端を湾曲させるためのワイヤ1002,1004を含む。例えば、左右方向に角度θだけ湾曲させるには、ワイヤ1001,1003を所定量Nだけ押し引きする。また、上下方向に角度θだけ湾曲させるには、ワイヤ1002と1004を所定量Nだけ押し引きする。 FIG. 21 schematically shows the tip of the imaging unit 200 (scope). The imaging unit 200 includes wires 1001 and 1003 for bending the tip in the horizontal direction (horizontal scanning direction) of the display image, and wires 1002 and 1004 for bending the tip in the vertical direction (vertical direction) of the display image. . For example, in order to bend in the left-right direction by an angle θ, the wires 1001 and 1003 are pushed and pulled by a predetermined amount N. Further, in order to bend in the vertical direction by an angle θ, the wires 1002 and 1004 are pushed and pulled by a predetermined amount N.
図22に、白色光画像と特殊光画像の撮像タイミングについて模式的に示す。図22に示すように、光源部100の回転色フィルタ102が回転することで、白色光と特殊光(NBI)を時分割に照明する。そして、撮像素子209が白色光画像と特殊光画像を交互に撮像し、A/D変換部210がA/D変換し、画像構成処理部310が白色光画像と特殊光画像を出力する。画像構成処理部310は、特殊光画像を目標倍率画像群選択部320へ出力し、白色光画像と特殊光画像を合成部350へ出力する。そして、目標倍率画像群選択部320と異倍率画像間位置決定部330は、特殊光画像を用いてマッチング処理を行う。 FIG. 22 schematically shows the imaging timing of the white light image and the special light image. As shown in FIG. 22, the rotating color filter 102 of the light source unit 100 rotates to illuminate white light and special light (NBI) in a time-sharing manner. Then, the image sensor 209 alternately captures the white light image and the special light image, the A / D conversion unit 210 performs A / D conversion, and the image configuration processing unit 310 outputs the white light image and the special light image. The image configuration processing unit 310 outputs the special light image to the target magnification image group selection unit 320, and outputs the white light image and the special light image to the synthesis unit 350. Then, the target magnification image group selection unit 320 and the different magnification image position determination unit 330 perform matching processing using the special light image.
このようにすれば、白色光画像よりも血管コントラストが高い画像である特殊光画像(NBI)を用いてマッチング処理できる。これにより、マッチング精度を向上できる。 In this way, matching processing can be performed using a special light image (NBI) that is an image having a higher blood vessel contrast than a white light image. Thereby, matching accuracy can be improved.
7.AF制御部
図23に、AF制御部360の詳細な構成例を示す。AF制御部360は、領域抽出部361、コントラスト算出部362、レンズ移動量算出部363、合焦画像選択部364を含む。
7). AF Control Unit FIG. 23 shows a detailed configuration example of the AF control unit 360. The AF control unit 360 includes an area extraction unit 361, a contrast calculation unit 362, a lens movement amount calculation unit 363, and a focused image selection unit 364.
領域抽出部361は、制御部302から入力されたAFエリア情報に基づいて、入力画像である特殊光画像の指定AFエリアを抽出し、その指定AFエリアの画像をコントラスト算出部362へ出力する。 The area extraction unit 361 extracts a designated AF area of the special light image that is an input image based on the AF area information input from the control unit 302, and outputs the image of the designated AF area to the contrast calculation unit 362.
コントラスト算出部362は、抽出されたAFエリア内の例えばG信号の最大値と最小値の差分値をコントラスト値として算出する。算出したコントラスト値は、コントラスト算出部362が有する図示しないメモリに時系列データとして複数フレーム分保存される。例えば、複数フレームは少なくとも3フレームである。そして、そのメモリに格納されている複数フレームのコントラスト値は、レンズ移動量算出部363に出力される。 The contrast calculation unit 362 calculates, for example, a difference value between the maximum value and the minimum value of the G signal in the extracted AF area as a contrast value. The calculated contrast value is stored for a plurality of frames as time-series data in a memory (not shown) of the contrast calculation unit 362. For example, the plurality of frames is at least 3 frames. The contrast values of a plurality of frames stored in the memory are output to the lens movement amount calculation unit 363.
レンズ移動量算出部363は、図示しないメモリを有し、そのメモリには、焦点位置調整レンズ207の現在の調整位置が保存されている。レンズ移動量算出部363は、入力される複数フレームのコントラスト値と対応付けられた調整位置から、合焦位置となる調整位置(レンズ調整位置)を算出し、その調整位置を制御部302に出力する。制御部302は、算出された調整位置を焦点位置制御部206に出力する。焦点位置制御部206は、算出された調整位置に基づいて焦点位置調整レンズ207を移動させる。このようにして、オートフォーカスが可能となる。なお、コントラスト値とレンズ調整位置の対応付けは、例えばコントラスト値を参照してレンズ調整位置を出力するルックアップテーブルにより実現される。 The lens movement amount calculation unit 363 has a memory (not shown), and the current adjustment position of the focus position adjustment lens 207 is stored in the memory. The lens movement amount calculation unit 363 calculates an adjustment position (lens adjustment position) to be a focus position from the adjustment positions associated with the input contrast values of a plurality of frames, and outputs the adjustment position to the control unit 302. To do. The control unit 302 outputs the calculated adjustment position to the focus position control unit 206. The focal position control unit 206 moves the focal position adjustment lens 207 based on the calculated adjustment position. In this way, autofocus is possible. The association between the contrast value and the lens adjustment position is realized by, for example, a lookup table that outputs the lens adjustment position with reference to the contrast value.
合焦画像選択部364には、コントラスト算出部からのコントラスト値が入力される。合焦画像選択部364は、コントラスト値を閾値判定し、現在処理したフレームが後述するAFエリア1100で合焦しているかを判定し、フレーム画像を目標倍率画像群選択部320に出力するか否かを選択する。合焦画像選択部364は、合焦と判定した場合には、フレーム画像を出力し、非合焦と判定した場合にはフレーム画像を出力しない。すなわち、目標倍率画像群選択部320へ入力される動画像は、画像構成処理部310からではなく、AF制御部360を経由して合焦判定された特殊光画像のみが入力される。 The focused image selection unit 364 receives the contrast value from the contrast calculation unit. The focused image selection unit 364 determines the threshold value of the contrast value, determines whether the currently processed frame is in focus in an AF area 1100, which will be described later, and whether to output the frame image to the target magnification image group selection unit 320. Select. The focused image selection unit 364 outputs a frame image when it is determined to be in focus, and does not output a frame image when it is determined to be out of focus. That is, as the moving image input to the target magnification image group selection unit 320, only the special light image determined to be in focus via the AF control unit 360 is input instead of the image configuration processing unit 310.
次に、AF制御部の動作について説明する。AF制御部360には、画像構成処理部310から出力される特殊光画像が入力される。図24に示すように、ユーザ指定により決定されたAFエリア1100が制御部302から入力される。 Next, the operation of the AF control unit will be described. A special light image output from the image configuration processing unit 310 is input to the AF control unit 360. As shown in FIG. 24, an AF area 1100 determined by user designation is input from the control unit 302.
例えば、AFエリア1100の指定は、複数のAFエリアAFAの中から観察対象Tgに近いAFエリアをユーザが選択することで行われる。例えば、図10に示すズーム操作ノブ501を所定方向に動かして近接拡大観察モードを選択した場合に、表示部400にAFエリア指定画面が表示され、ユーザがAFエリアを選択する。このAFエリア指定画面の生成は合成部350が行なう。 For example, the AF area 1100 is specified by the user selecting an AF area close to the observation target Tg from among a plurality of AF areas AFA. For example, when the zoom operation knob 501 shown in FIG. 10 is moved in a predetermined direction to select the close-up magnification observation mode, the AF area designation screen is displayed on the display unit 400, and the user selects the AF area. The synthesis unit 350 generates the AF area designation screen.
なお、ユーザ選択は、例えばズーム操作ノブ501を所定方向に動かして一定時間以上保持することでAFエリアの選択移動を行ない、その保持を止めることで選択決定されるようにしてもよい。あるいは、キーボードのカーソル移動キーを使用して移動と選択を行ってもよい。あるいは、表示部400がタッチパネル式の表示装置である場合、AFエリアを直接指で指定してもよい。 The user selection may be selected and determined by moving the zoom operation knob 501 in a predetermined direction and holding it for a certain period of time, for example, by moving the AF area and stopping the holding. Alternatively, movement and selection may be performed using a cursor movement key on the keyboard. Alternatively, when the display unit 400 is a touch panel display device, the AF area may be directly designated with a finger.
8.先端湾曲駆動部
図25に、先端湾曲駆動部303の詳細な構成例を示す。この先端湾曲駆動部303は、距離情報取得部371、ずれ情報取得部372、角度算出部373、駆動情報出力部374、ワイヤ駆動部375、現在位置情報取得部376を含む。
8). Tip Curve Drive Unit FIG. 25 shows a detailed configuration example of the tip curve drive unit 303. The tip bending drive unit 303 includes a distance information acquisition unit 371, a deviation information acquisition unit 372, an angle calculation unit 373, a drive information output unit 374, a wire drive unit 375, and a current position information acquisition unit 376.
距離情報取得部371は、視点方向に沿ったスコープ先端から被写体までの距離情報をAF制御部360から取得する。例えば、AF制御部360は、ルックアップテーブル等を用いてレンズの調整位置から距離情報を求め、その距離情報を距離情報取得部371に出力する。 The distance information acquisition unit 371 acquires distance information from the distal end of the scope along the viewpoint direction to the subject from the AF control unit 360. For example, the AF control unit 360 obtains distance information from the lens adjustment position using a lookup table or the like, and outputs the distance information to the distance information acquisition unit 371.
現在位置情報取得部376は、異倍率画像間位置決定部330から現在位置情報を取得する。現在位置情報は、例えば図14に示すように、画像BP1における現在の撮影領域BP4’の位置情報である。 The current position information acquisition unit 376 acquires the current position information from the different magnification image position determination unit 330. For example, as shown in FIG. 14, the current position information is position information of the current shooting area BP4 'in the image BP1.
ずれ情報算出部372は、現在の撮影領域から観察対象までの距離情報(ずれ情報、変位情報)を算出する。具体的には、ずれ情報算出部372には、現在位置情報とターゲット位置情報が入力される。例えば図14に示すように、ずれ情報算出部372は、領域BP4’とターゲット領域Tgとの間の画像BP1上での距離を算出し、その距離と光学的な像倍率から被写体上での距離を算出する。光学的な像倍率は、画像BP1撮影時の像倍率であり、光学系の設計情報に基づいて予め設定されている。 The deviation information calculation unit 372 calculates distance information (deviation information, displacement information) from the current imaging region to the observation target. Specifically, the current position information and the target position information are input to the deviation information calculation unit 372. For example, as shown in FIG. 14, the deviation information calculation unit 372 calculates the distance on the image BP1 between the region BP4 ′ and the target region Tg, and the distance on the subject from the distance and the optical image magnification. Is calculated. The optical image magnification is an image magnification at the time of photographing the image BP1, and is preset based on design information of the optical system.
角度算出部373は、距離情報とずれ情報に基づいて、スコープ先端の曲げ角度を表す角度情報を算出する。具体的には、スコープ先端から被写体までの距離と、現在の撮影領域から観察対象までの距離を用いて、現在の視点方向と観察対象に向かう視点方向との間の角度を求める。 The angle calculation unit 373 calculates angle information representing the bending angle of the scope tip based on the distance information and the deviation information. Specifically, the angle between the current viewpoint direction and the viewpoint direction toward the observation target is obtained using the distance from the scope tip to the subject and the distance from the current imaging region to the observation target.
駆動情報出力部374は、角度情報に基づいて、スコープ先端を駆動するためのワイヤの長さの調整量を駆動情報として出力する。具体的には、駆動情報出力部374は、ターゲット位置に撮像部200の先端部を戻すために必要な横方向の湾曲角度θhと縦方向の湾曲角度θvを算出する。湾曲角度θhは、画像の水平走査方向に視点方向を移動させる角度であり、湾曲角度θvは、画像の垂直方向に視点方向を移動させる角度である。駆動情報出力部374は、湾曲角度θh,θvに基づいて、図21に示す4本のワイヤ1001、1002、1003、1004の押し引き量Nh,Nvを算出する。そして、駆動情報出力部374は、ワイヤが連結している図示しないアングルノブの回転軸を回転駆動するモータを制御して、上記押し引き量Nh,Nvでワイヤを調整する。このようにして、ユーザが観察したい観察対象領域を常に視野内にフレーミングし続けることが可能となる。 The drive information output unit 374 outputs an adjustment amount of the length of the wire for driving the scope tip as drive information based on the angle information. Specifically, the drive information output unit 374 calculates a horizontal bending angle θh and a vertical bending angle θv necessary for returning the tip of the imaging unit 200 to the target position. The bending angle θh is an angle for moving the viewpoint direction in the horizontal scanning direction of the image, and the bending angle θv is an angle for moving the viewpoint direction in the vertical direction of the image. The drive information output unit 374 calculates push-pull amounts Nh and Nv of the four wires 1001, 1002, 1003, and 1004 shown in FIG. 21 based on the bending angles θh and θv. And the drive information output part 374 controls the motor which rotationally drives the rotating shaft of the angle knob which is not shown in figure which the wire has connected, and adjusts a wire with the said push-pull amounts Nh and Nv. In this way, it is possible to always continue framing the observation target region that the user wants to observe within the field of view.
上記のように本実施形態では、目標倍率画像群選択部320のマッチング処理部326は、マッチング対象画像(例えば図12に示すFP3〜FP5)及び基準倍率画像(BP1)として、特定の生体構造が強調された画像を用いてマッチング処理を行う。また、異倍率画像間位置決定部330のマッチング処理部335は、検出対象画像(図15に示すBP4)及び基準画像(BP3)として、特定の生体構造が強調された画像を用いてマッチング処理を行う。 As described above, in the present embodiment, the matching processing unit 326 of the target magnification image group selection unit 320 has a specific anatomy as a matching target image (for example, FP3 to FP5 shown in FIG. 12) and a reference magnification image (BP1). Matching processing is performed using the enhanced image. Further, the matching processing unit 335 of the different magnification image inter-position determining unit 330 performs matching processing using an image in which a specific anatomy is emphasized as the detection target image (BP4 shown in FIG. 15) and the reference image (BP3). Do.
具体的には、特定の生体構造は、血管走行の構造(血管走行パターン)である。あるいは、特定の生体構造は、粘膜表層の構造(粘膜表層の微細な構造、ピットパターン)であってもよい。 Specifically, the specific anatomy is a blood vessel running structure (blood vessel running pattern). Alternatively, the specific anatomy may be a structure of the mucosal surface layer (a fine structure of the mucosal surface layer, a pit pattern).
このようにすれば、特定の生体構造が強調された画像を用いることで、マッチング精度を向上できる。 In this way, matching accuracy can be improved by using an image in which a specific anatomy is emphasized.
また本実施形態では、画像取得部(図7に示す画像構成処理部310)は、特定の波長帯域における情報を有した被写体像を含む特殊光画像を取得する図示しない特殊光画像取得部を有する。そして、特定の生体構造が強調された画像は、特殊光画像である。 In this embodiment, the image acquisition unit (image configuration processing unit 310 shown in FIG. 7) includes a special light image acquisition unit (not shown) that acquires a special light image including a subject image having information in a specific wavelength band. . An image in which a specific anatomy is emphasized is a special light image.
具体的には、特定の波長帯域は、白色の波長帯域(例えば380nm〜650nm)よりも狭い帯域である(NBI:Narrow Band Imaging)。例えば、特殊光画像は、生体内を写した生体内画像であり、その生体内画像に含まれる特定の波長帯域は、血液中のヘモグロビンに吸収される波長の波長帯域である。例えば、このヘモグロビンに吸収される波長は、390nm〜445nm(狭帯域光のB2成分)、または530nm〜550nm(狭帯域光のG2成分)である。 Specifically, the specific wavelength band is a band narrower than the white wavelength band (for example, 380 nm to 650 nm) (NBI: Narrow Band Imaging). For example, the special light image is an in-vivo image obtained by copying the inside of a living body, and the specific wavelength band included in the in-vivo image is a wavelength band of a wavelength that is absorbed by hemoglobin in blood. For example, the wavelength absorbed by this hemoglobin is 390 nm to 445 nm (B2 component of narrowband light) or 530 nm to 550 nm (G2 component of narrowband light).
これにより、生体の表層部及び、深部に位置する血管の構造を観察することが可能になる。また得られた信号を特定のチャンネル(G2→R、B2→G,B)に入力することで、扁平上皮癌等の通常光では視認が難しい病変などを褐色等で表示することができ、病変部の見落としを抑止することができる。なお、390nm〜445nmまたは530nm〜550nmとは、ヘモグロビンに吸収されるという特性及び、それぞれ生体の表層部または深部まで到達するという特性から得られた数字である。ただし、この場合の波長帯域はこれに限定されず、例えばヘモグロビンによる吸収と生体の表層部又は深部への到達に関する実験結果等の変動要因により、波長帯域の下限値が0〜10%程度減少し、上限値が0〜10%程度上昇することも考えられる。 Thereby, it becomes possible to observe the structure of the blood vessel located in the surface layer part and the deep part of the living body. In addition, by inputting the obtained signals to specific channels (G2 → R, B2 → G, B), lesions that are difficult to see with normal light such as squamous cell carcinoma can be displayed in brown, etc. Oversight of parts can be suppressed. Note that 390 nm to 445 nm or 530 nm to 550 nm are numbers obtained from the characteristic of being absorbed by hemoglobin and the characteristic of reaching the surface layer or the deep part of the living body, respectively. However, the wavelength band in this case is not limited to this. For example, the lower limit of the wavelength band is reduced by about 0 to 10% due to the variation factors such as the absorption by hemoglobin and the experimental results regarding the arrival of the living body on the surface layer or the deep part. It is also conceivable that the upper limit value increases by about 0 to 10%.
また本実施形態では、図25に示すように、内視鏡装置は、駆動情報出力部374と、ターゲット領域設定部(制御部302)と、現在位置情報取得部376を含む。そして、ターゲット領域設定部は、観察のターゲットとなるターゲット領域(Tg)を設定する。現在位置情報取得部は、第n倍率画像(BP4)に対応する第1倍率画像(BP1)上の領域(BP4’)の位置情報を現在位置情報として取得する。駆動情報出力部374は、ターゲット領域の位置情報と現在位置情報に基づいて駆動情報を出力する。 In the present embodiment, as shown in FIG. 25, the endoscope apparatus includes a drive information output unit 374, a target region setting unit (control unit 302), and a current position information acquisition unit 376. Then, the target area setting unit sets a target area (Tg) to be an observation target. The current position information acquisition unit acquires position information of a region (BP4 ') on the first magnification image (BP1) corresponding to the nth magnification image (BP4) as current position information. The drive information output unit 374 outputs drive information based on the position information of the target area and the current position information.
具体的には、内視鏡装置は、第1距離情報取得部(距離情報取得部371)と、第2距離情報算出部(ズレ情報算出部372)と、角度算出部373を含む。そして、第1距離情報取得部は、撮像部から被写体までの距離を表す第1距離情報を取得する。第2距離情報算出部は、撮像領域からターゲット領域までの被写体上での距離を表す第2距離情報を算出する。角度算出部373は、第1,第2距離情報から、角度θを表す角度情報を算出する。駆動情報出力部374は、その角度情報に基づいて駆動情報を出力する。 Specifically, the endoscope apparatus includes a first distance information acquisition unit (distance information acquisition unit 371), a second distance information calculation unit (deviation information calculation unit 372), and an angle calculation unit 373. The first distance information acquisition unit acquires first distance information representing the distance from the imaging unit to the subject. The second distance information calculation unit calculates second distance information representing the distance on the subject from the imaging area to the target area. The angle calculation unit 373 calculates angle information representing the angle θ from the first and second distance information. The drive information output unit 374 outputs drive information based on the angle information.
より具体的には、図21に示すように、撮像部200は、ワイヤ1001〜1004を有する内視鏡スコープである。この場合、駆動情報は、そのワイヤ1001〜1004の長さの調整量を表す情報である。そして、撮像部200の視野範囲は、その調整量に基づくワイヤ1001〜1004の長さの調整により移動される。 More specifically, as illustrated in FIG. 21, the imaging unit 200 is an endoscope scope having wires 1001 to 1004. In this case, the drive information is information indicating the adjustment amount of the length of the wires 1001 to 1004. Then, the visual field range of the imaging unit 200 is moved by adjusting the length of the wires 1001 to 1004 based on the adjustment amount.
このようにすれば、スコープの撮影領域がターゲットからずれた場合でも、スコープ先端をターゲットの方向に曲げることができる。これにより、ターゲットを自動的に視野範囲に導入できる。 In this way, the scope tip can be bent in the direction of the target even when the imaging region of the scope is displaced from the target. As a result, the target can be automatically introduced into the visual field range.
また、本実施形態では、図16に示すように、撮像部200はオートフォーカス部(焦点位置制御部206)を含む。また、撮像部200は、可変絞り部205と、観察対象物を複数の異なる倍率で拡大して撮像する場合に倍率が低いほど可変絞り部205を絞る制御を行う可変絞り制御部204と、を含む。また、可変絞り制御部204は、撮像部200の撮像倍率が所定倍率以上(拡大撮影モード)となった場合に可変絞り部205を開ける制御を行う。 In the present embodiment, as shown in FIG. 16, the imaging unit 200 includes an autofocus unit (focus position control unit 206). In addition, the imaging unit 200 includes a variable diaphragm unit 205 and a variable diaphragm control unit 204 that performs control to narrow down the variable diaphragm unit 205 as the magnification decreases when the observation object is enlarged and imaged at a plurality of different magnifications. Including. In addition, the variable aperture control unit 204 performs control to open the variable aperture unit 205 when the imaging magnification of the imaging unit 200 is equal to or greater than a predetermined magnification (enlarged shooting mode).
このようにすれば、AFにより自動的に合焦できるため病変診断時間を短縮できる。また、絞り制御を行うことで、通常観察モードにおいてパンフォーカスで撮影し、拡大観察モードにおいて高解像度で撮影できる。 In this way, since the focus can be automatically achieved by AF, the lesion diagnosis time can be shortened. Further, by performing aperture control, it is possible to take images with pan focus in the normal observation mode and with high resolution in the enlargement observation mode.
9.ソフトウェア
上記の本実施形態では、画像処理部301を構成する各部をハードウェアで構成することとしたが、これに限定されるものではない。例えば、撮像装置により取得された画像に対して、CPUが各部の処理を行う構成とし、CPUがプログラムを実行することによってソフトウェアとして実現することとしてもよい。あるいは、各部が行う処理の一部をソフトウェアで構成することとしてもよい。
9. Software In the above-described embodiment, each unit configuring the image processing unit 301 is configured by hardware. However, the present invention is not limited to this. For example, the CPU may be configured to process each unit for an image acquired by the imaging apparatus, and may be realized as software by the CPU executing a program. Alternatively, a part of processing performed by each unit may be configured by software.
画像処理部301の各部が行う処理をソフトウェアとして実現する場合には、例えばワークステーションやパソコン等の公知のコンピュータシステムを画像処理装置として用いることができる。そして、画像処理部301の各部が行う処理を実現するためのプログラム(画像処理プログラム)を予め用意し、この画像処理プログラムをコンピュータシステムのCPUが実行することによって実現できる。 When the processing performed by each unit of the image processing unit 301 is realized as software, for example, a known computer system such as a workstation or a personal computer can be used as the image processing apparatus. Then, a program (image processing program) for realizing the processing performed by each unit of the image processing unit 301 is prepared in advance, and this image processing program is executed by the CPU of the computer system.
図26は、本変形例におけるコンピュータシステム600の構成を示すシステム構成図であり、図27は、このコンピュータシステム600における本体部610の構成を示すブロック図である。図26に示すように、コンピュータシステム600は、本体部610と、本体部610からの指示によって表示画面621に画像等の情報を表示するためのディスプレイ620と、このコンピュータシステム600に種々の情報を入力するためのキーボード630と、ディスプレイ620の表示画面621上の任意の位置を指定するためのマウス640とを備える。 FIG. 26 is a system configuration diagram showing a configuration of a computer system 600 in the present modification, and FIG. 27 is a block diagram showing a configuration of a main body 610 in the computer system 600. As shown in FIG. 26, the computer system 600 includes a main body 610, a display 620 for displaying information such as an image on the display screen 621 according to an instruction from the main body 610, and various information on the computer system 600. A keyboard 630 for inputting and a mouse 640 for designating an arbitrary position on the display screen 621 of the display 620 are provided.
また、このコンピュータシステム600における本体部610は、図27に示すように、CPU611と、RAM612と、ROM613と、ハードディスクドライブ(HDD)614と、CD−ROM660を受け入れるCD−ROMドライブ615と、USBメモリ670を着脱可能に接続するUSBポート616と、ディスプレイ620、キーボード630およびマウス640を接続するI/Oインターフェース617と、ローカルエリアネットワークまたは広域エリアネットワーク(LAN/WAN)N1に接続するためのLANインターフェース618を備える。 Further, as shown in FIG. 27, a main body 610 in the computer system 600 includes a CPU 611, a RAM 612, a ROM 613, a hard disk drive (HDD) 614, a CD-ROM drive 615 that accepts a CD-ROM 660, and a USB memory. USB port 616 to which 670 is detachably connected, I / O interface 617 to which display 620, keyboard 630 and mouse 640 are connected, and a LAN interface for connection to a local area network or wide area network (LAN / WAN) N1 618.
さらに、このコンピュータシステム600には、インターネット等の公衆回線N3に接続するためのモデム650が接続されるとともに、LANインターフェース618およびローカルエリアネットワークまたは広域エリアネットワークN1を介して、他のコンピュータシステムであるパソコン(PC)681、サーバ682、プリンタ683等が接続される。 Further, the computer system 600 is connected to a modem 650 for connecting to a public line N3 such as the Internet, and is another computer system via a LAN interface 618 and a local area network or a wide area network N1. A personal computer (PC) 681, a server 682, a printer 683, and the like are connected.
そして、このコンピュータシステム600は、所定の記録媒体に記録された画像処理プログラム(例えば図28〜図30)を参照して、後述する処理手順を実現するための画像処理プログラムを読み出して実行することで画像処理装置を実現する。ここで、所定の記録媒体とは、CD−ROM660やUSBメモリ670の他、MOディスクやDVDディスク、フレキシブルディスク(FD)、光磁気ディスク、ICカード等を含む「可搬用の物理媒体」、コンピュータシステム600の内外に備えられるHDD614やRAM612、ROM613等の「固定用の物理媒体」、モデム650を介して接続される公衆回線N3や、他のコンピュータシステム(PC)681またはサーバ682が接続されるローカルエリアネットワークまたは広域エリアネットワークN1等のように、プログラムの送信に際して短期にプログラムを記憶する「通信媒体」等、コンピュータシステム600によって読み取り可能な画像処理プログラムを記録するあらゆる記録媒体を含む。 The computer system 600 reads out and executes an image processing program for realizing a processing procedure to be described later with reference to an image processing program (for example, FIGS. 28 to 30) recorded on a predetermined recording medium. An image processing apparatus is realized with this. Here, the predetermined recording medium is a “portable physical medium” including an MO disk, a DVD disk, a flexible disk (FD), a magneto-optical disk, an IC card, etc. in addition to the CD-ROM 660 and the USB memory 670, a computer A “fixed physical medium” such as HDD 614, RAM 612, and ROM 613 provided inside and outside the system 600, a public line N3 connected via the modem 650, and another computer system (PC) 681 or server 682 are connected. It includes any recording medium that records an image processing program readable by the computer system 600, such as a “communication medium” that stores the program in a short time when transmitting the program, such as a local area network or a wide area network N1.
すなわち、画像処理プログラムは、「可搬用の物理媒体」「固定用の物理媒体」「通信媒体」等の記録媒体にコンピュータ読み取り可能に記録されるものであり、コンピュータシステム600は、このような記録媒体から画像処理プログラムを読み出して実行することで画像処理装置を実現する。なお、画像処理プログラムは、コンピュータシステム600によって実行されることに限定されるものではなく、他のコンピュータシステム(PC)681またはサーバ682が画像処理プログラムを実行する場合や、これらが協働して画像処理プログラムを実行するような場合にも、本発明を同様に適用することができる。 That is, the image processing program is recorded on a recording medium such as “portable physical medium”, “fixed physical medium”, and “communication medium” in a computer-readable manner. An image processing apparatus is realized by reading and executing an image processing program from a medium. Note that the image processing program is not limited to be executed by the computer system 600, and when the other computer system (PC) 681 or the server 682 executes the image processing program or in cooperation therewith. The present invention can be similarly applied to a case where an image processing program is executed.
各部が行う処理の一部をソフトウェアで構成する場合の一例として、撮像装置により取得された画像に対して、画像処理部301の処理をソフトウェアで実現する場合の処理手順を、図28〜図30のフローチャートを用いて説明する。撮像装置により取得された画像は、例えば、A/D変換部210が出力する画像である。 As an example of a case where a part of processing performed by each unit is configured by software, a processing procedure when the processing of the image processing unit 301 is realized by software for an image acquired by the imaging apparatus is illustrated in FIGS. It demonstrates using the flowchart of these. The image acquired by the imaging device is an image output by the A / D conversion unit 210, for example.
図28に示すように、この処理が開始されると、撮像画像を取得し(ステップS1)、目標倍率画像を選択する処理を行う(ステップS2)。次に、目標倍率画像間のマッチング処理を行って、1倍の画像における最大倍率の画像の位置を検出する処理を行う(ステップS3)。次に、観察位置を表示する制御を行い(ステップS4)、スコープ先端を駆動する制御を行う(ステップS5)。次に、拡大観察モードが終了したら処理を終了する(ステップS6、YES)。拡大観察モードが継続していれば(ステップS6、NO)、最大倍率画像を更新し(ステップS7)、ステップS3〜S6を繰り返す。 As shown in FIG. 28, when this process is started, a captured image is acquired (step S1), and a process of selecting a target magnification image is performed (step S2). Next, a matching process between target magnification images is performed, and a process of detecting the position of the image with the maximum magnification in the 1x image is performed (step S3). Next, control for displaying the observation position is performed (step S4), and control for driving the scope tip is performed (step S5). Next, when the magnification observation mode ends, the process ends (step S6, YES). If the magnification observation mode is continued (step S6, NO), the maximum magnification image is updated (step S7), and steps S3 to S6 are repeated.
図29に、目標倍率画像選択処理の詳細なフローチャートを示す。この処理が開始されると、撮像画像から1倍の目標倍率画像を取得する(ステップS20)。次に、目標倍率画像から第1画像を選択する(ステップS21)。第1画像は、マッチング処理の基準となる参照倍率画像である。次に、撮像画像から第2画像を選択し(ステップS22)、領域抽出を行い(ステップS23)、抽出した領域の画像サイズを倍率補正してテンプレート画像を生成する(ステップS24)。次に、参照倍率画像とテンプレート画像をマッチング処理する(ステップS25)。相関値が最小値でない場合には(ステップS26、NO)、ステップS22〜S25を繰り返す。相関値が最小値となった場合には(ステップS26、YES)、その第2画像を目標倍率画像として選択する(ステップS27)。最大倍率の目標倍率画像まで選択が完了していなければ(ステップS28、NO)、ステップS21〜S27を繰り返す。最大倍率の目標倍率画像まで選択が完了したら、処理を終了する(ステップS28、YES)。 FIG. 29 shows a detailed flowchart of the target magnification image selection process. When this process is started, a target magnification image of 1 is acquired from the captured image (step S20). Next, a first image is selected from the target magnification images (step S21). The first image is a reference magnification image serving as a reference for matching processing. Next, a second image is selected from the captured image (step S22), region extraction is performed (step S23), and the image size of the extracted region is corrected for magnification to generate a template image (step S24). Next, the reference magnification image and the template image are matched (step S25). If the correlation value is not the minimum value (step S26, NO), steps S22 to S25 are repeated. When the correlation value becomes the minimum value (step S26, YES), the second image is selected as the target magnification image (step S27). If selection to the maximum magnification target magnification image has not been completed (step S28, NO), steps S21 to S27 are repeated. When the selection up to the maximum magnification target magnification image is completed, the process is terminated (YES in step S28).
図30に、領域検出処理の詳細なフローチャートを示す。この処理が開始されると、目標倍率画像から基準画像を選択し(ステップS40)、目標倍率画像から検出対象画像を選択する(ステップS41)。次に、検出対象画像から領域抽出を行い(ステップS42)、抽出した領域の画像サイズを倍率補正してテンプレート画像を生成する(ステップS43)。次に、基準画像とテンプレート画像をマッチング処理する(ステップS44)。最大倍率の目標倍率画像までマッチング処理が完了していなければ(ステップS45、NO)、ステップS40〜S44を繰り返す。最大倍率の目標倍率画像までマッチング処理が完了したら、処理を終了する(ステップ45、YES)。 FIG. 30 shows a detailed flowchart of the area detection process. When this process is started, a reference image is selected from the target magnification image (step S40), and a detection target image is selected from the target magnification image (step S41). Next, a region is extracted from the detection target image (step S42), and the template image is generated by correcting the magnification of the image size of the extracted region (step S43). Next, the reference image and the template image are matched (step S44). If the matching process has not been completed up to the target magnification image having the maximum magnification (step S45, NO), steps S40 to S44 are repeated. When the matching process is completed up to the maximum magnification target magnification image, the process ends (step 45, YES).
また本実施形態は、本実施形態の各部(画像構成処理部、目標倍率画像群選択部、異倍率画像間位置決定部、表示情報生成部、合成部、AF制御部等)を実現するプログラムコードが記録されたコンピュータプログラムプロダクトにも適用できる。 In addition, this embodiment is a program code that realizes each part of the present embodiment (an image configuration processing unit, a target magnification image group selection unit, a position determination unit between different magnification images, a display information generation unit, a synthesis unit, an AF control unit, etc.) It can also be applied to computer program products in which is recorded.
コンピュータプログラムプロダクトは、例えば、プログラムコードが記録された情報記憶媒体(DVD等の光ディスク媒体、ハードディスク媒体、メモリ媒体等)、プログラムコードが記録されたコンピュータ、プログラムコードが記録されたインターネットシステム(例えば、サーバとクライアント端末を含むシステム)など、プログラムコードが組み込まれた情報記憶媒体、装置、機器或いはシステム等である。この場合に、本実施形態の各構成要素や各処理プロセスは各モジュールにより実装され、これらの実装されたモジュールにより構成されるプログラムコードは、コンピュータプログラムプロダクトに記録される。 The computer program product includes, for example, an information storage medium (an optical disk medium such as a DVD, a hard disk medium, a memory medium, etc.) on which the program code is recorded, a computer on which the program code is recorded, and an Internet system (for example, A system including a server and a client terminal), etc., such as an information storage medium, apparatus, device or system in which a program code is incorporated. In this case, each component and each processing process of this embodiment are mounted by each module, and the program code constituted by these mounted modules is recorded in the computer program product.
以上、本発明を適用した実施形態およびその変形例について説明したが、本発明は、各実施形態やその変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、各実施形態や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態や変形例で説明した構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。 As mentioned above, although embodiment and its modification which applied this invention were described, this invention is not limited to each embodiment and its modification as it is, and in the range which does not deviate from the summary of invention in an implementation stage. The component can be modified and embodied. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments and modifications. For example, some constituent elements may be deleted from all the constituent elements described in each embodiment or modification. Furthermore, you may combine suitably the component demonstrated in different embodiment and modification. Thus, various modifications and applications are possible without departing from the spirit of the invention.
また、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(撮像部、特殊光、変位等)と共に記載された用語(スコープ、狭帯域光、ずれ等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。 In the specification or drawings, terms (scope, narrowband light, displacement, etc.) described at least once together with different terms (imaging unit, special light, displacement, etc.) having a broader meaning or the same meaning are used in the specification or drawings. It can be replaced by the different terms at any point.
10 観察対象領域、100 光源部、101 白色光源、102 回転色フィルタ、
103 回転駆動部、104 集光レンズ、200 撮像部、
201 ライトガイドファイバ、202 照明レンズ、203 対物レンズ、
204 可変絞り制御部、205 可変絞り部、206 焦点位置制御部、
207 焦点位置調整レンズ、209 撮像素子、210 A/D変換部、
300 制御装置、301 画像処理部、302 制御部、
303 先端湾曲駆動部、310 画像構成処理部、320 目標倍率画像群選択部、
321 フレームメモリ、322 画像選択部、323 領域抽出部、
324 倍率補正部、325 目標倍率画像選択部、326 マッチング処理部、
327 参照倍率画像選択部、328 フレームメモリ、
329 目標倍率画像選択制御部、330 異倍率画像間位置決定部、
331 第1画像選択部、332 第2画像選択部、333 領域抽出部、
334 倍率補正部、335 マッチング処理部、336 倍率・抽出領域制御部、
340 表示情報生成部、350 合成部、360 AF制御部、
361 領域抽出部、362 コントラスト算出部、363 レンズ移動量算出部、
364 合焦画像選択部、371 距離情報取得部、372 ズレ情報算出部、
373 角度算出部、374 駆動情報出力部、375 ワイヤ駆動部、
376 現在位置情報取得部、400 表示部、500 外部I/F部、
501 ズーム操作ノブ、600 コンピュータシステム、
601〜603 色フィルタ、610 本体部、611 CPU、612 RAM、
613 ROM、614 HDD、615 CD−ROMドライブ、
616 USBポート、617 I/Oインターフェース、
618 LANインターフェース、620 ディスプレイ、621 表示画面、
630 キーボード、640 マウス、650 モデム、660 CD−ROM、
670 USBメモリ、681 PC、682 サーバ、683 プリンタ、
801,802 色フィルタ、803 回転モータ、1001〜1004 ワイヤ、
AFA AFエリア、FP2 フレーム画像、KP3 テンプレート画像、
BP1〜BP4 目標倍率画像、TP4 テンプレート画像、Tg 観察対象、
θ 角度、N1 広域エリアネットワーク、N3 公衆回線
10 observation target region, 100 light source unit, 101 white light source, 102 rotating color filter,
103 rotational drive unit, 104 condenser lens, 200 imaging unit,
201 light guide fiber, 202 illumination lens, 203 objective lens,
204 variable aperture control unit, 205 variable aperture unit, 206 focus position control unit,
207 focal position adjustment lens, 209 imaging device, 210 A / D conversion unit,
300 control device, 301 image processing unit, 302 control unit,
303 tip bending drive unit, 310 image configuration processing unit, 320 target magnification image group selection unit,
321 frame memory, 322 image selection unit, 323 region extraction unit,
324 magnification correction unit, 325 target magnification image selection unit, 326 matching processing unit,
327 reference magnification image selection unit, 328 frame memory,
329 target magnification image selection control unit, 330 different magnification image position determination unit,
331 first image selection unit, 332 second image selection unit, 333 region extraction unit,
334 magnification correction unit, 335 matching processing unit, 336 magnification / extraction area control unit,
340 display information generation unit, 350 synthesis unit, 360 AF control unit,
361 region extraction unit, 362 contrast calculation unit, 363 lens movement amount calculation unit,
364 focused image selection unit, 371 distance information acquisition unit, 372 deviation information calculation unit,
373 angle calculation unit, 374 drive information output unit, 375 wire drive unit,
376 Current position information acquisition unit, 400 display unit, 500 external I / F unit,
501 Zoom operation knob, 600 computer system,
601 to 603 color filters, 610 main body, 611 CPU, 612 RAM,
613 ROM, 614 HDD, 615 CD-ROM drive,
616 USB port, 617 I / O interface,
618 LAN interface, 620 display, 621 display screen,
630 keyboard, 640 mouse, 650 modem, 660 CD-ROM,
670 USB memory, 681 PC, 682 server, 683 printer,
801, 802 color filter, 803 rotary motor, 1001-1004 wire,
AFA AF area, FP2 frame image, KP3 template image,
BP1 to BP4 target magnification image, TP4 template image, Tg observation object,
θ angle, N1 wide area network, N3 public line
Claims (39)
前記複数の画像の中から、各画像間の倍率が相対的に異なる第1〜第n倍率画像(nは、n≧2の自然数)を選択する画像選択部と、
前記第1〜第n倍率画像の中から、基準画像と前記基準画像より高倍率の検出対象画像を選択し、前記検出対象画像に対応する前記基準画像上の領域を検出して、前記検出対象画像を前記領域に対応付ける領域検出部と、
を含むことを特徴とする画像処理装置。 An image acquisition unit for acquiring a plurality of images obtained by enlarging and imaging an observation object at a plurality of different magnifications;
An image selection unit that selects from the plurality of images first to nth magnification images (n is a natural number of n ≧ 2) having relatively different magnifications between the images;
From the first to n-th magnification images, a reference image and a detection target image having a higher magnification than the reference image are selected, a region on the reference image corresponding to the detection target image is detected, and the detection target An area detector for associating an image with the area;
An image processing apparatus comprising:
前記第1〜第n倍率画像の中の第i倍率画像が、前記第1〜第n倍率画像の中の第i−1倍率画像よりも高倍率の画像である場合に、
前記領域検出部は、
前記第i−1倍率画像を前記基準画像として選択し、前記第i倍率画像を前記検出対象画像として選択し、前記第i倍率画像に対応する前記第i−1倍率画像上の領域を順次検出していくことで、前記第n倍率画像に対応する前記第1倍率画像上の領域を検出することを特徴とする画像処理装置。 In claim 1,
When the i-th magnification image in the first to n-th magnification images is an image having a higher magnification than the i-th magnification image in the first to n-th magnification images,
The region detection unit
The i-1 magnification image is selected as the reference image, the i magnification image is selected as the detection target image, and regions on the i-1 magnification image corresponding to the i magnification image are sequentially detected. Thus, an area on the first magnification image corresponding to the nth magnification image is detected.
前記画像選択部は、
前記複数の画像の中のマッチング対象画像を所定倍率で縮小する倍率補正部と、
前記縮小されたマッチング対象画像と、前記第1〜第n倍率画像の中の基準倍率画像とのマッチング処理を行うマッチング処理部と、
前記マッチング処理において最も相関性が高い画像を前記複数の画像の中から選択する目標倍率画像選択部と、
を有することを特徴とする画像処理装置。 In claim 1,
The image selection unit
A magnification correction unit that reduces a matching target image in the plurality of images at a predetermined magnification;
A matching processing unit that performs a matching process between the reduced matching target image and a reference magnification image in the first to nth magnification images;
A target magnification image selection unit for selecting an image having the highest correlation in the matching process from the plurality of images;
An image processing apparatus comprising:
前記画像選択部は、
前記マッチング処理と、前記マッチング処理において最も相関性が高い画像を選択する処理と、前記選択された最も相関性が高い画像を次のマッチング処理に用いられる基準倍率画像として選択する処理とを繰り返す制御を行う繰り返し制御部を有することを特徴とする画像処理装置。 In claim 3,
The image selection unit
Control for repeating the matching process, a process for selecting an image having the highest correlation in the matching process, and a process for selecting the selected image having the highest correlation as a reference magnification image used for the next matching process An image processing apparatus having a repetitive control unit for performing the above.
前記画像選択部は、
前記第1〜第n倍率画像を記憶する記憶部と、
前記基準倍率画像を選択する基準倍率画像選択部と、
を有し、
前記基準倍率画像選択部は、
前記記憶部に、前記第1〜第n倍率画像の中の第j倍率画像が記憶されている場合に、前記第j倍率画像を前記基準倍率画像として選択し、
前記マッチング処理部は、
前記第j倍率画像を用いて前記マッチング処理を行い、
前記目標倍率画像選択部は、
前記最も相関性が高い画像を、前記第1〜第n倍率画像の中の第k倍率画像として選択し、
前記記憶部は、
前記第k倍率画像を記憶することを特徴とする画像処理装置。 In claim 3,
The image selection unit
A storage unit for storing the first to n-th magnification images;
A reference magnification image selection unit for selecting the reference magnification image;
Have
The reference magnification image selection unit includes:
When the jth magnification image among the first to nth magnification images is stored in the storage unit, the jth magnification image is selected as the reference magnification image,
The matching processing unit
Performing the matching process using the j-th magnification image;
The target magnification image selection unit
Selecting the image having the highest correlation as the kth magnification image among the first to nth magnification images;
The storage unit
An image processing apparatus for storing the k-th magnification image.
前記基準倍率画像選択部は、
次のマッチング処理に用いられる前記基準倍率画像として、前記第k倍率画像を選択することを特徴とする画像処理装置。 In claim 5,
The reference magnification image selection unit includes:
The image processing apparatus, wherein the k-th magnification image is selected as the reference magnification image used for the next matching process.
前記画像選択部は、
前記マッチング対象画像の中からマッチング対象領域を抽出する領域抽出部を有し、
前記倍率補正部は、
前記マッチング対象領域を前記所定倍率で縮小し、
前記マッチング処理部は、
前記縮小されたマッチング対象領域と、前記基準倍率画像とのマッチング処理を行うことを特徴とする画像処理装置。 In claim 3,
The image selection unit
An area extracting unit for extracting a matching target area from the matching target image;
The magnification correction unit
Reducing the matching target area at the predetermined magnification;
The matching processing unit
An image processing apparatus that performs a matching process between the reduced matching target area and the reference magnification image.
前記マッチング処理部は、
前記マッチング対象画像及び前記基準倍率画像として、特定の生体構造が強調された画像を用いて前記マッチング処理を行うことを特徴とする画像処理装置。 In claim 3,
The matching processing unit
An image processing apparatus that performs the matching process using an image in which a specific biological structure is emphasized as the matching target image and the reference magnification image.
前記特定の生体構造は、
血管走行の構造であることを特徴とする画像処理装置。 In claim 8,
The specific anatomy is:
An image processing apparatus having a blood vessel traveling structure.
前記特定の生体構造は、
粘膜表層の構造であることを特徴とする画像処理装置。 In claim 8,
The specific anatomy is:
An image processing apparatus having a structure of a mucous membrane surface layer.
前記画像取得部は、
特定の波長帯域における情報を有した被写体像を含む特殊光画像を取得する特殊光画像取得部を有し、
前記特定の生体構造が強調された画像は、
前記特殊光画像であることを特徴とする画像処理装置 In claim 8,
The image acquisition unit
A special light image acquisition unit that acquires a special light image including a subject image having information in a specific wavelength band;
The image in which the specific anatomy is emphasized is
An image processing apparatus characterized by being the special light image
前記特定の波長帯域は、
白色の波長帯域よりも狭い帯域であることを特徴とする画像処理装置。 In claim 11,
The specific wavelength band is
An image processing apparatus having a narrower band than a white wavelength band.
前記特殊光画像は生体内を写した生体内画像であり、
前記生体内画像に含まれる前記特定の波長帯域は、血液中のヘモグロビンに吸収される波長の波長帯域であることを特徴とする画像処理装置。 In claim 12,
The special light image is an in-vivo image of the living body,
The image processing apparatus according to claim 1, wherein the specific wavelength band included in the in-vivo image is a wavelength band of a wavelength absorbed by hemoglobin in blood.
前記特定の波長帯域は、390nm〜445nm、または530nm〜550nmであることを特徴とする画像処理装置。 In claim 13,
The image processing apparatus according to claim 1, wherein the specific wavelength band is 390 nm to 445 nm or 530 nm to 550 nm.
前記画像選択部は、
前記第1〜第n倍率画像の中の基準倍率画像を所定倍率で拡大する倍率補正部と、
前記拡大された基準倍率画像と、前記複数の画像の中のマッチング対象画像とのマッチング処理を行うマッチング処理部と、
前記マッチング処理において最も相関性が高い画像を前記複数の画像の中から選択する目標倍率画像選択部と、
を有することを特徴とする画像処理装置。 In claim 1,
The image selection unit
A magnification correction unit for enlarging a reference magnification image among the first to n-th magnification images at a predetermined magnification;
A matching processing unit that performs a matching process between the enlarged reference magnification image and a matching target image in the plurality of images;
A target magnification image selection unit for selecting an image having the highest correlation in the matching process from the plurality of images;
An image processing apparatus comprising:
前記領域検出部は、
前記第1〜第n倍率画像の中から前記検出対象画像を選択する検出対象画像選択部と、
前記第1〜第n倍率画像の中から前記基準画像を選択する基準画像選択部と、
前記検出対象画像を前記基準画像の倍率に縮小する倍率補正部と、
前記縮小された検出対象画像と、前記基準画像とのマッチング処理を行うマッチング処理部と、
を有することを特徴とする画像処理装置。 In claim 1,
The region detection unit
A detection target image selection unit that selects the detection target image from the first to n-th magnification images;
A reference image selection unit for selecting the reference image from the first to n-th magnification images;
A magnification correction unit that reduces the detection target image to the magnification of the reference image;
A matching processing unit that performs a matching process between the reduced detection target image and the reference image;
An image processing apparatus comprising:
前記領域検出部は、
前記マッチング処理と、前記マッチング処理に用いられた前記基準画像を次のマッチング処理に用いられる検出対象画像として選択する処理と、前記次のマッチング処理に用いられる検出対象画像の次に低倍率の画像を前記第1〜第n倍率画像の中から次のマッチング処理に用いられる基準画像として選択する処理とを繰り返す制御を行う繰り返し制御部を有することを特徴とする画像処理装置。 In claim 16,
The region detection unit
The matching process, the process of selecting the reference image used in the matching process as a detection target image used in the next matching process, and the next lower magnification image of the detection target image used in the next matching process An image processing apparatus comprising: a repetitive control unit that performs repetitive control of selecting a reference image to be used as a reference image to be used for a next matching process from the first to nth magnification images.
前記検出対象画像選択部は、
前記検出対象画像として、前記第1〜第n倍率画像の中の第m倍率画像を選択し、
前記基準画像選択部は、
前記基準画像として、前記第1〜第n倍率画像の中から前記第m倍率画像の次に低倍率の第p倍率画像を選択し、
前記マッチング処理部は、
前記第m倍率画像に対応する前記第p倍率画像上の領域を検出することを特徴とする画像処理装置。 In claim 16,
The detection target image selection unit includes:
Selecting the m-th magnification image among the first to n-th magnification images as the detection target image;
The reference image selection unit
As the reference image, a low-magnification p-th magnification image next to the m-th magnification image is selected from the first to n-th magnification images,
The matching processing unit
An image processing apparatus for detecting an area on the p-th magnification image corresponding to the m-th magnification image.
前記検出対象画像選択部は、
次のマッチング処理に用いられる検出対象画像として、前記第p倍率画像を選択し、
前記基準画像選択部は、
前記次のマッチング処理に用いられる基準画像として、前記第1〜第n倍率画像の中から、前記第p倍率画像の次に低倍率である第q倍率画像を選択することを特徴とする画像処理装置。 In claim 18,
The detection target image selection unit includes:
As the detection target image used for the next matching process, the p-th magnification image is selected,
The reference image selection unit
Image processing characterized in that, as a reference image used in the next matching processing, a q-th magnification image that is the next lower magnification than the p-th magnification image is selected from the first to n-th magnification images. apparatus.
前記領域検出部は、
前記第m倍率画像に対応する前記第p倍率画像上の領域を含む周辺領域を前記第p倍率画像から抽出し、次のマッチング処理に用いる検出対象画像として設定する領域抽出部を有することを特徴とする画像処理装置。 In claim 18,
The region detection unit
A region extracting unit configured to extract a peripheral region including a region on the p-th magnification image corresponding to the m-th magnification image from the p-th magnification image and set as a detection target image used for a next matching process; An image processing apparatus.
前記マッチング処理部は、
前記検出対象画像及び前記基準画像として、特定の生体構造が強調された画像を用いて前記マッチング処理を行うことを特徴とする画像処理装置。 In claim 16,
The matching processing unit
An image processing apparatus that performs the matching process using an image in which a specific biological structure is emphasized as the detection target image and the reference image.
前記特定の生体構造は、
血管走行の構造であることを特徴とする画像処理装置。 In claim 21,
The specific anatomy is:
An image processing apparatus having a blood vessel traveling structure.
前記特定の生体構造は、
粘膜表層の構造であることを特徴とする画像処理装置。 In claim 21,
The specific anatomy is:
An image processing apparatus having a structure of a mucous membrane surface layer.
前記画像取得部は、
特定の波長帯域における情報を有した被写体像を含む特殊光画像を取得する特殊光画像取得部を有し、
前記特定の生体構造が強調された画像は、
前記特殊光画像であることを特徴とする画像処理装置 In claim 21,
The image acquisition unit
A special light image acquisition unit that acquires a special light image including a subject image having information in a specific wavelength band;
The image in which the specific anatomy is emphasized is
An image processing apparatus characterized by being the special light image
前記特定の波長帯域は、
白色の波長帯域よりも狭い帯域であることを特徴とする画像処理装置。 In claim 24,
The specific wavelength band is
An image processing apparatus having a narrower band than a white wavelength band.
前記特殊光画像は生体内を写した生体内画像であり、
前記生体内画像に含まれる前記特定の波長帯域は、血液中のヘモグロビンに吸収される波長の波長帯域であることを特徴とする画像処理装置。 In claim 25,
The special light image is an in-vivo image of the living body,
The image processing apparatus according to claim 1, wherein the specific wavelength band included in the in-vivo image is a wavelength band of a wavelength absorbed by hemoglobin in blood.
前記特定の波長帯域は、390nm〜445nm、または530nm〜550nmであることを特徴とする画像処理装置。 In claim 26,
The image processing apparatus according to claim 1, wherein the specific wavelength band is 390 nm to 445 nm or 530 nm to 550 nm.
表示制御部を含み、
前記第1〜第n倍率画像の中の第i倍率画像が、前記第1〜第n倍率画像の中の第i−1倍率画像よりも高倍率の画像である場合に、
前記領域検出部は、
前記第i倍率画像に対応する前記第i−1倍率画像上の領域を順次検出して、前記第n倍率画像に対応する前記第1倍率画像上の領域を検出し、
前記表示制御部は、
前記第1倍率画像と、前記第n倍率画像に対応する領域を表す識別情報を表示する制御を行うことを特徴とする内視鏡装置。 In claim 28,
Including a display controller,
When the i-th magnification image in the first to n-th magnification images is an image having a higher magnification than the i-th magnification image in the first to n-th magnification images,
The region detection unit
Sequentially detecting a region on the i-1 magnification image corresponding to the i magnification image, and detecting a region on the first magnification image corresponding to the n magnification image;
The display control unit
An endoscope apparatus that performs control to display identification information representing an area corresponding to the first magnification image and the nth magnification image.
前記表示制御部は、
前記第1倍率画像において観察のターゲットとなるターゲット領域を表す識別情報を表示する制御を行うことを特徴とする内視鏡装置。 In claim 29,
The display control unit
An endoscope apparatus that performs control to display identification information representing a target region that is an observation target in the first magnification image.
駆動情報出力部と、
ターゲット領域設定部と、
現在位置情報取得部と、
を含み、
前記第1〜第n倍率画像の中の第i倍率画像が、前記第1〜第n倍率画像の中の第i−1倍率画像よりも高倍率の画像である場合に、
前記領域検出部は、
前記第i倍率画像に対応する前記第i−1倍率画像上の領域を順次検出していくことで、前記第n倍率画像に対応する前記第1倍率画像上の領域を検出し、
前記ターゲット領域設定部は、
前記第1倍率画像において観察のターゲットとなるターゲット領域を設定し、
前記現在位置情報取得部は、
前記第n倍率画像に対応する前記第1倍率画像上の領域の位置情報を現在位置情報として取得し、
前記駆動情報出力部は、
前記ターゲット領域の位置情報と前記現在位置情報に基づいて、前記ターゲット領域を撮像部の視野範囲に入れる駆動を行うための駆動情報を出力することを特徴とする内視鏡装置。 In claim 28,
A drive information output unit;
A target area setting section;
A current location information acquisition unit;
Including
When the i-th magnification image in the first to n-th magnification images is an image having a higher magnification than the i-th magnification image in the first to n-th magnification images,
The region detection unit
By sequentially detecting a region on the i-1th magnification image corresponding to the ith magnification image, a region on the first magnification image corresponding to the nth magnification image is detected,
The target area setting unit
Setting a target area to be an observation target in the first magnification image;
The current position information acquisition unit
Obtaining position information of a region on the first magnification image corresponding to the nth magnification image as current position information;
The drive information output unit
An endoscope apparatus that outputs driving information for performing driving for putting the target area into a visual field range of an imaging unit based on the position information of the target area and the current position information.
前記撮像部から前記観察対象物までの距離を表す第1距離情報を取得する第1距離情報取得部と、
前記ターゲット領域の位置情報と、前記現在位置情報と、前記第1倍率画像の倍率から、前記撮像部の撮像領域から前記ターゲット領域までの距離を表す第2距離情報を算出する第2距離情報算出部と、
前記第1距離情報と前記第2距離情報から、前記撮像部の視野方向と前記ターゲット領域へ向かう方向との間の角度を表す角度情報を算出する角度算出部と、
を含み、
前記駆動情報出力部は、
前記角度情報に基づいて前記駆動情報として出力することを特徴とする内視鏡装置。 In claim 31,
A first distance information acquisition unit for acquiring first distance information representing a distance from the imaging unit to the observation object;
Second distance information calculation for calculating second distance information representing a distance from the imaging area of the imaging unit to the target area from the position information of the target area, the current position information, and the magnification of the first magnification image. And
An angle calculation unit that calculates angle information representing an angle between a visual field direction of the imaging unit and a direction toward the target region from the first distance information and the second distance information;
Including
The drive information output unit
An endoscope apparatus that outputs the driving information based on the angle information.
前記撮像部は、
前記視野範囲を移動させるワイヤを有する内視鏡スコープであり、
前記駆動情報は、
前記ワイヤの長さの調整量を表す情報であり、
前記視野範囲は、
前記調整量に基づく前記ワイヤの長さの調整により移動されることを特徴とする内視鏡装置。 In claim 31,
The imaging unit
An endoscope scope having a wire for moving the visual field range;
The drive information is
It is information indicating the adjustment amount of the length of the wire,
The visual field range is
An endoscope apparatus that is moved by adjusting the length of the wire based on the adjustment amount.
オートフォーカス部を有する撮像部を含むことを特徴とする内視鏡装置。 In claim 28,
An endoscope apparatus including an imaging unit having an autofocus unit.
可変絞り部を有する撮像部と、
前記観察対象物を複数の異なる倍率で拡大して撮像する場合に、倍率が低いほど前記可変絞り部を絞る制御を行う可変絞り制御部と、
を含むことを特徴とする内視鏡装置。 In claim 28,
An imaging unit having a variable aperture unit;
When enlarging and imaging the observation object at a plurality of different magnifications, a variable aperture control unit that performs control to reduce the variable aperture unit as the magnification is low,
An endoscopic device comprising:
可変絞り部を有する撮像部と、
前記撮像部の撮像倍率が所定倍率以上となった場合に、前記可変絞り部を開ける制御を行う可変絞り制御部と、
を含むことを特徴とする内視鏡装置。 In claim 28,
An imaging unit having a variable aperture unit;
A variable aperture control unit that performs control to open the variable aperture unit when an imaging magnification of the imaging unit is equal to or greater than a predetermined magnification; and
An endoscopic device comprising:
前記複数の画像の中から、各画像で相対的に倍率が異なる第1〜第n倍率画像(nは、n≧2の自然数)を選択し、
前記第1〜第n倍率画像の中から、基準画像と前記基準画像より高倍率の検出対象画像を選択し、
前記検出対象画像に対応する前記基準画像上の領域を検出して、前記検出対象画像を前記領域に対応付けることを特徴とする画像処理方法。 Obtain multiple images obtained by magnifying and observing the observation object at multiple different magnifications,
From the plurality of images, first to nth magnification images (n is a natural number of n ≧ 2) having relatively different magnifications for each image are selected,
From the first to nth magnification images, select a reference image and a detection target image having a higher magnification than the reference image,
An image processing method comprising: detecting a region on the reference image corresponding to the detection target image, and associating the detection target image with the region.
前記複数の画像の中から、各画像で相対的に倍率が異なる第1〜第n倍率画像(nは、n≧3の自然数)を選択する画像選択部と、
前記第1〜第n倍率画像の中から、基準画像と前記基準画像より高倍率の検出対象画像を選択し、前記検出対象画像に対応する前記基準画像上の領域を検出して、前記検出対象画像を前記領域に対応付ける領域検出部として、
コンピュータを機能させることを特徴とするプログラム。 An image acquisition unit for acquiring a plurality of images obtained by enlarging and imaging an observation object at a plurality of different magnifications;
An image selection unit for selecting, from among the plurality of images, first to nth magnification images (n is a natural number of n ≧ 3) having relatively different magnifications in each image;
From the first to n-th magnification images, a reference image and a detection target image having a higher magnification than the reference image are selected, a region on the reference image corresponding to the detection target image is detected, and the detection target As an area detector that associates an image with the area,
A program characterized by causing a computer to function.
前記一連の動画画像を第1の表示領域に表示する制御を行う表示制御部と、
を含み、
前記表示制御部は、
前記第1の表示領域に表示される動画画像よりも低倍率の画像であって、前記一連の動画画像の中から選択された動画画像を、低倍率画像として第2の表示領域に表示する制御を行い、
前記表示制御部は、
前記第1の表示領域に表示される動画画像に対応する前記低倍率画像上の領域を表す情報であって、前記一連の動画画像の視野範囲の移動に応じて前記低倍率画像上を移動する識別情報を前記第2の表示領域に表示する制御を行うことを特徴とする内視鏡装置。 An image acquisition unit for acquiring a series of moving image images obtained by imaging the observation object;
A display control unit that performs control to display the series of moving image images in the first display area;
Including
The display control unit
Control for displaying a moving image selected from the series of moving images as a low-magnification image in the second display region, which is a lower magnification image than the moving image displayed in the first display region. And
The display control unit
Information representing an area on the low-magnification image corresponding to the moving image displayed in the first display area, and moves on the low-magnification image in accordance with movement of the visual field range of the series of moving image. An endoscope apparatus that controls to display identification information in the second display area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010199772A JP2012055412A (en) | 2010-09-07 | 2010-09-07 | Image processor, endoscope apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010199772A JP2012055412A (en) | 2010-09-07 | 2010-09-07 | Image processor, endoscope apparatus, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012055412A true JP2012055412A (en) | 2012-03-22 |
Family
ID=46053243
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010199772A Withdrawn JP2012055412A (en) | 2010-09-07 | 2010-09-07 | Image processor, endoscope apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012055412A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101916915B1 (en) | 2017-02-01 | 2018-11-09 | 광주과학기술원 | Apparatus and method of insertion of a guide-wire |
WO2019087403A1 (en) | 2017-11-06 | 2019-05-09 | Eizo株式会社 | Image processing device, image processing method, and image processing program |
JP7441897B2 (en) | 2017-03-27 | 2024-03-01 | ソニー・オリンパスメディカルソリューションズ株式会社 | Control device, endoscope system and method of operating the control device |
-
2010
- 2010-09-07 JP JP2010199772A patent/JP2012055412A/en not_active Withdrawn
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101916915B1 (en) | 2017-02-01 | 2018-11-09 | 광주과학기술원 | Apparatus and method of insertion of a guide-wire |
JP7441897B2 (en) | 2017-03-27 | 2024-03-01 | ソニー・オリンパスメディカルソリューションズ株式会社 | Control device, endoscope system and method of operating the control device |
WO2019087403A1 (en) | 2017-11-06 | 2019-05-09 | Eizo株式会社 | Image processing device, image processing method, and image processing program |
KR20200053591A (en) | 2017-11-06 | 2020-05-18 | 에이조 가부시키가이샤 | Image processing apparatus, image processing method and recording medium recording image processing program |
US11363245B2 (en) | 2017-11-06 | 2022-06-14 | Eizo Corporation | Image processing device, image processing method, and image processing program |
KR20230010842A (en) | 2017-11-06 | 2023-01-19 | 에이조 가부시키가이샤 | Image processing device, image processing method, and recording medium recording image processing program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5562808B2 (en) | Endoscope apparatus and program | |
JP5855358B2 (en) | Endoscope apparatus and method for operating endoscope apparatus | |
JP6049518B2 (en) | Image processing apparatus, endoscope apparatus, program, and operation method of image processing apparatus | |
WO2012032914A1 (en) | Image processing device, endoscope device, image processing program and image processing method | |
CN102247114B (en) | Image processing apparatus and image processing method | |
JP5669529B2 (en) | Imaging apparatus, program, and focus control method | |
JP6013020B2 (en) | Endoscope apparatus and method for operating endoscope apparatus | |
JP6996901B2 (en) | Endoscope system | |
US11531151B2 (en) | Imaging apparatus and image generating method that detects an orientation of an imaging section and generates an image corresponding to a polarization direction corresponding to the orientation the imaging section | |
WO2015044996A1 (en) | Endoscope device and method for controlling endoscope device | |
CN107113405B (en) | Image processing apparatus, the working method of image processing apparatus, recording medium and endoscope apparatus | |
JP6150554B2 (en) | Image processing apparatus, endoscope apparatus, operation method of image processing apparatus, and image processing program | |
US20210019921A1 (en) | Image processing device, image processing method, and program | |
US20200081235A1 (en) | Medical observation system and medical observation device | |
KR20200019616A (en) | Display control device, display control method and display control program | |
JP6120491B2 (en) | Endoscope apparatus and focus control method for endoscope apparatus | |
JP2012110481A (en) | Endoscope apparatus, focus control method, and program | |
JP2012055412A (en) | Image processor, endoscope apparatus, image processing method, and program | |
JP6128989B2 (en) | Image processing apparatus, endoscope apparatus, and operation method of image processing apparatus | |
JP7179837B2 (en) | Endoscope device, endoscope image display method, and operation method of endoscope device | |
WO2022191058A1 (en) | Endoscopic image processing device, method, and program | |
WO2013061939A1 (en) | Endoscopic device and focus control method | |
JP2016002188A (en) | Endoscopic device | |
EP3937162A1 (en) | Video signal processing device, video signal processing method, and image-capturing device | |
WO2018179875A1 (en) | Image capturing device, focus control method and focus determination method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20131203 |