JPH01292583A - Endoscope picture processor - Google Patents
Endoscope picture processorInfo
- Publication number
- JPH01292583A JPH01292583A JP63121935A JP12193588A JPH01292583A JP H01292583 A JPH01292583 A JP H01292583A JP 63121935 A JP63121935 A JP 63121935A JP 12193588 A JP12193588 A JP 12193588A JP H01292583 A JPH01292583 A JP H01292583A
- Authority
- JP
- Japan
- Prior art keywords
- data
- picture element
- picture
- matrix
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000015654 memory Effects 0.000 abstract description 22
- 230000002093 peripheral effect Effects 0.000 abstract description 20
- 230000001186 cumulative effect Effects 0.000 abstract description 11
- 230000002159 abnormal effect Effects 0.000 abstract description 9
- 230000035945 sensitivity Effects 0.000 abstract description 4
- 239000011159 matrix material Substances 0.000 description 38
- 238000010586 diagram Methods 0.000 description 20
- 238000001514 detection method Methods 0.000 description 8
- 238000000034 method Methods 0.000 description 8
- 238000003780 insertion Methods 0.000 description 5
- 230000037431 insertion Effects 0.000 description 5
- 210000004204 blood vessel Anatomy 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 210000004400 mucous membrane Anatomy 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Landscapes
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Endoscopes (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
【発明の詳細な説明】
〔産業上の利用分野〕 ・この発明は、雑
音成分に影響されにくいように構成した内視鏡画像処理
装置に関する。DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] - The present invention relates to an endoscopic image processing device configured to be less susceptible to noise components.
従来、内視鏡からの映像を複数の色信号に分解して電A
信号に変換する内視鏡画像処理装置としては、例えば、
第9図に示すような構成のものが提案されている。すな
わち、第9図において、101は生体観察部位撮像用の
CODで、内視鏡挿入部先端に配置されている。102
は該CCD、101の出力信号を増幅するアンプ、10
3はγ補正部、104はA/Dコンバータ、105は切
換スイッチである。Conventionally, images from an endoscope were decomposed into multiple color signals to generate electricity.
Examples of endoscopic image processing devices that convert into signals include:
A configuration as shown in FIG. 9 has been proposed. That is, in FIG. 9, 101 is a COD for imaging a biological observation site, and is arranged at the tip of the endoscope insertion section. 102
is an amplifier 10 that amplifies the output signal of the CCD 101;
3 is a γ correction section, 104 is an A/D converter, and 105 is a changeover switch.
106、107.108は該切換スイッチ105の出力
側に接続されたR、 G、 B各色の画像メモリ、1
09゜1、0.111は該画像メモ1月06..107
..10Bに接続されたD/Aコンバータである。11
5.、116.117は輪郭強調回路で、それぞれD/
、Aコンバータ109゜110、111の出力側に切換
スイッチ112..113.、、14を介して接続され
ている。118は制御信号発生部で、切換スイッチ10
5 、 R,G、 8画像メモリ106゜107、
108. D/Aコンバータ109.110.111
、切換スイッチ112.113.114 、同期信号
発生回路119゜及びRGB回転フィルタ120を駆動
するモータ121に接続されている。122は光源用ラ
ンプで、該ランプ122からの光は前記フィルタ120
を介してライトガイド123に照射され、内視鏡挿入部
先端に導かれて、面順次カラ一方式で照明するように構
成されている。106, 107, and 108 are R, G, and B color image memories connected to the output side of the changeover switch 105;
09゜1, 0.111 is the image memo January 06. .. 107
.. .. This is a D/A converter connected to 10B. 11
5. , 116 and 117 are contour enhancement circuits, respectively D/
, A changeover switch 112 . .. 113. , , 14. Reference numeral 118 denotes a control signal generator, which is connected to the selector switch 10.
5, R, G, 8 image memory 106°107,
108. D/A converter 109.110.111
, changeover switches 112, 113, and 114, a synchronizing signal generating circuit 119°, and a motor 121 that drives an RGB rotary filter 120. Reference numeral 122 denotes a light source lamp, and the light from the lamp 122 passes through the filter 120.
The light is irradiated onto the light guide 123 through the light guide 123, guided to the distal end of the endoscope insertion section, and illuminated in a field-sequential color manner.
このように構成された内視鏡画像処理装置において、ラ
ンプ122からの照明光は、RGB回転フィルタ120
にキリR,G’、Bの3原色に分解され・、、順次ライ
トガイド123に入射されて、生体を照射する。1体の
観察画像はC’CDl0Lにより電気信号に変換されて
アンプ102に入力され、所定の範囲の電圧レベルに増
幅されて、γ補正部103に入りγ補正される。γ補正
された信号は、A/Dコンバータ104でA/D変換さ
れた後切換スイッチ105に入り、制御信号により順次
切り換えられて各R,G、B画像メモリ106.107
.108に順次記録サレル。各R’、G、B画像;メ−
E +J 106: 1o7.1o8に記録された画像
信号は、制御信号発生部118からの制御信号により順
次呼び出されて、各D/Aコンバータ1[)9.110
..111でD/A変換される。In the endoscopic image processing device configured in this way, the illumination light from the lamp 122 is transmitted through the RGB rotating filter 120.
The light is then separated into the three primary colors of R, G', and B, and is sequentially incident on the light guide 123 to illuminate the living body. The observed image of one body is converted into an electrical signal by C'CD10L, inputted to the amplifier 102, amplified to a voltage level within a predetermined range, and then inputted to the γ correction unit 103 for γ correction. The γ-corrected signal is A/D converted by the A/D converter 104 and then enters the changeover switch 105, where it is sequentially switched by a control signal and sent to each R, G, and B image memory 106, 107.
.. Sequentially recorded Sarel on 108th. Each R', G, B image;
E + J 106: The image signals recorded in 1o7 and 1o8 are sequentially called out by the control signal from the control signal generation unit 118, and are sent to each D/A converter 1[)9.110
.. .. D/A conversion is performed at step 111.
アナログ信号となった画像信号は、必要に応じて輪郭強
調回路115.116.117を経由た後、同期信号発
生回路119からの同期信号と共にRGB画像信号出力
端子に送出される。このようにして得られたRGB画像
信号をTVモニタに表示して内視鏡観察を行うようにし
ている。The image signal, which has become an analog signal, passes through edge enhancement circuits 115, 116, and 117 as necessary, and is then sent to the RGB image signal output terminal together with the synchronization signal from the synchronization signal generation circuit 119. The RGB image signals obtained in this manner are displayed on a TV monitor for endoscopic observation.
第10図は、前記輪郭強調回路の構成例を示すプロンぐ
図である。入力信号(A)は、第1デイレイライン20
1及び第2デイレイライン202により、それぞれ1画
素分ずつ遅延される。そして′2画素□分遅延された第
2デイレイライン202からの出力 □信号(C)は、
入力信号(A)と加算器203′7−加算されて出力信
号(D)を得て、この出力信号(D)を1/2反転器2
04で1/2にしたのち反転して出力信号(E)を得る
ようになっている。次いで、この出力信号(E)と第1
デイレイライン201の出力信号(B)とを加算器20
5で加算することにより、輪郭゛ 強′訓戒分(F)が
得られる。次いでこの輪郭強調成分(F)を掛算器20
6で所定の大きさに増幅し、第′1デイレイラインの出
力信号(B)と加算器207で加算することによって、
輪郭強調された出力信号(G)を得るようにしている。FIG. 10 is a prong diagram showing an example of the configuration of the edge enhancement circuit. The input signal (A) is the first delay line 20
The first and second delay lines 202 each delay the signal by one pixel. The output □ signal (C) from the second delay line 202 is delayed by '2 pixels □.
The input signal (A) is added to the adder 203'7 to obtain an output signal (D), and this output signal (D) is sent to the 1/2 inverter 2.
04, the signal is halved and then inverted to obtain an output signal (E). Next, this output signal (E) and the first
The output signal (B) of the delay line 201 and the adder 20
By adding 5, the contour ``strong'' precept (F) is obtained. Next, this contour enhancement component (F) is applied to a multiplier 20.
By amplifying it to a predetermined magnitude in step 6 and adding it to the output signal (B) of the '1st delay line in adder 207,
An output signal (G) with enhanced contours is obtained.
また従来、上記輪郭強調回路でハードウェア的に強調処
理を行う方式ばかりでなく、ソフトウェア的に輪郭強調
処理を行う多くの方法が提案されでいる。第11図へ〜
(C)は、その−例としてラプラシアン法に関する説明
図である。すなわち第11図式は注目画素をA+=(1
,jは1以上の整数)とする入力画像で、その注目画素
A玉、及びその隣接画素に、第11図(Blに示す3×
3のラプラシアンマトリックスの各係数を掛は合おせる
。そして総和を求めて、これを注目画素の値とするもの
で、この処理により、輪郭成分を抽出することができる
。Furthermore, in the past, many methods have been proposed in which not only the above-mentioned contour emphasizing circuit performs the emphasis processing using hardware, but also the method using the software. Go to Figure 11~
(C) is an explanatory diagram regarding the Laplacian method as an example thereof. In other words, the 11th diagram defines the pixel of interest as A+=(1
, j is an integer greater than or equal to 1), and the pixel of interest A and its adjacent pixels are
The coefficients of the 3 Laplacian matrices are multiplied together. The total sum is then determined and used as the value of the pixel of interest. Through this processing, the contour component can be extracted.
なお第11図(C)は前記ラプラシアンマトリックスを
用いて処理された出力画像を示し、注目出力画素をB、
、とすると、次のように表される。Note that FIG. 11(C) shows an output image processed using the Laplacian matrix, and the output pixels of interest are designated as B,
, it is expressed as follows.
B+J=(0>・A f4−11 +j4I) +(−
1)・A i I、。1゜+(0)・A、1゜n fj
++1 + (i )・A f+ −1’) j+(4
)・AtJ+(−1)・At+や、)1十(O)・A
(1−11<i−n 十(’ 1 )・At(j−11
+(0) ’ A”fi++l +J’−11〔発明が
解決しようとする課題〕
ところで、従来の輪郭強調処理手段においては、“
上記のように注目画素及びその隣接画素を用いて輪郭成
分を抽出するようにしている。このため、雑音成分に影
響されやすく、輪郭成分より細かい線成分や孤立点に強
く反応してしまうという問題点があった。B+J=(0>・A f4-11 +j4I) +(-
1)・A i I,. 1゜+(0)・A, 1゜n fj
++1 + (i)・A f+ -1') j+(4
)・AtJ+(-1)・At+, )10(O)・A
(1-11<i-n ten(' 1 )・At(j-11
+(0) 'A"fi++l+J'-11 [Problem to be solved by the invention] By the way, in the conventional contour enhancement processing means, "
As described above, the contour component is extracted using the pixel of interest and its neighboring pixels. For this reason, there is a problem in that it is easily influenced by noise components and reacts more strongly to fine line components and isolated points than to contour components.
また内視鏡画像において診断上有効な情報となる・粘膜
構造や血管像等は比較的緩やかな勾配を有しているが、
このような構造パターンを抽出するには、隣接画素を用
いた従来の輪郭強調処理方法では検出感度が不足すると
いう問題点があった。In addition, endoscopic images provide useful diagnostic information. Mucosal structures and blood vessel images have relatively gentle gradients, but
In order to extract such a structural pattern, the conventional contour enhancement processing method using adjacent pixels has a problem in that the detection sensitivity is insufficient.
本発明は、従来の輪郭強調手段を用いた内視鏡画像処理
装置における上記問題点を解決するためになされたもの
で、雑音成分に影響されにくく、医学的に重要な粘膜構
造や血管像に対する検出感度の高い画像処理装置を提供
することを目的とする。The present invention was made in order to solve the above-mentioned problems in endoscopic image processing devices using conventional contour enhancement means. The object is to provide an image processing device with high detection sensitivity.
〔課題を解決するための手段及び作用〕上記問題点を解
決するため、本発明は、内視鏡からの画像を複数の映像
信号に分解し、且つ電気信号に変換する内視鏡画像処理
装置において、前記複数の映像信号の少なくとも一つに
対し、ある注目画素のデータを、少なくともその注目画
素と隣接しない画素の情報を用いて演算した値に変換し
て画像処理を行うものである。[Means and operations for solving the problems] In order to solve the above problems, the present invention provides an endoscopic image processing device that decomposes images from an endoscope into a plurality of video signals and converts them into electrical signals. In this method, image processing is performed on at least one of the plurality of video signals by converting data of a certain pixel of interest into a value calculated using at least information of pixels that are not adjacent to the pixel of interest.
このように注目画素と隣接しない画素の情報を用いて輪
郭成分を抽出することにより、雑音成分の影響を受けに
くくなり、粘膜構造や血管像等における比較的緩やかな
勾配を有する構造パターンを抽出することが可能となる
。By extracting contour components using information about pixels that are not adjacent to the pixel of interest in this way, it becomes less susceptible to noise components and allows the extraction of structural patterns with relatively gentle gradients in mucous membrane structures, blood vessel images, etc. becomes possible.
以下実施例について説明する。第1図は、本発明に係る
内視鏡画像処理装置を適用する内視鏡装置の一構成例の
全体構成を示す概略図である。、図において、■は内視
鏡で、その本体1aは画像処理装置を含む観察装置2に
接続されており、またその挿入部1bは生体3内全挿入
されるようになっている。観察装置2には観察用のTV
モニタ4が接続されており、また内視鏡本体1aには吸
引器等の付属装置5が接続されている。そして内視鏡挿
入部1bの先端に照明光が供給され、生体3を照射して
得られた観察映像は、挿入部1bの先端に配置されてい
るCCD等の撮像素子により電気信号に変換され、該電
気信号は観察装置2において処理されてTV信号に変換
され、TVモニタ4に表示されて内視鏡観察が行われる
ようになっている。Examples will be described below. FIG. 1 is a schematic diagram showing the overall configuration of an example of the configuration of an endoscope apparatus to which an endoscopic image processing apparatus according to the present invention is applied. In the figures, ■ is an endoscope whose main body 1a is connected to an observation device 2 including an image processing device, and whose insertion portion 1b is designed to be completely inserted into a living body 3. Observation device 2 includes a TV for observation.
A monitor 4 is connected, and an accessory device 5 such as a suction device is connected to the endoscope main body 1a. Illumination light is then supplied to the tip of the endoscope insertion section 1b, and the observation image obtained by illuminating the living body 3 is converted into an electrical signal by an imaging device such as a CCD placed at the tip of the insertion section 1b. The electrical signal is processed in the observation device 2, converted into a TV signal, and displayed on the TV monitor 4 for endoscopic observation.
第2図は、本発明に係る内視鏡画像処理装置の第1実施
例のブロック構成図である。図において、11はアナロ
グ映像入力信号をデジタル信号に変換するA/Dコンバ
ータで、このA/I)コンバータ11によりデジタル化
された映像信号はメインメモリ12に記録するようにな
っている。13は該メインメモリ12上の注目画素を読
み出すためのカウンタである読み出しアドレスカウンタ
であり、14はマトリックス用カウンタで、前記注目画
素を演算処理するために、第3図に示すように、注目画
素を中心とした(9X9)サイズのマトリックスのアド
レスを発生するものである。15は第3図に示した前記
(!JX9)サイズのマトリックスの各係数、を記憶し
ておく係数用ROMで、16は前記メインメモU12か
ら読み出したそれぞれの注目画素を中心とした(9X、
9)の範囲の画素データと前記係数用ROM15の係数
をそれぞれ累棹乗算する累積乗算器である。17は該累
積乗算器16の演算結果が所定のダイナミックレンジ外
であった場合に、その値を補正する異常値補正回路であ
る。18はメインメモリ12に記憶した映像データの周
辺部を検出する周辺部検出回路で、19は該周辺部の映
像データを発生する周辺部データ用ROMである。20
はデータセレクタで、前記異常値補正回路17から出力
する演算処理を行った映像データと、周辺部データ用R
OM19から出力した周辺部のデータを、前記周辺部検
出回路18の検出信号に基づいて切り換えるものである
。21は該データセレクタ20によりセレクトした映像
データを記憶するサブメモリで、22は該サブメモリ2
1に記憶した映像データをアナログ信号に変換するD/
A変換器である。 ・次に以上のように構成された内
視鏡画像処理装置の動作について説明する。まず、画像
処理用の映像入力信号は、A/Dコンバータ11により
アナログ信号からデジタル信号に変換され、メインメモ
1月2に記録5される。メインメモリ12に記録された
画像データは、読み出しアドレスカウンタ13により注
目画素のアドレスが指定されると、マトリックス用カウ
ンタ14により、第3図に示すように、ドツトパターン
で示す注目画素を中心とした(9×9)四方の画素のア
ドレスを順次指定することにより、メインメモリ12よ
り画素データを読み出し累積乗算器16に入力すると共
に、係数用ROM15より、第3図に示すような、それ
ぞれの画素位置毎の係数を読み出し、累積乗算器16に
入力する。FIG. 2 is a block diagram of the first embodiment of the endoscopic image processing apparatus according to the present invention. In the figure, numeral 11 is an A/D converter that converts an analog video input signal into a digital signal, and the video signal digitized by this A/I) converter 11 is recorded in the main memory 12. 13 is a read address counter which is a counter for reading out the pixel of interest on the main memory 12; 14 is a matrix counter; in order to perform arithmetic processing on the pixel of interest, as shown in FIG. It generates the address of a matrix of size (9×9) centered on . 15 is a coefficient ROM for storing each coefficient of the matrix of size (!JX9) shown in FIG.
9) is an accumulation multiplier that cumulatively multiplies the pixel data in the range of 9) and the coefficients of the coefficient ROM 15, respectively. Reference numeral 17 denotes an abnormal value correction circuit that corrects the value when the calculation result of the cumulative multiplier 16 is outside a predetermined dynamic range. 18 is a peripheral part detection circuit that detects the peripheral part of the video data stored in the main memory 12, and 19 is a peripheral part data ROM that generates the video data of the peripheral part. 20
is a data selector that selects the video data output from the abnormal value correction circuit 17 that has been subjected to arithmetic processing, and R for peripheral data.
The peripheral data output from the OM 19 is switched based on the detection signal from the peripheral detection circuit 18. 21 is a sub-memory for storing the video data selected by the data selector 20; 22 is the sub-memory 2;
D/ which converts the video data stored in 1 into an analog signal.
It is an A converter. - Next, the operation of the endoscopic image processing apparatus configured as above will be explained. First, a video input signal for image processing is converted from an analog signal to a digital signal by the A/D converter 11, and is recorded in the main memo January 2. When the readout address counter 13 specifies the address of the pixel of interest, the image data recorded in the main memory 12 is read out using the matrix counter 14, as shown in FIG. (9×9) By sequentially specifying the addresses of pixels on all sides, pixel data is read out from the main memory 12 and input to the cumulative multiplier 16, and at the same time, each pixel data is read out from the coefficient ROM 15 as shown in FIG. The coefficients for each position are read out and input to the cumulative multiplier 16.
累積乗算器16は、メインメモ1月2から読み出したそ
れぞれの注目画素データとした(9 X 9)の画素デ
ータと、係数用R9M15より読み出したそれぞれの注
目画素データに対応した係数を乗算すると共に累積加算
を行い、その値を異常値補正回路17に出力する。この
異常値補正回路17では、累積乗算器16により演算し
た値が、表示を行うときのダイナミックレンジ内に入っ
ているか否かを検出すると共に、ダイナミックレンジ外
の異常値の場合はダイナミックレンジ内の値となるよう
に補正を行う。The cumulative multiplier 16 multiplies (9 x 9) pixel data read from the main memo January 2 by the coefficient corresponding to each pixel data of interest read from the R9M15 for coefficients. Cumulative addition is performed and the resulting value is output to the abnormal value correction circuit 17. This abnormal value correction circuit 17 detects whether or not the value calculated by the cumulative multiplier 16 is within the dynamic range when displaying. Correct the value.
一方、注目画素が画像の周辺部にある場合は、注目画素
の周囲の画素データが欠落しているため、正しい演算が
行われない。このため読み出しアドレスカウンタ13の
アドレス値により周辺部を周辺部検出回路18にて検出
し、周辺部用のデータを周辺部データ用ROM19から
読み出し、データセレクタ20に入力する。ここでデー
タセレクタ20は、注目画素に対し正しい演算処理が行
われた場合は、異常値補正回路17からの出力を選択し
、周辺部で正しい演算処理が行われない場合は、周辺部
データ用ROM19からのデータを選択し、サブメモリ
21に出力する。サブメモリ21に記録された画像デー
タはD/Aコンバータ22によりアナログ映像信号とし
て出力される。On the other hand, if the pixel of interest is located at the periphery of the image, pixel data around the pixel of interest is missing, so correct calculations will not be performed. Therefore, the peripheral part is detected by the peripheral part detection circuit 18 based on the address value of the read address counter 13, data for the peripheral part is read from the peripheral part data ROM 19, and inputted to the data selector 20. Here, the data selector 20 selects the output from the abnormal value correction circuit 17 when the correct arithmetic processing is performed on the pixel of interest, and selects the output from the abnormal value correction circuit 17 when the correct arithmetic processing is not performed on the peripheral part. Data from the ROM 19 is selected and output to the sub-memory 21. The image data recorded in the sub-memory 21 is outputted as an analog video signal by the D/A converter 22.
なお、画像処理用のマトリックスは、第3図に示したラ
プラシアン(9’X’9)サイズマトリックスに限定さ
れるものではなく、第4図式、(8)、(C)に示した
従来の(3X 3)サイズのラプラシアンマトリックス
、X方向1吹微分マトリックス、Y方向1火微分マトリ
ックス等のマトリックスをそれぞれ拡張した各種マトリ
ックスの係数を、係数用ROMに記録させると共に、マ
トリックス用カウンタを数種類設けることにより、各種
マトリックスを用いた同様な画像処理が可能となる。な
お第5図(8)は、第4図[01に示した(3 X 3
)サイズのマトリックスの汎用例を、MXN (M、N
は5以上の奇数で且つ3の倍数とする)サイズに拡張し
たマトリックスの構成例を示すものである。また第5図
(印は、同じく汎用例のマトリックスのX方向の各要素
間に(M−3)72個の零を、またX方向の各要素間に
は(N’−3>72個の零を配置して拡張したマトリッ
クスの構成例を示している。なお第5図(B)において
、冑及びNは5以上の奇数とする。Note that the matrix for image processing is not limited to the Laplacian (9'X'9) size matrix shown in FIG. 3, but the conventional ( By recording the coefficients of various matrices, such as a Laplacian matrix of 3X 3) size, a single blow differential matrix in the X direction, and a single blow differential matrix in the Y direction, in the coefficient ROM, and by providing several types of matrix counters. , similar image processing using various matrices becomes possible. In addition, Fig. 5 (8) is shown in Fig. 4 [01 (3 x 3
) is a general example of a matrix of size MXN (M, N
is an odd number of 5 or more and a multiple of 3). Also, in Figure 5 (marks indicate (M-3) 72 zeros between each element in the X direction of the matrix of the general example, and (N'-3>72 zeros) between each element in the X direction. An example of the structure of a matrix expanded by arranging zeros is shown.In FIG. 5(B), the helmet and N are odd numbers of 5 or more.
また上記演算処理に用いるマトリックスとしては、観察
時の画角及び病変の種類に応して最適となるマトリック
スを選択できるように構成してもよい。Further, as the matrix used for the above-mentioned arithmetic processing, it may be configured such that an optimal matrix can be selected depending on the viewing angle at the time of observation and the type of lesion.
更にまた上記の演算処理は、必ずしも画像全体に対して
行う必要はなく、必要とされる領域のみに行うように構
成してもよい。Furthermore, the arithmetic processing described above does not necessarily need to be performed on the entire image, and may be configured to be performed only on the required area.
第6図は、本発明の第2実施例を示すブロック構成図で
あり、第2図に示した第1実施例と同等の部材について
は同一符号を付して示している。FIG. 6 is a block diagram showing a second embodiment of the present invention, and the same members as those in the first embodiment shown in FIG. 2 are denoted by the same reference numerals.
この実施例の画像処理装置は、A/I)コンバータ11
と、該A/Dコンバータ11によりデジタル化された1
フレ一ム分の映像信号を記録するフレームメモリ31と
、該フレームメモリ31上の注目画素を読み出すための
カウンタである読み出しアドレスカウンタ13と、注目
画素を演算処理するために第7図に示すように、注目画
素を中心とした゛(21×21)サイズのマトリックス
のデータを含む21ライン分のデータの取り込みを制御
するラインメモリ用アドレスカウンタ32と、その21
ライン分のデータを記憶する与インメモリ33−1〜3
3−21 と、第7図に示すように注目画素を中心とし
た(21×2.1)のマトリックスのX方向のアドレス
を発生するマトリックス水平カウンタ34と、第7図に
示す(21×21)の°マトリックスの各係数を記憶し
ておく係数用ROM35とを備えており、これ以外の部
分は第1実施例と同様に構成されている。The image processing device of this embodiment includes an A/I) converter 11
and 1 digitized by the A/D converter 11.
A frame memory 31 that records video signals for one frame, a read address counter 13 that is a counter for reading out the pixel of interest on the frame memory 31, and a counter as shown in FIG. 7 for processing the pixel of interest. In addition, there is a line memory address counter 32 that controls the acquisition of 21 lines of data including data in a matrix of size (21×21) centered on the pixel of interest;
In-memory 33-1 to 33-3 that stores data for lines
3-21, a matrix horizontal counter 34 that generates an address in the X direction of a (21×2.1) matrix centered on the pixel of interest as shown in FIG. ) and a coefficient ROM 35 for storing each coefficient of the ° matrix, and the other parts are constructed in the same manner as in the first embodiment.
次にこのように構成された第2実施例の動作について説
明すると、まず画像処理用の映像入力信号は、A/Dコ
ンバータ11によりアナログ信号からデジタル信号に変
換され、フレームメモリ31に記録される。フレームメ
モリ31に記録された画像データは、読み出しアドレス
カウンタ13により注目画素のアドレスが指定されると
、ラインメモリ用アドレスカウンタ32により、第7図
に示すように注目画素を中心とした(21X21)四方
の画素を含む21ラインのアドレスを順次指定すること
により、フレームメモリ31よりラインメモリ33−1
〜33−21へ画像データは記録される。Next, the operation of the second embodiment configured as described above will be explained. First, a video input signal for image processing is converted from an analog signal to a digital signal by the A/D converter 11, and is recorded in the frame memory 31. . When the readout address counter 13 specifies the address of the pixel of interest, the image data recorded in the frame memory 31 is read out by the line memory address counter 32 so that the image data recorded in the frame memory 31 is centered around the pixel of interest as shown in FIG. By sequentially specifying the addresses of 21 lines including pixels on all four sides, line memory 33-1 is transferred from frame memory 31.
Image data is recorded to 33-21.
ラインメモリ33−1〜33−21に記録された画像デ
ータは、読み出しアドレスカウンタ13により、マトリ
ックス水平カウンタ34から水平方向の画素のアドレス
を順次指定することによって、ラインメモリ33−1〜
33−21より画素データを読み出し、累積乗算器16
に入力すると共に、係数用ROM35より、第7図に示
すような、それぞれの画素位置毎の係数を読み出し、累
積乗算器16に入力する。累積乗算器16は、ラインメ
モリ33−1〜33−21から読み出した注目画素を中
心とした(21 X 21)の画素データと、係数用R
OM35より読み出したそれぞれの注目画素データに対
応した係数を乗算すると共に累積加算を行い、その値を
異常値補正回路17に出力する。これ以降の動作は、第
1実施例と同様に行われ、D/Aコンバータ22から、
画像処理されたアナログ映像信号が出力される。The image data recorded in the line memories 33-1 to 33-21 can be read by sequentially specifying pixel addresses in the horizontal direction from the matrix horizontal counter 34 using the read address counter 13.
The pixel data is read from 33-21, and the cumulative multiplier 16
At the same time, coefficients for each pixel position as shown in FIG. 7 are read out from the coefficient ROM 35 and input to the cumulative multiplier 16. The cumulative multiplier 16 receives (21 x 21) pixel data centered around the pixel of interest read out from the line memories 33-1 to 33-21, and R for coefficients.
Each pixel data of interest read out from the OM 35 is multiplied by a corresponding coefficient, cumulative addition is performed, and the resulting value is output to the abnormal value correction circuit 17. The subsequent operations are performed in the same manner as in the first embodiment, and from the D/A converter 22,
An image-processed analog video signal is output.
なおこの実施例においても、マトリックスの種類は、第
7図に示した構成のものに限定されるものではなく、第
4図(8)、 (B)、 (C)に示したマトリックス
のサイズを拡張した各種のマトリックスが利゛ 用でき
るすこの場合、ラインメモリをマトリックスのサイズに
適合して用いればよく、マトリックスサイズが更に大き
い場合には増設も可能である。Also in this example, the type of matrix is not limited to the structure shown in FIG. 7, and the size of the matrix shown in FIG. 4 (8), (B), and (C) In cases where various types of expanded matrices can be used, line memories can be used in accordance with the size of the matrix, and if the matrix size is even larger, expansion is possible.
上記各実施例では、入力信号として一つの信号を処理す
る構成のものを示しているが、このような回路を3つ設
け、R−G−B信号のそれぞれを処理して、カラー表示
するように構成してもよい。Each of the above embodiments shows a configuration that processes one signal as an input signal, but it is also possible to provide three such circuits and process each of the R-G-B signals for color display. It may be configured as follows.
またR−G−B信号のみでなく、シアン・マゼンタ・イ
エロー等の補色信号に対しても適用可能であり、更には
彩度・色相・明度やCIB規格等の色度座標系に変換さ
れた信号に対しても適用可能である。また、NTSC規
格等のコンポジット信号を輝度成分と色成分分離した信
号に対しても用いることが可能である。In addition, it can be applied not only to R-G-B signals but also to complementary color signals such as cyan, magenta, yellow, etc., and can also be applied to chromaticity coordinate systems such as saturation, hue, brightness, and CIB standards. It is also applicable to signals. Further, it is also possible to use a composite signal such as the NTSC standard for a signal in which the luminance component and color component are separated.
また本発明は、第1及び第2実施例に示したようにハー
ドウェアによる処理のみではなく、例えば第8図のフロ
ーチャートで示すようなソフトウェアによる処理も可能
である。このフローチャートを簡単に説明すると、41
は入力画像の観察時の画角や病変の種類等に応じて、変
換処理に用いるマトリックスの種類やサイズを選択する
ステップであり、42は入力画像の処理領域を抽出する
ステップで、43はステップ42で抽出された領域が周
辺部であるか否かを判断するステップである。44は周
辺部検出ステップ43で周辺部でないと判断された抽出
領域について、前記マトリックス選択ステップ41で選
択されたマトリックスを用いてマトリックス処理を行う
ステップであり、45は全領域において前記マトリック
ス処理が行われたか否かを判断するステップである。4
6は全領域についてマトリックス処理が終了したのち、
処理された画素値のうち最大値及び最小値を検出するス
テップで、47は検出された最大値及び最小値が、表示
を行う −ときのダイナミックレンジ外の異常値の場
合、ダイナミックレンジ内の値となるように変換するス
テップである。Further, the present invention is not limited to processing by hardware as shown in the first and second embodiments, but also processing by software as shown in the flowchart of FIG. 8, for example. To briefly explain this flowchart, 41
42 is a step of selecting the type and size of the matrix used for the conversion process according to the angle of view at the time of observation of the input image, the type of lesion, etc., 42 is a step of extracting the processing area of the input image, and 43 is a step This is a step of determining whether the area extracted in step 42 is a peripheral area. 44 is a step in which matrix processing is performed using the matrix selected in the matrix selection step 41 for the extraction region determined to be not a peripheral region in the peripheral region detection step 43, and 45 is a step in which the matrix processing is performed on the entire region. This is the step of determining whether or not the 4
6 is after the matrix processing is completed for all areas,
In the step of detecting the maximum and minimum values among the processed pixel values, 47 is a step in which the detected maximum and minimum values are abnormal values outside the dynamic range when displaying - values within the dynamic range. This is the step of converting so that
なお、このフローチャートで示す処理においては、処理
領域において周辺部が検出されるとマトリックス処理を
行わないようにしたものを示したが、第2図又は第6図
に示した実施例のように、周辺部を検出した場合は周辺
部データ用ROMからデータを読み出して画像処理を行
うようにしてもよい。Note that in the process shown in this flowchart, matrix processing is not performed when a peripheral part is detected in the processing area, but as in the embodiment shown in FIG. 2 or FIG. When the peripheral portion is detected, data may be read from the peripheral portion data ROM and image processing may be performed.
以上実施例に基づいて説明したように、本発明は、画像
を構成する複数の映像信号の少なくとも1つに対し、注
目画素と隣接しない画素の情報を利用して、輪郭成分を
抽出するように構成したので、雑音成分の影響を受けに
くくなり、細かい線成分や孤立点等にも反応しにくくな
る。また、医学的に重要な粘膜構造や血管像等において
は、比較的緩やかな勾配を有する構造パターンに対する
検出感度も高めることができる。As described above based on the embodiments, the present invention extracts a contour component from at least one of a plurality of video signals constituting an image by using information on pixels that are not adjacent to the pixel of interest. This structure makes it less susceptible to noise components and less sensitive to fine line components, isolated points, etc. Furthermore, in medically important mucous membrane structures, blood vessel images, and the like, detection sensitivity for structural patterns having relatively gentle gradients can also be increased.
第1図は、本発明に係る内視鏡画像処理装置を適用する
内視鏡装置の構成例を示す概略図、第2図は、本発明の
第1実−例を示すブ・・・り構成図、第3図は、第1実
施例の画像処理に用いる(9×9)サイズマトリックス
の構成を示す図、第4図式、 (Bl、 (C)は、従
来の(3X3)サイズのマトリックス構成例を示す図、
第4図O1])は、(3X 3)サイズマトリックスの
汎用例を示す図、第5図(ハ)、(ト))は、第1実施
例の画像処理に用いる他のマトリックスの構成例を示す
図、第6図は、本発明の第2実施例を示すブロック構成
図、第7図は、第2実施例の画像処理に用いる(21
X 21)サイズのマトリックスの構成を示す図、第8
図は、輪郭成分抽出をソフトウェアにより処理を行う場
合のフローチャ−トを示す図、第9図は、従来の内視鏡
画像処理装置を示すブロック構成図、第10図は、第9
図における輪郭強調回路の構成例を示す図、第11国人
。
(C1は、入出力画像の画素を示す図、第11図(81
は、入力画像の処理に用いるラプラシアンマトリックス
の構成を示す図である。
図において、工は内視鏡、2は観察装置、3は生体、4
はTVモニタ、5は付属装置を示す。
“特許出願人 オリジパス光学工業株式会社第1図
ム
第4図
(A) (B) (C)(D)
第5図
(A)
第5図
(B)FIG. 1 is a schematic diagram showing a configuration example of an endoscope apparatus to which an endoscopic image processing apparatus according to the present invention is applied, and FIG. 2 is a block diagram showing a first example of the present invention. 3 is a diagram showing the configuration of a (9x9) size matrix used for image processing in the first embodiment, and the fourth diagram is (Bl), (C) is a conventional (3x3) size matrix A diagram showing a configuration example,
Figure 4 (O1]) is a diagram showing a general-purpose example of a (3X3) size matrix, and Figures 5 (C) and (G)) are diagrams showing other matrix configuration examples used in the image processing of the first embodiment. 6 is a block diagram showing the second embodiment of the present invention, and FIG. 7 is a block diagram showing the second embodiment of the present invention (21
X 21) Diagram showing the structure of the size matrix, No. 8
The figure shows a flowchart when contour component extraction is processed by software, FIG. 9 is a block diagram showing a conventional endoscopic image processing device, and FIG.
A diagram showing an example of the configuration of the contour enhancement circuit in the figure, 11th National. (C1 is a diagram showing the pixels of the input and output image, Figure 11 (81
1 is a diagram showing the configuration of a Laplacian matrix used for processing an input image. In the figure, the operator is an endoscope, 2 is an observation device, 3 is a living body, and 4
5 indicates a TV monitor, and 5 indicates an attached device. “Patent applicant: OrigiPath Optical Industry Co., Ltd. Figure 1 Figure 4 (A) (B) (C) (D) Figure 5 (A) Figure 5 (B)
Claims (1)
電気信号に変換する内視鏡画像処理装置において、前記
複数の映像信号の少なくとも一つに対し、ある注目画素
のデータを、少なくともその注目画素と隣接しない画素
の情報を用いて演算した値に変換することを特徴とする
内視鏡画像処理装置。1. In an endoscopic image processing device that decomposes an image from an endoscope into a plurality of video signals and converts them into electrical signals, data of a certain pixel of interest is converted to at least one of the plurality of video signals, An endoscopic image processing device that converts into a value calculated using at least information on pixels that are not adjacent to the pixel of interest.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63121935A JP2933626B2 (en) | 1988-05-20 | 1988-05-20 | Endoscope image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63121935A JP2933626B2 (en) | 1988-05-20 | 1988-05-20 | Endoscope image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH01292583A true JPH01292583A (en) | 1989-11-24 |
JP2933626B2 JP2933626B2 (en) | 1999-08-16 |
Family
ID=14823573
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP63121935A Expired - Fee Related JP2933626B2 (en) | 1988-05-20 | 1988-05-20 | Endoscope image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2933626B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111935454A (en) * | 2020-07-27 | 2020-11-13 | 衡阳市大井医疗器械科技有限公司 | Traffic-saving image stream transmission method and electronic equipment |
-
1988
- 1988-05-20 JP JP63121935A patent/JP2933626B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111935454A (en) * | 2020-07-27 | 2020-11-13 | 衡阳市大井医疗器械科技有限公司 | Traffic-saving image stream transmission method and electronic equipment |
Also Published As
Publication number | Publication date |
---|---|
JP2933626B2 (en) | 1999-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3382973B2 (en) | Electronic endoscope device | |
CN106102557B (en) | Image processing apparatus | |
US8144191B2 (en) | Endoscope visual imaging and processing apparatus | |
US7042488B2 (en) | Electronic endoscope for highlighting blood vessel | |
US8253783B2 (en) | Electronic endoscope signal-processing device and electronic endoscope system | |
JP2010115243A (en) | Image signal processing apparatus for electronic endoscope | |
JP4386959B1 (en) | Image processing device | |
JPH04138127A (en) | Mesh image alleviation device for endoscope | |
JP2918162B2 (en) | Endoscope image processing device | |
JP2746615B2 (en) | Endoscope image processing device | |
JPH01138876A (en) | Color picture processing unit | |
JPH01292583A (en) | Endoscope picture processor | |
JPS62266028A (en) | Endoscope device | |
JP2006115963A (en) | Electronic endoscope apparatus | |
JPS62266041A (en) | Endoscope apparatus | |
JPWO2021210676A5 (en) | ||
JPH01138877A (en) | Color picture analyzer | |
JP3193416B2 (en) | Color shift detection device | |
JP4575626B2 (en) | Electronic endoscope apparatus and pseudo dye distribution processing apparatus for electronic endoscope | |
JP2003126030A (en) | Electronic endoscope | |
JP3842995B2 (en) | Electronic endoscope device | |
JP2003010113A (en) | Electronic endoscope system | |
JPH0669438B2 (en) | Endoscope device | |
JP3670726B2 (en) | Electronic endoscope device | |
JPH0741022B2 (en) | Endoscope device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |