[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2004000551A - Endoscope shape detecting device - Google Patents

Endoscope shape detecting device Download PDF

Info

Publication number
JP2004000551A
JP2004000551A JP2003108016A JP2003108016A JP2004000551A JP 2004000551 A JP2004000551 A JP 2004000551A JP 2003108016 A JP2003108016 A JP 2003108016A JP 2003108016 A JP2003108016 A JP 2003108016A JP 2004000551 A JP2004000551 A JP 2004000551A
Authority
JP
Japan
Prior art keywords
shape
display
marker
image
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003108016A
Other languages
Japanese (ja)
Other versions
JP4159396B2 (en
Inventor
Akira Taniguchi
谷口 明
Tsukasa Ishii
石井 司
Sumihiro Uchimura
内村 澄洋
Masanao Hara
原 雅直
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2003108016A priority Critical patent/JP4159396B2/en
Publication of JP2004000551A publication Critical patent/JP2004000551A/en
Application granted granted Critical
Publication of JP4159396B2 publication Critical patent/JP4159396B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an endoscope shape detecting device visually determining a reference surface position, the separation state of the endoscope shape from the reference surface, and the direction of the head of a patient and easily grasping the shape of the endoscope inserted in a subject inside such as the patient. <P>SOLUTION: A step S62_2 of displaying the reference surface and a step S-62_3 of displaying a marker are performed. The processing of the steps is additional processing. The processing of the reference surface display bears a supplementary role of visually facilitating the three-dimensional display of the endoscope shape by displaying the reference surface of a bed surface, and the like. Affine transformation in a step S62_21 is performed to transform a reference display symbol of a world coordinate system to a viewpoint coordinate system. Then, a 3D→-2D projection in a stepS62_22 is performed. The reference display symbol transformed to the viewpoint coordinate system is transformed and projected two-dimensionally so as to be displayed on a monitor. A symbol display such as the bed to be the reference surface of the step S62_23 is performed. A symbol assisting the three-dimensional description of the endoscope is displayed. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【産業上の利用分野】
本発明は、磁界を用いて内視鏡の挿入形状を検出して表示するようにした内視鏡形状検出装置に関する。
【0002】
【従来の技術】
近年、内視鏡は医療用分野及び工業用分野で広く用いられるようになった。この内視鏡は特に挿入部が軟性のものは、屈曲した体腔内に挿入することにより、切開することなく体腔内深部の臓器を診断したり、必要に応じてチャンネル内に処置具を挿通してポリープ等を切除するなどの治療処置を行うことができる。
【0003】
この場合、例えば肛門側から下部消化管内を検査する場合のように、屈曲した体腔内に挿入部を円滑に挿入するためにはある程度の熟練を必要とする場合がある。
【0004】
つまり、挿入作業を行っている場合、管路の屈曲に応じて挿入部に設けた湾曲部を湾曲させる等の作業が円滑な挿入を行うのに必要になり、そのためには挿入部の先端位置等が、体腔内のどの位置にあるかとか、現在の挿入部の屈曲状態等を知ることができると便利である。
【0005】
このため、例えば特開平3ー295530号公報には挿入部に設けた受信用空中線(コイル)に対し、挿入部の外部に設けた送信用空中線(アンテナコイル)を走査して挿入部の挿入状態を検出するものがある。
【0006】
この従来例では内視鏡形状を検出することが可能であるが、1つのコイルの位置の検出のためにアンテナコイルを走査してコイルに誘起される電圧の最大となる状態と最小になる状態とに設定しなければならない。このために、1つのコイルの位置検出にさえ、アンテナコイルを広範囲に走査することが必要となり、その走査のために位置検出に時間がかかる。形状を検出するには複数のコイルの位置を検出することが必要になるので、形状を検出するにはさらに長い時間が必要になってしまう。
【0007】
また、USパテント4,176,662では内視鏡の先端のトランスジューサからバースト波を出し、周囲の複数のアンテナ又はトランスジューサで検出して先端部の位置をCRTにプロット等するものが開示されている。
また、USパテント4,821,731では体外の直交コイルを回転し、体内のカテーテルに設けたセンサの出力からカテーテルの先端位置を検出するものを開示している。
【0008】
これら2つは先端位置を検出するもので、形状を検出することを目的とするものでない。
【0009】
また、PCT出願GB91/01431号公開公報では内視鏡が挿入される対象物の周囲にX−Y方向にダイポールアンテナを格子状に多数並べてAC駆動し、一方、内視鏡側に内蔵したコイルで得られる信号より、内視鏡の位置を導出する従来例を開示している。
【0010】
この従来例では検出範囲よりも広い範囲にダイポールアンテナを格子状に多数並べなければ内視鏡形状を精度良く検出することが困難であり、大きなスペースが必要になってしまう。
【0011】
さらにPCT出願WO94/0438号公開公報に開示された従来例では3軸直交の複数のソースコイルからの磁界を内視鏡に設けたセンスコイルで検出し、検出した内視鏡形状をグレー表示するようにしている。
【0012】
【発明が解決しようとする問題点】
上記したように表示装置に表示される描像が内視鏡挿入形状のイメージのみであると、そのイメージと体腔内の臓器との位置関係がわからないため、視点位置を回転させてしまうと、どの方向から内視鏡形状を眺めているのか、頭の方向がどの向きを向いているのか等に関する情報は、例えばテキスト表示される角度の数値表示だけであり、感覚的な判断には不向きであった。要するに、上記PCT出願WO94/0438号公開公報に開示されたような従来例では内視鏡の挿入形状が検出できても、表示された内視鏡形状の画像には基準位置等が表示されないので、患者等の被検体内に挿入された内視鏡の形状を方向性を含めて把握することが困難であった。
【0013】
本発明は上述した問題点に鑑みてなされたもので、基準面位置や基準面からの内視鏡形状の離れ具合、患者の頭の方向が視覚的に判断でき、患者等の被検体内部に挿入された内視鏡の形状の把握が容易な内視鏡形状検出装置を提供することを目的とする。
【0014】
【問題点を解決する手段】
前記目的を達成するため本発明による内視鏡形状検出装置は、体腔内に挿入された内視鏡の挿入形状を磁界を用いて検出し、この検出した内視鏡形状を表示する内視鏡形状検出装置において、
内視鏡検査を行う際に体腔内に挿入された内視鏡の存在領域を検出する存在領域検出手段と、
前記存在領域検出手段により検出された存在領域をシンボル表示するシンボル表示手段と、
前記存在領域検出手段により検出された存在領域に基づく前記シンボル表示手段によるシンボル表示と、前記検出された内視鏡形状とを位置的に対応づけて表示させる表示制御手段と、を備えたことを特徴とする。
【0015】
【実施例】
以下、図面を参照して本発明の実施例を具体的に説明する。図1ないし図13は本発明の第1実施例に係り、図1は本発明の第1実施例を有する内視鏡システムの概略の構成を示し、図2は第1実施例の内視鏡形状検出装置の構成を示すブロック図で示し、図3は内視鏡形状検出装置の全体構成を示し、図4は3軸センスコイル及びプローブの構成を示し、図5はプローブ内のソースコイルの位置を複数のセンスコイルを用いて検出する様子を示し、図6はマーカプローブの構成を断面図で示し、図7は内視鏡形状検出装置の処理内容をフローで示し、図8は2画面モード及び1画面モードで内視鏡形状を表示するスコープモデル描画の処理をフローで示し、図9はスコープイメージ描写処理をフローで示し、図10はn角柱モデルでのスコープイメージ描写処理をフローで示し、図11はモニタ画面に1画面モードで表示される内視鏡形状の出力画像を示し、図12はモニタ画面に2画面モードで表示される内視鏡形状の出力画像を示し、図13はベッドに固定された世界座標系を示す。
図1に示すように内視鏡システム1は内視鏡6を用いて検査等を行う内視鏡装置2と、この内視鏡装置2と共に使用され、内視鏡6の挿入部7内の各位置を検出することにより、検出された各位置から挿入部7の形状を推定し、さらに推定された形状に対応するモデル化された(内視鏡)挿入部形状の画像を表示する内視鏡形状検出装置3とから構成される。
【0016】
(内視鏡検査用)ベッド4には、被検体としての患者5が載置され、この患者5の体腔内に、内視鏡6の挿入部7が挿入される。
この内視鏡6は細長で可撓性を有する挿入部7とその後端に形成された太幅の操作部8と、この操作部8の側部から延出されたユニバーサルケーブル9とを有し、このユニバーサルケーブル9の末端のコネクタ9Aはビデオプロセッサ11に着脱自在で接続できる。
【0017】
挿入部7には図示しないライトガイドが挿通され、このライトガイドはさらに操作部8から延出されたユニバーサルケーブル9内を挿通され、末端のコネクタ9Aに至る。そして、このコネクタ9Aの端面には、ビデオプロセッサ11に内蔵された図示しない光源部のランプから照明光が供給され、このライトガイドのよって伝送され、挿入部7の先端部の(照明光出射手段を形成する)照明窓に取り付けられた先端面から伝送した照明光を前方に出射する。
【0018】
この照明窓から出射された照明光により照明された体腔内の内壁或は患部等の被写体は先端部の照明窓に隣接して形成された観察窓に取り付けた図示しない対物レンズによってその焦点面に配置された固体撮像素子としてのCCDに像を結ぶ。
【0019】
このCCDはビデオプロセッサ11に内蔵された図示しない信号処理部内のCCDドライブ回路から出力されるCCDドライブ信号が印加されることにより、(CCDで)光電変換された画像信号が読み出され、挿入部7内等を挿通された信号線を経て信号処理部で信号処理されて標準的な映像信号に変換され、カラーモニタ12に出力され、対物レンズでCCDの光電変換面に結像した内視鏡像をカラー表示する。
【0020】
また、操作部8には湾曲操作ノブが設けてあり、このノブを回動する操作を行うことにより挿入部7の先端付近に形成した湾曲自在の湾曲部を湾曲できるようにして屈曲した体腔内経路にもその屈曲に沿うように先端側を湾曲させることによりスムーズに挿入できるようにしている。
【0021】
また、この内視鏡6には挿入部7内に中空のチャンネル13が形成されており、このチャンネル13の基端の挿入口13aから鉗子等の処置具を挿通することにより、処置具の先端側を挿入部7の先端面のチャンネル出口から突出させて患部等に対して生検とか治療処置等を行うことができる。
【0022】
また、このチャンネル13に(体腔内に挿入された挿入部7の)位置及び形状検出のためのプローブ15を挿入し、このプローブ15の先端側をチャンネル13内の所定の位置に設定することができる。
【0023】
図4に示すようにこのプローブ15には磁界を発生する磁界発生素子としての複数のソースコイル16a,16b,…(符号16iで代表する)が、絶縁性で可撓性を有する円形断面のチューブ19内に例えば一定間隔dとなる状態で、可撓牲の支持部材20とチューブ19内壁に絶縁性の接着剤で固定されている。
【0024】
各ソースコイル16iは例えば絶縁性で硬質の円柱状のコア10に絶縁被覆された導線が巻回されたソレノイド状コイルで構成され、各ソースコイル16iの一端に接続されたリード線は共通にされて支持部材20内を挿通され、他端のリード線17はチューブ19内を手元側まで挿通されている。また、チューブ19内には絶縁性の充填部材が充填され、チューブ19が屈曲されてもチューブ19がつぶれないようにしている。また、チューブ19が屈曲されて変形した場合でも、各ソースコイル16iは、硬質のコア10に導線が巻回して、接着剤で固定されているので、ソースコイル16i自身はその形状が変形しない構造にしてあり、磁界発生の機能はチューブ19が変形した場合でも不変となるようにしている。
【0025】
各ソースコイル16iの位置は内視鏡6の挿入部7内の既知の位置に設定されており、各ソースコイル16iの位置を検出することにより、内視鏡6の挿入部7の離散的な位置(より厳密には各ソースコイル16iの位置)が検出できるようにしている。
【0026】
これらの離散的な位置を検出することにより、それらの間の位置もほぼ推定でき、従って離散的な位置の検出により、体腔内に挿入された内視鏡6の挿入部7の概略の形状を求めることが可能になる。
【0027】
各ソースコイル16iに接続されたリード線17はプローブ15の後端に設けた、或はプローブ15の後端から延出されたケーブルの後端に設けたコネクタ18に接続され、このコネクタ18は(内視鏡)形状検出装置本体21のコネクタ受けに接続される。そして、後述するように各ソースコイル16iには駆動信号が印加され、位置検出に利用される磁界を発生する。
【0028】
また、図1に示すようにベッド4の既知の位置、例えば3つの隅にはそれぞれ磁界を検出する磁界検出素子としての3軸センスコイル22a,22b,22c(22jで代表する)が取り付けてあり、これらの3軸センスコイル22jはベッド4から延出されたケーブル29を介して形状検出装置本体21に接続される。
【0029】
3軸センスコイル22jは図4に示すようにそれぞれのコイル面が直交するように3方向にそれぞれ巻回され、各コイルはそのコイル面に直交する軸方向成分の磁界の強度に比例した信号を検出する。
【0030】
上記形状検出装置本体21は、3軸センスコイル22jの出力に基づいて各ソースコイル16iの位置を検出して、患者5内に挿入された内視鏡6の挿入部7の形状を推定し、推定した形状に対応したコンピュータグラフィック画像をモニタ23に表示する。
【0031】
内視鏡形状検出装置3は磁気を利用しているので、磁気に対して透明でない金属が存在すると鉄損などにより、影響を受けてしまい、磁界発生用のソースコイル16iと検出用の3軸センスコイル22jの間の相互インダクタンスに影響を与える。一般に、相互インダクタンスをR+jXで表すと、(磁気に対して透明でない金属は)このR,X両者に影響を及ぼすことになる。
【0032】
この場合、微少磁界の検出で一般に用いられている直交検波で測定される信号の、振幅、位相が変化することになる。そのため、精度よく信号を検出するためには、発生する磁界に影響を与えない環境を設定することが望ましい。
【0033】
これを実現するためには、磁気的に透明な材料(換言すると磁界に影響を及ぼさない材料)でベッド4を作ればよい。
この磁気的に透明な材料としては例えば、デルリン等の樹脂、木材、非磁性材金属であればよい。
【0034】
実際にはソースコイル16iの位置検出には交流磁界を用いるため、駆動信号の周波数において磁気的に影響のない材料で形成しても良い。
そこで、本内視鏡形状検出装置3とともに使用する図1に示す内視鏡検査用ベッド4は、少なくとも、発生する磁界の周波数において磁気的に透明な非磁性材で構成されている。
【0035】
図2の内視鏡形状検出装置3のブロック図において、内視鏡6のチャンネル13内に設定されたプローブ15内のソースコイル16iにソースコイル駆動部24からの駆動信号が供給され、この駆動信号が印加されたソースコイル16i周辺に磁界が発生する。
【0036】
このソースコイル駆動部24は、(磁界発生用)発振部25から供給される交流信号を増幅して、必要な磁界を発生するための駆動信号を出力する。
発振部25の交流信号は、ベッド4に設けられた3軸センスコイル22jで検出される微少な磁界を検出するための(相互インダクタンス)検出部26に参照信号として送出される。
【0037】
3軸センスコイル22jで検出される微少な磁界検出信号は(センスコイル)出力増幅器27で増幅された後、検出部26に入力される。
検出部26では、参照信号を基準として、増幅、直交検波(同期検波)を行い、コイル間の相互インダクタンスに関連した信号を得る。
【0038】
複数のソースコイル16iが存在するので、各ソースコイル16iに接続されたリード線へ駆動信号を順次供給するように切り換える切り換え手段となる(ソースコイル駆動電流)分配器28がソースコイル駆動部24とソースコイル16iの間に存在する。
【0039】
上記検出部26で得られた信号は、形状算出部30を構成する(ソースコイル)位置検出部(又は位置推定部)31に入力され、入力されたアナログ信号をデジタル信号に変換して位置検出の計算或は位置推定の演算を行い、各ソースコイル16iに対して推定された位置情報を得る。
この位置情報は形状画像生成部32に送られ、得られた離散的な各位置情報から間を補間する補間処理等のグラフィック処理して内視鏡6(の挿入部7)の形状を推定し、推定された形状に対応する画像を生成し、モニタ信号生成部33に送る。
【0040】
モニタ信号生成部33は形状に対応する画像を表すRGB或はNTSC或はPAL方式等の映像信号を生成し、モニタ23に出力し、モニタ23の表示面に内視鏡6の挿入部形状に対応する画像を表示する。
【0041】
なお、位置検出部31は1つの位置検出の計算を終了した後に、分配器28に切り換えの信号を送り、次のソースコイル16iに駆動電流を供給してその位置検出の計算を行う(各位置検出の計算を終了する前に、分配器28に切り換えの信号を送り、センスコイル22jで検出した信号をメモリに順次記憶させるようにしても良い)。
【0042】
また、システム制御部34はCPU等で構成され、位置検出部31、形状画像生成部32、モニタ信号生成部33の動作等を制御する。また、このシステム制御部34には操作部35が接続される。図3に示すようにこの操作部35はキーボード35a及びマウスス35b等で構成され、これらを操作することにより、内視鏡形状の描画モデルの選択とか、モニタ23に表示される内視鏡形状を選択された視野方向に対する画像で表示させる指示を行うこともできる。
【0043】
特に、この実施例では操作部35(より詳しくは図3のキーボード35aの)特定のキー入力の操作を行い、システム制御部34に2画面表示の指示信号を入力することによって、形状画像生成部32は1つの視点方向に対応する画像を生成すると共に、この視点方向と90゜異なる視点方向からの画像を生成し、モニタ信号生成部33を経てモニタ23に同時に2つの画像を表示する。
【0044】
つまり、形状画像生成部32は互いに直交する視点方向からの2つの形状画像と、1つの視点方向からの形状画像とを生成する2/1形状画像モードの機能を有し、指示(選択)に応じてモニタ23に2又は1形状画像を生成し、モニタ23には指示により生成された2又は1形状画像を表示する。図3のモニタ23では2形状画像モードでの2つの形状画像が表示された様子を示している。
【0045】
この実施例では、このように互いに90゜異なる視点方向からの内視鏡形状を2画面で同時に表示する検出画像表示手段(形状画像生成部32と、モニタ信号生成部33と、モニタ23とで構成される)を有することが大きな特徴となっている。
【0046】
なお、図2の点線で示す形状算出部30はソフトウェアを含む。また、モニタ23に表示される内視鏡形状の表示を理解し易くするために表示画面上での基準位置等を表示させるための補助手段としてのマーカプローブ36a,36b(単にマーカと略記)を接続できるように構成され、マーカ36a,36bを使用して術者によって任意に設定された基準位置等を内視鏡形状と共にモニタ23の表示画面に同時に表示し、内視鏡形状の把握を容易にできるようにしている。
【0047】
マーカ36a,36bは電流分配器28に接続され、プローブ15内のソースコイル16iと同様に電流分配器28を介してマーカ36a,36b内のソースコイルに駆動信号が印加されるようにしている。なお、第1実施例ではマーカ36a,36bは画面上で基準位置を表示することにより、内視鏡形状の把握を容易にするのに使用される。第2実施例では、その使用態様も選択できるようにしている(後述)。
【0048】
内視鏡検査の場合には、患者5はベッド4の上にいるため、内視鏡6の位置は必ずベッド4の上になる。
つまり、ベッド4の4隅にセンサとなる3軸センスコイル22jを設ければ、このセンサ群に囲まれた領域の中に内視鏡6(内のソースコイル16i)が存在することになるので、設置した3軸センスコイル22jごとにソースコイル16iの存在する象現が限定される。
【0049】
ソースコイル16iを駆動したときの1つの3軸センスコイル22の出力をXi,Yi,Ziとすると、Xi^2+Yi^2+Zi^2で関連づけられる磁界強度となる3軸センスコイル22からの距離にソースコイル16iが存在することになる。
【0050】
しかし、1軸コイルは一般にダイポールとして表現され、その等磁界面は球にならないで楕円状になる。
そのため、どの方向を向いているかが未知のソースコイル16iの位置を一つの3軸センスコイル22による等磁界面Xi^2+Yi^2+Zi^2のみからは同定できない。
【0051】
そのため、ベッド4に複数設けた3軸センスコイル22jそれぞれに関して測定されるXj^2+Yj^2+Zj^2で関連づけられる距離を用いる。この場合、各3軸センスコイル22jの設置位置は既知であるので、例えばベッド4に固定した1つの座標系で表すことができる。この場合には位置検出及び形状検出の基準面はベッド4となる。
ソースコイル16iで発生する等磁界面が一般的にXs^2+Ys^2+Zs^2と表される磁界強度をセンスコイル22jで検出してその間の距離を推定することを考える。
【0052】
すると、センスコイル22jで検出された磁界強度からその磁界強度を含むような等磁界面を想定すると、中心のソースコイル16iに対してその等磁界面上にセンスコイル22jが存在することになり、中心から等磁界面までの距離の最大値及び最小値をそれぞれRmaxj、Rminjと、それらの間の距離にセンスコイル22j及びソースコイル16iが存在することになる。
【0053】
つまり既知の位置のセンスコイル22jを基準にすると、図5に示すように最大距離Rmaxjの距離の内側、最小距離Rminjの外側にソースコイル16iが存在することになる。
【0054】
各3軸センスコイル22jで測定され、各3軸センスコイル22jごとに異なるXj、Yj、Zjに対応するRmaxj、Rminjで表される球殻の重なり(volume)の中にソースコイル16iが存在することになるのでその領域の重心をコイル位置として検出することができる。
これで、位置が求められるが、Rmax、Rminの差が大きい場合には誤差が生じる可能性がある。
【0055】
そこでXj、Yj、Zjに含まれる位相情報にソースコイル16iの傾きが表されていることを利用して先に求めたvolumeのなかでの傾きを求める。
これにより、さらに正確な位置となるよう、先の位置を補正する。
また、ソースコイル16iの相互の間隔は既知であるので、さらにこの値で補正してもよい。
【0056】
この様にして検出された複数の位置情報により推定された内視鏡6の挿入部7の形状を後述するようにモデル化した画像100で、モニタ23の表示面に例えば図11のように左側のグラフィックス出力領域に表示される。右側の領域はユーザがキーボード35bからのキー入力等により、視点(位置と原点との距離)、回転角、視点位置とZ軸とのなす仰角等を設定するユーザインタフェース領域である。
【0057】
図6はチューブ形状のマーカ36aの構造の具体例を示す。マーカ本体部41はグリップカバー42で覆われ、内部にソースコイル43が収納され、その周囲には絶縁樹脂44が充填されている。ソースコイル43は磁性体材料のコア部材45に導線46を巻回して形成され、巻回された2つの導線46の端部はそれぞれ絶縁部材40で被覆されたシールド線47で覆われている。このシールド線47はさらにシリコンチューブ48で被覆されている。このシールド線47の後端はコネクタ49aに至る。このコネクタ49aはコネクタ受け部材に固定されている。
【0058】
グリップカバー42とシリコンチューブ48との接続部分と、シリコンチューブ48とコネクタ受け49bとの接続部分はそれぞれ折れ止め部材50で折れないようにしている。
【0059】
図7はスコープ内のソースコイル16iの作る磁界を外部の3軸センスコイル22jによって検出し、磁界強度と2点間の距離との関係からソースコイル16iの位置を得、複数のソースコイル16iの各位置検出に基づいて挿入状態にある挿入部形状(簡単にスコープ形状とも記す)をモニタ(CRTとも記す)上に表示するフローを示す。
このフローの全体構成は、その処理内容別に、以下のB1〜B4の4ブロックに大別することが出来る。
【0060】
B1:初期化ブロック
このブロックで、本プログラムの全機能に関する初期化作業が完了する。具体的には、スコープ形状をCRT上に出力する手法に基づく初期パラメータの設定、ハードウェアが検出する磁界強度から得られた位相情報と振幅情報とから、ソースコイル16iの存在位置を算出する際に使用する基本データのメモリ読み込み、ハードウェアを制御するための各種ボードの初期化等が実施される。
【0061】
B2:ハードウェア制御ブコック
本システムでは、内視鏡6の挿入部7内に配置固定されたソースコイル16iの位置座標をソースコイル16iの発生する磁界強度から算出し、これを基に挿入状態にある内視鏡6の挿入部7の形状を推定する。
このブロックでは、ソースコイル16iの駆動を切換えて磁界を発生させ、その発生磁界強度をセンスコイル22jで検出し、この検出出力をソースコイル位置座標が計算できる形に変換して出力するまでを担う。
【0062】
ソースコイル16iの駆動切換えは、内視鏡6のどこに位置するソースコイルかが分かるようになっており、ソースコイル16iの磁界強度を検出するセンスコイル22jは、図4に示したように直交する3つ軸にそれぞれのコイルの面が平行となるように製作され、1個のセンスコイル22jにつき直交する3軸方向の磁界強度成分が検出できるように構成されている。検出された磁界強度のデータは、ソースコイル位置を計算する際に必要となる振幅データと位相データとに分離されて出力される。
【0063】
B3:ソース位置算出ブロック
前ブロックでの磁界検出によって得られた振幅データと位相データを基に、磁界強度と2点間の距離との関係を利用して、ソースコイル16iの位置座標を算出するまでを担う。まず、振幅データと位相データに対して、センスコイル22jの各軸方向の径の大ききの違いやソースコイル16iとセンスコイル22jとの位置の関係の捕正を施して、各センスコイル22jの設置位置で検出されると考えられる磁界強度を算出する。
【0064】
こうして算出された磁界強度から、ソースコイル16iとセンスコイル22j間の距離を求める。但し、挿入状態にあるソースコイル16iの姿勢(ソレノイド状コイルの方位)が分からないため、ソースコイル16iの存在位置はある球殻の範囲内までの限定しかできない。そこで、センスコイル22jを3個以上用意し、ソースコイル16iの存在可能な領域の重なりを求め、その領域の重心位置をソースコイル16iの位置座標として出力する。
【0065】
B4:画像表示ブロック
ソースコイル位置座標として得られたデータを基にスコープ形状を構築して、その描像をCRT上に出力するまでを担う。ソースコイル位置座標として得られた1個以上の座標をデータを基に、全体として滑らかな連続座標を構築する。この連続座標によりスコープ形状らしく見せるためのモデリング処理を行う(多角形柱、色階調、彩度、輝度の利用、陰線処理、パースペクティブ等)。
【0066】
更に、CRT表示されたスコープイメージモデルは、任意の方向に回転、拡大縮小が可能であり、現表示の視点位置や患者の頭方向が一目で分かるボディーマーカ等も表示できる。終了時の視点位置は自動的に保存され、次回の初期視点位置となる。術者が見易いと考える視点方向を記憶するホットキーも存在する(第1実施例の第2の変形例として後述する)。
次に各ブロックごとのより詳しい内容を説明する。
【0067】
B1:初期化ブロック
最初のステップS11ではグラフィック頁の初期化(VRAMの初期化)を行う。また、CRT表示したスコープイメージ像を更新する際、新しい像を上書きすると、観察者に対し、書き換えがちらつく画像の印象を与え、スムーズな画像で無くなってしまう。そこで、複数のグラフィック頁を絶えず切換えてイメージを表示することで、動画像的な滑らかさを実現している。
また、使用する色、階調の設定を行う。使用できる色数はハードウェアごとに制限がある。そこで、図11に示すように挿入部7をモデル化して表示した画像100に割り当てる色数を多くし、また階調表示を行うようにすれば、立体的のある画像表示が可能になる。なお、図11において、2つの円は基準位置を示すマーカを示し、四角のフレームはベッドを示す。
【0068】
視点に近いほど明るく、遠いほど暗く表示する階調表示を行うことにより、挿入部7を2次元で表示した画像100に立体感や奥行きを持たせて表現することが可能になる。もちろん、階調数を増減することは任意である。また、階調以外に採用している色もR,G,Bの構成より作られており、微妙な彩度や輝度を表現することも可能である。
【0069】
次のステップS12で初期視点位置の自動読み込み等のイメージパラメータの初期化を行う。
スコープ像をどのように見ることが見易いと感じるかは、術者の好みによるところが大きい。もし、初期視点位置を固定してしまうと、術者はスコープ像が見やすいと感じる視点位置にわざわざ再設定しなければならず、使い勝手が低下する。
【0070】
そこで、希望とする視点位置をファイル(パラメータファイル)の形で保存しておき、プログラム起動時にそのファイルを読み込むことで、プログラム開始直後から術者の見やすい視点位置からスコープ像を見ることが出来る手段を設けた。
【0071】
また、この実施例では図11に示すようにスコープ像の出力領域とテキスト画面の出力領域とを分割表示する。
スコープ像とテキスト画面を分割したことにより、スコープ像の回転や拡大縮小の程度を視覚的、数値的の両面から確認できるようにした。尤も、図12に示す2画面表示モードでは左右にスコープ像を同時に表示することになる。
次のステップS13でソースコイル位置導出のための原理を格納した原理元データをロードする。このデータは次の関係の基準データ或は基準情報である。
【0072】
測定原理は、1軸のソースコイル16iの出力を直交3軸で製作されたセンスコイル22jで検出し、その磁界強度よりソースコイル16iとセンスコイル22jの間隔を得ることである。両コイルの間隔を得るにあたり、1軸ソースコイル16iの作り出す磁界分布を示す超函数から直接解くのではなく、ソースコイル16iの姿勢(軸方向の方位)の違いによる最大となる磁界強度出力と最小となる磁界強度出力とを利用する新しい距離算出法を採用している。
【0073】
つまり、1軸ソースコイル16iと3軸センスコイル22jとの距離を様々な値に設定したときに、各距離値でソースコイル16iの軸方向を変えた場合に3軸センスコイル22jの位置で検出される最も大きい磁界強度の値(最大磁界強度値)と、最も小さい磁界強度の値(最小磁界強度値)を測定したものを、それぞれプロットしてグラフ化にした最大磁界強度曲線、最小磁界強度曲線のデータを距離算出の基準データとして準備している。
【0074】
この基準データを用いることにより、3軸センスコイル22jで検出された磁界強度から1軸ソースコイル16iの距離算出を以下のように行うことが可能になる。
【0075】
ある磁界強度Hが検出された場合、その値Hを最大磁界強度値とした場合の半径、つまり距離が最小となる最小半径r_minと、その値Hを最大磁界強度値とした場合の半径、つまり距離が最大となる最大半径r_maxとに挟まれる球殻内にしかソースコイル16iは存在し得ないとの限定を加えることが可能になる。この限定を各センスコイル22jの位置で行うことにより、図5に示すようにソースコイル16iの存在領域を限定できる。
【0076】
これら最大磁界強度曲線、最小磁界強度曲線に対応するデータはハードディスク等のデータ格納手段に格納されており、内視鏡形状表示の動作が開始すると、位置検出部31は必要に応じて参照する。
【0077】
なお、3軸センスコイル22jで検出される磁界強度に比例した実際の測定値は、この3軸センスコイル22jを構成する3つのコイルでそれぞれ検出された信号22X,22Y,22Zをそれぞれ2乗して総和した値、22X・22X+22Y・22Y+22Z・22Zの平方根を求めた値であり、この求めた値を標準の磁界測定装置(例えばガウスメータ)でキャリブレイションすることにより、正確な磁界強度の測定値を得ることができる。
上記最大磁界強度及び最小磁界強度のデータを記録したファイル(max_minデータファイル)をロードすると共に、補正用データファイルから補正用データもロードし、センスコイル22jの径の補正等も行い、精度の高い位置検出を行うことができるようにしている。
【0078】
上述のデータのロードの後、次のステップS14でハードウェアの初期化を行う。このステップS14では図2の分配器28の設定内容をリセットして初期状態にする。また、形状算出部30を構成する図示しないA/Dコンバータの設定内容をリセットし、使用環境(例えばそのチャンネル数をソースコイルの数及び使用するマーカ数に設定)に対応した設定状態にする。こうしてハードウェアを形状算出の使用可能な状態に設定し、次のブロックB2を動作させる。
【0079】
B2:ハードウェア制御ブロック
まず、ステップS21では図2を参照して説明したように分配器28に切換信号を印加してソースコイル16iを選択し、そのソースコイル16iをドライブする。そのソースコイル16iで発生した磁界はセンスコイル22jで検出される。
【0080】
従って、ステップS22に示すようにセンスコイル22jで検出された検出信号を検出部26を構成する図示しない位相敏感検出器(PSD)を経てA/Dコンバータでサンプリングする。サンプリングされたデータは一旦、形状算出部30内のメモリに書き込まれる。
ステップS23に示すように形状算出部30を構成する例えばCPUは全てのソースコイル16iに対する駆動が終了したか否かを判断し、終了していない場合には次のソースコイル16iを駆動するように制御する。
【0081】
そして、全てのソースコイル16iを駆動した場合には、メモリのデータ(PSDを経たPSDデータ)から振幅データ、位相データを算出する(図7のステップS24のPSD算出、ステップS25の振幅データ、位相データ参照)。なお、マーカを使用した場合にはさらに接続したマーカに内蔵された各ソースコイルに対して、プローブ15に内蔵されたソースコイル16iと同様に駆動信号を印加してマーカのソースコイルに対しても振幅データ、位相データを算出することになる。
【0082】
上記振幅データ、位相データから次のブロックB3の処理に移る。まず、ステップS31の磁界強度算出を、補正係数を用いて行う。
次に図7のステップS32の(ソースコイル16iとセンスコイル22j間の)最大距離と最小距離の算出を最大及び最小距離データを用いて行う。
【0083】
このステップS32は前のステップS31で得られた磁界強度を用いて、センスコイル22jとソースコイル16iとの最大の距離と最小の距離とを算出するまでの処理を行う。
【0084】
2点間の距離と磁界強度とに比例関係が存在することは、ごく一般に広く知られた物理現象である。しかし、ある空間上の一点にl軸のソースコイル16iが作り出す磁界強度は一般に超函数で表されるため、たとえソースコイル16iの向きが分かり、磁界強度が測定されても、ソースコイル16iの存在する方向や距離を算出するのは容易ではない。
【0085】
そこで、ある磁界強度が検出できた場合、その出力が最も強く取れる方向にソースコイル16iが向いていると仮定した場合の距離をR_max、最も弱く取れる方向にソースコイル16iが向いていると仮定した場合の距離をR_minとすれば、真のソースコイル16iとセンスコイル22j間の距離R_trueは、R_min≦R_true≦R_maxという範囲内に限定することが出来る。
【0086】
ここで採用した距離の算出手段或は方法は、距離R_trueの値が確実には求まらないものの、複雑な超函数を解くということを要求されない極めて簡便な手段或は方法である上、1軸のソースコイル16iの向きが分からない場合でも、ソースコイル16iの存在範囲を限定できる応用範囲の広い手段或は方法となる。
【0087】
次にステップS33のソースコイル16iの位置座標算出を行う。このステップS33ではセンスコイル22jとソースコイル16iとの距離から、ソースコイル16iの座標を算出するまでの処理を行う。
あるセンスコイル22jから見たときのソースコイル16iの存在しうる範囲は、前のステプS32で得られたR_maxとR_minとによって囲まれる球殻内である。
このようなソースコイル16iの存在しうる範囲をより微小な空間に限定するため、複数個のセンスコイル22jから見いだされたソースコイル16iの存在可能領域の重ね合わせを利用する。各々のセンスコイル22jに対し、同一のソースコイル16iから得られたソースコイル16iの存在領域は、ソースコイル16iの位置が動いていない限り、すべてが重なり合う領域が必ず存在する。
【0088】
このような領域の境界は、各々のセンスコイル22j位置を中心とする半径R_max,R_minの球の交点に他ならない。球の交点であることから、少なくともセンスコイル22jが3個あれば、ソースコイル16iは各センスコイル22jのR_max,R_minを半径とする球の8交点によって囲まれる微小領域にその存在が限定できる。
【0089】
このソースコイル位置限定方法は、3個の球の交点を算出するという単純な算術計算であるので、その処理時間がかからない上、ソースコイル16iの存在領域をごく微小な領域内に限定することを可能にした極めて優れた方法である。
【0090】
このようにして各ソースコイル16iの位置座標の算出を行い、ステップS34のソースコイル16iの位置座標データを得る。マーカを使用した場合にはマーカのソースコイルに対しても同様に位置座標の算出を行う。
これらのデータを用いて次のブロックB4の処理に移る。
【0091】
B4:画像表示ブロック
このブロックB4は、ソースコイル16iの位置座標データを基に、挿入状態にあるスコープ形状イメージをCRT上に描写するまでの処理を担う。
ソースコイル16iの位置座標は、挿入されたスコープの通過した軌跡である。そこで、これを基に挿入状態にあるスコープ形状を推定する。スコープの挿入形状が推定できたら、結果をCRT上に描写する。そのとき3次元のスコープ形状を2次元のCRT画面で表示しなければならないため、その描像がより3次元的に表されるような工夫が必要となる。
【0092】
又、スコープイメージが任意の方向に回転させられたり、今どのような方向からスコープイメージを眺めているのかが瞬時に判断できるようであれば、その使い勝手はさらに向上する。
このようなことを鑑み、この装置3においては以下のように機能別に分類し、それぞれのモジュールごとの特徴を加え合わせた表示方法を実現した。
【0093】
S41キーボード入力処理
S42スコープモデル描写
(S43基準面表示処理)
(S44マーカ表示処理)
スコープイメージの描写には、これらすべてが必要なわけではないので、必要に応じて機能を取捨選択できる。図7ではS41のキーボード入力処理及びS42のスコープモデル描写の処理のみを示している。このブロックB4の処理の後、ステップS45の表示画面ビデオページ設定の処理が行われ、VRAMにモデル化された画像データがセットされ、その後その画像データがCRTに出力されてステップS46のスコープイメージ表示の処理が行われる。そして、プログラム終了か否かの判断の処理(ステップS47)により、終了が選択された場合には終了し、そうでない場合にはブロックB2に戻り、同様の動作を繰り返す。
そこで各モジュール毎の特徴を以下で説明する。
【0094】
S41:キーボード入力処理
ここでは、与えられたユーザコマンドに対応するキー入力がなされた場合、その内容に応じて設定パラメータ等を変更するまでを担う。
【0095】
ユーザからの要求が高いと考えられる付加機能が装備されていることは、その装置の使い勝手を左右する。又、機能選択は平易な作業であり、ユーザが望む際には常に操作が可能で、ユーザの要求内容が速やかに実現される必要がある。
【0096】
このステップS41はキーボードからの入力取得を行い、そのキー入力に対応したコマンドなどの処理を行う。
【0097】
キー入力に対応したコマンドとしては、X,Y,Zの各軸回りのイメージ像の回転、イメージ像の拡大&縮小、初期視点位置からのイメージ像表示、ユーザ登録視点位置からのイメージ像表示、視点位置のユーザ登録、イメージ出力の画面の複数分割、コメント入力の画面表示、背景色の変更、マーカ表示のON/OFF、ソースコイル座標の数値表示ON/OFF、プログラム終了がある。
【0098】
次にこの第1実施例の大きな特徴となるスコープモデル描写の説明を行う。
ステップS41のキーボード入力処理の次に図7に示すステップS42のスコープモデル描写を行う。
【0099】
このスコープモデル描写の処理フローではユーザの選択に応じて、スコープ形状を1画面モードで図11のように表示したり、図12に示す2画面モードで表示できるようにしている。
このスコープモデル描写の処理フローの具体例を図8に示す。
【0100】
まず、ステップS51で描画に必要なパラメータファイルをロードする処理を行い、ハードディスク等のパラメータファイルの記録装置から、X,Y,Z軸の回りの回転角(ピッチ、ヘッド、バンク)、視点(ビューポイント)、プロジェクトスクリーン、マーカモードのNo.等のデータをロードし、形状算出部30を構成するメモリに一時書き込み、CPUは必要な時にそれらを参照して描画の処理を行えるようにする。
【0101】
次に、ステップS52で各変数初期化を行う。ロードしたデータ等を参照して描画に使用する変数を初期値にセットする。次にステップS53で検査終了のキー入力に設定されたファンクションキーとしてのf・10が押されたか否か(図8ではf・10_key ON?と表記)の判断が行われ、押された場合にはスコープイメージ表示の処理を終了し、押されていない場合には、1画面モードか否かの判断を行う(ステップS54)。
【0102】
このステップS54では、画面モード切換のキーに設定されたホットキーとなるHELPキーが押されたか否かによって1画面モードか否かの判断を行い、例えば押されていない場合には1画面モードであると判断して、さらにHELPキーが押されたか否か(図8ではHELP_key ON?と表記)の判断を行い(ステップS55)、2画面モードへの切換を行うことができるようにしている。
【0103】
具体的には例えば2ビットの2画面表示フラグを用意し、初期設定ではこのフラグを0にセットし、HELPキーが押される毎に1を加算する。そして、画面モードの判断はこのフラグの値を調べ、フラグの値が0の場合には、1画面モードであると判断し、フラグの値が1、つまりONされている場合には、2画面モードであると判断する。
【0104】
また、ステップS54で2画面モードと判断された場合にも、さらにHELPキーが押されたか否かの判断を行い(ステップS56)、1画面モードへの切換を行うことができるようにしている。
ステップS55でHELPキーが押されたと判断した場合には(1画面モードにおいて、2画面モードへの切換のキー入力が行われた場合には)、次のステップS57で2画面モードをONした後、さらにステップS58で2画面モードの初期設定を行う。
【0105】
まず、1画面表示モードに設定されているグラフィックモードの設定を解除し、2画面表示モード用に設定する。また、2画面表示モード用に表示枠を設定すると共に、2画面表示フラグをONにする。
【0106】
また、次のステップS59でヘッド角(Y軸の回りの回転角)が0より大きいか否かの判断を行い、否の場合にはヘッド角を0にセットし(ステップS60)、次ぎのステップS61の左画面ビューポート設定の処理に移る。一方、0より大きいと判断した場合にはそのヘッド角で、次ぎのステップS61の左画面ビューポート設定の処理に移る。
【0107】
左表示画面に垂直イメージ内視鏡形状(真上から見た形状)を表示するため、画面中心から左に表示用の領域を設定する。また、この設定した領域をクリアする。さらに検査領域表示枠を表示の場合には、検査領域の枠を描画する(後述する変形例では検査領域表示枠の表示及び非表示を選択できるようにしている)。
その後にステップS62のスコープイメージ描画を行う。
【0108】
ここでは、磁界検出から得られたソースコイル位置座標から、スコープ形状を作成し、そのイメージ像を3次元的にCRTに表示するまでを担う。得られるソースコイルの位置座標は、スコープに挿入されたソースコイルの数の飛び飛びのデータである。そこで、これらのデータを基に、挿入状態にあるスコープ形状を推定しなければならない。さらに、このようにして得られたスコープ形状データを、3次元的な形状としてモデル化した画像でCRT上に出力する。このモデル化したイメージ描画の基本的な処理内容を図9に示す。
【0109】
S62_a:算出されたソースコイル間の3次元補間
ステップS62_aの算出ソースコイル間の3次元補間の処理では、磁界強度検出に基づいて算出されたソースコイル位置座標は離散的であるため、この算出データのみをつないでも軌跡が角張ってしまい、連続的に位置が変化するスコープ形状に対応しない。滑らかな全体のスコープ形状を作成するために、ソースコイル位置座標データに対して3次元補間を実施する。
【0110】
S62_b:3次元モデルの構築
現実のスコープは太さを持っているため、いくら滑らかなデータ点が得られているとしても、太さを持たない直線等で結び合わせたのでは現実のスコープを描写したとは言えない。そこで、ステップS62_bの3次元モデルの構築の処理では捕間データ間の連結を円柱またはn角柱モデル等で行い、太さの点においても実際のスコープ形状に対応して表示できるようにする。
【0111】
S62_c:アフィン変換
スコープ形状は、指定された視点位置から見た像として出力する。そこで、ステップS62_cのアフィン変換の処理では、ソースコイル位置導出の基準座標系としての世界座標系で得られているスコープ形状モデルデータを、画面表示用の視点座標系に変換する。なお視点位置は、ユーザが変更することが可能である。変更された内容は、ここで参照される。
【0112】
S62_d:3D→2D投影
本来スコープ形状は3次元であるが、その像をCRT画面上に出力するためには2次元に変換しなければならない。そこで、ステップS62_dの3次元像から2次元像への投影変換を行う。このとき、パースペクティブなどで、遠近を強調しても良い。
【0113】
S62_e:レンダリング
これまでの処理によって得られたスコープ形状イメージをCRT上に描写する。描写を行うにあたり、ステップS62_eのレンダリングの処理では、n角形の側面処理、スコープのループの前後を表現するための陰線処理を行う。遠近によるシェーディング処理での階調表示、スコープの曲率等によりスコープモデル側面の輝度や彩度の調整を行う等の処理を実施して、立体間をより強調しても良い。
【0114】
なお、上で述べたいくつかの項目は、必ずしも実施することが必要ではない。もちろん、実施すればその改良項目が持つ効果を含めた形でCRT上に描像が再現できる。また、図9に示す順序で行うことが必要というものでなく、挿入部形状を表示するモデルに応じてその順序を変更することにより、より短時間で同等の処理を行うことができる場合がある。
【0115】
これらの処理を通じて、数個のソースコイルの位置座標のみから、挿入状態にある3次元スコープ形状をCRT上に再現することが出来る。
また、この実施例では、スコープの表示として以下のようにn角形柱モデルと、n角形連結モデルとを選択できるようにしている。
【0116】
ステップS62で左画面のスコープイメージ描画の処理を行った後、図8のステップS63で右画面ビューポート設定を行い、右画面のモデル描画の処理を行う(ステップS64)。
【0117】
この右画面のスコープイメージ描画の処理では左画面の描画の処理に用いたヘッド角に90度をプラスした角度で描画を行う。従って、左画面の視点方向と90度異なる視点方向からのスコープ形状をモデル化して描画する処理を行う。ステップS60でヘッド角が0に設定された場合(左画面が真上から見た場合の描画)には、右画面は真横から見た場合の描画とまる。
【0118】
その後、描画処理された画像データを用いて表示画面ビデオページの設定(ステップS45)が行われた後、CRTに出力され、スコープイメージ表示が行われる(ステップS46)。この場合には2画面モードでのスコープイメージ表示であり、CRTには図12のように直交する視点方向からの2つのスコープ形状が同時に表示されることになる。
【0119】
一方、ステップS55の判断において、HELP_keyが押されていない場合(1画面モードの場合)には、ステップS65の通常モードスコープイメージ描画の処理、つまり1画面モードでのスコープイメージ描画の処理を行う。この処理はステップS62或いはステップS64と同様である。この処理の後、ステップS45の表示画面ビデオページ設定の処理を経てCRTに画像データを出力し、図11に示すように1画面モードでスコープをモデル化したイメージの表示を行う。
【0120】
また、ステップS56の判断において、HELP_keyがONされないと判断した場合(2画面モードの場合)には、ステップS59の処理に移る。また、このステップS56の判断において、HELP_keyがONされた場合(2画面モードにおいて1画面モードの切換のコマンドが入力された場合)には、ステップS66で2画面モードをOFFにし、さらに通常スコープイメージ画面設定を行った(ステップS67)後、ステップS65の処理に移り、1画面モードでスコープ形状の表示を行う。
【0121】
この図8のフローではユーザにより選択されたキー入力に応じて、スコープ形状をCRTに2画面モードで表示したり、1画面モードで表示する。特に、2画面モードでは互いに垂直な視点方向からのスコープ形状を、図12に示すように同時に並べて表示するので、一方の視点方向からの画像における奥行き量も直交する視点方向からの画像から正確に把握することができる。
【0122】
上述のように、2画面表示の場合には通常は左側に視点方向が垂直方向の画像、右側に水平方向の画像を表示する。視点方向等が変更された場合には、変更に応じて異なる方向からの画像になる。
【0123】
次にスコープ形状をモデル化して3次元的に表示するための3次元モデル構築のモデルについて説明する。
n角形モデルが選択された場合には、例えば図11に示すように挿入部の横断面を正n角形にモデル化してn角形柱として表示する(図11ではn=5としている)。このnの数を大きくすると殆ど円となり、その場合には挿入部形状は円柱として表示されることになる。
【0124】
このモデルでの表示の具体的処理内容のフローは図10となる。
図10(a)で、ステップS62_1の補間&3次元モデルの構築の処理は、図10(b)に示す処理を行う。
【0125】
ここでは、まずステップS62_1の3次元のBスプライン補間を実施している。この補間は、内挿点を必ず通るタイプの補間ではなく、その内挿点の近傍を通りながら滑らかな曲線を作成するものであり、内挿点を必ず通過する自然スプラインに比ベ、その計算処理が平易である。もちろん、自然スプラインを用いても、他の補間法を用いても、近似函数による補間でも良い。
【0126】
計算処理が比較的平易なBスプラインは、3次元捕間を実施しても処理速度が早いという点で優れている。
次にステップS62_12の3次元モデル構築としてn角柱モデル構築を行う。
【0127】
ここでは、ソースコイル位置座標の捕間データから、n角柱モデル(以降、円柱も含んでいる、とする)によって、立体的なスコープイメージを構築する。 次に図10(b)のステップS62_13のアフィン変換を行う。このアフィン変換はコンピュータグラフィックスで図形の座標変換を行う時に用いられる方法の1つで、座標変換を扱う場合に一般的に行われる。平行移動、回転、拡大、縮小等の単純な1次の座標変換は全てアフィン変換に含まれる。なお、X軸の回りの回転角はピッチ角、Y軸の回りの回転角はヘッド角、Z軸の回りの回転角はバンク角と呼ばれる。
【0128】
この処理では、ベッド4に固定された世界座標系(図13参照)で表されるスコープモデルデータを、ある視点位置から見たモデルデータに変換する。
視点位置は、任意の方向に設定できるようにしている。そのため、視点位置がどの方向に移動したかを追跡し、その方向に追従する形でモデルデータを移動させることは、きわめて難解な処理を必要とする。そこで、視点は固定しているものと仮定し、本来動くことはないはずの世界座標系を便宜的に回転させる。これにより視点を移動させた像を得ることと同様の結果を与える。
この方法は、視点がどの方向に移動した場合でも、世界座標系を便宜的に回すことで対応できるため、視点の移動に対するタイムラグをきわめて小さくできるという点で優れた手段である。
【0129】
次に図10(b)のステップS62_14の3次元−2次元投影(3D→2D投影)の処理を行う。
3次元像から2次元像への投影変換を行うこの3D→2D投影の処理では、以下に示す投影法を行うことで、目的に応じて遠近法的等で表示が実現できる。
【0130】
a)パースペクティブをつける場合、
3次元形状は、視点に近いものほど大きく、遠いものほど小さく見える。これは、3次元モデルデータを2次元データに変換する処理で実現できる。
【0131】
3次元座標を2次元平面に投影するために、仮想的にスクリーンを視点に対して垂直に、かつ3次元画像(S62_13までで得られた3D像)の反対側に配置し、このような状態で視点から見た物体の投影面を視点に近い側の投影像が、遠い側の投影像より大きくなるように投影して遠近法的などで表示する。この方法は、2次元投影描像に対し、3次元的な奥行きを容易に付けることが出来ると共に、その強調の度合いを変化させることも容易であるという点で優れている。勿論、パースペクティブをつけないで表示しても良い。
【0132】
次にステップS62_15のレンダリングの処理を行う。この実施例では図10(b)に示すようにペーストモデル表示PMとワイヤフレームモデル表示WMとの処理から選択できる。
【0133】
これらのモデルでの表示は図13に示すベッド4に固定された世界座標系を用い、処理内容に応じて他の座標系を採用する場合がある。
【0134】
例えば、ソースコイル座標は世界座標系であり、ソースコイル座標に対し、回転処理を行って、「視点」から見たソースコイル座標(つまり視野座標系)を求めた後、離散的なソースコイル座標に対し、データ補間を行ってデータ補間済みの「視点」から見たソースコイル座標を求める。
【0135】
次に3次元モデル構築処理で、ワイヤフレーム等によるスコープモデルを生成した後、2次元画面に表示するために、3次元ー2次元変換(透視投影変換)処理を行って、2次元データ、3次元データを生成し、擬似の立体画像をレンダリング処理して表示する。
【0136】
次に図10(b)のペーストモデル表示PMを説明する。このモデルはn角柱の各面を塗り潰すのでペーストモデルと呼ぶ。
スコープ形状イメージをCRT上に描写する際の、n角形の側面処理、スコープがループ状になった場合におけるそのループの前後を表現するために陰線或は隠れ面処理を施す。n角柱で表示する場合、n個の側面を持つことになる。そのうち、実際に見えるものは、視点方向側の側面のみであり、従って視点方向側の側面のみ見えるように表示し、見えない側面或は辺等を隠すように表示する処理、つまり陰線或は隠れ面処理を行う。この場合には視点位置にどれだけ近いかを表すパラメータ(zバッファと記す。)をソートし、zバッファが小さい(つまり、視点から遠い)側面より、上書きで書くことにより実現できる。
【0137】
次にワイヤフレームモデル表示WMの処理について説明する。
n角柱モデルの辺を除いた部分をバックグランドカラーで塗りつぶした場合と同じ結果となるが、これは、n角柱モデルの面を張る(ペイント)ための処理時間短縮のため、選択使用できるようにしている。
【0138】
なお、このモデルでは、zバッファの小さい順に書くと、スコープモデル奥側のワイヤが見えてしまう。そこで、それを取り除く陰線処理を適宜実施するか、zバッファの大きい順に(n/2)番目のモデルデータまでワイヤフレームを描くことで、陰線処理したモデルが構築できる。
【0139】
次には図10(a)では基準面表示のステップS62_2と、マーカ表示のステップS62_3を行う。これらのステップS62_2、S62_3の処理は付加的な処理である。
基準面表示の処理は、ベット面等の基準面を表示することで、スコープ形状の3次元表示を視覚的に分かり易くする補助的な役目を担う。
【0140】
CRTに表示される描像がスコープ形状のイメージのみであると、そのイメージと体内の臓器との位置関係は分からない。すると、視点位置を回転させてしまうと、どの方向からスコープ形状を眺めているのか、頭の方向がどの向きを向いているのか等に関する情報は、テキスト表示される角度の数値情報だけである。これは、感覚的な判断には不向きである。そこで、このような判断を感覚的に行えるような補助手段を設けた。
【0141】
ここでは、図10(c)に示すようにして実現される。
まずステップS62_21のアフィン変換を行う。この処理では世界座標系の基準表示シンボルを視点座標系に変換する。
次にステップS62_22の3D→−2D投影を行う。
視点座標系に移された基準表示シンボルをCRT表示出来るように、2次元に投影する変換処理を行う。
【0142】
次にステップS62_23の基準面となるベッド等のシンボル表示を行う。 スコープイメージの3次元描像を補助するようなシンボルを表示する。シンボルの具体例として例えばベッド面表示等がり、以下で触れる。
【0143】
このようにすることにより、基準面位置や基準面からのスコープ形状の離れ具合、患者の頭方向が視覚的に判断でき、スコープ形状の位置等の判断基準を提供したという点で優れている。
次に、基準表示シンボルの具体例として例えばベッド面表示について説明する。
【0144】
世界座標系のX−Y平面に平行で、Z軸に垂直な基準面を表示する。Z座標はベット面(Z=0)でも、その基準となり得るような位置であれば、どの位置でも良い。この面は、視点座標と共に移動しない。つまり視点位置が、X軸方向Y方向に回転すると、ベット面は線で表示される。頭方向が分かるように、枕のような長方形や、右肩、左肩或いは両方の方向にマーカを付けても良い。
これは、単純な一枚板で表されるため、スコープ描像の邪魔にならず、視点の回転も認識できるという点で優れている。なお、この他に基準マーカ表示とか、ベッド表示にZ方向のフレームを加えた直方体表示などを行うようにしても良い。
【0145】
次に図10(a)のステップS62_3のマーカ表示の処理を行う。
【0146】
このマーカ表示の処理では、スコープに挿入されているソースコイル16iとは別に、単独のソースコイル位置を算出し、表示するまでを担う。スコープ内に挿入された位置がどのような位置にあるのかを確認する手段として、スコープ内のソースコイル16iとは別個に動きうるマーカ1個以上を表示する手段を設けた。
【0147】
実際の装置上では、位置算出手段はスコープに挿入されているソースコイル16iに用いるものと全く同じであり、表示手段もこれまで同様で、図10(d)に示すようにステップS62_31のアフィン変換→ステップS62_32の3D→2D投影→ステップS62_33のマーカ表示という処理になる。
従って、ここでは、マーカ形状出力の具体例としてn角形(円も含む)による表示を説明する。マーカの表示をこのような形で表示すると、色が多数使えず、スコープ形状と同色を使わざるを得ない装置構成の場合、スコープ形状と重なりあっても区別することが出来る。
【0148】
このマーカ表示は、視点の回転に応じて形が変化させることで、どの方向から見ているかを認識できる。また、視点に対して常に正面となるように対応付けしていても良い。このときは、マーカからは視点方向が認識できないが、常に一定の大きさのマーカが出力されるという点で、優れている。
【0149】
これは、また、マーカが球形であるとした場合と同様な表現となる。尚、もしマーカが球形である場合は、グラデーションや、彩度輝度等の情報を与えることによって、視点の方向や奥行きを表示することも可能である。
【0150】
このような手段を用い、体外でマーカを移動させることで、挿入状態のスコープ形状の位置をマーカと関連させて確認する等が可能になり、スコープ挿入位置を実際の患者の位置と関連付けて知る捕助手段を提供できる。
【0151】
以上述べたように第1実施例によれば、互いに90°異なる視点方向から見た場合のスコープ形状をモデル化して立体的に2画面で同時に表示する手段を設けているので、術者等は一方の視点方向からみた場合のスコープ形状の画像における奥行き形状が正確に分かりにくい場合でも、(同時に表示されている)直交する視点方向からのスコープ形状の画像から視覚的に正確に把握できる。
【0152】
従って、例えば患者内に挿入された挿入部の先端側を目的とする部位に導入する操作を行っている場合には、挿入部の立体的な形状を正確に把握できることから、目的とする部位へ導入する作業或いは操作を容易かつ円滑に行うことが可能となり、内視鏡を用いた内視鏡検査に対する操作性を向上できる。
【0153】
また、マーカ等の表示手段も設けてあるので、スコープ形状の画像上におけるマーカの表示位置からスコープ形状の方向性を含めた立体形状の把握がより容易になる。
【0154】
また、この第1実施例の第1の変形例のように検査範囲基準枠の表示ON/OFFを行う機能を設けても良い。この第1の変形例の構成は第1実施例と殆ど同じで、つまり図2或いは図3の構成において、システム制御部34は操作部35からの指示(選択)に応じて検査範囲基準枠の表示をON或いはOFFにする処理を担う。
特に2画面表示においては、2方向からの情報が表示されるので、初期状態ではどちらの方向から内視鏡を描画しているかは明白である。
【0155】
そのため、どちらの方向から見ているかを識別し易くする検査範囲表示枠の表示そのものが煩雑に感じられる場合も想定される。そこで、この検査範囲表示枠を表示しなくするようにも設定できるようにしている。この処理のフローを図14に示す。
【0156】
ステップS53までは図8と同じである。このステップS53で終了が選択されない場合には次にステップS71で、検査範囲基準枠表示フラグON/OFFの判断を行う。この判断は検査範囲基準枠表示の切換のホットキーに設定された例えばHOME_CLRキーが押されたか否かにより検査範囲基準枠表示の切換を行う。
【0157】
このHOME_CLRキーが押されていない場合には検査範囲基準枠表示フラグはOFFであり、さらに次のステップS72でHOME_CLRキーが押されたか否か(図14ではHOME_CLRON?と略記)を判断する。この判断のステップS72はフラグをOFFからONに切り換えられるようにするためののもである。この判断でフラグがOFFの場合には、図8に示すステップS42と同様のステップS42′(このステップS42′はより正確には図8のステップS42全体におけるステップS54〜S67に相当する)でスコープモデル描画の処理を行う。この場合には検査範囲基準枠を表示しないモードで図15(a)のようにスコープイメージの表示を行う。図15(a)は1画面モードの場合で示している。
【0158】
上記ステップS71で検査範囲基準枠表示フラグがONされた場合にはさらにステップS73でHOME_CLRキーが押されたか否かの判断を行う。このHOME_CLRキーが押されない場合にはステップS74で、検査範囲内キューブ描画の処理を行った後、ステップS42′のスコープモデル描画の処理を行う。この場合には図15(b)に示すように検査範囲基準枠となるキューブと共に、スコープイメージの表示を行う。図15(b)も1画面モードの場合で示している。
【0159】
ステップS73の判断でHOME_CLRキーが押された場合にはステップS75でフラグをOFFにセットし、ステップS42′のスコープモデル描画の処理を行う。
【0160】
また、ステップS72でHOME_CLRキーが押された場合にもステップS76で検査範囲基準枠表示フラグをONしてステップS74の検査範囲内キューブ描画の処理を経てステップS42′のスコープモデル描画の処理に移ることになる。
【0161】
この第1実施例の第1の変形例によれば、ユーザの選択に応じて検査範囲基準枠を表示してスコープ形状を表示したり、検査範囲基準枠を表示しないでスコープ形状を表示することが自由にでき、ユーザの選択範囲を広げることができ、ユーザに対する使い勝手を向上できる。その他は第1実施例と同様の効果を有する。
【0162】
次に第1実施例の第2の変形例を説明する。この変形例は内視鏡形状ユーザ設定ビュー状態記憶と、ユーザ設定ビュー状態にセットする処理の機能を備えたものであり、具体的には内視鏡形状ユーザ設定ビュー状態記憶のON/OFFを行うホットキーとしてのTAB_keyの入力により、内視鏡形状ユーザ設定ビュー状態記憶を行い、また記憶したビュー状態に内視鏡形状を変換するホットキーとしての/_keyの入力により、そのビュー状態に内視鏡形状を変換する処理を行う。この第2の変形例のハードウウェアの構成は第1実施例と同様であり、その処理内容が一部異なる。
【0163】
この第2の変形例の処理内容のフローを図16に示す。ステップS53までは図14と同じである。このステップS53の次に、ステップS15でさらにkey入力ありか否かの判断を行う。つまり、ステップS53の後でキーボード入力を行うことができるので、そのキー入力ありか否かの判断を行う。
【0164】
キー入力がない場合にはステップS16の内視鏡形状表示ルーチンに戻り、次にステップS17のスコープモデル表示の処理によりCRTにスコープモデルを表示する処理を行い、ステップS53に戻る。なお、ステップS16の内視鏡形状表示ルーチン及びステップS17のスコープモデル表示の処理は図14のステップS42′、S45,S46と同じ処理を簡略的に示している。
【0165】
一方、ステップS15でキー入力あり、と判断した場合には、ステップS18a,S18bでそれぞれTAB_key或いは/_keyであるかの判断を行う。
【0166】
ステップS18a,S18bのTAB_key或いは/_keyでないと判断した場合にはステップS16の処理に移る。
【0167】
また、TAB_keyであると判断した場合には次のステップS19aで現ユーザ設定ビュー記憶の処理により、TAB_keyが押された時のそのユーザが設定して使用している現内視鏡形状表示のビューパラメータの状態をファイル等に書き込み、記憶(或いは記録)し、その後ステップS16の処理に移る。
【0168】
一方、/_keyであると判断した場合には次のステップS19bで記憶ユーザ設定ビューパラメータセットの処理により、TAB_keyの操作で記憶された内視鏡形状表示の際の視点設定のビューパラメータをファイル等から読み出し、内視鏡形状表示の際の各パラメータにセットし、その後ステップS16の内視鏡形状表示ルーチンの処理に移る。この場合、ファイルから読み出した各パラメータにより、内視鏡形状の表示を行う。
【0169】
この第2の変形例によれば、ユーザは内視鏡形状を表示する際に自分の好み等に適したビュー状態がある場合には、そのビュー状態を記憶するホットキーとしてのTAB_keyを押せば、そのビューパラメータを記憶することができ、表示を望む場合にそのビューパラメータに設定するホットキーとしての/_keyを押せば、そのビューパラメータに設定でき、その後の内視鏡形状表示ルーチンの処理によりそのパラメータで内視鏡形状を表示できる。
【0170】
従って、この第2の変形例によれば、内視鏡形状を表示させる毎にその表示の各パラメータの設定を行う煩わしい作業を行うことなく、使用するユーザの好み等に適したビューパラメータで内視鏡形状を表示でき、内視鏡形状表示に対する使い勝手の良い環境を提供できる。
【0171】
次に第1実施例の第3の変形例を説明する。この変形例はホットキーの入力により、内視鏡形状を水平方向に±90゜回転して表示できるようにしたものであり、具体的にはROLLUPのキー入力を行った場合には内視鏡形状を水平方向に+90゜回転して表示し、ROLLDOWNのキー入力を行った場合には内視鏡形状を水平方向にー90゜回転して表示する。
【0172】
この第3の変形例のハードウウェアの構成は第1実施例と同様であり、その処理内容が一部異なる。この第3の変形例の処理内容のフローを図17に示す。ステップS15,S16,S17は図16と同様である。ステップS15でキー入力ありと判断した場合にはROLLUPのキー入力かROLLDOWNのキー入力かを判断し、ROLLUPのキー入力の場合にはステップS20aで内視鏡形状表示の水平方向の回転パラメータとしてのヘッド角を+90゜にセット(つまりY軸の回りで正の方向に90゜回転した値にセット)し、ROLLDOWNのキー入力の場合にはステップS20bでヘッド角をー90゜にセット(つまり負の方向に90゜回転した値にセット)した後、ステップS16の内視鏡形状表示ルーチンに移る。
【0173】
形状表示用の他のパラメータはそのまま(変えないで)使用する。この第3の変形例によれば、1画面モードの場合でも、ROLLUP或いはROLLDOWNのキー入力を行うことにより、このキー入力を行う前の形状表示における視点方向に垂直な方向からの内視鏡形状の表示が可能となり、形状把握をより容易にする等のメリットがある。
【0174】
つまり、2画面モードでは設定された視点方向からの画像と、これに直交する視点方向からの画像も同時に表示しているが、1画面モードにおいても上記ホットキーを押すことにより、その視点方向に直交する視点方向からの画像に切り替えて表示できる。2画面モードでは通常、画面右側のユーザインタフェース領域をグラフィックス出力領域として使用し、互いに直交する2画面を左右に並べて表示するので、画像の設定状態を数値的に把握できなくなるが、1画面モードでホットキーの入力操作により直交する視点方向からの表示に切り替える場合には、設定状態が数値で右側に常時表示される状態であるので数値的な把握も行うことができる。
また、画像を写真撮影とか静止画で記録する等行う場合、その設定状態の情報が同時に記録できるので、どうような状態で記録された画像であるかが容易に把握できて便利である。
【0175】
この第3の変形例ではホットキーによりヘッド角を+90゜或いはー90゜回転した状態の画像を表示できるようにしているが、X軸の回転角であるピッチ角、或いはZ軸の回転角であるバンク角に対しても同様に+90゜或いはー90゜回転した状態の画像を表示できるようにしても良い。例えばピッチ角を変更して表示するホットキーを使用できるようにした場合には、2画面モードで表示される2つの直交する視点方向にさらに直交する視点方向からの画像を表示できるので、より形状把握がし易くなる。なお、2画面モードにおける一方或いは2つの画像に対してもピッチ角を変えて表示することができるようにしても良い。
【0176】
次に本発明の第2実施例を説明する。
この第2実施例はマーカの使用形態を選択設定できるようにした手段或いは機能を有するものであり、この手段或いは機能を以下に説明する。
【0177】
この実施例の構成は第1実施例と殆ど同じである。つまり、図2或いは図3と同様な構成であり、この実施例ではさらにシステム制御部34は操作部35(より具体的にはキーボード35a)からの指示(選択)により接続されたマーカの使用形態を選択設定し、かつその選択に応じてマーカをモニタ23に表示させる処理を行う。この場合の処理の内容を図18のフローに示す。
【0178】
ステップS53までは図8と同じである。ステップS53で終了が選択されない場合には、ステップS80のマーカモードの変更等を行うことのできるプリセット画面のキー入力に対応するファンクションキーとしてのf・9_keyが押されたか否かの判断を行う。
【0179】
このf・9_keyが押された場合には、ステップS81のマーカモードの設定を行う。プリセット画面では日付け、時間の変更とマーカモードの変更が可能であり、変更の項目を矢印キーで選択し、マーカモードの変更の位置にカーソル等を設定し、リターンキーを押してマーカモードの設定にする。
マーカモードの設定にすると、ステップS82のマーカモードの判断(選択)処理に移る。
【0180】
このマーカモードの選択処理においては、例えばマーカモード番号により、識別に用いるマーカの種類及び表示形態(ベースモデル)を選択する。例えば、
マーカモード番号が0か否かで判断し0ならば、マーカを表示しないモードとする。0以外の場合には、ステップS83の表示モード設定処理でマーカモード番号に応じた表示モードに設定する。つまり、
ステップS83aに示すようにマーカモード番号が1ならば、ハンドマーカ1個表示モードとし、マーカを円形で表示するモードとする。
【0181】
ステップS83bに示すようにマーカモード番号が2ならば、ボディマーカ1個表示モードとし、マーカを四角で表示するモードとする。
【0182】
ステップS83cに示すようにマーカモード番号が3ならば、ハンドマーカ2個表示モードとし、マーカを四角と円形で表示するモードとする。
【0183】
ステップS83dに示すようにマーカモード番号が4ならば、ボディマーカ1個+ハンドマーカ1個表示モードとし、ボディマーカを四角で表示するモードとし、ハンドマーカを円形で表示するモードとする。
【0184】
ここで、ボディマーカとはマーカを描画の基準位置とする事を示す。例えば、肛門の位置にマーカコイルが設置されたとしてこの位置から体内側の内視鏡形状を描画する。この場合にはマーカコイルが設置されたY座標の値より大きなY座標の内視鏡形状を描画する(図13に示したように頭部側をY座標の正の方向に設定している)。
【0185】
或いはプローブ側のソースコイルの内、マーカコイルより検出領域の内側にあるソースコイルを、マーカコイルの位置を描画範囲の境界位置として、このマーカコイルの描画と共に描画する。この場合、このマーカコイルよりも検出領域の外側の範囲となるプローブ内のソースコイルは描画しない。
【0186】
また、検出領域を設定した場合には、検出領域よりも外側にマーカコイルが設定された場合には、検出領域内のプローブ内のソースコイルのみで描画する。 一方、ハンドマーカモードとは単に検出したマーカコイルの位置を表示する描画モードである。
【0187】
次のステップS84でボディマーカ表示モードか否かの判断をする。このモードでないと判断した場合には、ハンドマーカ表示モードとなるので、次のステップS85でハンドマーカ描画の処理を行う。この処理は以下のa〜eを行う(ステップS90のマーカ描画の処理にも適用できるような記載で示す)。
【0188】
a.検出されたマーカデータを設定されている視点に合わせて変換する。
b.2画面モードならば、さらに90°回転させる変換処理を追加する。
c.検出マーカデータとベースモデルデータにより空間上のマーカデータを構築する。
d.マーカデータを透視投影変換により2次元座標に変換する。
e.変換されたデータを元にマーカデータを実際のモニタの表示座標に変換し、各マーカデータを表示する。
【0189】
このステップS85でハンドマーカ描画の処理を行ったら、次のステップS86でスコープモデル描画の処理を行い、CRTにハンドマーカの位置を表示すると共に、スコープのモデル化した画像を表示する。なお、上記ステップS82の判断でマーカモードの番号が0の場合にはステップS86に移り、マーカ描画を行うことなく、スコープをモデル化した画像で表示する。
【0190】
一方、ステップS84でボディマーカ表示モードと判断した場合には次のステップS87で、Y座標での比較、つまりボディマーカ座標値<スコープ座標値の比較を行う。この比較によりボディマーカより検出領域内側となる条件を満たすソースコイルを抽出する。そして、この条件を満たすスコープデータ数≧3か否か(つまりこの条件を満たすソースコイル数≧3か否か)の判断を次のステップS88で判断する。
【0191】
この判断が満たされる場合には次のステップS89でスコープモデル描画を行い、さらに次のステップS90でマーカ描画を行う。このマーカ描画の処理も上記a〜eを行う。
【0192】
一方、ステップS89の判断でスコープデータ数≧3の条件を満たさない場合にはスコープモデル描画を行うことなく、ステップS90でマーカ描画のみ行う。こればスコープデータ数が少ないと、精度の高い形状推定などが行えないため、スコープモデル描画を行わないようにしている。
【0193】
なおステップS86及びS89のスコープモデル描画の処理は図14におけるステップS42′でマーカ描画の処理を除いたもの(この第2実施例ではマーカ描画の処理をスコープモデル描画の処理とは別で記載しているため)と同様の処理を行う。
【0194】
第1実施例で例えば図11に示すように2つのハンドマーカを表示しているのに対し、この第2実施例により一方をボディマーカに設定してこのボディマーカを四角で表示するものとした場合のスコープ形状の画像100は例えば図41のようになり、四角で示すボディマーカmのY座標位置より大きいY座標位置(図41で上の方)のスコープ形状部分が表示されることになる。なお、画像100におけるスコープ先端部の表示については後述。
【0195】
この第2実施例によれば、所望のマーカモードでマーカを表示する表示手段も設けてあるので、スコープ形状の画像上におけるマーカの基準表示位置からスコープ形状の方向性を含めた立体形状の把握がより容易になる。その他は第1実施例と同様の効果を有する。
【0196】
次に第2実施例の変形例を説明する。この変形例は第2実施例の機能の他にさらに肛門等の基準マーカポジションを記憶するマーカポジション記憶モードを設けたものであり、その記憶モードにおいて、ホットキーの入力操作によりその時のマーカポジションを記憶し、内視鏡形状表示の際にその記憶したマーカポジションに(例えばハンドマーカなどとは異なり、識別し易いマークで)マーカ表示を行うようにしたものである。
【0197】
具体的にはマーカモード番号が5及び6の場合にその機能を付加している。マーカモード番号が5は、マーカコイルが1個接続されている場合に選択可能であり、マーカモード番号が6は、マーカコイルを2個使用している場合に選択可能である。この変形例の構成は第2実施例と同じであり、さらに機能を付加した処理を行うようにしたものである。この変形例における処理内容のフローを図19に示す。
【0198】
図19に示す処理は図18におけるステップS83の表示モード設定処理が、図20に示すステップS83′のような内容に変えられ、且つ図18におけるステップS88とS90との間にポジション記憶モードか否かの判断処理のステップS111と、この判断結果がONの場合に行われる記憶されたマーカポジションに(ボディマーカ的な基準マーカとして使用されるような)肛門マーカ表示を行うステップS112とを介装した処理を行うようにしている。
【0199】
つまり、ステップS82までは図18と同じであり、このステップS82のマーカモードの選択処理においてマーカモード番号が0以外の場合には、図20に示すステップS83′の表示モード設定処理を行う。この処理ではマーカモード番号が1〜4の場合には図18と同様にそれぞれステップS83a〜S83dの表示モードに設定する。
さらにマーカモード番号が5或いは6の場合にはマーカが1個或いは2個のポジション記憶モードとなり、それぞれステップS83eに示すポジション記憶モード(マーカ1個)或いはS83fに示すポジション記憶モード(マーカ2個)の表示モードにセットする。
【0200】
このようにしてマーカモード番号1〜6により対応する表示モードの設定の処理を行った後、ステップS83gに示すポジション記憶モードのON及び更新を行うホットキーとしてのINS_keyがONされたか否かの判断を行う処理が行われる。
【0201】
マーカモード番号が5又は6が選択されている場合で、且つINS_keyが押された場合には、ステップS83hに示すように、現マーカポジション記憶の処理を行い、INS_keyが押された時のマーカコイル位置(座標値)をメモリの別のエリア等に記憶する。その後、ステップS83iに示すように、マーカモードセットの処理によりマーカモードとして番号1にセットする処理(2つのマーカの場合には3にセットする処理)を行い、ハンドマーカとして使用できる状態にした後、次のステップS84に移る。
【0202】
つまり、マーカモード番号が5又は6が選択された場合には、ポジション記憶モードのONを行うホットキーが押された時、その時のマーカポジションの記憶を行い、この記憶動作以降は1つ或いは2つのハンドマーカとして使用できるようにしている(マーカモード番号が5又は6が選択された場合に、ホットキーが押される時以外はハンドマーカとして使用できるようにしても良い、つまりホットキーが押される時以前、及び以後はハンドマーカとして使用できるようにしても良い)。
【0203】
ステップS84ではボディマーカ表示モードか否かの判断が行われ、選択された番号が1〜4の場合には図18と同様であるが、番号が5或いは6の場合には記憶されたマーカポジションに対してボディマーカと同様な処理が行われる(なお、番号が5或いは6の選択に使用されたマーカは、上述のステップS83iのマーカモードセットで説明したように、ハンドマーカとして処理される)。
【0204】
つまり、選択された番号が1、3の場合(この場合は番号5、6の選択に使用され、マーカモードセットでハンドマーカにされたものも含む)にはステップS85の処理に移り、選択された番号が2、4、5、6の場合にはステップS87の処理に移る。
【0205】
ステップS87では、番号が2、4の場合には図18と同様であり、番号が5、6の場合にも記憶されたマーカポジションに対して番号が2、4のボディマーカと見なした場合と同様にY座標比較の処理が行われる。そして、次のステップS88でスコープデータ数が3以上か否かの判断を行い、3以上の場合にはステップS89でスコープ描画の処理を行い、3未満の場合にはスコープ描画の処理を行わないで、次のステップS111に移る。
【0206】
このステップS111のポジション記憶モードか否かの判断により、ポジション記憶モードであると判断した場合には、ホットキーの入力操作により(基準座標位置として)記憶したマーカポジションの位置にステップS112に示す基準マーカとしての肛門マーカを表示し(番号が6の場合には肛門マーカの他にもう1つの記憶したマーカポジションの位置にその基準座標位置を表す(識別し易い)マークでマーカ表示を行う)、次のステップS90に移る。
【0207】
このステップS90のマーカ描画の処理ではボディマーカを描画し、番号が5、6が選択されている場合にはスルーして次のステップS45に移る。
【0208】
なお、システム起動後に番号が5、6の記憶モードで動作している間は、別の画面に切り替えら、メイン表示に再び戻ってもホットキーにより記憶された基準座標位置は保持される。つまり、その記憶された基準座標位置は有効である。
【0209】
そして、次にホットキーが押されると、それまで記憶されていたマーカポジションの記憶内容が更新され、新しいマーカポジションが記憶される。つまり次にホットキーで再設定されるまで、変化しない。
【0210】
この変形例によれば、ポジション記憶モードを選択して、肛門等の基準位置として望む位置でホットキーを押せば、その基準位置が記憶され、その基準位置に常時マーカを表示でき、その後はその基準位置の記憶設定に使用したマーカをハンドマーカとして他の位置の表示等に使用できる。
【0211】
このため、1つのマーカでボディマーカとしての機能とハンドマーカの機能を兼用したような機能を持たせることが可能になり、基準位置等の表示に有効に利用できる。また、ボディマーカとして使用する場合のように基準位置にマーカを固定することを行わないでも、単に基準位置にマーカを設定した状態でホットキーを押せば、その基準位置が移動することなく表示できるメリットもある。
【0212】
なお、マーカポジション記憶モードとして1つのマーカで複数の基準位置を記憶できるようにしても良い。この場合、記憶する基準位置の数を選択設定できるようにしても良い。また、記憶されて表示される基準位置に対して、その表示解除を任意に行えるようにしても良い。この場合、表示されている基準位置にマーカを設定してホットキーの入力操作により、記憶された基準位置と新しい基準位置との比較により一致していると判断した場合には、その内容を消去して表示されないようにしても良い。
【0213】
なお、上記説明ではマーカの数が2までの場合で説明したが、勿論これに限定されるものでなく、マーカの数が3以上でも基本的な処理は同じで、殆ど同じような処理数が増えるのみで同様に対応できる。つまり、マーカを使用する使用個数を設定できるし、その内訳(ハンドマーカとして使用する個数、ボディマーカとして使用する個数)も設定できる。
【0214】
また、設定使用できるマーカの数は、実際に接続されているマーカコイルの数に関係なくできるようにしても良いが、コイルを順次走査して電圧を印加し、実際に電流が流れるか否かにより、接続されているマーカコイルを自動的に検知し、それに応じて設定できるマーカのモードを限定するようにもできる。
【0215】
次に本発明の第3実施例を説明する。この実施例はフリーズして形状表示する機能を有するものである。患者は常に微妙に動いている場合が殆どであり、この場合には検出される内視鏡画像も微妙に動くことになり、形状把握しにくくなる場合がある。そこで、この実施例では連続的に表示された形状画像をフリーズすることで、内視鏡形状を理解し易くするようにしている。
【0216】
図21はこの実施例におけるフリーズして形状表示する動作の処理のフローを示す。ステップS53までは図8と同じである。f・10_keyが押されていないと、次のステップS91でフリーズモードON/OFFの判断を行う。また、図14のステップS71或いは図18のステップS80の処理に移ることもできる。
【0217】
上記フリーズモードON/OFFの判断はフリーズフラグにより判断する。このフリーズフラグはOFFの状態で、例えばファンクションキーの1つとなるvf・2_keyが押されると、フリーズモードONとなり、フリーズフラグがONにされる。さらにvf・2_keyが押されると、フリーズモードは解除され、フリーズフラグがOFFにされる。
【0218】
上記ステップS91でフリーズモードOFFと判断した場合、つまり動画モードの場合にはステップS92でスコープ内に取り付けたソースコイル12点データ取得の処理を行う。スコープ内に取り付けた全てのソースコイルに対するデータ取得の処理を行った後、次のステップS93でvf・2_keyが押されたか否かの判断を行う。
【0219】
このvf・2_keyが押されていないと、さらに次のステップS94でスコープイメージの回転・ズームの指示キーとしてのCTRL+矢印key、又はCTRL++(又はー)keyが押されたか否かの判断を行う。これらのキーが押されていると、その押されたキーに対応して、入力パラメータが変化され(ステップS95)、回転或いはズームされる。そして、ステップS101のスコープモデル表示の処理に移り、CRTにはスコープ形状が表示される。このスコープモデル表示の処理は例えば図14のステップS42′以降の処理を簡略的に表す。
【0220】
上記ステップS93において、vf・2_keyが押された場合にはフリーズモードONにセットする処理を行う(ステップS96)。フリーズフラグをONしフリーズモードにする。このフリーズモードにセットされた場合には、スコープ形状表示のために新たに12点のデータの取り込みを行わないで、フリーズ時以前に取得した形状表示のためのデータを用いてCRTにスコープ形状表示を行う。
【0221】
一方、ステップS91でフリーズモードONと判断した場合には、さらに次のステップS97でvf・2_keyが押されたか否かの判断を行う。このvf・2_keyが押されていない場合には、次のステップS98でスコープイメージの回転・ズームの指示キーとしてのCTRL+矢印key、又はCTRL+プラス(又はマイナス)keyが押されたか否かの判断を行う。
【0222】
押された場合にはその押されたキーに対応して、入力パラメータが変化され(ステップS99)、回転或いはズームされる。そして、CRTにはスコープのモデルが表示される。ステップS98でキーが押されていない場合には回転或いはズームされることなく、CRTでスコープモデルが表示される。
【0223】
また、ステップS97の判断において、vf・2_keyが押された場合には、次のステップS100でフリーズモードOFFにし、動画モードでCRTにスコープモデルが表示される。
【0224】
この第3実施例によればフリーズしたモードでのスコープ形状の表示と動画モードでのスコープ形状の表示とを自由に選択できる。従って、動画モードでの表示を選択すれば、リアルタイムに近い状態でスコープ形状の表示を行うことができる。
【0225】
一方、フリーズモードでの表示を選択した場合には、静止画の状態でスコープ形状を表示できる。例えば、心臓に近い部位等で形状表示を行うように、患者の動きが気になる場合等においては、フリーズモードを選択することにより、静止画の状態でスコープ形状を表示できるので、患者の動きに影響されることなく、スコープ形状の把握が容易にできる。また、フリーズモードの場合にはフリーズモードを選択した場合に直前の形状データを使用し、選択後に刻々変化する形状データの取得とか形状算出の処理を行わないで済むので、動画モードの場合に比べてスコープ形状の表示を短時間に行うことができる。その他は第1実施例の第1の変形例及び第2実施例と同様の効果を有する。
【0226】
なお、フリーズモードを選択した場合においても、ユーザ側でフリーズモードでスコープ形状を表示する場合のスコープ形状のデータの更新の時間間隔を設定できるようにしても良い。つまり、フリーズモードに設定した場合、フリーズモードを解除するまで、1つの形状データで静止画でスコープ形状を表示し続けるモードの他に設定された時間毎に新しい形状データで静止画でスコープ形状を順次表示し続けることができるようにしても良い。
【0227】
この第3実施例は図14及び図19のフローの機能をも備えており、フローで示したもの及び示していないものを含めてその特徴及び代表的な機能を以下に説明する。まず、以下のような特徴を有する。
(1)患者体内に挿入された内視鏡6の処置具用チャンネル13に、専用の(ソース)プローブ15を挿入するか、専用内視鏡(チャンネル13に設置可能なプローブ15を用いることなく、ソースコイルを内視鏡の挿入部内に設けたもの)を使用することにより、内視鏡の挿入形状を3次元的に検出して、連続画像で表示することができる。
【0228】
(2)専用のマーカ(図6に示したもの或いは図6とは異なる構造のマーカでも良い)を取り付けることにより、画面上で、内視鏡形状との配置関係を知ることができる。
(3)指定された範囲内で、表示された内視鏡の形状画像を回転及びズームができる。
【0229】
(4)回転及びズームで移動した形状画像を、初期状態に戻すことができる。 (5)連続的に表示された形状画像をフリーズすることができる。
(6)表示された形状画像に、コメントを上書きすることができる。
(7)画面上に、次の項目が表示できる。
【0230】
・日付および時刻
・患者データ(患者ID,名前,性別,年齢および生年月日)
・コメント
(8)画面上で、次の項目が入力・変更できる。
【0231】
・患者データ(患者ID,名前,性別,年齢および生年月日)
・コメント
(9)患者データを予め入力でき、内容を一覧できる。
【0232】
(10)日付・時刻の設定ができる。
(11)マーカを使用するモードが設定できる。
(12)全画面に文字を入力・表示できる。
(13)画面上に表示された文字を、全て消去できる。
(14)画面上で、ストップウォッチが使える。
【0233】
(15)マルチビデオプロセッサとの組み合わせにより、次の機能が使用できる。
・カラーモニタ上で、内視鏡の形状画像の表示・非表示が選択できる。
・カラーモニタ上で、表示される形状画像をフリーズすることができる。
次に代表的な機能の使用例とその場合の具体的な表示画面を示す。
【0234】
図22は図11のより具体的な表示例を示す。つまり、図22はカラーモニタ23の表示面に形状画像が表示される通常表示画面を示し、グラフィックス出力領域(スコープイメージ表示枠ともいう)Gには形状画像が表示され、このグラフィックス出力領域Gの上の日時&患者データ出力領域D&Pには日付および時刻及び、患者データ(患者ID,名前,性別,年齢および生年月日)が表示され、このグラフィックス出力領域Gの右側のユーザインタフェース領域(コメント表示枠ともいう)Kには主なホットキー及び対応する設定された情報とコメントが表示される。また、図22では例えば基準位置を示す2つのハンドマーカが表示されている。図23以降の図面上では簡単化のため、上記出力領域G,D&P,Kの表記を省略する。
【0235】
図22において、例えばマウス或いはキーボードの操作により日時&患者データ出力領域D&Pのデータ入力を選択することにより、図23に示すように例えば患者データの氏名を入力することができる。勿論、他のデータの入力、データ変更もできる。
次にファンクションキーにより設定された機能を説明する。
【0236】
[f・1]…ストップウォッチ
1.ファンクションキー[f・1]を1回押すと、ストップウォッチが始動する。このとき、時間は、画面右のコメント表示枠Kの上部に表示される。図24はストップウォッチが始動中の表示画面を示す。
【0237】
2.もう1回ファンクションキー[f・1]を押すと、ストップウォッチが停止する。図25はストップウォッチが停止した時の表示画面を示す。
3.さらに、もう1回ファンクションキー[f・1]を押すと、ストップウォッチの表示が消去される。
【0238】
[f・2]…全文字消去
1.ファンクションキー[f・2]を1回押すと、画面上の全ての文字が消去される。図26は画面上の全ての文字が消去された状態での表示画面を示す。
2.もう1回ファンクションキー[f・2]を押すと、初期状態の表示に戻る。
なお、この機能を使用する前に画面上で入力した患者データやコメントなどは、この機能の使用により、無効になり初期状態の表示に戻しても表示されなくなる。
【0239】
[f・3]…拡張コメント入力
1.ファンクションキー[f・3]を1回押すと、スコープイメージ表示枠内に、コメントが入力できるようになる。
【0240】
この状態で、[SHIFT]+矢印キー([→],[←],[↑],[↓])を押すことにより、スコープイメージ表示枠内に、それぞれ[→],[←],[↑],[↓]を入力することができる。
2.もう1回ファンクションキー[f・3]を押すと、入力した文字は残したまま、通常の表示状態に戻る。図27は挿入部の先端を示すためにtipのコメントと[→]を入力した状態での表示画面を示す。
【0241】
なお、[SHIFT]キーを押さずに、矢印キー([→],[←],[↑],[↓])を押した場合は、カーソルが押されたキーの向きに移動する。この機能を使用して、スコープイメージ表示枠G内に、コメント入力しているときには、『[SHIFT]+矢印キー([→],[←],[↑],[↓],[+],[−])…スコープイメージの回転・ズーム』はできないので、予め設定してから、拡張コメント入力を行うようにする。
【0242】
[f・4]…タイトルスクリーン表示
1.ファンクションキー[f・4]を1回押すと、タイトルスクリーンの入力画面に切り換わり、テキストが入力できるようになる。図28はこのタイトルスクリーン画面を示す。
2.もう1回ファンクションキー[f・4]を押すと、タイトルスクリーン入力画面は消え、通常の表示状態に戻る。このとき入力したテキストはバックアップされるので、次回呼び出しのときも同じテキストが表示される。
なお、矢印キー([→],[←],[↑],[↓])は、カーソルの移動に使用する。
【0243】
[f・5]…患者データの事前入力
1.ファンクションキー[f・5]を1回押すと、患者データ一覧画面に切り換わる。図29はこの患者データ一覧画面を示す。
2.もう1回ファンクションキー[f・5]を押すと、患者データ一覧画面は消え、通常の表示状態に戻る。
【0244】
3.患者データ一覧の画面上で、“Seq.No.”に登録したい番号を1〜20までの数字で入力し、リターンキーを押すと、各患者毎のデータ入力を事前に行う患者データ事前入力画面が呼び出され、データの登録ができるようになる。図30はこの患者データ事前入力画面を示す。
【0245】
また、“Seq.No.”の入力待ちのときに、全データ消去用キーとしての[HOME CLR]キーを押すと、1〜20までの患者データ全てを消去できる。
4.各患者毎のデータ入力画面上では、
〈項目〉     〈形式〉
患者ID → 英数字15文字まで
氏 名  → 英数字20文字まで
性 別  → 英数字3文字まで
年 齢  → 英数字3文字まで
生年月日 → DD/MM/YY(D:日,M:月,Y:年)
が入力できる。
項目の選択は、上下の矢印キー([↑],[↓])またはリターンキーを押して行う。
【0246】
なお、左右の矢印キー([→],[←])は、カーソルの移動に使用する。
5.入力が終わったらファンクションキー[f・6]を押し、患者データに登録する。登録されると画面は、次の“Seq.No.”の患者データ入力画面になるので、“Seq.No.”が20になるまでファンクションキー[f・6]を繰り返し押すか、またはファンクションキー[f・9]を押すかして、事前入力機能を終了する。なお、登録されている患者データはバックアップされるので、次回一覧のときも同じ患者データが表示される。
【0247】
[f・7]…患者データの選択
1.ファンクションキー[f・7]を1回押すと、患者データ一覧画面に切り換わる。
2.もう1回ファンクションキー[f・7]を押すと、患者データ一覧画面は消え、通常の表示状態に戻る。
【0248】
3.患者データ一覧の画面上で“Seq.No.”に選択したい番号を、1〜20までの数字で入力し、リターンキーを押すと、各患者毎のデータが通常画面の上部に呼び出され、患者データの表示ができる。つまり、患者データの選択を行うことができる。図31は図30の患者データ事前入力画面で入力した患者データを選択して表示した患者データ一覧画面を示す。
“Seq.No.”の選択時に[HOME CLR]キーを押すと、1〜20までの患者データ全てを消去できる。
【0249】
[f・8]…カーソルの表示切り換え
1.通常表示画面、またはコメント拡張表示画面で、ファンクションキー[f・8]を1回押すと、カーソルが表示される。このカーソルがブリンクしている部分が入力可能な位置となる。図32はこのカーソルの表示画面を示す。
2.もう1回ファンクションキー[f・8]を押すと、カーソルは消える。
【0250】
[f・9]…初期設定の変更
1.ファンクションキー[f・9]を1回押すと、初期設定の変更を行うためのプリセット画面に切り換わる。プリセット画面上では、使用される場所(国)とか、サマータイムなどにも対応できるように日付と時間の変更、およびマーカーモードの変更が行える。
図19、図20で説明したようにマーカモードとしては、マーカを使用しないモードの他に、1個のハンドマーカ、1個のボディマーカ、2個のハンドマーカ、ハンドマーカ+ボディマーカ、さらにマーカポジションを記憶するメモリマーカポジション(1マーカモード)及び、メモリマーカポジション(2マーカモード)から選択できる。
【0251】
項目の選択は、上下の矢印キー([↑],[↓])またはリターンキーを押して行う。図33はこのプリセット画面を示す。 なお、左右の矢印キー([→],[←])はカーソルの移動に使用する。
2.もう1回ファンクションキー[f・9]を押すと、プリセット画面は消え、通常の表示状態に戻り、変更した設定になる。また、どの項目も変更しなかった場合、以前の設定のままで、通常の表示状態に戻る。
【0252】
[CTRL]+[→]
[CTRL]+[←]
[CTRL]+[↑]
[CTRL]+[↓]…スコープイメージの回転・ズーム
[CTRL]+[+]
[CTRL]+[−]
[vf・1]
1.[CTRL]+左右の矢印キー([→],[←])を押すと、スコープイメージがY軸を中心に回転する。図34は例えば図31をY軸の回りに50゜回転した場合の形状画像を示す。コメント枠には回転量が表示される。
【0253】
2.[CTRL]+上下の矢印キー([↑],[↓])を押すと、スコープイメージがX軸を中心に回転する。図35は例えば図31をX軸の回りにー75゜回転した場合の形状画像を示す。コメント枠には回転量が表示される。
3.[CTRL]+[+]を押すと、スコープイメージが遠ざかり、また[CTRL]+[−]を押すと、スコープイメージが近づきる。図36は[CTRL]+[+]を押してズームアウト(縮小)した場合の形状画像を示し、図37は[CTRL]+[−]を押してズームイン(拡大)した場合の形状画像を示す。
【0254】
図36では距離を示すviewpointが増加し、図37ではviewpointが減少している。
4.ファンクションキー[vf・1]を押すと、上記1〜3の操作で変更された視点が初期設定に戻る。
【0255】
[vf・2]…スコープイメージのフリーズ
1.ファンクションキー[vf・2]を1回押すと、スコープイメージがフリーズされる。
2.もう1回ファンクションキー[vf・2]を押すと、フリーズが解除される。
【0256】
[vf・3]…スコープイメージの表示切り換え
1.ファンクションキー[vf・3]を1回押すと、ワイヤーフレームで表示されていたスコープイメージが塗りつぶされて表示される。図22以降(図37まで)に示した形状画像はワイヤーフレーム(図37の一部を拡大した円内にワイヤーフレーム表示の1例を示す)で表示されていたものが、[vf・3]が押されることにより図38に示すようにスコープイメージが塗りつぶされて表示される。
2.もう1回ファンクションキー[vf・3]を押すと、塗りつぶしが解除され、ワイヤーフレームで表示される。
【0257】
(5)その他の機能
・マルチビデオプロセッサでの映像出力操作
[vf・4]…ビデオ映像のフリーズ
・ファンクションキー[vf・4]を1回押すと、ビデオモニタ上に表示されたスコープイメージがフリーズされる。もう1回押すと、フリーズが解除される。
[vf・5]…ビデオ映像のスーパーインポーズ
・ファンクションキー[vf・5]を1回押すと、ビデオモニタ上に表示されたスコープイメージにビデオ映像(内視鏡映像)がスーパーインポーズされる。もう1回押すと、スーパーインポーズが解除される。
なお、これらの機能は、マルチビデオプロセッサとの接続がビデオ信号出力ができるようになっていなければ使用できない。
【0258】
内視鏡検査の場合には、当然実際の内視鏡画面を術者が観察しており、病変部の有無に注目している。そのため、複数のモニタに写し出される画像を観察することになり、術者の負担が大きくなることも予想されるので、これを改善するために内視鏡画像の表示画面中にスーパインポーズしてスコープ形状を表示できるようにしている。
【0259】
この場合、内視鏡形状検出装置の出力は一般のビデオ信号と異なる信号である場合には、信号を通常のビデオ信号に変換して出力する。この変換にはスキャンコンバータと呼ばれる装置が使用される。内視鏡形状検出装置とは別の装置であるスキャンコンバータの動作も、形状検出装置本体内のパソコンからRS−232Cなどを経由して制御することにより、そのスキャンコンバータの動作を操作可能である場合がある。
【0260】
上記スキャンコンバータを介して内視鏡形状検出装置をマルチビデオプロセッサに接続して(内視鏡形状も)ビデオモニタに表示する構成とするにより、上記のようにビデオ映像のフリーズなどを制御できる。
また、ビデオ映像のスーパーインポーズの制御もできる。内視鏡形状検出装置の出力が一般のビデオ信号と同じ規格の信号である場合にはスキャンコンバータを介することなく内視鏡形状検出装置をマルチビデオプロセッサに接続して同様の機能を実現できる。
【0261】
なお、最近では通常のビデオ信号を取り込んでパソコンやワークステーションの画面に表示するハードウェア(具体的には高速のA/D変換ができる装置)も存在するため、そのような装置を用いて逆に形状検出装置のモニタに内視鏡観察画像を表示するようにしても良い。
【0262】
[HELP]…スコープイメージ2画面表示
1.[HELP]キーを1回押すと、スコープイメージが水平と垂直の2方向同時に表示される。図39はスコープイメージ2画面表示の画面を示し、視点方向を変更しない状態では、通常は左側に垂直方向(Z軸方向から)のスコープ形状、右側に水平方向(X軸方向から)のスコープ形状を表示する。
スコープイメージ2画面表示モードにおいては、通常の1画面表示モードと同様に[vf・1]〜[vf・5]の機能及び[f・10]の検査終了機能が機能する。
【0263】
2.また、スコープイメージの回転・ズーム機能が2画面同時に機能する。
なお、この機能を使用する前に画面上で入力したコメントは、この機能の使用により無効になり、表示されない。
【0264】
[HOME_CLR]…検査範囲基準面表示ON/OFF
1.[HOME_CLR]キーを1回押すと、検査範囲基準枠を示すキューブの表示を行わない。図40はこの検査範囲基準枠を表示しないで、つまり検査範囲基準枠を消去して、スコープイメージの表示を行った状態の画面を示す。
2.HOME_CLR]キーをもう1回押すと、検査範囲基準枠を表示する状態に切り換えられる。
【0265】
なお、上述の説明では2画面モードでは視点方向が互いに90°異なる方向からのスコープ形状を表示できると説明したが、視点方向が互いに90°とは異なる2方向からのスコープ形状を表示できるものも含む。また、2画面モードにおいて、日時&患者データ等を同時に表示できるようにしたり、データの表示/非表示を選択できるようにしても良い。
【0266】
2画面モードで視点方向が互いに90°異なる方向からのスコープ形状を表示している状態で、視点方向を同時に変更することもできる。また、一方のスコープ形状の画像のみの視点方向を変更したりすることもできる。この場合には、2つの画像は視点方向が90°とは異なる状態となる。
【0267】
なお、1画面モードにおいては図22に示すようにスコープ形状は日時&患者データ出力領域D&Pの下のグラフィックス出力域Gに表示しているが、日時&患者データ出力領域D&Pを含めた領域にスコープ形状を表示できるようにしても良い。これらを選択して表示できるようにしても良い。また、グラフィックス出力域Gとユーザインタフェース領域Kも含めた領域にスコープ形状を表示できるようにしても良いし、3つの領域D&P,G,Kを含めた最大表示領域(或いは最大表示画面サイズ)でスコープ形状を表示できるようにしても良い。
このように第3実施例では表示方法などに関して様々な機能を備えているので、表示された内視鏡形状から患者の体内での形状把握が非常に理解し易くできる。
【0268】
なお、上述の実施例などではマーカの表示などによりスコープ形状の方向などを把握し易いようにしているが、図41に示すように表示される内視鏡形状の例えば先端側を他の部分とは異なる表示方法(例えば最先端のみを他の部分と異なる色で表示する、つまり表示色を変更する。この他最先端を示す矢印を表示したり、最先端部分を点滅させて表示したり、他の部分がワイヤフレームで表示されている場合には先端部を塗りつぶすペーストモデルで表示する等描画モデルを変更したりする)で表示することにより、表示された画像からその先端側を容易に把握或いは判別できるようにして、スコープ形状の把握が容易にできるようにしも良い。
【0269】
なお、3軸のセンスコイル22jの配置する数を増やすとさらに精度良くソースコイル16iの位置検出を行うことができるし、内視鏡形状も精度良く推定できる。
なお、上述した実施例などを部分的に組み合わせて異なる実施例を構成することもでき、それらも本発明に属する。
【0270】
また、本発明者による先の出願(特願平6ー137468号明細書)の内容と組み合わせて異なる実施例を構成することもでき(例えば挿入部に配置されるプローブ15側のソースコイル16iとベッド4等の被検体周囲の既知の位置に配置される3軸センスコイル22jとを入れ替えたものでも良いし(先の出願の図60参照)、3軸センスコイル22jの代わりに直交する3面に磁気抵抗素子を取り付けたものを用いても良いし(先の出願の図53ないし図56参照)、ソースコイル16iを無線で駆動するようにしても良いし、またマーカを無線で駆動するようにしても良いし(先の出願の図75ないし図78参照)、ソースコイル16iをそれぞれ異なる周波数で同時に駆動するようにしても良いし(先の出願の図49ないし図51参照)、ソースコイル16iを過渡応答の影響が少なくなるような位相角で駆動するようにしても良いし(先の出願の図44及び図45参照)、スコープ形状の画像に背景の画像等の周辺画像を重畳して表示するようにしても良いし(先の出願の図73及び図74参照)、スコープ形状の画像をワイヤフレームなどのコンピュータグラフィック画像で表示する代わりに内視鏡の実画像を記憶させたメモリから対応するテクスチャ画像を呼び出して表示させるようにしても良いし(先の出願の図69及び図70参照)、その他の実施例等を用いても良い)、それらも本発明に属する。
【0271】
[付記]
(1)さらに形状検出手段を有する請求項1記載の内視鏡形状検出装置。
(2)前記形状検出手段は形状検出の基準面をベッドとした付記1記載の内視鏡形状検出装置。
(3)画面上で内視鏡との位置関係を関連付けるマーカの表示手段を有する請求項1記載の内視鏡形状検出装置。
(4)回転及びズームで移動した形状画像を、初期状態に戻す初期状態設定手段を有する。
(5)前記マーカを使用する形態の設定手段を有する付記3記載の内視鏡形状検出装置。
(6)画面上に表示された文字を全て消去する消去手段を有する請求項1記載の内視鏡形状検出装置。
【0272】
【発明の効果】
以上説明したように本発明によれば、体腔内に挿入される内視鏡の挿入形状を磁界を用いて検出し、検出した内視鏡形状を表示する内視鏡形状検出装置において、基準面位置や基準面からの内視鏡形状の離れ具合、患者の頭の方向が視覚的に判断でき、患者等の被検体内部に挿入された内視鏡の形状の把握が容易となるという効果を有する。
【図面の簡単な説明】
【図1】本発明の第1実施例を有する内視鏡システムの概略の構成図。
【図2】第1実施例の内視鏡形状検出装置の構成を示すブロック図。
【図3】内視鏡形状検出装置の全体構成図。
【図4】3軸センスコイル及びプローブの構成図。
【図5】プローブ内のソースコイルの位置を複数のセンスコイルを用いて検出する様子を示す説明図。
【図6】マーカプローブの構成を示す断面図。
【図7】内視鏡形状検出装置の処理内容を示すフロー図。
【図8】2画面モード及び1画面モードで内視鏡形状を表示するスコープモデル描画の処理のフロー図。
【図9】スコープイメージ描写処理のフロー図。
【図10】n角柱モデルでのスコープイメージ描写処理のフロー図。
【図11】モニタ画面に1画面モードで表示される内視鏡形状の出力画像を示す説明図。
【図12】モニタ画面に2画面モードで表示される内視鏡形状の出力画像を示す説明図。
【図13】ベッドに固定された座標系を示す説明図。
【図14】第1実施例の第1の変形例における検査範囲の表示枠の表示/非表示を行うフロー図。
【図15】検査範囲の表示及び非表示で内視鏡形状の出力画像を示す説明図。
【図16】第1実施例の第2の変形例における内視鏡形状表示のビューパラメータの記憶及び設定を行うフロー図。
【図17】第1実施例の第3の変形例における内視鏡形状を水平方向に90゜回転して表示を行うフロー図。
【図18】本発明の第2実施例における選択されたマーカモードでマーカを表示する処理のフロー図。
【図19】第2実施例の変形例におけるポジション記憶モードの機能を有するマーカ表示の処理を示すフロー図。
【図20】図19における表示モード設定処理の内容を示すフロー図。
【図21】本発明の第3実施例におけるフリーズして形状表示する動作の処理のフロー図。
【図22】通常表示画面の具体例を示す図。
【図23】通常画面での氏名の欄のデータ入力の状態の具体例を示す図。
【図24】ストップウォッチを動作中の具体例を示す図。
【図25】図24でストップウォッチを停止させた状態の図。
【図26】全文字を消去した状態の具体例を示す図。
【図27】拡張コメントを入力した状態の具体例を示す図。
【図28】タイトルスクリーン表示の具体例を示す図。
【図29】患者データ一覧の具体例を示す図。
【図30】患者データの事前入力画面の具体例を示す図。
【図31】図30の患者データを選択した場合の表示の具体例を示す図。
【図32】コメント枠にカーソルを表示した状態の具体例を示す図。
【図33】初期設定の変更を行うプリセット画面の具体例を示す図。
【図34】スコープイメージをY軸の回りに回転した場合の表示の具体例を示す図。
【図35】スコープイメージをX軸の回りに回転した場合の表示の具体例を示す図。
【図36】スコープイメージをズームアウトした場合の表示の具体例を示す図。
【図37】スコープイメージをズームインした場合の表示の具体例を示す図。
【図38】塗りつぶしのスコープイメージで表示した場合の表示切換の具体例を示す図。
【図39】スコープイメージの2画面表示した場合の表示の具体例を示す図。
【図40】表示範囲枠を消去した場合の表示の具体例を示す図。
【図41】最先端側の部分を他のモデル描画と異なる表示モードで表示した場合の表示例を示す図。
【符号の説明】
1…内視鏡システム
2…内視鏡装置
3…内視鏡形状検出装置
4…ベッド
5…患者
6…内視鏡
7…挿入部
11…ビデオプロセッサ
12…カラーモニタ
13…チャンネル
15…プローブ
16i…ソースコイル
19…チューブ
21…形状検出装置本体
22j…3軸センスコイル
23…モニタ
24…ソースコイル駆動部
26…検出部
30…形状算出部
31…位置検出部
32…形状画像生成部
33…モニタ信号生成部
34…システム制御部
35…操作部
35a…キーボード
36a,36b…マーカ
[0001]
[Industrial applications]
The present invention relates to an endoscope shape detection device that detects and displays an insertion shape of an endoscope using a magnetic field.
[0002]
[Prior art]
In recent years, endoscopes have been widely used in the medical and industrial fields. This endoscope, especially if the insertion part is flexible, can be inserted into a bent body cavity to diagnose organs deep in the body cavity without making an incision or insert a treatment tool into the channel if necessary. Therapeutic treatment, such as removing polyps and the like.
[0003]
In this case, for example, as in the case of examining the lower digestive tract from the anal side, some skill may be required to smoothly insert the insertion portion into a bent body cavity.
[0004]
In other words, when performing the insertion work, it is necessary to perform a work such as bending a bending portion provided in the insertion portion in accordance with the bending of the conduit to perform a smooth insertion, and for that purpose, the distal end position of the insertion portion is required. It is convenient to be able to know the position in the body cavity, the current bending state of the insertion portion, and the like.
[0005]
For this reason, for example, in Japanese Patent Application Laid-Open No. 3-295530, a receiving antenna (coil) provided in an insertion section is scanned with a transmission antenna (antenna coil) provided outside the insertion section to insert the insertion section. There is something that detects
[0006]
In this conventional example, it is possible to detect the endoscope shape, but the state where the voltage induced in the coil is maximized and minimized by scanning the antenna coil to detect the position of one coil And must be set to For this reason, even in detecting the position of one coil, it is necessary to scan the antenna coil over a wide range, and the position detection takes time for the scanning. Since it is necessary to detect the positions of a plurality of coils to detect the shape, a longer time is required to detect the shape.
[0007]
Further, US Patent No. 4,176,662 discloses an apparatus that emits a burst wave from a transducer at the tip of an endoscope, detects the burst wave with a plurality of surrounding antennas or transducers, and plots the position of the tip on a CRT. .
Further, US Patent No. 4,821,731 discloses a technique in which a quadrature coil outside the body is rotated, and the tip position of the catheter is detected from the output of a sensor provided on the catheter inside the body.
[0008]
These two are for detecting the position of the tip, and are not intended for detecting the shape.
[0009]
In addition, in PCT Application GB91 / 01431, a large number of dipole antennas are arranged in a grid pattern in the X and Y directions around an object into which an endoscope is inserted, and AC driving is performed. On the other hand, a coil built in the endoscope side Discloses a conventional example in which the position of the endoscope is derived from the signal obtained in (1).
[0010]
In this conventional example, it is difficult to accurately detect the endoscope shape unless a large number of dipole antennas are arranged in a grid in a range wider than the detection range, and a large space is required.
[0011]
Further, in the conventional example disclosed in PCT application WO 94/0438, a magnetic field from a plurality of source coils orthogonal to three axes is detected by a sense coil provided in the endoscope, and the detected endoscope shape is displayed in gray. Like that.
[0012]
[Problems to be solved by the invention]
If the image displayed on the display device is only the image of the endoscope insertion shape as described above, since the positional relationship between the image and the organ in the body cavity is unknown, if the viewpoint is rotated, any direction The information on whether the user is looking at the endoscope shape from the head, the direction of the head, etc., is, for example, only a numerical display of the angle displayed as text, and is not suitable for sensory judgment . In short, in the conventional example disclosed in the above-mentioned PCT application WO 94/0438, even if the insertion shape of the endoscope can be detected, the reference position or the like is not displayed in the displayed image of the endoscope shape. In addition, it has been difficult to grasp the shape of the endoscope inserted into a subject such as a patient, including the direction.
[0013]
The present invention has been made in view of the above-described problems, and it is possible to visually determine the position of the endoscope shape from the reference plane position and the reference plane, and the direction of the patient's head, so that the inside of the subject such as a patient can be determined. An object of the present invention is to provide an endoscope shape detecting device that allows easy understanding of the shape of an inserted endoscope.
[0014]
[Means to solve the problem]
In order to achieve the above object, an endoscope shape detection device according to the present invention detects an insertion shape of an endoscope inserted into a body cavity using a magnetic field, and displays the detected endoscope shape. In the shape detection device,
Existence area detection means for detecting the existence area of the endoscope inserted into the body cavity when performing an endoscopy,
Symbol display means for displaying a symbol of the presence area detected by the presence area detection means,
Display control means for displaying the symbol display by the symbol display means based on the presence area detected by the presence area detection means and the detected endoscope shape in a positional correspondence. Features.
[0015]
【Example】
Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings. FIGS. 1 to 13 relate to a first embodiment of the present invention, FIG. 1 shows a schematic configuration of an endoscope system having the first embodiment of the present invention, and FIG. 2 shows an endoscope of the first embodiment. FIG. 3 is a block diagram showing the configuration of the shape detection device, FIG. 3 shows the overall configuration of the endoscope shape detection device, FIG. 4 shows the configuration of the three-axis sense coil and the probe, and FIG. FIG. 6 is a cross-sectional view showing the configuration of a marker probe, FIG. 7 is a flow chart showing the processing contents of an endoscope shape detection device, and FIG. FIG. 9 is a flowchart showing a process of drawing a scope model for displaying an endoscope shape in a mode and a single screen mode, FIG. 9 is a flowchart showing a process of drawing a scope image, and FIG. Figure 11 shows the monitor screen FIG. 12 shows an output image of an endoscope shape displayed in a one-screen mode, FIG. 12 shows an output image of an endoscope shape displayed in a two-screen mode on a monitor screen, and FIG. 13 shows world coordinates fixed to a bed Show the system.
As shown in FIG. 1, an endoscope system 1 includes an endoscope device 2 that performs an inspection or the like using an endoscope 6 and an endoscope device 2 that is used together with the endoscope device 2 and that is inside an insertion portion 7 of the endoscope 6. By detecting each position, the shape of the insertion section 7 is estimated from each of the detected positions, and further, an endoscope displaying an image of a modeled (endoscope) insertion section shape corresponding to the estimated shape. And a mirror shape detecting device 3.
[0016]
A patient 5 as a subject is placed on a bed 4 (for endoscopy), and an insertion section 7 of an endoscope 6 is inserted into a body cavity of the patient 5.
The endoscope 6 has an elongated and flexible insertion portion 7, a wide operation portion 8 formed at the rear end thereof, and a universal cable 9 extending from a side portion of the operation portion 8. The connector 9A at the end of the universal cable 9 can be detachably connected to the video processor 11.
[0017]
A light guide (not shown) is inserted through the insertion portion 7, and the light guide is further inserted through a universal cable 9 extending from the operation portion 8 to reach a terminal connector 9A. Illumination light is supplied to the end face of the connector 9A from a lamp of a light source unit (not shown) built in the video processor 11, transmitted by the light guide, and transmitted to the end of the insertion portion 7 (illumination light emitting means). The illumination light transmitted from the front end face attached to the illumination window is emitted forward.
[0018]
A subject such as an inner wall or a diseased part in a body cavity illuminated by the illumination light emitted from the illumination window is focused on its focal plane by an objective lens (not shown) attached to an observation window formed adjacent to the illumination window at the distal end. An image is formed on a CCD as a placed solid-state imaging device.
[0019]
The CCD receives a CCD drive signal output from a CCD drive circuit in a signal processing unit (not shown) built in the video processor 11 to read out an image signal photoelectrically converted (by the CCD) and insert the CCD. 7 is processed by a signal processing unit via a signal line inserted through the inside of the camera 7 and converted into a standard video signal, output to the color monitor 12, and formed on the photoelectric conversion surface of the CCD by the objective lens. Is displayed in color.
[0020]
The operating section 8 is provided with a bending operation knob. By rotating the knob, the bending of the bending portion formed near the distal end of the insertion section 7 can be bent so that the inside of the body cavity is bent. The distal end is curved along the path so that it can be smoothly inserted.
[0021]
A hollow channel 13 is formed in the endoscope 6 in the insertion section 7, and a distal end of the treatment tool is inserted by inserting a treatment tool such as forceps through an insertion port 13 a at a base end of the channel 13. By projecting the side from the channel outlet on the distal end surface of the insertion section 7, a biopsy, a therapeutic treatment, or the like can be performed on an affected part or the like.
[0022]
Further, a probe 15 for detecting the position and shape (of the insertion portion 7 inserted into the body cavity) is inserted into the channel 13, and the distal end side of the probe 15 can be set at a predetermined position in the channel 13. it can.
[0023]
As shown in FIG. 4, the probe 15 has a plurality of source coils 16a, 16b,... (Represented by reference numeral 16i) as magnetic field generating elements for generating a magnetic field. For example, the flexible support member 20 and the inner wall of the tube 19 are fixed to each other with an insulating adhesive at a certain interval d in the interior of the tube 19.
[0024]
Each source coil 16i is formed of, for example, a solenoid-shaped coil in which a conductive wire insulated and wound on an insulative hard columnar core 10 is wound, and a lead wire connected to one end of each source coil 16i is shared. The lead wire 17 at the other end is inserted through the tube 19 to the hand side. The tube 19 is filled with an insulating filling member so that the tube 19 is not crushed even if the tube 19 is bent. Even when the tube 19 is bent and deformed, each source coil 16i has a structure in which the shape of the source coil 16i itself is not deformed because the conductive wire is wound around the hard core 10 and fixed with an adhesive. The function of generating a magnetic field is made to be constant even when the tube 19 is deformed.
[0025]
The position of each source coil 16i is set to a known position in the insertion section 7 of the endoscope 6, and by detecting the position of each source coil 16i, the discrete position of the insertion section 7 of the endoscope 6 is determined. The position (more precisely, the position of each source coil 16i) can be detected.
[0026]
By detecting these discrete positions, the position between them can be almost estimated. Therefore, by detecting the discrete positions, the general shape of the insertion portion 7 of the endoscope 6 inserted into the body cavity can be changed. It is possible to ask.
[0027]
The lead wire 17 connected to each source coil 16i is connected to a connector 18 provided at the rear end of the probe 15 or at the rear end of a cable extending from the rear end of the probe 15, and this connector 18 (Endoscope) It is connected to the connector receiver of the shape detection device main body 21. Then, as described later, a drive signal is applied to each source coil 16i to generate a magnetic field used for position detection.
[0028]
As shown in FIG. 1, three-axis sense coils 22a, 22b and 22c (represented by 22j) as magnetic field detecting elements for detecting magnetic fields are attached to known positions of the bed 4, for example, at three corners. These three-axis sense coils 22j are connected to the shape detecting device main body 21 via a cable 29 extending from the bed 4.
[0029]
As shown in FIG. 4, the three-axis sense coil 22j is wound in three directions so that the respective coil surfaces are orthogonal to each other, and each coil outputs a signal proportional to the strength of the magnetic field of an axial component orthogonal to the coil surface. To detect.
[0030]
The shape detection device main body 21 detects the position of each source coil 16i based on the output of the three-axis sense coil 22j, and estimates the shape of the insertion section 7 of the endoscope 6 inserted into the patient 5, A computer graphic image corresponding to the estimated shape is displayed on the monitor 23.
[0031]
Since the endoscope shape detecting device 3 uses magnetism, if there is a metal that is not transparent to magnetism, the endoscope shape detecting device 3 is affected by iron loss or the like, and is affected by a source coil 16i for generating a magnetic field and a three-axis for detecting. This affects the mutual inductance between the sense coils 22j. Generally, when the mutual inductance is represented by R + jX, a metal that is not transparent to magnetism affects both R and X.
[0032]
In this case, the amplitude and the phase of the signal measured by the quadrature detection generally used for detecting a minute magnetic field change. Therefore, in order to accurately detect a signal, it is desirable to set an environment that does not affect the generated magnetic field.
[0033]
To achieve this, the bed 4 may be made of a magnetically transparent material (in other words, a material that does not affect the magnetic field).
The magnetically transparent material may be, for example, a resin such as delrin, wood, or a nonmagnetic metal.
[0034]
In practice, an AC magnetic field is used to detect the position of the source coil 16i, so that the source coil 16i may be formed of a material that does not magnetically affect the frequency of the drive signal.
Therefore, the endoscope inspection bed 4 shown in FIG. 1 used with the present endoscope shape detecting device 3 is made of a nonmagnetic material that is magnetically transparent at least at the frequency of the generated magnetic field.
[0035]
In the block diagram of the endoscope shape detecting device 3 shown in FIG. 2, a drive signal from a source coil drive unit 24 is supplied to a source coil 16i in a probe 15 set in a channel 13 of the endoscope 6, and this drive is performed. A magnetic field is generated around the source coil 16i to which the signal is applied.
[0036]
The source coil drive unit 24 amplifies the AC signal supplied from the oscillating unit 25 (for generating a magnetic field) and outputs a drive signal for generating a required magnetic field.
The AC signal of the oscillating unit 25 is transmitted as a reference signal to a (mutual inductance) detecting unit 26 for detecting a small magnetic field detected by the three-axis sense coil 22j provided on the bed 4.
[0037]
The small magnetic field detection signal detected by the three-axis sense coil 22j is amplified by the (sense coil) output amplifier 27 and then input to the detection unit 26.
The detection unit 26 performs amplification and quadrature detection (synchronous detection) on the basis of the reference signal to obtain a signal related to the mutual inductance between the coils.
[0038]
Since there are a plurality of source coils 16i, the (source coil drive current) distributor 28 serving as switching means for switching so as to sequentially supply a drive signal to the lead wire connected to each source coil 16i is connected to the source coil drive unit 24 and It exists between the source coils 16i.
[0039]
The signal obtained by the detection unit 26 is input to a (source coil) position detection unit (or position estimation unit) 31 included in the shape calculation unit 30. The input analog signal is converted into a digital signal to perform position detection. Or the calculation of position estimation is performed to obtain position information estimated for each source coil 16i.
The position information is sent to the shape image generation unit 32, and the shape of the endoscope 6 (the insertion unit 7 thereof) is estimated by performing graphic processing such as interpolation processing for interpolating between the obtained discrete position information. , Generates an image corresponding to the estimated shape, and sends the generated image to the monitor signal generation unit 33.
[0040]
The monitor signal generation unit 33 generates a video signal such as RGB or NTSC or PAL representing an image corresponding to the shape, outputs the video signal to the monitor 23, and outputs the video signal to the display surface of the monitor 23 in the shape of the insertion portion of the endoscope 6. Display the corresponding image.
[0041]
After completing the calculation of one position detection, the position detection unit 31 sends a switching signal to the distributor 28, and supplies a drive current to the next source coil 16i to perform the position detection calculation (each position detection). Before the calculation of the detection is completed, a switching signal may be sent to the distributor 28 so that the signals detected by the sense coil 22j may be sequentially stored in the memory.
[0042]
The system control unit 34 includes a CPU and controls the operations of the position detection unit 31, the shape image generation unit 32, and the monitor signal generation unit 33. An operation unit 35 is connected to the system control unit 34. As shown in FIG. 3, the operation unit 35 includes a keyboard 35a, a mouse 35b, and the like. By operating these components, it is possible to select an endoscope shape drawing model or to change an endoscope shape displayed on the monitor 23. An instruction to display an image in the selected viewing direction can also be given.
[0043]
In particular, in this embodiment, a specific key input operation of the operation unit 35 (more specifically, the keyboard 35a in FIG. 3) is performed, and an instruction signal for two-screen display is input to the system control unit 34, so that the shape image generation unit 32 generates an image corresponding to one viewpoint direction, generates an image from a viewpoint direction different from the viewpoint direction by 90 °, and displays two images on the monitor 23 at the same time via the monitor signal generation unit 33.
[0044]
In other words, the shape image generation unit 32 has a function of a 2/1 shape image mode for generating two shape images from viewpoint directions orthogonal to each other and a shape image from one viewpoint direction, Accordingly, a two or one shape image is generated on the monitor 23, and the two or one shape image generated by the instruction is displayed on the monitor 23. FIG. 3 shows a state in which two shape images in the two-shape image mode are displayed on the monitor 23 of FIG.
[0045]
In this embodiment, the detection image display means (the shape image generation unit 32, the monitor signal generation unit 33, and the monitor 23) for simultaneously displaying the endoscope shapes from different viewpoint directions by 90 ° on two screens. Is a major feature.
[0046]
The shape calculation unit 30 indicated by the dotted line in FIG. 2 includes software. Marker probes 36a and 36b (simply referred to as markers) as auxiliary means for displaying a reference position and the like on a display screen for facilitating understanding of the display of the endoscope shape displayed on the monitor 23 are provided. It is configured to be connectable, and simultaneously displays the reference position and the like arbitrarily set by the operator using the markers 36a and 36b together with the endoscope shape on the display screen of the monitor 23, so that the endoscope shape can be easily grasped. To be able to.
[0047]
The markers 36a and 36b are connected to the current distributor 28, and drive signals are applied to the source coils in the markers 36a and 36b via the current distributor 28 in the same manner as the source coil 16i in the probe 15. In the first embodiment, the markers 36a and 36b are used to display the reference positions on the screen to facilitate grasping the endoscope shape. In the second embodiment, the usage mode can be selected (described later).
[0048]
In the case of endoscopy, since the patient 5 is on the bed 4, the position of the endoscope 6 is always on the bed 4.
That is, if the three-axis sense coil 22j serving as a sensor is provided at the four corners of the bed 4, the endoscope 6 (the source coil 16i in the endoscope) will be present in a region surrounded by the sensor group. For each of the installed three-axis sense coils 22j, the representation of the source coil 16i is limited.
[0049]
Assuming that the output of one triaxial sense coil 22 when driving the source coil 16i is Xi, Yi, Zi, the source is located at a distance from the triaxial sense coil 22 at which the magnetic field intensity is related by XiX2 + Yi ^ 2 + Zi ^ 2. The coil 16i will be present.
[0050]
However, a uniaxial coil is generally represented as a dipole, and its isomagnetic field is not spherical but elliptical.
Therefore, the position of the source coil 16i whose direction is unknown cannot be identified only from the isomagnetic field plane XiX2 + YiY2 + Zi ^ 2 by one triaxial sense coil 22.
[0051]
Therefore, a distance associated with Xj ^ 2 + Yj ^ 2 + Zj ^ 2 measured for each of the plurality of three-axis sense coils 22j provided on the bed 4 is used. In this case, since the installation positions of the three-axis sense coils 22j are known, they can be represented by, for example, one coordinate system fixed to the bed 4. In this case, the reference plane for position detection and shape detection is the bed 4.
It is assumed that the sense coil 22j detects a magnetic field intensity, which is generally expressed as Xs ^ 2 + Ys ^ 2 + Zs ^ 2, on the isomagnetic field generated by the source coil 16i, and estimates the distance therebetween.
[0052]
Then, assuming an isomagnetic field surface including the magnetic field intensity from the magnetic field intensity detected by the sense coil 22j, the sense coil 22j exists on the isomagnetic field surface with respect to the center source coil 16i. The maximum value and the minimum value of the distance from the center to the isomagnetic field surface are Rmaxj and Rminj, respectively, and the sense coil 22j and the source coil 16i exist at the distance between them.
[0053]
That is, based on the sense coil 22j at a known position, the source coil 16i exists inside the maximum distance Rmaxj and outside the minimum distance Rminj as shown in FIG.
[0054]
The source coil 16i is present in the volume of the spherical shell represented by Rmaxj and Rminj corresponding to Xj, Yj, and Zj, which is measured by each three-axis sense coil 22j and differs for each three-axis sense coil 22j. Therefore, the center of gravity of the area can be detected as the coil position.
With this, the position is obtained, but if the difference between Rmax and Rmin is large, an error may occur.
[0055]
Therefore, by using the fact that the inclination of the source coil 16i is expressed in the phase information included in Xj, Yj, and Zj, the inclination in the previously obtained volume is obtained.
Thereby, the previous position is corrected so as to be a more accurate position.
Further, since the mutual interval between the source coils 16i is known, the source coil 16i may be further corrected with this value.
[0056]
An image 100 in which the shape of the insertion section 7 of the endoscope 6 estimated based on the plurality of pieces of position information detected in this manner is modeled as described later, and is displayed on the display surface of the monitor 23 as shown in FIG. Is displayed in the graphics output area. The area on the right side is a user interface area in which the user sets a viewpoint (distance between the position and the origin), a rotation angle, an elevation angle between the viewpoint position and the Z axis, and the like by key input from the keyboard 35b.
[0057]
FIG. 6 shows a specific example of the structure of the tube-shaped marker 36a. The marker body 41 is covered with a grip cover 42, in which a source coil 43 is housed, and the periphery thereof is filled with an insulating resin 44. The source coil 43 is formed by winding a conductive wire 46 around a core member 45 made of a magnetic material, and ends of the two wound conductive wires 46 are covered with shield wires 47 each covered with an insulating member 40. The shield wire 47 is further covered with a silicon tube 48. The rear end of the shield wire 47 reaches the connector 49a. The connector 49a is fixed to a connector receiving member.
[0058]
The connecting portion between the grip cover 42 and the silicon tube 48 and the connecting portion between the silicon tube 48 and the connector receiver 49b are each prevented from being broken by the break preventing member 50.
[0059]
FIG. 7 shows that the magnetic field generated by the source coil 16i in the scope is detected by the external three-axis sense coil 22j, and the position of the source coil 16i is obtained from the relationship between the magnetic field strength and the distance between the two points. 5 shows a flow of displaying an insertion portion shape (also simply referred to as a scope shape) in an inserted state on a monitor (also referred to as a CRT) based on each position detection.
The overall configuration of this flow can be roughly divided into the following four blocks B1 to B4 according to the processing contents.
[0060]
B1: Initialization block
In this block, the initialization work for all functions of this program is completed. Specifically, setting of initial parameters based on a method of outputting a scope shape on a CRT, calculation of the location of the source coil 16i from phase information and amplitude information obtained from magnetic field strength detected by hardware For example, the memory of basic data to be used in the memory is read, and various boards for controlling hardware are initialized.
[0061]
B2: Hardware control Bukok
In this system, the position coordinates of the source coil 16i arranged and fixed in the insertion section 7 of the endoscope 6 are calculated from the magnetic field intensity generated by the source coil 16i, and based on this, the position of the inserted endoscope 6 is determined. The shape of the insertion section 7 is estimated.
In this block, the drive of the source coil 16i is switched to generate a magnetic field, the intensity of the generated magnetic field is detected by the sense coil 22j, and the detected output is converted into a form in which the source coil position coordinates can be calculated and output. .
[0062]
The drive switching of the source coil 16i allows the user to know where the source coil is located on the endoscope 6, and the sense coils 22j for detecting the magnetic field strength of the source coil 16i are orthogonal as shown in FIG. The coils are manufactured so that the planes of the respective coils are parallel to the three axes, and are configured so that magnetic field strength components in three orthogonal directions can be detected for one sense coil 22j. The data of the detected magnetic field strength is output after being separated into amplitude data and phase data necessary for calculating the position of the source coil.
[0063]
B3: Source position calculation block
Based on the amplitude data and the phase data obtained by the magnetic field detection in the previous block, it is responsible for calculating the position coordinates of the source coil 16i using the relationship between the magnetic field strength and the distance between the two points. First, the amplitude data and the phase data are corrected for the difference in the diameter of each sense coil 22j in the axial direction and the positional relationship between the source coil 16i and the sense coil 22j. Calculate the magnetic field intensity considered to be detected at the installation position.
[0064]
The distance between the source coil 16i and the sense coil 22j is determined from the calculated magnetic field strength. However, since the orientation of the source coil 16i in the inserted state (the direction of the solenoid-shaped coil) is not known, the position of the source coil 16i can be limited only to within a certain spherical shell. Therefore, three or more sense coils 22j are prepared, an overlap of regions where the source coil 16i can exist is obtained, and the center of gravity of the region is output as the position coordinates of the source coil 16i.
[0065]
B4: Image display block
It builds a scope shape based on the data obtained as the source coil position coordinates and plays a role in outputting the image on the CRT. One or more coordinates obtained as the source coil position coordinates are used as data to construct smooth continuous coordinates as a whole. A modeling process is performed using the continuous coordinates to make the scope look like a scope (polygon pillar, color gradation, saturation, use of luminance, hidden line processing, perspective, etc.).
[0066]
Further, the scope image model displayed on the CRT can be rotated and enlarged / reduced in an arbitrary direction, and can also display a body marker or the like at which the viewpoint position of the current display and the head direction of the patient can be seen at a glance. The viewpoint position at the end is automatically saved and becomes the next initial viewpoint position. There is also a hot key for storing a viewpoint direction considered to be easy for the operator to see (described later as a second modification of the first embodiment).
Next, more detailed contents of each block will be described.
[0067]
B1: Initialization block
In the first step S11, a graphic page is initialized (VRAM is initialized). In addition, when updating the scope image displayed on the CRT, if a new image is overwritten, an observer is given an impression of an image in which rewriting flickers, and the image is not smooth. Therefore, a plurality of graphic pages are constantly switched to display an image, thereby realizing moving image smoothness.
In addition, the color and gradation to be used are set. The number of colors that can be used is limited by hardware. Therefore, as shown in FIG. 11, if the number of colors allocated to the image 100 in which the insertion unit 7 is modeled and displayed is increased and gradation display is performed, a three-dimensional image can be displayed. In FIG. 11, two circles indicate markers indicating the reference positions, and square frames indicate beds.
[0068]
By performing the gradation display in which the closer to the viewpoint, the brighter the display, and the farther the display, the darker the display becomes. The image 100 displayed two-dimensionally by the insertion unit 7 can be expressed with a three-dimensional effect and depth. Of course, increasing or decreasing the number of gradations is optional. In addition, the colors employed other than the gradation are also formed from the R, G, and B configurations, so that it is possible to express subtle saturation and luminance.
[0069]
In the next step S12, initialization of image parameters such as automatic reading of the initial viewpoint position is performed.
How the scope image is easy to see depends largely on the operator's preference. If the initial viewpoint position is fixed, the operator must re-set the viewpoint position at which the user can easily view the scope image, and the usability deteriorates.
[0070]
Therefore, by saving the desired viewpoint position in the form of a file (parameter file) and reading the file when starting the program, the scope image can be viewed from the viewpoint position that is easy for the operator to see immediately after the program starts. Was provided.
[0071]
In this embodiment, the output area of the scope image and the output area of the text screen are divided and displayed as shown in FIG.
By dividing the scope image and the text screen, the degree of rotation and enlargement / reduction of the scope image can be checked both visually and numerically. However, in the two-screen display mode shown in FIG. 12, the scope images are displayed on the left and right simultaneously.
In the next step S13, the principle original data storing the principle for deriving the source coil position is loaded. This data is reference data or reference information having the following relationship.
[0072]
The measurement principle is to detect the output of a single-axis source coil 16i with a sense coil 22j manufactured on three orthogonal axes, and obtain the distance between the source coil 16i and the sense coil 22j based on the magnetic field strength. In order to obtain the interval between the two coils, the maximum magnetic field intensity output and the minimum magnetic field intensity output due to the difference in the attitude (axial direction) of the source coil 16i are not directly solved from the hyperfunction indicating the magnetic field distribution created by the uniaxial source coil 16i. A new distance calculation method using the magnetic field strength output is adopted.
[0073]
That is, when the distance between the one-axis source coil 16i and the three-axis sense coil 22j is set to various values, when the axial direction of the source coil 16i is changed at each distance value, detection is performed at the position of the three-axis sense coil 22j. The measured maximum magnetic field intensity (maximum magnetic field intensity) and the minimum magnetic field intensity (minimum magnetic field intensity) are plotted and graphed as a maximum magnetic field intensity curve and a minimum magnetic field intensity. Curve data is prepared as reference data for distance calculation.
[0074]
By using this reference data, it is possible to calculate the distance of the uniaxial source coil 16i from the magnetic field strength detected by the triaxial sense coil 22j as follows.
[0075]
When a certain magnetic field strength H is detected, a radius when the value H is set to the maximum magnetic field strength value, that is, a minimum radius r_min at which the distance is minimum, and a radius when the value H is set to the maximum magnetic field strength value, that is, It is possible to add a limitation that the source coil 16i can only exist within the spherical shell sandwiched between the maximum radius r_max at which the distance becomes maximum. By performing this limitation at the position of each sense coil 22j, the area where the source coil 16i exists can be limited as shown in FIG.
[0076]
Data corresponding to the maximum magnetic field strength curve and the minimum magnetic field strength curve are stored in data storage means such as a hard disk, and when the operation of displaying the endoscope shape is started, the position detecting section 31 refers to the data as necessary.
[0077]
The actual measured value proportional to the magnetic field strength detected by the three-axis sense coil 22j is obtained by squaring the signals 22X, 22Y, and 22Z respectively detected by the three coils constituting the three-axis sense coil 22j. Is a value obtained by calculating the square root of 22X · 22X + 22Y · 22Y + 22Z · 22Z. The obtained value is calibrated by a standard magnetic field measuring device (for example, a Gauss meter) to obtain an accurate measured value of the magnetic field strength. Obtainable.
A file (max_min data file) recording the data of the maximum magnetic field strength and the minimum magnetic field strength is loaded, and the correction data is also loaded from the correction data file, and the correction of the diameter of the sense coil 22j is also performed. Position detection can be performed.
[0078]
After loading the data, hardware initialization is performed in the next step S14. In this step S14, the setting contents of the distributor 28 in FIG. 2 are reset to an initial state. In addition, the setting contents of the A / D converter (not shown) constituting the shape calculation unit 30 are reset to a setting state corresponding to the use environment (for example, the number of channels is set to the number of source coils and the number of markers to be used). In this way, the hardware is set to a usable state for shape calculation, and the next block B2 is operated.
[0079]
B2: Hardware control block
First, in step S21, as described with reference to FIG. 2, the switching signal is applied to the distributor 28 to select the source coil 16i and drive the source coil 16i. The magnetic field generated by the source coil 16i is detected by the sense coil 22j.
[0080]
Accordingly, as shown in step S22, the detection signal detected by the sense coil 22j is sampled by the A / D converter via a phase sensitive detector (PSD) (not shown) constituting the detection unit 26. The sampled data is temporarily written to a memory in the shape calculation unit 30.
For example, the CPU configuring the shape calculation unit 30 as shown in step S23 determines whether or not the driving for all the source coils 16i has been completed, and if not completed, drives the next source coil 16i. Control.
[0081]
When all the source coils 16i are driven, the amplitude data and the phase data are calculated from the data in the memory (the PSD data that has passed through the PSD) (the PSD calculation in step S24 in FIG. 7, the amplitude data and the phase in step S25 in FIG. 7). Data). When a marker is used, a drive signal is applied to each of the source coils contained in the connected marker similarly to the source coil 16i contained in the probe 15 to apply a drive signal to the marker source coil. The amplitude data and the phase data are calculated.
[0082]
The process proceeds to the next block B3 based on the amplitude data and the phase data. First, the magnetic field strength calculation in step S31 is performed using a correction coefficient.
Next, the maximum distance and the minimum distance (between the source coil 16i and the sense coil 22j) in step S32 in FIG. 7 are calculated using the maximum and minimum distance data.
[0083]
In this step S32, processing is performed until the maximum distance and the minimum distance between the sense coil 22j and the source coil 16i are calculated using the magnetic field strength obtained in the previous step S31.
[0084]
The fact that there is a proportional relationship between the distance between two points and the magnetic field strength is an extremely widely known physical phenomenon. However, since the magnetic field strength generated by the l-axis source coil 16i at one point in a certain space is generally represented by a hyperfunction, even if the direction of the source coil 16i is known and the magnetic field strength is measured, the existence of the source coil 16i It is not easy to calculate the direction and the distance to be performed.
[0085]
Therefore, when a certain magnetic field strength can be detected, it is assumed that the distance when the source coil 16i is oriented in the direction in which the output can be obtained most strongly is R_max, and that the source coil 16i is oriented in the direction in which the output can be weakest. If the distance in this case is R_min, the distance R_true between the true source coil 16i and the sense coil 22j can be limited to the range of R_min ≦ R_true ≦ R_max.
[0086]
The distance calculating means or method adopted here is an extremely simple means or method which does not require solving a complex super function, although the value of the distance R_true is not reliably obtained. Even if the direction of the axial source coil 16i is not known, the means or method has a wide range of application that can limit the range in which the source coil 16i exists.
[0087]
Next, the position coordinates of the source coil 16i are calculated in step S33. In this step S33, processing is performed until the coordinates of the source coil 16i are calculated from the distance between the sense coil 22j and the source coil 16i.
The range where the source coil 16i can exist when viewed from a certain sense coil 22j is a spherical shell surrounded by R_max and R_min obtained in the previous step S32.
In order to limit the range in which the source coil 16i can exist to a smaller space, the overlapping of the possible regions of the source coil 16i found from the plurality of sense coils 22j is used. For each sense coil 22j, there is always a region where the source coil 16i obtained from the same source coil 16i overlaps as long as the position of the source coil 16i does not move.
[0088]
The boundary of such a region is exactly the intersection of the spheres of radii R_max and R_min centered on the position of each sense coil 22j. Since it is an intersection of spheres, if there are at least three sense coils 22j, the existence of the source coil 16i can be limited to a minute area surrounded by eight intersections of spheres having a radius of R_max, R_min of each sense coil 22j.
[0089]
Since this source coil position limiting method is a simple arithmetic calculation of calculating the intersection of three spheres, the processing time is not required, and the area where the source coil 16i is present is limited to a very small area. This is a very good method that has been made possible.
[0090]
Thus, the position coordinates of each source coil 16i are calculated, and the position coordinate data of the source coil 16i in step S34 is obtained. When a marker is used, position coordinates are similarly calculated for the source coil of the marker.
The process moves to the next block B4 using these data.
[0091]
B4: Image display block
This block B4 is responsible for processing until the scope shape image in the inserted state is described on the CRT based on the position coordinate data of the source coil 16i.
The position coordinates of the source coil 16i are trajectories that have passed through the inserted scope. Therefore, based on this, the scope shape in the inserted state is estimated. After the insertion shape of the scope can be estimated, the result is drawn on a CRT. At that time, since the three-dimensional scope shape must be displayed on a two-dimensional CRT screen, a device for expressing the image more three-dimensionally is required.
[0092]
Further, if the scope image can be rotated in an arbitrary direction or the direction from which the scope image is being viewed can be instantaneously determined, the usability is further improved.
In view of the above, the device 3 is classified according to the function as described below, and a display method in which the features of each module are added is realized.
[0093]
S41 keyboard input processing
S42 Scope Model Description
(S43 reference plane display processing)
(S44 marker display processing)
Not all of these are needed to depict a scope image, so the features can be selected as needed. FIG. 7 shows only the keyboard input processing in S41 and the scope model depiction processing in S42. After the process of block B4, the process of setting the display screen video page in step S45 is performed, the modeled image data is set in the VRAM, and then the image data is output to the CRT, and the scope image display in step S46 is performed. Is performed. Then, by the process of determining whether or not to end the program (step S47), if the end is selected, the process ends, otherwise, the process returns to block B2 and the same operation is repeated.
Therefore, the features of each module will be described below.
[0094]
S41: Keyboard input processing
Here, when a key input corresponding to a given user command is performed, the process is performed until setting parameters and the like are changed according to the content of the key input.
[0095]
Equipped with an additional function that is considered to be highly requested by the user affects the usability of the device. The function selection is a simple task, and can be operated whenever the user desires, and the contents requested by the user need to be quickly realized.
[0096]
In this step S41, an input is obtained from the keyboard, and processing such as a command corresponding to the key input is performed.
[0097]
Commands corresponding to key input include rotation of the image around X, Y, and Z axes, enlargement / reduction of the image, display of an image from an initial viewpoint, display of an image from a user-registered viewpoint, There are user registration of the viewpoint position, division of a screen for image output, screen display for comment input, change of background color, ON / OFF of marker display, ON / OFF of numerical display of source coil coordinates, and program termination.
[0098]
Next, description of a scope model description which is a major feature of the first embodiment will be described.
Subsequent to the keyboard input processing in step S41, the scope model is described in step S42 shown in FIG.
[0099]
In the processing flow of the description of the scope model, the scope shape can be displayed in the one-screen mode as shown in FIG. 11 or in the two-screen mode shown in FIG. 12, according to the user's selection.
FIG. 8 shows a specific example of the processing flow for describing the scope model.
[0100]
First, in step S51, a process of loading a parameter file necessary for drawing is performed, and rotation angles (pitch, head, bank) around the X, Y, and Z axes, a viewpoint (view) Point), project screen, marker mode No. And the like, and temporarily write the data into a memory constituting the shape calculation unit 30, so that the CPU can perform drawing processing by referring to them when necessary.
[0101]
Next, each variable is initialized in step S52. The variables used for drawing are set to the initial values by referring to the loaded data and the like. Next, in step S53, it is determined whether or not f · 10 as a function key set as a key input for terminating the inspection is pressed (in FIG. 8, expressed as f · 10_key ON?). Ends the scope image display process, and if it is not pressed, determines whether or not the mode is the single screen mode (step S54).
[0102]
In this step S54, it is determined whether the HELP key, which is a hot key set as the screen mode switching key, is pressed or not, and whether or not the screen is in the single screen mode is determined. Then, it is determined whether or not the HELP key has been pressed (in FIG. 8, HELP_key ON?) (Step S55), and the mode can be switched to the two-screen mode.
[0103]
More specifically, for example, a 2-bit two-screen display flag is prepared, and this flag is set to 0 in the initial setting, and 1 is added every time the HELP key is pressed. The screen mode is determined by examining the value of this flag. If the flag value is 0, it is determined that the screen is in the 1-screen mode. Mode is determined.
[0104]
Also, when it is determined in step S54 that the screen mode is the two-screen mode, it is further determined whether or not the HELP key is pressed (step S56) so that the mode can be switched to the one-screen mode.
If it is determined in step S55 that the HELP key has been pressed (if the key for switching to the two-screen mode has been input in the one-screen mode), the two-screen mode is turned on in the next step S57. Then, the initial setting of the two-screen mode is performed in step S58.
[0105]
First, the setting of the graphic mode set in the single screen display mode is canceled, and the setting is made for the two screen display mode. In addition, a display frame is set for the two-screen display mode, and the two-screen display flag is turned on.
[0106]
In the next step S59, it is determined whether or not the head angle (the rotation angle around the Y axis) is larger than 0. If not, the head angle is set to 0 (step S60), and the next step is performed. The process proceeds to the left screen viewport setting process of S61. On the other hand, if it is determined that the value is larger than 0, the process shifts to the left screen viewport setting process in the next step S61 at the head angle.
[0107]
In order to display the vertical image endoscope shape (shape viewed from directly above) on the left display screen, a display area is set to the left from the center of the screen. Also, the set area is cleared. Further, when the inspection area display frame is displayed, a frame of the inspection area is drawn (display and non-display of the inspection area display frame can be selected in a modified example described later).
Thereafter, the scope image is drawn in step S62.
[0108]
Here, it is responsible for creating a scope shape from the source coil position coordinates obtained from the magnetic field detection and displaying the image three-dimensionally on a CRT. The obtained position coordinates of the source coil are discrete data of the number of source coils inserted into the scope. Therefore, the shape of the scope in the inserted state must be estimated based on these data. Further, the scope shape data thus obtained is output on a CRT as an image modeled as a three-dimensional shape. FIG. 9 shows the basic processing contents of this modeled image drawing.
[0109]
S62_a: Three-dimensional interpolation between calculated source coils
In the process of the three-dimensional interpolation between the calculated source coils in step S62_a, the source coil position coordinates calculated based on the magnetic field strength detection are discrete. Does not correspond to a scope shape whose position changes In order to create a smooth overall scope shape, three-dimensional interpolation is performed on the source coil position coordinate data.
[0110]
S62_b: Construction of three-dimensional model
Since the real scope has a thickness, no matter how smooth data points are obtained, it cannot be said that the real scope is described by connecting with a straight line having no thickness. Therefore, in the process of constructing the three-dimensional model in step S62_b, the connection between the trap data is performed using a cylinder or n-prism model, and the thickness can be displayed in accordance with the actual scope shape.
[0111]
S62_c: affine transformation
The scope shape is output as an image viewed from the designated viewpoint position. Therefore, in the affine transformation processing in step S62_c, scope shape model data obtained in the world coordinate system as a reference coordinate system for deriving the source coil position is transformed into a viewpoint coordinate system for screen display. Note that the viewpoint position can be changed by the user. The changed contents are referred to here.
[0112]
S62_d: 3D → 2D projection
Although the scope shape is originally three-dimensional, it must be converted to two-dimensional in order to output the image on the CRT screen. Therefore, the projection conversion from the three-dimensional image to the two-dimensional image in step S62_d is performed. At this time, the perspective may be emphasized with a perspective or the like.
[0113]
S62_e: rendering
The scope shape image obtained by the above processing is drawn on the CRT. In performing the rendering, in the rendering process in step S62_e, an n-side surface process and a hidden line process for expressing before and after the scope loop are performed. Processing such as adjusting the brightness and saturation of the side of the scope model based on the gradation display in the shading processing based on the perspective and the curvature of the scope, etc. may be performed to further emphasize the space between the solids.
[0114]
Some items described above are not necessarily required to be implemented. Of course, if implemented, the image can be reproduced on the CRT in a form including the effects of the improved items. Further, the processing need not be performed in the order shown in FIG. 9, and the same processing may be performed in a shorter time by changing the order according to the model displaying the shape of the insertion portion. .
[0115]
Through these processes, the inserted three-dimensional scope shape can be reproduced on the CRT from only the position coordinates of several source coils.
In this embodiment, an n-sided prism model and an n-sided connected model can be selected as the scope display as follows.
[0116]
After the process of drawing the scope image on the left screen is performed in step S62, the right view port is set in step S63 of FIG. 8, and the process of drawing the model of the right screen is performed (step S64).
[0117]
In the process of drawing the scope image on the right screen, drawing is performed at an angle obtained by adding 90 degrees to the head angle used in the process of drawing the left screen. Therefore, a process of modeling and drawing a scope shape from a viewpoint direction different from the viewpoint direction of the left screen by 90 degrees is performed. When the head angle is set to 0 in step S60 (drawing when the left screen is viewed from directly above), the drawing on the right screen is stopped when viewed from right beside.
[0118]
After that, the display screen video page is set using the image data subjected to the drawing processing (step S45), and then output to the CRT and the scope image is displayed (step S46). In this case, the scope image is displayed in the two-screen mode, and two scope shapes from orthogonal viewpoint directions are simultaneously displayed on the CRT as shown in FIG.
[0119]
On the other hand, if it is determined in step S55 that HELP_key is not pressed (in the case of the one-screen mode), the process of drawing the normal mode scope image in step S65, that is, the process of drawing the scope image in the one-screen mode is performed. This process is the same as step S62 or step S64. After this process, the image data is output to the CRT through the process of setting the display screen video page in step S45, and the image in which the scope is modeled is displayed in the single screen mode as shown in FIG.
[0120]
If it is determined in step S56 that HELP_key is not turned on (in the case of the two-screen mode), the process proceeds to step S59. If HELP_key is turned on in the determination in step S56 (when a command for switching to one screen mode is input in the two screen mode), the two screen mode is turned off in step S66, and the normal scope image After the screen setting (Step S67), the process proceeds to Step S65, and the scope shape is displayed in the single screen mode.
[0121]
In the flow of FIG. 8, the scope shape is displayed on the CRT in the two-screen mode or in the one-screen mode according to the key input selected by the user. In particular, in the two-screen mode, the scope shapes from mutually perpendicular viewpoint directions are simultaneously displayed side by side as shown in FIG. 12, so that the depth amount in the image from one viewpoint direction can be accurately calculated from the image from the orthogonal viewpoint direction. I can figure it out.
[0122]
As described above, in the case of a two-screen display, an image in which the viewpoint direction is vertical is displayed on the left side, and a horizontal image is displayed on the right side. When the viewpoint direction or the like is changed, an image is obtained from a different direction according to the change.
[0123]
Next, a model for constructing a three-dimensional model for modeling a scope shape and displaying it in a three-dimensional manner will be described.
When the n-sided model is selected, for example, as shown in FIG. 11, the cross section of the insertion portion is modeled as a regular n-sided polygon and displayed as an n-sided prism (in FIG. 11, n = 5). When the number n is increased, the shape becomes almost a circle. In this case, the shape of the insertion portion is displayed as a column.
[0124]
FIG. 10 shows a flow of specific processing contents of display in this model.
In FIG. 10A, the processing shown in FIG. 10B is performed for the processing of constructing the interpolation & three-dimensional model in step S62_1.
[0125]
Here, first, the three-dimensional B-spline interpolation in step S62_1 is performed. This interpolation is not a type of interpolation that always passes through the interpolation point, but creates a smooth curve while passing near the interpolation point. Compared to a natural spline that always passes through the interpolation point, its calculation is Processing is simple. Of course, a natural spline, another interpolation method, or interpolation using an approximate function may be used.
[0126]
The B-spline whose calculation processing is relatively simple is excellent in that the processing speed is high even when the three-dimensional capture is performed.
Next, an n-prism model construction is performed as a three-dimensional model construction in step S62_12.
[0127]
Here, a three-dimensional scope image is constructed from the interpolated data of the source coil position coordinates by an n-prism model (hereinafter, also including a cylinder). Next, the affine transformation of step S62_13 in FIG. 10B is performed. This affine transformation is one of the methods used when performing coordinate transformation of a figure in computer graphics, and is generally performed when dealing with coordinate transformation. Simple primary coordinate transformations such as translation, rotation, enlargement, and reduction are all included in the affine transformation. The rotation angle around the X axis is called a pitch angle, the rotation angle around the Y axis is called a head angle, and the rotation angle around the Z axis is called a bank angle.
[0128]
In this process, scope model data represented in the world coordinate system (see FIG. 13) fixed to the bed 4 is converted into model data viewed from a certain viewpoint position.
The viewpoint position can be set in any direction. Therefore, it is extremely difficult to trace the direction in which the viewpoint position has moved and to move the model data so as to follow the direction. Therefore, it is assumed that the viewpoint is fixed, and the world coordinate system, which should not originally move, is rotated for convenience. This gives the same result as obtaining an image with the viewpoint shifted.
This method is excellent in that the time lag with respect to the movement of the viewpoint can be extremely reduced since the direction of movement of the viewpoint can be handled by turning the world coordinate system for convenience, regardless of the direction in which the viewpoint moves.
[0129]
Next, a process of three-dimensional-two-dimensional projection (3D → 2D projection) in step S62_14 of FIG. 10B is performed.
In this 3D → 2D projection processing for performing a projection conversion from a three-dimensional image to a two-dimensional image, display can be realized in perspective or the like according to the purpose by performing the following projection method.
[0130]
a) If you have a perspective,
The three-dimensional shape looks larger as it is closer to the viewpoint and smaller as it is farther. This can be realized by a process of converting three-dimensional model data into two-dimensional data.
[0131]
In order to project the three-dimensional coordinates on the two-dimensional plane, the screen is virtually arranged perpendicularly to the viewpoint and on the opposite side of the three-dimensional image (3D image obtained up to S62_13). Then, the projection plane of the object viewed from the viewpoint is projected so that the projection image on the side closer to the viewpoint is larger than the projection image on the far side, and is displayed in perspective. This method is excellent in that a three-dimensional depth can be easily added to a two-dimensional projection image, and that the degree of emphasis can be easily changed. Of course, the display may be performed without attaching the perspective.
[0132]
Next, rendering processing of step S62_15 is performed. In this embodiment, as shown in FIG. 10B, selection can be made from the processing of the paste model display PM and the processing of the wire frame model display WM.
[0133]
The display in these models uses the world coordinate system fixed to the bed 4 shown in FIG. 13, and may adopt another coordinate system depending on the processing content.
[0134]
For example, the source coil coordinates are in the world coordinate system. The source coil coordinates are subjected to a rotation process to obtain the source coil coordinates viewed from the “viewpoint” (that is, the view coordinate system), and then the discrete source coil coordinates are obtained. Then, data interpolation is performed to find the source coil coordinates as viewed from the “viewpoint” where data interpolation has been performed.
[0135]
Next, in a three-dimensional model construction process, after generating a scope model using a wire frame or the like, a three-dimensional to two-dimensional conversion (perspective projection conversion) process is performed to display the scope model on a two-dimensional screen. Dimensional data is generated, and a pseudo three-dimensional image is rendered and displayed.
[0136]
Next, the paste model display PM of FIG. 10B will be described. This model is called a paste model because each surface of the n prism is painted out.
When rendering the scope shape image on the CRT, side processing of the n-gon is performed, and hidden line or hidden surface processing is performed to express before and after the loop when the scope has a loop shape. In the case of displaying by n prisms, it has n side surfaces. Of these, what is actually visible is only the side face on the viewpoint direction side. Therefore, the process of displaying only the side face on the viewpoint direction side and displaying it so as to hide the invisible side face or side, that is, a hidden line or hidden side Perform surface treatment. In this case, it can be realized by sorting a parameter (referred to as a z-buffer) indicating how close the camera is to the viewpoint position, and writing by overwriting from the side where the z-buffer is small (that is, far from the viewpoint).
[0137]
Next, the processing of the wireframe model display WM will be described.
The result is the same as the case where the portion excluding the sides of the n-prism model is painted with the background color, but this can be selectively used to shorten the processing time for painting the n-prism model. ing.
[0138]
In this model, if the z-buffer is written in ascending order, the wires on the back side of the scope model will be visible. Therefore, a hidden line-processed model can be constructed by appropriately performing hidden line processing to remove the data or by drawing a wire frame up to the (n / 2) th model data in the descending order of the z buffer.
[0139]
Next, in FIG. 10A, step S62_2 of displaying a reference plane and step S62_3 of displaying a marker are performed. The processing in steps S62_2 and S62_3 is an additional processing.
The reference plane display process has a supplementary role of displaying a reference plane such as a bet plane to make the three-dimensional display of the scope shape visually easy to understand.
[0140]
If the image displayed on the CRT is only a scope-shaped image, the positional relationship between the image and internal organs in the body cannot be determined. Then, if the viewpoint position is rotated, the information relating to the direction from which the scope shape is viewed and the direction of the head to which the head looks is only numerical value information of the angle displayed as text. This is not suitable for sensory judgment. Therefore, an auxiliary means for making such a judgment intuitively is provided.
[0141]
Here, this is realized as shown in FIG.
First, the affine transformation of step S62_21 is performed. In this process, the reference display symbol in the world coordinate system is converted to the viewpoint coordinate system.
Next, 3D->-2D projection of step S62_22 is performed.
A conversion process of projecting two-dimensionally so that the reference display symbol transferred to the viewpoint coordinate system can be displayed on the CRT.
[0142]
Next, a symbol such as a bed serving as a reference plane in step S62_23 is displayed. Displays a symbol that assists the three-dimensional image of the scope image. A specific example of the symbol is, for example, a bed surface display, which will be described below.
[0143]
By doing so, the position of the reference plane, the distance of the scope shape from the reference plane, and the direction of the patient's head can be visually determined, and the determination criteria such as the position of the scope shape are provided.
Next, a bed surface display, for example, will be described as a specific example of the reference display symbol.
[0144]
A reference plane parallel to the XY plane of the world coordinate system and perpendicular to the Z axis is displayed. The Z coordinate may be any position on the bet plane (Z = 0) as long as the position can be used as a reference. This plane does not move with the viewpoint coordinates. That is, when the viewpoint position is rotated in the X-axis direction Y direction, the bet surface is displayed as a line. Markers may be attached to rectangles such as pillows, right shoulder, left shoulder or both directions so that the head direction can be recognized.
Since this is represented by a simple single plate, it is excellent in that it does not hinder the scope image and that the rotation of the viewpoint can be recognized. In addition, a reference marker display or a rectangular parallelepiped display obtained by adding a frame in the Z direction to the bed display may be performed.
[0145]
Next, a marker display process of step S62_3 in FIG. 10A is performed.
[0146]
In the marker display processing, the process from calculating the position of a single source coil to displaying it separately from the source coil 16i inserted into the scope is performed. As means for confirming the position inserted in the scope, a means for displaying one or more markers that can move independently of the source coil 16i in the scope is provided.
[0147]
In an actual device, the position calculation means is exactly the same as that used for the source coil 16i inserted in the scope, and the display means is the same as before, and the affine transformation in step S62_31 is performed as shown in FIG. → 3D in step S62_32 → 2D projection → marker display in step S62_33.
Therefore, here, a display using an n-gon (including a circle) will be described as a specific example of the marker shape output. If the display of the marker is displayed in such a form, many colors cannot be used, and in the case of an apparatus configuration in which the same color as the scope shape must be used, it is possible to distinguish even if it overlaps the scope shape.
[0148]
In this marker display, by changing the shape according to the rotation of the viewpoint, it is possible to recognize from which direction the user is looking. Also, the image may be associated with the viewpoint so as to always be in front. At this time, although the viewpoint direction cannot be recognized from the marker, the marker is excellent in that a marker of a fixed size is always output.
[0149]
This is the same expression as when the marker is spherical. If the marker is spherical, it is possible to display the direction and depth of the viewpoint by giving information such as gradation and saturation luminance.
[0150]
By moving the marker outside the body using such means, it becomes possible to confirm the position of the scope shape in the inserted state in association with the marker, and to know the scope insertion position in association with the actual patient position. Means of capture may be provided.
[0151]
As described above, according to the first embodiment, since the means for modeling the scope shape when viewed from the viewpoint directions different from each other by 90 ° and providing a three-dimensional display simultaneously on two screens is provided, Even when the depth shape in the image of the scope shape when viewed from one viewpoint direction is difficult to understand accurately, it can be visually and accurately understood from the image of the scope shape from the orthogonal viewpoint direction (displayed simultaneously).
[0152]
Therefore, for example, when an operation of introducing the distal end side of the insertion portion inserted into the patient to the target site is performed, the three-dimensional shape of the insertion portion can be accurately grasped. The work or operation to be introduced can be performed easily and smoothly, and the operability for endoscopic examination using an endoscope can be improved.
[0153]
In addition, since a display means such as a marker is provided, it is easier to grasp the three-dimensional shape including the direction of the scope shape from the display position of the marker on the image of the scope shape.
[0154]
Further, a function of turning on / off the display of the inspection range reference frame may be provided as in the first modification of the first embodiment. The configuration of the first modified example is almost the same as that of the first embodiment, that is, in the configuration of FIG. 2 or FIG. It is responsible for the process of turning the display ON or OFF.
In particular, in the two-screen display, since information from two directions is displayed, it is clear from which direction the endoscope is drawn in the initial state.
[0155]
For this reason, it may be assumed that the display of the inspection range display frame that makes it easy to identify from which direction the user is looking may be complicated. Therefore, the inspection range display frame can be set so as not to be displayed. FIG. 14 shows the flow of this processing.
[0156]
Up to step S53 is the same as FIG. If the end is not selected in step S53, then, in step S71, the judgment of the inspection range reference frame display flag ON / OFF is performed. In this determination, the inspection range reference frame display is switched based on, for example, whether the HOME_CLR key set as the hot key for switching the inspection range reference frame display is pressed.
[0157]
If the HOME_CLR key has not been pressed, the inspection range reference frame display flag is OFF, and it is determined in the next step S72 whether the HOME_CLR key has been pressed (abbreviated as HOME_CLRON? In FIG. 14). Step S72 of this determination is for enabling the flag to be switched from OFF to ON. If the flag is OFF in this determination, the scope is changed to step S42 'similar to step S42 shown in FIG. 8 (this step S42' more precisely corresponds to steps S54 to S67 in step S42 in FIG. 8). Performs model drawing processing. In this case, the scope image is displayed in a mode in which the inspection range reference frame is not displayed as shown in FIG. FIG. 15A shows the case of the single screen mode.
[0158]
If the inspection range reference frame display flag is turned on in step S71, it is further determined in step S73 whether the HOME_CLR key has been pressed. If the HOME_CLR key has not been pressed, in step S74, processing for drawing the cube within the inspection range is performed, and then processing for drawing the scope model in step S42 'is performed. In this case, a scope image is displayed together with the cube serving as the inspection range reference frame, as shown in FIG. FIG. 15B also shows the case of the single screen mode.
[0159]
If the HOME_CLR key is pressed in step S73, the flag is set to OFF in step S75, and the process of drawing the scope model in step S42 'is performed.
[0160]
In addition, even when the HOME_CLR key is pressed in step S72, the inspection range reference frame display flag is turned on in step S76, and the process proceeds to step S42 'to perform the scope model drawing process through the process of drawing the cube within the inspection range in step S74. Will be.
[0161]
According to the first modification of the first embodiment, the scope shape is displayed by displaying the inspection range reference frame according to the user's selection, or the scope shape is displayed without displaying the inspection range reference frame. Can be freely set, the selection range of the user can be expanded, and the usability for the user can be improved. The other effects are the same as those of the first embodiment.
[0162]
Next, a second modification of the first embodiment will be described. This modified example has a function of storing the endoscope shape user setting view state and a function of setting the user to the user setting view state. Specifically, ON / OFF of the endoscope shape user setting view state storage is set. By inputting TAB_key as a hot key to be performed, the endoscope shape user setting view state is stored, and by inputting / _key as a hot key for converting the endoscope shape to the stored view state, the view state is set to the internal state. A process for converting the endoscope shape is performed. The hardware configuration of the second modification is the same as that of the first embodiment, and the processing contents are partially different.
[0163]
FIG. 16 shows a flow of processing contents of the second modification. Steps up to step S53 are the same as those in FIG. Subsequent to step S53, a determination is made in step S15 as to whether or not there is a key input. That is, since keyboard input can be performed after step S53, it is determined whether or not the key input has been performed.
[0164]
If there is no key input, the process returns to the endoscope shape display routine of step S16, and then the process of displaying the scope model on the CRT by the process of displaying the scope model in step S17 is performed, and the process returns to step S53. Note that the endoscope shape display routine of step S16 and the scope model display processing of step S17 simply show the same processing as steps S42 ', S45, and S46 in FIG.
[0165]
On the other hand, if it is determined in step S15 that a key input has been made, it is determined in steps S18a and S18b whether the input is TAB_key or / _key.
[0166]
If it is determined that it is not TAB_key or / _key in steps S18a and S18b, the process proceeds to step S16.
[0167]
If it is determined that the current endoscope shape is the TAB_key, in the next step S19a, the view of the current endoscope shape display used and set by the user when the TAB_key is pressed is stored in the current user setting view storage process. The state of the parameter is written to a file or the like, stored (or recorded), and then the process proceeds to step S16.
[0168]
On the other hand, if it is determined to be / _key, in the next step S19b, the view parameter of the viewpoint setting at the time of displaying the endoscope shape stored by the operation of TAB_key is stored in a file or the like by the processing of the stored user setting view parameter set. And sets the parameters for displaying the endoscope shape, and then proceeds to the processing of the endoscope shape display routine in step S16. In this case, the endoscope shape is displayed based on each parameter read from the file.
[0169]
According to the second modification, when a user has a view state suitable for his / her preference when displaying an endoscope shape, the user can press TAB_key as a hot key for storing the view state. , The view parameters can be stored, and if display is desired, the user can press the / _key as a hot key to set the view parameters and set the view parameters. The endoscope shape can be displayed using the parameters.
[0170]
Therefore, according to the second modified example, each time the endoscope shape is displayed, the user does not need to perform the troublesome work of setting each parameter of the display, and can use the view parameters suitable for the user's preference and the like. An endoscope shape can be displayed, and a convenient environment for displaying an endoscope shape can be provided.
[0171]
Next, a third modification of the first embodiment will be described. In this modified example, the endoscope shape can be rotated by ± 90 ° in the horizontal direction and displayed by inputting a hot key. Specifically, when a key input of ROLLUP is performed, the endoscope is displayed. The shape is displayed by rotating the shape by + 90 ° in the horizontal direction, and when the key input of RILLDOWN is performed, the shape of the endoscope is rotated by −90 ° in the horizontal direction and displayed.
[0172]
The hardware configuration of the third modification is the same as that of the first embodiment, and the processing contents are partially different. FIG. 17 shows a flow of processing contents of the third modification. Steps S15, S16, and S17 are the same as those in FIG. If it is determined in step S15 that there is a key input, it is determined whether the input is a ROLLUP key input or a ROLLDOWN key input. The head angle is set to + 90 ° (that is, set to a value rotated by 90 ° in the positive direction around the Y axis), and in the case of a key input of RILLDOWN, the head angle is set to −90 ° (that is, negative) in step S20b. Is set to a value rotated by 90 ° in the direction of (1), and then the process proceeds to an endoscope shape display routine of step S16.
[0173]
Other parameters for shape display are used as they are (unchanged). According to the third modification, even in the case of the one-screen mode, by performing the key input of ROLLUP or ROLLDOWN, the endoscope shape from the direction perpendicular to the viewpoint direction in the shape display before the key input is performed. Can be displayed, and there is an advantage that the shape can be easily grasped.
[0174]
In other words, in the two-screen mode, the image from the set viewpoint direction and the image from the viewpoint direction orthogonal thereto are also displayed at the same time. It is possible to switch and display an image from an orthogonal viewpoint direction. Normally, in the two-screen mode, the user interface area on the right side of the screen is used as a graphics output area, and two screens orthogonal to each other are displayed side by side. In the case where the display is switched from the orthogonal viewpoint direction by the input operation of the hot key, it is possible to grasp numerically since the setting state is a state in which the setting state is always displayed on the right side as a numerical value.
In addition, when an image is photographed or recorded as a still image, the information of the setting state can be recorded at the same time, so that it is convenient to easily understand the state of the recorded image.
[0175]
In the third modification, an image in a state where the head angle is rotated by + 90 ° or −90 ° by the hot key can be displayed, but the pitch angle which is the rotation angle of the X axis or the rotation angle of the Z axis can be displayed. Similarly, an image rotated by + 90 ° or −90 ° may be displayed for a certain bank angle. For example, when a hot key that changes the pitch angle to be displayed can be used, an image from a viewpoint direction that is further orthogonal to the two orthogonal viewpoint directions displayed in the two-screen mode can be displayed, so that the shape can be further improved. It becomes easy to grasp. Note that one or two images in the two-screen mode may be displayed with a different pitch angle.
[0176]
Next, a second embodiment of the present invention will be described.
The second embodiment has means or functions for enabling selection and setting of the use mode of the marker. This means or function will be described below.
[0177]
The configuration of this embodiment is almost the same as the first embodiment. That is, the configuration is the same as that of FIG. 2 or FIG. 3, and in this embodiment, the system control unit 34 further uses the marker connected by an instruction (selection) from the operation unit 35 (more specifically, the keyboard 35a). Is selected and set, and a marker is displayed on the monitor 23 in accordance with the selection. The contents of the processing in this case are shown in the flow of FIG.
[0178]
Up to step S53 is the same as FIG. If the end is not selected in step S53, it is determined whether or not f · 9_key as a function key corresponding to a key input of a preset screen on which a marker mode can be changed in step S80 is pressed.
[0179]
If the f.9_key is pressed, the marker mode is set in step S81. On the preset screen, you can change the date, time and marker mode. Select the item to be changed with the arrow keys, set the cursor etc. at the marker mode change position, and press the return key to set the marker mode To
When the marker mode is set, the process proceeds to the marker mode determination (selection) process in step S82.
[0180]
In the marker mode selection process, the type of marker used for identification and the display mode (base model) are selected based on, for example, the marker mode number. For example,
It is determined whether the marker mode number is 0 or not, and if it is 0, the mode is set to a mode in which no marker is displayed. If it is not 0, the display mode is set to the display mode corresponding to the marker mode number in the display mode setting process of step S83. That is,
If the marker mode number is 1 as shown in step S83a, the single hand marker display mode is set and the marker is displayed in a circular shape.
[0181]
If the marker mode number is 2 as shown in step S83b, the display mode is set to one body marker display mode and the marker is displayed in a square.
[0182]
If the marker mode number is 3 as shown in step S83c, the display mode is set to the two hand markers display mode, and the marker is displayed in a square and a circle.
[0183]
If the marker mode number is 4 as shown in step S83d, the display mode is set to one body marker + one hand marker display mode, the body marker is displayed in a square, and the hand marker is displayed in a circle.
[0184]
Here, the body marker indicates that the marker is used as a reference position for drawing. For example, assuming that a marker coil is installed at the position of the anus, the endoscope shape inside the body is drawn from this position. In this case, an endoscope shape with a Y coordinate larger than the value of the Y coordinate where the marker coil is installed is drawn (the head side is set in the positive direction of the Y coordinate as shown in FIG. 13). .
[0185]
Alternatively, among the source coils on the probe side, the source coil located inside the detection area from the marker coil is drawn together with the drawing of the marker coil, with the position of the marker coil as the boundary position of the drawing range. In this case, the source coil in the probe which is located outside the detection area from the marker coil is not drawn.
[0186]
When the detection area is set, and when the marker coil is set outside the detection area, drawing is performed only with the source coil in the probe in the detection area. On the other hand, the hand marker mode is a drawing mode in which the position of the detected marker coil is simply displayed.
[0187]
In the next step S84, it is determined whether or not the mode is the body marker display mode. If it is determined that the mode is not the mode, the mode is the hand marker display mode, and the process of drawing the hand marker is performed in the next step S85. This process performs the following a to e (shown in a description that can be applied to the marker drawing process in step S90).
[0188]
a. The detected marker data is converted according to the set viewpoint.
b. In the case of the two-screen mode, a conversion process for further rotating by 90 ° is added.
c. The marker data on the space is constructed from the detected marker data and the base model data.
d. The marker data is transformed into two-dimensional coordinates by perspective projection transformation.
e. The marker data is converted into the actual display coordinates of the monitor based on the converted data, and each marker data is displayed.
[0189]
After the process of drawing the hand marker is performed in step S85, the process of drawing the scope model is performed in the next step S86, and the position of the hand marker is displayed on the CRT and the image in which the scope is modeled is displayed. If the marker mode number is 0 in the determination in step S82, the process proceeds to step S86, where the scope is displayed as a modeled image without performing marker drawing.
[0190]
On the other hand, when it is determined in step S84 that the mode is the body marker display mode, in step S87, a comparison is made on the Y coordinate, that is, a comparison of the body marker coordinate value <the scope coordinate value is performed. By this comparison, a source coil that satisfies the condition of being inside the detection area from the body marker is extracted. Then, it is determined in next step S88 whether or not the number of scope data satisfying this condition ≧ 3 (that is, whether or not the number of source coils satisfying this condition ≧ 3).
[0191]
If this determination is satisfied, the scope model is drawn in the next step S89, and the marker is drawn in the next step S90. This marker drawing process also performs the above steps a to e.
[0192]
On the other hand, if the condition of the number of scope data ≧ 3 is not satisfied in the determination in step S89, only marker drawing is performed in step S90 without performing scope model drawing. In this case, if the number of scope data is small, accurate shape estimation or the like cannot be performed, so that the scope model drawing is not performed.
[0193]
Note that the scope model drawing processing in steps S86 and S89 is the same as step S42 'in FIG. 14 except for the marker drawing processing. (In the second embodiment, the marker drawing processing is described separately from the scope model drawing processing. Is performed).
[0194]
In the first embodiment, for example, two hand markers are displayed as shown in FIG. 11, but according to the second embodiment, one is set as a body marker and the body marker is displayed as a square. The image 100 of the scope shape in the case is, for example, as shown in FIG. 41, and the scope shape portion at the Y coordinate position (upper in FIG. 41) larger than the Y coordinate position of the body marker m indicated by a square is displayed. . The display of the distal end of the scope in the image 100 will be described later.
[0195]
According to the second embodiment, since the display means for displaying the marker in the desired marker mode is also provided, the three-dimensional shape including the direction of the scope shape can be grasped from the reference display position of the marker on the image of the scope shape. Becomes easier. The other effects are the same as those of the first embodiment.
[0196]
Next, a modification of the second embodiment will be described. In this modified example, in addition to the function of the second embodiment, a marker position storage mode for storing a reference marker position such as an anus is provided. In this storage mode, the marker position at that time is changed by a hot key input operation. When the endoscope shape is displayed, a marker is displayed at the stored marker position (for example, with a mark that is easily distinguishable unlike a hand marker or the like).
[0197]
Specifically, when the marker mode numbers are 5 and 6, the function is added. Marker mode number 5 is selectable when one marker coil is connected, and marker mode number 6 is selectable when two marker coils are used. The configuration of this modification is the same as that of the second embodiment, and performs processing with additional functions. FIG. 19 shows a flow of processing contents in this modified example.
[0198]
In the processing shown in FIG. 19, the display mode setting processing in step S83 in FIG. 18 is changed to the contents as in step S83 'shown in FIG. 20, and between the steps S88 and S90 in FIG. And step S112 of displaying an anus marker (used as a reference marker like a body marker) at the stored marker position performed when the result of the determination is ON. To perform the following processing.
[0199]
That is, the process up to step S82 is the same as that of FIG. 18. If the marker mode number is not 0 in the marker mode selection process of step S82, the display mode setting process of step S83 'shown in FIG. 20 is performed. In this process, when the marker mode numbers are 1 to 4, the display modes are set to steps S83a to S83d, respectively, as in FIG.
Further, when the marker mode number is 5 or 6, the position storage mode is one or two markers, and the position storage mode (one marker) shown in step S83e or the position storage mode (two markers) shown in S83f, respectively. Set to display mode.
[0200]
After the processing of setting the display mode corresponding to the marker mode numbers 1 to 6 is performed in this manner, it is determined whether or not the INS_key as a hot key for turning on and updating the position storage mode shown in step S83g is turned on. Is performed.
[0201]
If the marker mode number 5 or 6 is selected and INS_key is pressed, the current marker position is stored as shown in step S83h, and the marker coil at the time INS_key is pressed is displayed. The position (coordinate value) is stored in another area of the memory or the like. After that, as shown in step S83i, a process of setting the marker mode to the number 1 (a process of setting to 3 in the case of two markers) by the process of the marker mode set is performed, so that the marker can be used as a hand marker. The process moves to the next step S84.
[0202]
That is, when the marker mode number 5 or 6 is selected, when the hot key for turning on the position storage mode is pressed, the marker position at that time is stored, and after this storage operation, one or two are stored. (A marker mode number of 5 or 6 can be used as a hand marker except when the hot key is pressed, that is, the hot key is pressed) Before and after the time may be used as a hand marker).
[0203]
In step S84, it is determined whether or not the mode is the body marker display mode. When the selected number is 1 to 4, the processing is the same as that in FIG. 18, but when the number is 5 or 6, the stored marker position is displayed. (The marker used to select the number 5 or 6 is processed as a hand marker as described in the marker mode set in step S83i described above). .
[0204]
That is, if the selected number is 1 or 3 (in this case, it is used for selection of numbers 5 and 6 and also includes the one set as the hand marker in the marker mode set), the process proceeds to step S85 and the selection is made. If the numbers are 2, 4, 5, and 6, the process proceeds to step S87.
[0205]
In step S87, when the numbers are 2 and 4, this is the same as in FIG. 18, and when the numbers are 5 and 6, the stored marker positions are regarded as the body markers with the numbers 2 and 4. A Y coordinate comparison process is performed in the same manner as described above. Then, in the next step S88, it is determined whether or not the number of scope data is 3 or more. If it is 3 or more, the scope drawing process is performed in step S89, and if less than 3, the scope drawing process is not performed. Then, the process proceeds to the next step S111.
[0206]
If it is determined in step S111 that the current mode is the position storage mode, it is determined that the current mode is the position storage mode. An anus marker as a marker is displayed (if the number is 6, a marker indicating the reference coordinate position (easy to identify) is displayed at another stored marker position in addition to the anus marker), Move to the next step S90.
[0207]
In the marker drawing process of step S90, a body marker is drawn, and when numbers 5 and 6 are selected, the process goes through to the next step S45.
[0208]
While the system is operating in the storage mode of numbers 5 and 6 after the system is started, even if the screen is switched to another screen and the display returns to the main display, the reference coordinate position stored by the hot key is retained. That is, the stored reference coordinate position is valid.
[0209]
Then, when the hot key is pressed next time, the stored contents of the marker position stored up to that time are updated, and the new marker position is stored. That is, it does not change until it is reset by the next hot key.
[0210]
According to this modification, if the position storage mode is selected and the hot key is pressed at a position desired as a reference position such as an anus, the reference position is stored, and a marker can be constantly displayed at the reference position. The marker used for the storage setting of the reference position can be used as a hand marker for displaying other positions.
[0211]
For this reason, it is possible to provide a single marker having a function as a function of a body marker and a function of a hand marker, which can be effectively used for displaying a reference position and the like. Further, even if the marker is not fixed at the reference position as in the case of using as a body marker, simply pressing the hot key with the marker set at the reference position can display the reference position without moving. There are also benefits.
[0212]
Note that a plurality of reference positions may be stored by one marker in the marker position storage mode. In this case, the number of reference positions to be stored may be selectively set. The display of the reference position stored and displayed may be arbitrarily released. In this case, if a marker is set at the displayed reference position and a hot key input operation is performed to compare the stored reference position with the new reference position and it is determined that they match, the content is deleted. May not be displayed.
[0213]
In the above description, the case where the number of markers is up to 2 has been described. However, the present invention is not limited to this, and the basic processing is the same even when the number of markers is 3 or more. The same can be handled simply by increasing the number. That is, the number of used markers can be set, and the details (the number used as hand markers and the number used as body markers) can be set.
[0214]
The number of markers that can be set and used may be determined regardless of the number of marker coils that are actually connected. However, the coil is sequentially scanned to apply a voltage, and whether or not a current actually flows is determined. Thereby, the connected marker coil can be automatically detected, and the marker mode that can be set accordingly can be limited.
[0215]
Next, a third embodiment of the present invention will be described. This embodiment has a function of freezing and displaying a shape. In most cases, the patient always moves delicately. In this case, the detected endoscope image also moves delicately, which may make it difficult to grasp the shape. Therefore, in this embodiment, the shape image displayed continuously is frozen to make it easier to understand the endoscope shape.
[0216]
FIG. 21 shows a flow of processing of an operation for displaying a frozen shape in this embodiment. Up to step S53 is the same as FIG. If f · 10_key has not been pressed, the freeze mode ON / OFF is determined in the next step S91. In addition, the process can proceed to step S71 in FIG. 14 or step S80 in FIG.
[0219]
The determination of the freeze mode ON / OFF is made based on the freeze flag. When the freeze flag is OFF and, for example, one of the function keys, vf · 2_key, is pressed, the freeze mode is turned ON, and the freeze flag is turned ON. When vf · 2_key is further pressed, the freeze mode is released and the freeze flag is turned off.
[0218]
When it is determined in step S91 that the freeze mode is OFF, that is, in the case of the moving image mode, a process of acquiring data of 12 points of the source coil attached in the scope is performed in step S92. After performing the data acquisition processing for all the source coils attached in the scope, it is determined in the next step S93 whether or not vf · 2_key has been pressed.
[0219]
If this vf.2_key is not pressed, it is determined in next step S94 whether CTRL + arrow key or CTRL ++ (or-) key as a key for instructing rotation / zoom of the scope image is pressed. When these keys are pressed, the input parameters are changed corresponding to the pressed keys (step S95), and the keys are rotated or zoomed. Then, the process proceeds to the processing of displaying the scope model in step S101, and the scope shape is displayed on the CRT. This scope model display process simply represents, for example, the process after step S42 'in FIG.
[0220]
In step S93, when vf · 2_key is pressed, a process of setting the freeze mode to ON is performed (step S96). Turn on the freeze flag and enter freeze mode. When this freeze mode is set, the scope shape is displayed on the CRT by using the data for shape display acquired before the freeze, without taking in new 12 points of data for the scope shape display. I do.
[0221]
On the other hand, when it is determined in step S91 that the freeze mode is ON, it is further determined in next step S97 whether or not vf · 2_key is pressed. If vf · 2_key is not pressed, it is determined in next step S98 whether CTRL + arrow key or CTRL + plus (or minus) key as a key for instructing rotation / zoom of the scope image is pressed. Do.
[0222]
When the key is pressed, the input parameters are changed corresponding to the pressed key (step S99), and the key is rotated or zoomed. Then, the scope model is displayed on the CRT. If no key is pressed in step S98, the scope model is displayed on the CRT without being rotated or zoomed.
[0223]
If vf.2_key is pressed in step S97, the freeze mode is turned off in the next step S100, and the scope model is displayed on the CRT in the moving image mode.
[0224]
According to the third embodiment, the display of the scope shape in the frozen mode and the display of the scope shape in the moving image mode can be freely selected. Therefore, if the display in the moving image mode is selected, the scope shape can be displayed in a state close to real time.
[0225]
On the other hand, when the display in the freeze mode is selected, the scope shape can be displayed in a still image state. For example, in a case where the movement of the patient is worrisome, such as displaying the shape at a site close to the heart, the scope shape can be displayed in a still image state by selecting the freeze mode. The shape of the scope can be easily grasped without being affected by the distance. In the case of the freeze mode, when the freeze mode is selected, the shape data immediately before is used, and it is not necessary to obtain the shape data that changes every moment after the selection or to perform the shape calculation process. The display of the scope shape can be performed in a short time. The other effects are the same as those of the first modification and the second embodiment of the first embodiment.
[0226]
Note that even when the freeze mode is selected, the user may be able to set the time interval for updating the scope shape data when displaying the scope shape in the freeze mode. In other words, when the freeze mode is set, the scope shape is displayed in a still image with one shape data until the freeze mode is released, and the scope shape is displayed in the still image with new shape data every set time in addition to the mode in which the scope shape is continuously displayed with one shape data. You may enable it to continue displaying sequentially.
[0227]
The third embodiment also has the functions of the flow shown in FIGS. 14 and 19, and its features and representative functions including those shown and not shown in the flow will be described below. First, it has the following features.
(1) Insert a dedicated (source) probe 15 into the treatment tool channel 13 of the endoscope 6 inserted into the patient, or use the dedicated endoscope (without using the probe 15 that can be installed in the channel 13). By using a source coil provided in the insertion portion of the endoscope), the insertion shape of the endoscope can be detected three-dimensionally and displayed as a continuous image.
[0228]
(2) By attaching a dedicated marker (the marker shown in FIG. 6 or a marker having a structure different from that shown in FIG. 6), the positional relationship with the endoscope shape can be known on the screen.
(3) The displayed endoscope shape image can be rotated and zoomed within the designated range.
[0229]
(4) The shape image moved by rotation and zoom can be returned to the initial state. (5) A continuously displayed shape image can be frozen.
(6) A comment can be overwritten on the displayed shape image.
(7) The following items can be displayed on the screen.
[0230]
・ Date and time
・ Patient data (patient ID, name, gender, age and date of birth)
·comment
(8) The following items can be entered and changed on the screen.
[0231]
・ Patient data (patient ID, name, gender, age and date of birth)
·comment
(9) Patient data can be input in advance, and the contents can be listed.
[0232]
(10) Date and time can be set.
(11) A mode using a marker can be set.
(12) Characters can be input and displayed on the entire screen.
(13) All characters displayed on the screen can be deleted.
(14) A stopwatch can be used on the screen.
[0233]
(15) The following functions can be used in combination with the multi-video processor.
・ Display / non-display of the endoscope shape image can be selected on the color monitor.
-The displayed shape image can be frozen on the color monitor.
Next, a usage example of a typical function and a specific display screen in that case will be described.
[0234]
FIG. 22 shows a more specific display example of FIG. That is, FIG. 22 shows a normal display screen in which a shape image is displayed on the display surface of the color monitor 23, and a shape image is displayed in a graphics output area (also referred to as a scope image display frame) G. The date and time and patient data (patient ID, name, gender, age, and date of birth) are displayed in the date and time & patient data output area D & P above G. The user interface area on the right side of the graphics output area G A main hot key and corresponding set information and a comment are displayed in K (also referred to as a comment display frame). In FIG. 22, for example, two hand markers indicating a reference position are displayed. In the drawings after FIG. 23, the notation of the output areas G, D & P, and K is omitted for simplification.
[0235]
In FIG. 22, for example, by selecting data input in the date and time & patient data output area D & P by operating a mouse or a keyboard, for example, the name of patient data can be input as shown in FIG. Of course, other data can be input or changed.
Next, functions set by the function keys will be described.
[0236]
[F ・ 1]… Stopwatch
1. Pressing the function key [f.1] once starts the stopwatch. At this time, the time is displayed above the comment display frame K on the right side of the screen. FIG. 24 shows the display screen when the stopwatch is starting.
[0237]
2. Pressing the function key [f · 1] again stops the stopwatch. FIG. 25 shows a display screen when the stopwatch stops.
3. When the function key [f · 1] is pressed again, the display of the stopwatch is erased.
[0238]
[F · 2] ... erase all characters
1. Pressing the function key [f.2] once deletes all characters on the screen. FIG. 26 shows a display screen in a state where all characters on the screen have been deleted.
2. When the function key [f · 2] is pressed again, the display returns to the initial state.
Note that patient data and comments input on the screen before using this function are invalidated by using this function, and are not displayed even if the display is returned to the initial state.
[0239]
[F.3] ... extended comment input
1. When the function key [f · 3] is pressed once, a comment can be input in the scope image display frame.
[0240]
In this state, by pressing [SHIFT] + arrow keys ([→], [←], [↑], [↓]), [→], [←], [↑] are displayed in the scope image display frame, respectively. ] And [↓] can be entered.
2. When the function key [f · 3] is pressed again, the display returns to the normal display state while the input character remains. FIG. 27 shows a display screen in which a tip comment and [→] have been input to indicate the tip of the insertion section.
[0241]
If the arrow keys ([→], [←], [↑], [↓]) are pressed without pressing the [SHIFT] key, the cursor moves in the direction of the pressed key. When a comment is input in the scope image display frame G using this function, the user can input “[SHIFT] + arrow keys ([→], [←], [↑], [↓], [+], [-]) ... Rotation / zoom of scope image "cannot be performed, so an extended comment is input after setting in advance.
[0242]
[F.4] ... Title screen display
1. When the function key [f.4] is pressed once, the screen is switched to an input screen of a title screen so that text can be input. FIG. 28 shows this title screen screen.
2. When the function key [f.4] is pressed again, the title screen input screen disappears and the display returns to the normal display state. The text entered at this time is backed up, so the same text will be displayed the next time you call.
The arrow keys ([→], [←], [↑], [↓]) are used to move the cursor.
[0243]
[F ・ 5]… Prior input of patient data
1. Pressing the function key [f.5] once switches to the patient data list screen. FIG. 29 shows this patient data list screen.
2. When the function key [f.5] is pressed again, the patient data list screen disappears and the display returns to the normal display state.
[0244]
3. On the patient data list screen, enter the number to be registered in "Seq. No." as a number from 1 to 20 and press the return key to enter a patient data pre-input screen for inputting data for each patient in advance. Is called and data can be registered. FIG. 30 shows this patient data pre-input screen.
[0245]
If the user presses the [HOME CLR] key as a key for deleting all data while waiting for the input of “Seq. No.”, all of the patient data 1 to 20 can be deleted.
4. On the data entry screen for each patient,
<Item><Format>
Patient ID → Up to 15 alphanumeric characters
Name → up to 20 alphanumeric characters
Gender → up to 3 alphanumeric characters
Age → up to 3 alphanumeric characters
Date of birth → DD / MM / YY (D: day, M: month, Y: year)
Can be entered.
To select an item, press the up and down arrow keys ([↑], [↓]) or the return key.
[0246]
The left and right arrow keys ([→], [←]) are used to move the cursor.
5. When the input is completed, the function key [f.6] is pressed to register the patient data. When registered, the screen changes to the next “Seq. No.” patient data input screen. Therefore, repeatedly press function key [f · 6] until “Seq. No.” becomes 20, or press the function key. Press [f.9] or end the pre-input function. Since the registered patient data is backed up, the same patient data is displayed in the next list.
[0247]
[F ・ 7]… Selection of patient data
1. Pressing the function key [f.7] once switches the screen to the patient data list screen.
2. When the function key [f.7] is pressed again, the patient data list screen disappears and the display returns to the normal display state.
[0248]
3. Enter the number you want to select for "Seq. No." on the patient data list screen as a number from 1 to 20 and press the return key. Data for each patient is called at the top of the normal screen, and the patient Data can be displayed. That is, patient data can be selected. FIG. 31 shows a patient data list screen in which patient data input on the patient data pre-input screen of FIG. 30 is selected and displayed.
If the [HOME CLR] key is pressed when "Seq. No." is selected, all of the patient data 1 to 20 can be deleted.
[0249]
[F · 8] ... cursor display switching
1. When the function key [f.8] is pressed once on the normal display screen or the comment extended display screen, a cursor is displayed. The part where the cursor blinks is a position where the cursor can be input. FIG. 32 shows a display screen of this cursor.
2. When the function key [f · 8] is pressed again, the cursor disappears.
[0250]
[F.9] ... change of initial settings
1. When the function key [f · 9] is pressed once, the screen is switched to a preset screen for changing the initial settings. On the preset screen, the date and time can be changed, and the marker mode can be changed so as to correspond to the place (country) used, daylight saving time, and the like.
As described with reference to FIGS. 19 and 20, as the marker mode, in addition to the mode not using a marker, one hand marker, one body marker, two hand markers, a hand marker + body marker, and a marker The position can be selected from a memory marker position (1 marker mode) for storing the position and a memory marker position (2 marker mode).
[0251]
To select an item, press the up and down arrow keys ([↑], [↓]) or the return key. FIG. 33 shows this preset screen. The left and right arrow keys ([→], [←]) are used to move the cursor.
2. When the function key [f · 9] is pressed again, the preset screen disappears, the display returns to the normal display state, and the changed setting is set. If no item is changed, the display returns to the normal display state with the previous setting.
[0252]
[CTRL] + [→]
[CTRL] + [←]
[CTRL] + [↑]
[CTRL] + [↓]… rotate / zoom scope image
[CTRL] + [+]
[CTRL] + [-]
[Vf.1]
1. Pressing [CTRL] + left / right arrow keys ([→], [←]) rotates the scope image about the Y axis. FIG. 34 shows a shape image when, for example, FIG. 31 is rotated by 50 ° around the Y axis. The rotation amount is displayed in the comment frame.
[0253]
2. Pressing [CTRL] + up / down arrow keys ([↑], [↓]) rotates the scope image about the X axis. FIG. 35 shows a shape image when, for example, FIG. 31 is rotated by −75 ° around the X axis. The rotation amount is displayed in the comment frame.
3. Pressing [CTRL] + [+] moves the scope image away, and pressing [CTRL] + [-] moves the scope image closer. FIG. 36 shows a shape image when [CTRL] + [+] is pressed to zoom out (reduce), and FIG. 37 shows a shape image when [CTRL] + [−] is zoomed in (enlarged).
[0254]
In FIG. 36, the viewpoint indicating the distance increases, and in FIG. 37, the viewpoint decreases.
4. When the function key [vf · 1] is pressed, the viewpoint changed by the above operations 1 to 3 returns to the initial setting.
[0255]
[Vf ・ 2]… Freeze scope image
1. Pressing the function key [vf · 2] once freezes the scope image.
2. When the function key [vf · 2] is pressed again, the freeze is released.
[0256]
[Vf.3] ... Switch display of scope image
1. When the function key [vf · 3] is pressed once, the scope image displayed in the wire frame is displayed in a solid color. The shape images shown in FIG. 22 and thereafter (up to FIG. 37) are displayed in a wire frame (an example of a wire frame display is shown in a circle obtained by enlarging a part of FIG. 37), but [vf · 3] By pressing, the scope image is displayed in a solid color as shown in FIG.
2. When the function key [vf · 3] is pressed once more, the painting is canceled and displayed in a wire frame.
[0257]
(5) Other functions
・ Video output operation with multi video processor
[Vf ・ 4]… Freeze video image
-Pressing the function key [vf.4] once freezes the scope image displayed on the video monitor. Press again to release the freeze.
[Vf.5] ... Superimpose of video image
When the function key [vf.5] is pressed once, the video image (endoscope image) is superimposed on the scope image displayed on the video monitor. Press again to cancel the superimpose.
Note that these functions cannot be used unless the connection to the multi-video processor enables video signal output.
[0258]
In the case of endoscopy, the operator naturally observes the actual endoscope screen and pays attention to the presence or absence of a lesion. Therefore, it is necessary to observe images projected on a plurality of monitors, and it is expected that the burden on the surgeon will increase.To improve this, superimpose the image on the display screen of the endoscope image. The scope shape can be displayed.
[0259]
In this case, if the output of the endoscope shape detecting device is a signal different from a general video signal, the signal is converted into a normal video signal and output. For this conversion, a device called a scan converter is used. The operation of the scan converter, which is another device different from the endoscope shape detection device, can be operated by controlling the operation of the scan converter by controlling the personal computer in the shape detection device body via RS-232C or the like. There are cases.
[0260]
By connecting the endoscope shape detection device to the multi-video processor (and the endoscope shape) via the scan converter and displaying the endoscope shape on the video monitor, it is possible to control the freeze of the video image as described above.
Also, superimposition of video images can be controlled. When the output of the endoscope shape detecting device is a signal of the same standard as a general video signal, the same function can be realized by connecting the endoscope shape detecting device to a multi-video processor without passing through a scan converter.
[0261]
In recent years, there is hardware (specifically, a device capable of high-speed A / D conversion) that takes in a normal video signal and displays it on the screen of a personal computer or a workstation. Alternatively, an endoscope observation image may be displayed on a monitor of the shape detection device.
[0262]
[HELP]: Scope image 2 screen display
1. When the [HELP] key is pressed once, the scope image is displayed simultaneously in two directions, horizontal and vertical. FIG. 39 shows a screen of a scope image two-screen display. In a state where the viewpoint direction is not changed, a scope shape in the vertical direction (from the Z-axis direction) is usually on the left side and a scope shape in the horizontal direction (from the X-axis direction) is on the right side. Is displayed.
In the scope image two-screen display mode, the functions of [vf · 1] to [vf · 5] and the inspection end function of [f · 10] function as in the normal one-screen display mode.
[0263]
2. In addition, the scope image rotation and zoom functions function simultaneously on two screens.
Note that comments input on the screen before using this function are invalidated by using this function and are not displayed.
[0264]
[HOME_CLR]: Inspection range reference plane display ON / OFF
1. Pressing the [HOME_CLR] key once does not display the cube indicating the inspection range reference frame. FIG. 40 shows a screen in a state where the inspection range reference frame is not displayed, that is, the inspection range reference frame is deleted and the scope image is displayed.
2. When the [HOME_CLR] key is pressed again, the state is switched to a state in which the inspection range reference frame is displayed.
[0265]
In the above description, in the two-screen mode, it has been described that the scope shape can be displayed from a direction in which the viewpoint directions are different from each other by 90 °. However, the scope shape can be displayed from two directions in which the viewpoint directions are different from each other by 90 °. Including. In the two-screen mode, date and time data and patient data may be simultaneously displayed, or data display / non-display may be selected.
[0266]
In the two-screen mode, the viewpoint direction can be changed at the same time while the scope shapes are displayed from directions different from each other by 90 °. Further, the viewpoint direction of only one image of the scope shape can be changed. In this case, the viewpoint directions of the two images are different from 90 °.
[0267]
In the single screen mode, the scope shape is displayed in the graphics output area G below the date and time & patient data output area D & P as shown in FIG. 22, but in the area including the date and time & patient data output area D & P. The scope shape may be displayed. These may be selected and displayed. Further, the scope shape may be displayed in an area including the graphics output area G and the user interface area K, or a maximum display area (or a maximum display screen size) including the three areas D & P, G, and K. May be used to display the scope shape.
As described above, since the third embodiment has various functions regarding the display method and the like, it is very easy to understand the shape in the patient's body from the displayed endoscope shape.
[0268]
In the above-described embodiment and the like, the direction of the scope shape is easily grasped by displaying a marker or the like. However, for example, the distal end side of the endoscope shape displayed as shown in FIG. Changes the display method (e.g., displays only the leading edge in a different color from the rest, that is, changes the display color. In addition, displays the leading edge arrow, blinks the leading edge, If the other part is displayed in wireframe, the drawing model is changed, such as displaying the tip part with a paste model that fills in.) The tip side can be easily grasped from the displayed image. Alternatively, the shape of the scope may be easily determined so that the shape of the scope can be easily determined.
[0269]
If the number of the arranged three-axis sense coils 22j is increased, the position of the source coil 16i can be detected with higher accuracy, and the endoscope shape can be estimated with higher accuracy.
Note that different embodiments can be configured by partially combining the above-described embodiments and the like, and these also belong to the present invention.
[0270]
Further, a different embodiment can be configured by combining with the contents of a previous application (Japanese Patent Application No. Hei 6-137468) filed by the present inventor (for example, the source coil 16i on the probe 15 side disposed in the insertion portion). The three-axis sense coil 22j arranged at a known position around the subject such as the bed 4 may be replaced (see FIG. 60 of the earlier application), or three orthogonal planes may be used instead of the three-axis sense coil 22j. May be used (see FIGS. 53 to 56 of the previous application), the source coil 16i may be driven wirelessly, or the marker may be driven wirelessly. (See FIGS. 75 to 78 of the earlier application), or the source coils 16i may be simultaneously driven at different frequencies (see FIGS. 49 to 51 of the earlier application). Reference), the source coil 16i may be driven at a phase angle at which the influence of the transient response is reduced (see FIGS. 44 and 45 of the prior application), and the scope-shaped image and the background image may be used. The peripheral image may be displayed in a superimposed manner (see FIGS. 73 and 74 of the earlier application), or an actual image of an endoscope may be used instead of displaying a scope-shaped image as a computer graphic image such as a wire frame. The corresponding texture image may be called up from the memory in which is stored and displayed (see FIGS. 69 and 70 of the previous application), or other embodiments may be used. Belongs to.
[0271]
[Appendix]
(1) The endoscope shape detecting device according to claim 1, further comprising a shape detecting means.
(2) The endoscope shape detection device according to Appendix 1, wherein the shape detection means uses a reference surface for shape detection as a bed.
(3) The endoscope shape detecting device according to claim 1, further comprising a marker display unit for associating a positional relationship with the endoscope on the screen.
(4) There is provided an initial state setting means for returning the shape image rotated and rotated to the initial state.
(5) The endoscope shape detecting device according to supplementary note 3, further comprising a setting unit configured to use the marker.
(6) The endoscope shape detecting device according to claim 1, further comprising an erasing means for erasing all characters displayed on the screen.
[0272]
【The invention's effect】
As described above, according to the present invention, an insertion shape of an endoscope inserted into a body cavity is detected using a magnetic field, and an endoscope shape detection device that displays the detected endoscope shape has a reference plane. The user can visually determine the position of the endoscope from the reference plane and the direction of the patient's head, making it easier to grasp the shape of the endoscope inserted inside the subject, such as a patient. Have.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram of an endoscope system having a first embodiment of the present invention.
FIG. 2 is a block diagram illustrating a configuration of an endoscope shape detection device according to the first embodiment.
FIG. 3 is an overall configuration diagram of an endoscope shape detection device.
FIG. 4 is a configuration diagram of a three-axis sense coil and a probe.
FIG. 5 is an explanatory diagram showing how a position of a source coil in a probe is detected using a plurality of sense coils.
FIG. 6 is a sectional view showing a configuration of a marker probe.
FIG. 7 is a flowchart showing the processing contents of the endoscope shape detection device.
FIG. 8 is a flowchart of a scope model drawing process for displaying an endoscope shape in the two-screen mode and the one-screen mode.
FIG. 9 is a flowchart of a scope image depiction process.
FIG. 10 is a flowchart of a scope image depiction process in an n-prism model.
FIG. 11 is an explanatory diagram showing an output image of an endoscope shape displayed on a monitor screen in a one-screen mode.
FIG. 12 is an explanatory diagram showing an endoscope-shaped output image displayed on a monitor screen in a two-screen mode.
FIG. 13 is an explanatory diagram showing a coordinate system fixed to a bed.
FIG. 14 is a flowchart showing display / non-display of a display frame of an inspection range in a first modified example of the first embodiment.
FIG. 15 is an explanatory diagram showing an endoscope-shaped output image with display and non-display of an inspection range.
FIG. 16 is a flowchart for storing and setting view parameters of an endoscope shape display in a second modified example of the first embodiment.
FIG. 17 is a flowchart showing a display in which the endoscope shape in the third modified example of the first embodiment is rotated by 90 ° in the horizontal direction and displayed.
FIG. 18 is a flowchart of a process for displaying a marker in a selected marker mode according to the second embodiment of the present invention.
FIG. 19 is a flowchart showing a marker display process having a function of a position storage mode in a modification of the second embodiment.
FIG. 20 is a flowchart showing the contents of a display mode setting process in FIG. 19;
FIG. 21 is a flowchart of a process of an operation of displaying a frozen shape according to the third embodiment of the present invention.
FIG. 22 is a view showing a specific example of a normal display screen.
FIG. 23 is a view showing a specific example of a state of data input in a name column on a normal screen.
FIG. 24 is a diagram showing a specific example in which the stopwatch is operating.
FIG. 25 is a diagram showing a state where the stopwatch is stopped in FIG. 24;
FIG. 26 is a view showing a specific example of a state in which all characters are deleted.
FIG. 27 is a view showing a specific example of a state in which an extended comment is input.
FIG. 28 is a view showing a specific example of title screen display.
FIG. 29 is a diagram showing a specific example of a patient data list.
FIG. 30 is a diagram showing a specific example of a pre-input screen for patient data.
FIG. 31 is a view showing a specific example of a display when the patient data of FIG. 30 is selected.
FIG. 32 is a view showing a specific example of a state where a cursor is displayed in a comment frame.
FIG. 33 is a view showing a specific example of a preset screen for changing initial settings.
FIG. 34 is a view showing a specific example of display when the scope image is rotated around the Y axis.
FIG. 35 is a view showing a specific example of display when a scope image is rotated around the X axis.
FIG. 36 is a view showing a specific example of display when the scope image is zoomed out.
FIG. 37 is a view showing a specific example of a display when a scope image is zoomed in;
FIG. 38 is a diagram showing a specific example of display switching when displayed with a filled scope image.
FIG. 39 is a view showing a specific example of display when a scope image is displayed on two screens.
FIG. 40 is a view showing a specific example of display when the display range frame is deleted.
FIG. 41 is a view showing a display example when a front end portion is displayed in a display mode different from that of another model drawing.
[Explanation of symbols]
1. Endoscope system
2. Endoscope device
3. Endoscope shape detection device
4 ... bed
5 ... Patient
6 ... Endoscope
7. Insertion part
11 Video processor
12 ... Color monitor
13 ... Channel
15 ... Probe
16i: Source coil
19 ... Tube
21: Shape detection device body
22j ... 3-axis sense coil
23… Monitor
24: source coil drive unit
26 Detector
30: Shape calculation unit
31 ... Position detector
32 ... Shape image generation unit
33 monitor signal generator
34 ... System control unit
35 ... Operation unit
35a… Keyboard
36a, 36b ... marker

Claims (3)

体腔内に挿入された内視鏡の挿入形状を磁界を用いて検出し、この検出した内視鏡形状を表示する内視鏡形状検出装置において、
内視鏡検査を行う際に体腔内に挿入された内視鏡の存在領域を検出する存在領域検出手段と、
前記存在領域検出手段により検出された存在領域をシンボル表示するシンボル表示手段と、
前記存在領域検出手段により検出された存在領域に基づく前記シンボル表示手段によるシンボル表示と、前記検出された内視鏡形状とを位置的に対応づけて表示させる表示制御手段と、
を備えたことを特徴とする内視鏡形状検出装置。
In an endoscope shape detection device that detects the insertion shape of the endoscope inserted into the body cavity using a magnetic field and displays the detected endoscope shape,
Existence area detection means for detecting the existence area of the endoscope inserted into the body cavity when performing an endoscopy,
Symbol display means for displaying a symbol of the presence area detected by the presence area detection means,
Display control means for displaying the symbol display by the symbol display means based on the presence area detected by the presence area detection means, and the detected endoscope shape in a positional correspondence,
An endoscope shape detection device comprising:
前記表示制御手段は、前記内視鏡検査を受ける患者の位置関係を関連づけたマーカを表示することを特徴とする請求項1に記載の内視鏡形状検出装置。2. The endoscope shape detecting device according to claim 1, wherein the display control means displays a marker that associates a positional relationship of the patient who undergoes the endoscopic examination. 前記表示制御手段は、選択に応じて前記シンボル表示手段によるシンボル表示を行うか否かの制御を行うことを特徴とする請求項1又は2に記載の内視鏡形状検出装置。The endoscope shape detection device according to claim 1, wherein the display control unit controls whether or not to perform symbol display by the symbol display unit in accordance with the selection.
JP2003108016A 1994-08-18 2003-04-11 Endoscope shape detection device Expired - Fee Related JP4159396B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003108016A JP4159396B2 (en) 1994-08-18 2003-04-11 Endoscope shape detection device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP19431294 1994-08-18
JP2003108016A JP4159396B2 (en) 1994-08-18 2003-04-11 Endoscope shape detection device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP6237955A Division JPH08107875A (en) 1993-10-18 1994-09-30 Endoscope shape detector

Publications (2)

Publication Number Publication Date
JP2004000551A true JP2004000551A (en) 2004-01-08
JP4159396B2 JP4159396B2 (en) 2008-10-01

Family

ID=30445432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003108016A Expired - Fee Related JP4159396B2 (en) 1994-08-18 2003-04-11 Endoscope shape detection device

Country Status (1)

Country Link
JP (1) JP4159396B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010050526A1 (en) * 2008-10-28 2010-05-06 オリンパスメディカルシステムズ株式会社 Medical device
WO2013111535A1 (en) 2012-01-24 2013-08-01 富士フイルム株式会社 Endoscopic image diagnosis assistance device, method, and program
JP5815156B2 (en) * 2013-07-02 2015-11-17 オリンパス株式会社 Medical equipment
CN111031885A (en) * 2017-08-29 2020-04-17 乔伊马克斯有限责任公司 Endoscope device
WO2021014991A1 (en) 2019-07-22 2021-01-28 富士フイルム株式会社 Endoscope shape display control device, operation method for endoscope shape display control device, and operation program for endoscope shape display control device
WO2021020067A1 (en) 2019-07-31 2021-02-04 富士フイルム株式会社 Endoscope shape display control device, method of operating endoscope shape display control device, and program for operating endoscope shape display control device
JP2022032811A (en) * 2020-08-14 2022-02-25 富士フイルム株式会社 Hand marker
US11478306B2 (en) 2016-12-27 2022-10-25 Olympus Corporation Shape acquiring method and controlling method for medical manipulator

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010050526A1 (en) * 2008-10-28 2010-05-06 オリンパスメディカルシステムズ株式会社 Medical device
JP4759654B2 (en) * 2008-10-28 2011-08-31 オリンパスメディカルシステムズ株式会社 Medical equipment
JPWO2010050526A1 (en) * 2008-10-28 2012-03-29 オリンパスメディカルシステムズ株式会社 Medical equipment
US8439826B2 (en) 2008-10-28 2013-05-14 Olympus Medical Systems Corp. Medical instrument having a display unit that displays a shape of an insertion body inserted into an interior of an object to be examined
US10085672B2 (en) 2012-01-24 2018-10-02 Fujifilm Corporation Diagnostic endoscopic imaging support apparatus and method, and non-transitory computer readable medium on which is recorded diagnostic endoscopic imaging support program
WO2013111535A1 (en) 2012-01-24 2013-08-01 富士フイルム株式会社 Endoscopic image diagnosis assistance device, method, and program
JP5815156B2 (en) * 2013-07-02 2015-11-17 オリンパス株式会社 Medical equipment
US10433762B2 (en) 2013-07-02 2019-10-08 Olympus Corporation Medical instrument
US11478306B2 (en) 2016-12-27 2022-10-25 Olympus Corporation Shape acquiring method and controlling method for medical manipulator
CN111031885A (en) * 2017-08-29 2020-04-17 乔伊马克斯有限责任公司 Endoscope device
CN111031885B (en) * 2017-08-29 2023-09-12 乔伊马克斯有限责任公司 Endoscope apparatus
WO2021014991A1 (en) 2019-07-22 2021-01-28 富士フイルム株式会社 Endoscope shape display control device, operation method for endoscope shape display control device, and operation program for endoscope shape display control device
WO2021020067A1 (en) 2019-07-31 2021-02-04 富士フイルム株式会社 Endoscope shape display control device, method of operating endoscope shape display control device, and program for operating endoscope shape display control device
JP2022032811A (en) * 2020-08-14 2022-02-25 富士フイルム株式会社 Hand marker

Also Published As

Publication number Publication date
JP4159396B2 (en) 2008-10-01

Similar Documents

Publication Publication Date Title
JPH08107875A (en) Endoscope shape detector
JP3506770B2 (en) Endoscope position detection device
KR100439756B1 (en) Apparatus and method for displaying virtual endoscopy diaplay
US6612980B2 (en) Anatomical visualization system
US6466815B1 (en) Navigation apparatus and surgical operation image acquisition/display apparatus using the same
JP3772151B2 (en) Insertion position detection device
US20060036163A1 (en) Method of, and apparatus for, controlling medical navigation systems
US6702736B2 (en) Anatomical visualization system
EP2975995B1 (en) System for enhancing picture-in-picture display for imaging devices used for surgical procedures
JP4676021B2 (en) Diagnosis support apparatus, diagnosis support program, and diagnosis support method
US9615772B2 (en) Global endoscopic viewing indicator
US20060293557A1 (en) Methods and apparati for surgical navigation and visualization with microscope (&#34;Micro Dex-Ray&#34;)
US20040116775A1 (en) Apparatus and method using it for detecting and displaying form of insertion part of endoscope inserted into body cavity
WO1997003601A9 (en) Anatomical visualization system
JP6112689B1 (en) Superimposed image display system
JP2000279425A (en) Navigation device
US12053324B2 (en) System for visualization and control of surgical devices utilizing a graphical user interface
JP4159396B2 (en) Endoscope shape detection device
WO2001097174A1 (en) Point inputting device and method for three-dimensional images
US20220215539A1 (en) Composite medical imaging systems and methods
EP4076251A1 (en) Systems for facilitating guided teleoperation of a non-robotic device in a surgical space
US20210378748A1 (en) Anatomical structure visualization systems and methods
CN114830638A (en) System and method for telestration with spatial memory
JP6142462B1 (en) Superimposed image display system
JP2001070248A (en) Image processing device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051025

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051226

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060822

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061023

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20061205

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20061228

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080613

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080715

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110725

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120725

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees