JP2002510230A - Stereoscopic image navigation method and apparatus - Google Patents
Stereoscopic image navigation method and apparatusInfo
- Publication number
- JP2002510230A JP2002510230A JP50581699A JP50581699A JP2002510230A JP 2002510230 A JP2002510230 A JP 2002510230A JP 50581699 A JP50581699 A JP 50581699A JP 50581699 A JP50581699 A JP 50581699A JP 2002510230 A JP2002510230 A JP 2002510230A
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- virtual image
- displaying
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000000034 method Methods 0.000 title claims description 126
- 238000003860 storage Methods 0.000 claims abstract description 19
- 230000008569 process Effects 0.000 claims description 27
- 238000005336 cracking Methods 0.000 claims description 4
- 238000002604 ultrasonography Methods 0.000 description 29
- 210000003128 head Anatomy 0.000 description 24
- 210000003625 skull Anatomy 0.000 description 23
- 238000001356 surgical procedure Methods 0.000 description 22
- 239000000523 sample Substances 0.000 description 17
- ACGUYXCXAPNIKK-UHFFFAOYSA-N hexachlorophene Chemical compound OC1=C(Cl)C=C(Cl)C(Cl)=C1CC1=C(O)C(Cl)=CC(Cl)=C1Cl ACGUYXCXAPNIKK-UHFFFAOYSA-N 0.000 description 15
- 238000005516 engineering process Methods 0.000 description 12
- 238000005520 cutting process Methods 0.000 description 11
- 210000001519 tissue Anatomy 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000002591 computed tomography Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 8
- 238000002595 magnetic resonance imaging Methods 0.000 description 8
- 210000004556 brain Anatomy 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 7
- 238000009877 rendering Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 206010028980 Neoplasm Diseases 0.000 description 6
- 230000008859 change Effects 0.000 description 6
- 239000002131 composite material Substances 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 210000001061 forehead Anatomy 0.000 description 4
- 208000026062 Tissue disease Diseases 0.000 description 3
- 210000003484 anatomy Anatomy 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 3
- 210000003491 skin Anatomy 0.000 description 3
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 2
- 230000002238 attenuated effect Effects 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 238000005282 brightening Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 229910052710 silicon Inorganic materials 0.000 description 2
- 239000010703 silicon Substances 0.000 description 2
- 238000003325 tomography Methods 0.000 description 2
- 208000003174 Brain Neoplasms Diseases 0.000 description 1
- 235000014653 Carica parviflora Nutrition 0.000 description 1
- 244000132059 Carica parviflora Species 0.000 description 1
- 241000102542 Kara Species 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 208000025865 Ulcer Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 210000004958 brain cell Anatomy 0.000 description 1
- 210000005013 brain tissue Anatomy 0.000 description 1
- 238000005352 clarification Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 230000009545 invasion Effects 0.000 description 1
- 238000012977 invasive surgical procedure Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000001000 micrograph Methods 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000000451 tissue damage Effects 0.000 description 1
- 231100000827 tissue damage Toxicity 0.000 description 1
- 230000008733 trauma Effects 0.000 description 1
- 231100000397 ulcer Toxicity 0.000 description 1
- 238000012285 ultrasound imaging Methods 0.000 description 1
- 230000002792 vascular Effects 0.000 description 1
- 210000005166 vasculature Anatomy 0.000 description 1
- 230000002861 ventricular Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2068—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2072—Reference field transducer attached to an instrument or patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/367—Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/378—Surgical systems with images on a monitor during operation using ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/42—Details of probe positioning or probe attachment to the patient
- A61B8/4245—Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Veterinary Medicine (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Pathology (AREA)
- Physics & Mathematics (AREA)
- Biophysics (AREA)
- Human Computer Interaction (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Robotics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
(57)【要約】 記憶装置(202)を有し、外科用器具又は指針(109)、位置追跡システム(105、110、111)、及び表示装置(102)に接続された外科用ナビゲーションシステム。指針(109)の位置及び方向は、実時間で追跡され、コンピュータ(101)へ送られる。コンピュータの記憶装置(202)では、MRI、CT、その他の患者の立体スキャンからのデータがロードされ、このデータは、指針(109)の視点からの患者の人体組織構造の3次元的透視画像を実時間で動的に表示するために使用される。 (57) Abstract: A surgical navigation system having a storage device (202) and connected to a surgical instrument or pointer (109), a position tracking system (105, 110, 111), and a display device (102). The position and orientation of the pointer (109) are tracked in real time and sent to the computer (101). The computer storage (202) is loaded with data from MRI, CT, and other stereoscopic scans of the patient, which data provides a three-dimensional perspective image of the patient's body tissue structure from the perspective of the pointer (109). Used for dynamic display in real time.
Description
【発明の詳細な説明】 立体的画像ナビゲーション方法及び装置 技術分野 本発明は、ナビゲーション(navigation)を目的として3次元対象物の画像を 生成するための方法及び装置に関し、特に、内科及び外科用に上記画像を生成す るための方法及び装置に関する。 背景技術 内科及び外科分野では、人体組織の各部分の精密な画像化が益々重要な技術と なっている。侵入式の外科的処置による患者の外傷を小さくするために、小さい 切開部を通じて最小の侵入で体内に外科的処置を施すための技術が開発されてき た。このような処置では、外科医により、直接に見ることができなかったり、見 ずらい人体組織の部分に手術を施す必要がある。さらに、体内の幾つかの部分は 、非常に複雑な構造や非常に小さい構造を含んでおり、より繊細な処置を外科医 が施せるように、このような構造の可視性を高くする必要が ある。また、このような処置の計画を立てるとき、最適な外科手術的な軌道(ト ラジェクトリー(trajectory))を決定するために、体内のこのような構造の位 置及び方向を評価する必要がある。 近年、内部の人体組織構造の画像を得ることのできる新しい医療技術が開発さ れた。この技術は、伝統的なX線法と比較して大きな利点を有する。比較的新し い技術には、ミクロインパルス・レーダー(Microimpulse Radar)(MIR)、コ ンピュータ・トモグラフィー(CT)、磁気共鳴画像化(Magnetic Resonance Ima ging)(MRI)、ポジション・エミッション・トモグラフィー(Position Emissi on Tomography)(PET)、超音波(Ultrasound)(US)スキャン、及び様々なそ の他の技術がある。これらの方法は、それぞれ、他の技術と比較して、利点と欠 点を有する。例えば、MRI技術は、3次元画像を生成するのに有用であるが、特 定タイプの組織に実用できるだけであり、一方、CTスキャンは、他の人体組織構 造の画像を生成するのに有用である。対照的に、USスキャンは、比較的速く処置 を行えるが、その精度と信号対雑音(SN)比に限定される。 画像化の問題は、特に、患者の頭蓋骨の内側に繊細な外科 的処置を施すような神経外科分野において深刻である。上記技術は、頭蓋骨内の 構造の画像から様々な人体組織の特徴を精度良く突き止める外科医の能力を向上 させた。しかし、これは、2次元画像で外科医が見ているものを手術台上の実際 には3次元の患者と合致させる必要があることから、手術室のセッチング(sett ing)の際の助けとなるだけであった。神経外科医は、依然、神経外科医の人体 解剖学の知識の範囲に頼らざるおえない。 何年も前に、この問題に取り組んだ定位的(ステレオタクチック(stereotact ic))技術が開発された。この定位的脳外科診療では、診療用画像に用いる基準 点を与える基準フレームが患者の頭部に取り付けられる。このデバイスは、外科 用器具を、目標とする脳内腫瘍へと所望の軌道に沿わせて切り開くためのガイド をさらに含む。このように、従前の神経外科技術では、外科医は、さながら、濃 霧の中に、浅瀬、珊瑚礁、岩礁、氷山、等のような幾多の障害物を有する海原で 船を航海させる船長のようなものである。たとえ、船長がこれら障害物の非常に 良い地図を有していたとしても、船の正確な位置を地図上で追跡し続けなければ ならない、という不変的な問題がある。これと同様に、脳内構造を示す精密な画 像 スキャンを有する神経外科医は、依然、目標の位置へと不都合なくナビゲーショ ンを行うために、実際の外科手術的な軌道の位置決めを正確にできなければなら ない。手術室のセッチングの際に、外科医によって施される他の処置が神経に影 響を与えずに、この相互的な関係が行われることがさらに必要である。 このナビゲーションの問題は、米国特許第5383454号(Bucholz)(1 995年1月24日発行)で取り組まれている。この特許には、頭部画像上に頭 部内の外科用プローブの位置を指示するためのシステムが開示される。このシス テムは、定位的フレームを使用して、基準点を与え、これら基準点に関するプロ ーブの先端の位置を計測するための手段を与える。この情報は、コンピュータ手 段によって画像に変換される。 米国特許第5230623号(Guthrie)(1993年7月27日発行)には 、手術中の指針の位置を検出し、これをコンピュータ上に読み出し、グラフィッ ク表示装置に接続させることが開示される。この指針は、外科医が指針を手放さ ずにコンピュータの制御を行えるように“3次元マウス”としても使用できる。 米国特許第5617857号(Chaderら)(1997年4月8日発行)には、 位置検出システムの手段により医用器具の位置を相互作用的に追跡するための画 像化システム及び方法が記載されている。指針は、小形発光ダイオード(LED) を含んでおり、放射線センサの固定アレイが設けられ、これにより、LEDの放射 するパルスが検出され、この情報を使用して、指針の位置が動的に探知される。 参考文献として、米国特許第5622170号(Schulz)(1997年4月22 日発行)も挙げられる。これには、同様のシステムが、プローブで探られる対象 物(例えば、脳)の模型画像に関する侵入式外科用プローブの指針を表示するた めのコンピュータ表示装置に接続されることが開示される。 米国特許第5531227号(Schneider)(1996年7月2日発行)は、 脳をわたるナビゲーションを行えるように外科用プローブの表示を実時間で与え ることが望ましい、という多数の他の参考文献にみられる問題を明示的に取り扱 っている。この特許には、動的に実時間で外科医の視線に沿った画像を与えるた めのシステムが開示される。このシステムでは、表示される画像は、3次元デー タを再構成したものから再度薄切りしたスライス画像(ユーザーの特定する視線 に 沿った様々な位置でこの視線に直交する断面又は薄片)である。よって、視線の 視点が常に対象物の外側からのものであるが、仮想画像を定義するために使用さ れる断面は外科医により選定される対象物を通じる様々な薄片(又はスライス) を構成し得る。これら画像は、外科医の頭部に取り付けたビデオカメラのような 視線に沿って向けられる画像記録デバイスにより得られる実際の画像上に重ね合 わされ、合成画像が表示され得る。 上記システムは、様々な方法でナビゲーション問題に取り組もうとするもので あり、これらは仝て、手術室での処置中に外科医による抜粋的な映像化の特定レ ベルを要する共通の欠点を有する。外科医が目標とする腫瘍又は組織障害に向け て脳を通じて処置を行うとき、外科手術的な軌道の周囲の全ての構造について全 て知ることが望まれる。従前のシステムでは、備えられている表示装置は、この 情報の全てを単一の利便的な実時間表示に与えず、観察者は、頭の中で行う概念 的な周囲構造の描画を得るために、断片を寄せ集めたり、表示情報を再度方向付 けたりしなくてはならない。これらのことは、手術室のセッチングにおいて、実 用上、重大な不利点である。従前のシステムに欠落しているものは、他の特徴に より隠されている構造を含む3次元及び2次元で脳内の視線に沿った外科用プロ ーブの先に見える様々な構造を実時間で示す3次元表示である。 発明の開示 本発明は、外科手術中に、実時間で人体組織構造の3次元画像を表示するため の改良システム及び方法を提供する。外科医は、外科的処置を施している間、こ の構造にわたってナビゲーションを行える。また、このシステムは、外科的処置 の計画を立てるのに有用である。このシステムは、表示装置及び入力デバイス( 例えば、キーボード及びマウス)を接続したコンピュータを含む。また、このシ ステムは、コンピュータに接続される位置追跡システムも含む。コンピュータに は、外科医が使用する外科用プローブ又は器具も接続される。位置追跡システム は、使用の際、外科用器具の位置及び方向を指示するために、データを実時間で 連続的にコンピュータに与える。コンピュータには、CTやMRIのような画像化ス キャンにより生成された患者データを収納する記憶装置がさらに含まれ、患者デ ータから人体組織構造の2次元及び3次元画像が生成される。患者に関するこれ ら画像の登録 又はレジストレーション(registration)手段が与えられる。 コンピュータの記憶装置は、人体組織の画像の生成を制御するプログラムをさ らに与える。これらプログラムは、スキャン画像の分割を行うためのソフトウェ アを含み、様々なタイプの構造や組織を識別することができ、また、スキャンデ ータからの2次元及び3次元画像を再構成できる。このソフトウェアは、様々な 大きさや方向で表示でき、また、様々な位置や方向で薄切りにしたスライス平面 により生成される様々な断面映像を表示でき、これら全ては外科医によって制御 できる。 この画像生成ソフトウェアは、映像の位置及び方向を変えたり、対象の映像領 域にある様々なタイプの組織、構造及び表面の表示透明度又は不透明度を変える ためのユーザー制御(ユーザーにより制御される)手段を有し、人体組織構造の 透視画像である3次元画像を生成する、という重要な特徴を有する。これにより 、ユーザーは、画像の視軸にある表面や構造を効果的に“見通す(又はシースル ー(see through)する)”ことができ、特定の映像に潜んでいる他の構造を見 えるようにすることができる。 さらに、画像は、外科用プローブ又は器具を使用している ときに、その長手方向の軸に沿って、その先端から見ている外科用プローブ又は 器具の視点から生成される。よって、侵入式の外科用器具(例えば、外科用メス 、ピンセット)が人体の切開部に挿入されると、人体の内側の視点から人体組織 構造の3次元的透視映像が表示装置に表示される。これら画像は、全て、“大急 ぎ(又は、オン・ザ・フライ(on the fly))で“実時間で生成される。よって 、器具を移動したり回転させると、位置追跡システムが、器具の位置及び方向を 指示するデータをコンピュータへ連続的に与え、表示される画像は、器具が指し 示す構造を示すように、連続的に更新される。 また、それ自身で画像を生成できるプローブ又は器具(例えば、超音波プロー ブ、内視鏡、外科用顕微鏡、等)のために、システムは、その画像とスキャンデ ータから生成されたものとを統合するための手段を与える。ソフトウェアにより 、ユーザーは、これら器具から生成された“実際の画像”と、スキャンデータか ら生成された“仮想画像”とを重ね合わせることができる。 本発明の目的は、外科的処置を施している間に外科医が遭遇する人体組織構造 の3次元的透視画像を生成するためのシ ステム及び方法を提供することである。 本発明の第二の目的は、画像に対応する視点の位置及び方向を変えるためのユ ーザー制御手段を有する、上記画像を生成するためのシステム及び方法を提供す ることである。 本発明の他の目的は、表示される画像が、通常の映像に潜んでいる構造及び特 徴を示すことができるように、対象の映像領域にある構造及び表面の不透明度を 変えるためのユーザー制御手段を有する、上記画像を生成するためのシステム及 び方法を提供することである。 本発明の他の目的は、外科医の使用する器具の長手方向の軸に沿った方向にあ る器具の先端に位置する視点を有する、上記画像を生成するためのシステム及び 方法を提供することである。 本発明の他の目的は、表示される画像が、外科医の使用する器具の位置に連続 的に対応するように、実時間で上記画像を生成するためのシステム及び方法を提 供することである。 本発明の他の目的は、外科医の使用する画像生成器具により生成された画像と 、上記画像とを比較し、組み合わせるためのシステム及び方法を提供することで ある。 本発明のこれら及びその他の目的、利点、特性及び特徴 は、好適な実施例の詳細な説明と添付の図面を考察することによって、よりよく 理解され得る。 図面の簡単な説明 図1は、神経外科的処置を施している間、手術室で使用される本発明の装置の 概念的な透視図である。 図2は、本発明のコンピュータシステム及び光学追跡システムの概念的なブロ ック図である。 図3は、本発明の方法を実施する際に守られる手術前データを使用するナビゲ ーションプロトコルの概念的なブロック図である。 図4は、本発明の方法を実施する際に守られる超音波手術中データを使用する ナビゲーションプロトコルの概念的なブロック図である。 図5は、本発明の方法を実施する際に守られる内視鏡プロトコルの概念的なブ ロック図である。 図6は、本発明の手術前プロトコルを備えた手術前コンピュータプログラムの 概念的なフローチャートである。 図7は、本発明の超音波プロトコルを備えた手術前超音波コンピュータプログ ラムの概念的なフローチャートである。 図8は、本発明の内視鏡プロトコルを備えた手術中内視鏡コンピュータプログ ラムの概念的なフローチャートである。 図9は、本発明に従って生成した表示を示し、外側の視点からの頭部の3次元 的透視映像と、頭部の軸方向、前額方向、及び前後方向の断面映像を示す。 図10は、本発明に従って生成した表示を示し、内側の観視点からの頭部の3 次元的透視映像と、頭部の軸方向、前額方向、及び前後方向の断面映像を示す。 図11aは、本発明を実施するために使用した外科用プローブと人の頭蓋骨の プラスチック模型を示す。 図11bは、実施目的の模型の内部構造を示すために、頭蓋骨の上部を取り外 した図11aの頭蓋骨模型の他の形態を示す。 図12は、図11a及び図11bに示す頭蓋骨模型の、本発明により生成され た二つの表示の簡単な複写である。 図13は、図11a及び図11bの頭蓋骨の、本発明の他の二つの表示の簡単 な複写である。 図14は、実際の人の頭蓋骨の、本発明によって生成された合成表示の複写で ある。 発明を実施する最良の形態 図1は、神経外科的手術を施すか又はその計画を立てる際に使用されるような 本発明の装置を示す。この図では、患者の頭部(112)には腫瘍又は組織障害 (117)があり、これが、手術の目標となる対象物である。当業者に既知の関 連技術と同様の技術に従って予め得られたスキャンデータによって生成される画 像の登録又はレジストレーション(registration)ができるように、基準点マー カー(113)、(114)が頭部に取り付けられる。外科医に保持された外科 用プローブ又は器具(109)が、対象の組織に向けられる。コンピュータ(1 01)が、キーボード(103)及びマウス(104)を含むユーザー入力デバ イス、及びビデオ表示デバイス(好適に、カラーモニター)に接続される。表示 デバイス(102)は、手術中に外科医が容易に見ることのできる場所に配置さ れ、また、ユーザー入力デバイス(103)、(104)は、外科的処置を施し ている間、容易に手の届く範囲内に配置される。この装置は、さらに、位置追跡 システムをさらに含む。この位置追跡システムは、好適に、手術台を見渡せると ころに取り付けた検出ユニット(105)、及び外科用器具(109)に取り付 けた少なくとも 二つの発光ダイオード(LED)(110)、(111)を有する光学追跡システ ム(以下、OTS)である。これらLEDは、好適に、赤外線パルス信号を連続的に放 射し、この赤外線パルス信号は、外科用器具(109)から見えるところにある 検出ユニット(105)に取り付けた複数の赤外線検出器(106)、(107 )、(108)に検出される。器具(109)及び検出ユニット(105)は、 両方とも、コンピュータ(101)に接続され、コンピュータ(101)は、LE Dからのパルス放射のタイミング及び同期と、検出器(106)〜(108)で 受信した赤外線信号の記録及び処理とを制御する。OTSは、これら信号を処理し て、器具(109)の位置及び方向を指示するデータを生成するためのソフトウ ェアをさらに含む。OTSは、位置検出データを実時間で連続的に生成し、外科用 器具(109)が動くと、その位置及び方向が、検出ユニット(105)によっ て連続的に追跡され、コンピュータ(101)に記録される。OTSは、米国特許 第5617857号(Schulz)、同第5622170号(Schulz)に記載のシス テムと同様の商業的に入手可能の“Flashpoint 3-D Optical Localizer(商品名 )”(Image Guided Technologies社、Boulder、Colorado)のような既知のタイ プの ものが好適である。しかし、本発明は、このような特定のOTSに限定されず、音 波位置検出システムのような他の位置追跡システムも使用できる。 図1に示すように、外科用器具(109)は、先細形であり、長手方向の軸と 、対象の組織に指向される先端部(115)とを有する。この器具は、図1に破 線で示す円錐形の視野(116)を有する内視鏡であり得る。図示の器具は、患 者の頭部の外側の位置で保持される。頭蓋骨に切開部(118)が形成された場 合、器具は、この切開部を通じて挿入され得る。この位置を図1に破線で示す。 これら両方の位置では、器具は、LED(110)、(111)と検出ユニット( 105)との間の視線が遮られないように、保持される。内視鏡や他の光学式映 像化法の応用では、器具は、考察対象の領域に強い光を当てて際だたせるために 、レーザー式目標設定システム(図示せず)を含み得る。 図2は、位置追跡システムに接続したコンピュータシステムの概念的なブロッ ク図を示す。コンピュータ(101)は、中央演算処理ユニット(CPU)(20 1)を含み、このCPU(201)には、記憶装置(202)、ビデオ表示装置( 102)、キーボード及びマウス(103)、(10 4)、光学検出器(106)〜(108)、及び外科用器具(109)に取り付 けたLEDが接続されている。コンピュータの記憶装置は、位置追跡システムを作 動し、制御するためのソフトウェア手段を収納している。変形的な好適な実施例 では、OTSの構成成分(105)〜(109)は、コンピュータ(101)に接 続され且つ外科用器具(109)の位置及び方向を指示するデータを連続的に与 える他のコンピュータ又はコントローラに接続、制御され得る。 上記の本発明の装置は、図3〜5に示す外科的プロトコルを実施するために操 作される。図3は、本発明に従って外科的処置を行う間の画像を生成するために 、手術前データを処理するためのプロトコル(“pre-opプロトコル”)の概念的 なブロック図である。患者の頭部の3次元(3D)画像データは、当業者には既 知の従来の医用画像化技術の一つ又はそれ以上の技術から予め得られているもの と仮定する。好適に、このデータは、例えば、超音波スキャンデータと比較して 高精度、高精細度の画像が得られるCT、MIR及び/又はMRIスキャン技術から得ら れる。スキャンデータは、ディスクドライブ又はテープドライブのような付加的 な入力手段(図示せず)を通じてコンピュータ記憶装置(202)に ロード(load)、貯蔵される(符号301)。 患者データは、一般的に既知の技術に従ってレジストレーションされる(符号 302)。この手順は、全データ集合の3次元的なレジストレーション、又は順 次薄切りした二次元的なレジストレーションであり得る。3次元的なレジストレ ーションに従うと、その後、画像は、3次元ボクセル(voxel)データのアレイ を生成するために立体的(又はボリューメトリック(volumetric))又は平面的 描出化(レンダリング(rendering))を使用して記憶装置で再構成される(符 号303)。次に、一つ又はそれ以上の既知の分割技術を使用して、これらデー タを分割し(符号304)、異なったタイプの頭部の物質(骨、脳組織、血管構 造及び脳室構造、等)やその表面の位置のような様々な人体組織の特徴を識別す る。好適に、分割処理は、異なったタイプの構造に異なった表示色を指定するこ とを含み、これにより、カラービデオ表示装置でこれらの識別を容易に行うこと ができる。例えば、血管系統を青色で示し、骨を茶色で示す、等であり得る。好 適な実施例では、これらの色指定は、キーボード(103)及びマウス(104 )の手段によって、ユーザーが変えることができる。また、好適な実施例では、 表示の不透明 度は、キーボード(103)、マウス(104)又は他の入力デバイス(例えば 、音声入力デバイス)の手段によってユーザーが変えることができ、これにより 、ビデオ表示に潜んでいる特徴の識別をより容易に行うことができる。2次元的 なレジストレーションが行われる変形的なプロトコルでは、各2次元画像サンプ ルの分割が行われ(符号309)、次に、3次元データが、分割データの薄切り (又はスライス)から再構成される(符号310)。この変形的なプロトコルは 、図に破線で示される。 図3を参照して、pre-opプロトコルの次のフェーズは、表示されるべき画像を 定義するために、映像ベクトルの位置及び方向を決定することである(符号30 5)。この映像ベクトルは、外科用器具(109)の現在の位置及び方向を突き 止めるために、OTSを問いただすことによって得られる。次に、この情報ととも に、3次元スキャンデータが、結果的に得られる3次元的透視映像の位置決め及 び方向付けを行い、この映像を指示し、明晰にする表示画像の切断面及び基準マ ーカーを定義するために、処理される(符号306)。次に、この処理を行った 3次元的透視画像は、ビデオ表示装置(102)上に表示される(符号307) 。また、任意の切 断面の2次元(2D)断面映像のような他の2次元画像も、好適に、解明を目的 として、3次元的透視表示と一緒に表示される。 最後に、pre-opプロトコルは、連続的なループ処理であり、外科用器具(10 9)の位置及び方向に対応する映像ベクトルの位置の変化について、OTSが、繰 り返し問いただされる(符号308)。よって、表示される画像は、外科的処置 の間、連続的に更新され、結果的に得られる表示は、実時間で絶えず新たに供給 される。また、画像データも貯蔵又は一時的に記憶され、引き続くプロトコルに 従った他の使用に利用できるようになっている(符号311)。 外科用器具(109)は、その先端(105)に位置した超音波変換器を含み 、患者の頭部に接触し、それ自身で、超音波画像化データをスキャンし、検出す る。図4は、手術中(“intra-op”)超音波(“US”)プロトコルの概念的なブ ロック図であり、外科手術中のUS画像データを処理する。典型的に、超音波変換 器は、人体組織の対象の領域の平面扇形区域からデータを生成するフェーズド集 束アレイであり、変換器の中心軸(本明細書では、外科用器具(109)の長手 方向の軸上にある)が、スキャン区域の平面にある。この軸 に関して外科用器具及び変換器を回転させることにより、対象の領域の円錐形ボ リューム(volume)のUSスキャンデータが収集され、貯蔵される(符号401) 。この円錐は、変換器スキャンの“視野”を定義する。 変換器の位置及び方向は、OTSによって追跡され、決定され(符号402)、U Sデータを使用して、対象の領域の3次元intra-op画像データを再構成する(符 号403)。このデータは、pre-opデータの処理(306)と同様のやり方で処 理され(符号404)、次に、任意の所望の対応する超音波データの2次元画像 と一緒に3次元画像を生成するために使用される(符号405)。これらintra- op画像は、pre-opプロトコル(符号311)により生成されたpre-op画像と融合 され(符号406)、合成画像がさらに表示される。最後に、OTSは、連続的に ストローブ(strobe)され(符号407)、超音波画像は、連続的に新たに供給 される。 図5は、内視鏡が外科用器具(109)の先端(115)に配置される、intr a-opプロトコルの概念的なブロック図でありる。このプロトコルも、内視鏡の位 置で外科用顕微鏡を使用する処置に提供できる。画像データが、内視鏡又は顕微 鏡の視線(本明細書では、外科用器具(109)の長手方向の 軸)に直交する平面の2次元画像を表すCCDカメラ又は他の既知の技術を使用 して、得られる(符号501)。外科用器具の位置及び方向は、OTSによって追 跡され、決定され(符号502)、アナログ・ツー・デジタル(“A/D”)変換 がこのデータで行われる(符号503)。視点の位置は、OTSデータから決定さ れ(符号504)、内視鏡又は顕微鏡画像データが処理され(符号505)、表 示用の所望の画像が生成される(符号506)。これらintra-op画像は、pre-op プロトコル(符号311)によって生成されたpre-op画像と融合され(符号50 8)、合成画像がさらに表示される。最後に、OTSは、連続的にストローブされ (符号507)、超音波画像が絶えず新たに供給される。 上述したプロトコルは、コンピュータ(101)の記憶装置(202)に収納 されるプログラムモジュールにより供給される。図6は、pre-opプロトコルを供 給するプログラムのフローチャートの概念的なブロック図である。プログラムが 開始され(符号601)、予め得た患者のスキャンデータ(例えば、MRI又はCT データ)をコンピュータが受信し、ロードする。コンピュータは、OTSからのデ ータをさらに読み取り(符号603)、スキャンを行った患者データをレジ ストレーションする(符号604)。3次元立体的描出化に、スキャンデータを 使用して、3次元画像データに再構成され(符号605)、分割がこの再構成で 行われる(符号606)。図に破線で示す変形的な実施例では、分割が2次元ス ライスで行われ(符号615)、次に、これら分割スライスが、全3次元画像デ ータに再構成される。 プログラムは、次に、ユーザーが画像表示用の視野を選択できるように、キー ボード(103)又はマウス(104)からの入力データを読み取る(符号60 7)。次に、画像データは、任意に選択した基準マーカー、物質不透明度、カラ ー、又はプログラムによってユーザーに与えられる他の選択肢と一緒に、所望の 映像を生成するために、処理され、変換される(符号608)。また、ユーザー は、内視鏡、顕微鏡、超音波変換器、又は外科的手術中に使用される他の映像化 デバイスの視野を示す重ね合わせた円錐と一緒に頭部全体の3次元表示を要求で きる。次に、結果的に得られる処理済み画像は、好適に、ビデオ表示装置(10 2)上にカラーで表示される(符号609)。コンピュータは、次に、OTSデー タを読み取り(符号610)、外科用器具が移動したか否かを決定する(符号6 11)。外科用器具が移動した場 合、プログラム制御が、図6に示す、新しい視野の選択(符号607)及び引き 続く作業(608)〜(610)に戻る。器具の位置が変わらなかった場合、い ずれの予め貯蔵した表示画像を新しく供給して、表示される画像は貯蔵される( 符号612)。プログラムは、作業を中断するべきか否かについてのユーザーか らの要求をさらに捜し(符号613)、このような要求がなかった場合、作業( 611)及び(612)が繰り返される。よって、コンピュータは、ユーザーが 終了を要求するまで、作業のループが続けられる(符号614)。 図7は、超音波intra-opプロトコルを供給するプログラムのフローチャートの 概念的なブロック図である。プログラムが開始すると(符号701)、コンピュ ータが、外科用器具(109)の先端9115)のUS変換器からデータを受信し 、ロードする。このようなデータは、通常、対象の領域の位置を特定するために 、極座標や球面座標を使用して生成され、プログラムは、好適に、このデータを 直交座標系に変換する(符号703)。次に、OTSデータが、外科用器具(10 9)の位置及び方向を決定するために読み取られ(符号704)、整列したデー タスライスの集合体からのUSデータを 使用して、USスキャンデータを表す3次元画像データを再構成する(符号705 )。この画像データは、pre-opデータの処理(符号608)と同様のやり方で、 プログラムによって処理され、変換され(符号706)、結果的に得られる画像 が表示される(符号707)。 図6に示すpre-opプログラムと同様に、OTSが問いただされ(符号709)、 外科用器具が移動したか否かを決定し(符号713)、器具が移動した場合、新 しいUS表示画像が再構成される。好適な実施例では、プログラムは、対象の領域 の他のUSスキャンを行うか否かについてユーザーに問いかける(符号716)。 他のUSスキャンを行う場合、プログラム制御は、図7の作業(符号702)へ戻 り、新たなUSデータがUS変換器で得られる。他のUSスキャンが要求されなかった 場合(符号716)、プログラムは、作業(符号705)へ戻り、新しい3次元 画像が現在のUSスキャンデータから再構成される。 前回の問いかけから外科用器具が移動しなかったことをOTSの問いかけが決定 した場合(符号709)、US画像は、図6に示すプログラムによって得られたpr e-op画像と融合され(符号710)、組合わせた画像が表示される(符号71 1)。OTSは、外科用器具が移動したか否かについての決定をするために、再度 、問いかける(符号712)。外科用器具が移動した場合、プログラムは、新し いスキャンのユーザーの問いかけ(符号716)に戻る。そうでなければ、プロ グラムは、作業を中断するべきか否かについてのユーザーからの要求を捜し(符 号714)、このような要求がなかった場合、作業が繰り返される(符号713 )。よって、コンピュータは、図6のpre-opプログラムと同様、ユーザーが終了 を要求する(符号715)まで作業のループが続けられる。 内視鏡/顕微鏡intra-opプログラムは、図8に概念的なブロック図で示すフロ ーチャートを有する内視鏡intra-opプログラムにより好適に供給される。プログ ラムが開始すると(符号801)、コンピュータが、内視鏡から画像データを受 信し、ロードする(符号802)。このデータは、デジタル化され(符号803 )、好適に、ビデオ表示装置(102)に表示される(符号804)。OTSが問 いただされ(符号805)、内視鏡の位置及び方向を決定する情報を受信する( 符号806)。この情報を使用して、図6に示すpre-opプログラムによって得ら れたpre-opデータが検索され(符号80 7)、内視鏡の視点からの3次元仮想画像を再構成するために使用される(符号 808)。この画像は、図6に示すpre-opプログラムによる3次元画像表示と同 様のやり方で、表示される(符号809)。この画像は、作業(符号804)で 表示された内視鏡画像と融合される(符号810)。次に、OTSがストローブさ れ(符号812)、前回の問いかけから内視鏡が移動したか否かについて決定す る(符号813)。内視鏡が移動した場合、プログラム制御は作業(符号802 )へ戻り、内視鏡で受信した画像データを新たに供給する。そうでなければ、プ ログラムは、作業を中断するべきか否かについてのユーザーからの要求を捜し( 符号814)、このような要求がなかった場合、作業(符号813)が繰り返さ れる。よって、コンピュータは、図6、7のpre-op及びintra-opプログラムと同 様に、ユーザーが終了を要求するまで作業のループが続けられる(符号815) 。 上記のプログラムモジュールは、個別に設計され、これらは、個別に実行でき るようにも設計できる。よって、pre-opプログラムが終了した後、intra-opプロ グラムの一方又は両方を実行できる。しかし、好適に、これらプログラムは、外 科的手術中、並列に操作され、手術が継続すると、pre-opデー タ画像及びintra-opデータ画像が、全て、連続的に新たに供給される。既知のプ ログラム並列処理方法が、このために使用できる。 上記のプログラムは、好適に、コンピュータグラフィック応用に適応されるコ ンピュータ(101)上で行われる。これらプログラムに適応するコンピュータ は、シリコン・グラフィックス社(Silicon Graphics,Inc.、Mountain View,Ca lifornia)から商業的に入手可能である。上記のプログラムでの大半の個々の画 像処理作業を行うためのグラフィックソフトウェアモジュールも、他のソースと 同様、シリコン・グラフィック社から商業的に入手可能である。 図9は、患者の頭部(112)の内部にある目標とする組織障害又は腫瘍(1 17)に向けて指向した図1の外科用プローブ(109)を有する上記システム によって得られた3次元画像表示(901)の略図である。表示(901)の縁 部は、境界線(900)で示される。表示(901)は、プローブ(109)の 先端(115)からの透視映像である。この表示は、連続的に新たに供給され、 プローブ(109)が移動すると、表示される画像(901)が直ちに変わる。 ここで、プローブ(109)の全部が患者の頭部の外側に示 されるが、表示(901)は、脳及び目標とする腫瘍(117)のような内部の 人体組織構造を示す。本発明のシステムでは、表示特性は、内部構造を強調した り、あまり強調させないように、実時間で調整できる。これらの構造は、異なっ た物質に対して異なった色づけをして表示することにより識別できる。また、皮 膚、頭蓋骨及び脳細胞の表示不透明度は、目標とする腫瘍(117)に注目して 他の構造の詳細を与えたり強調するために減衰できる。表示(901)は、隠れ た構造を表面及び対象物を通じて見ることのできる“X線の目”を外科医に効果 的に与える。この表示では、頭部の内部構造の全体が考察、研究でき、切開前に 、外科手術的な軌道を計画立てることができる。さらに、外科用器具(109) がメスである場合、外科医は、最初の切開前に、表示(901)により、表面に 画されたいずれの構造も直ちに見ることができる。図9は、考察下の領域をより 明示、解明するための、在来の軸方向(902)、前額方向(903)及び前後 方向(904)の2次元表示も示す。 外科用器具(109)が内視鏡又はUS変換器である場合、視野(116)は、 内視鏡(109)から見える皮膚の表面と円錐形の視野(116)との交差部を 指示する準円形画像 (905)によって表示(901)に指示される。この円錐形の視野も、2次元 表示(902)〜(904)に完全に重ね合わされる。好適な実施例では、表示 は、視野(905)で内視鏡により見られる実際の画像、及び視野(905)に ある同一領域の3次元的透視画像を示すこともでき、これら補助的な画像は、好 適に、器具(109)がUS変換器であるときに含まれる。 患者の頭部に切開部(118)が形成された後、内視鏡が挿入され、目標とす る人体組織構造の内部映像が与えられる。図10は、目標とする組織障害又は腫 瘍(117)に向けて指向した図1の内視鏡(109)(図1に破線で示す変形 的な位置)を有する上記システムによって得られた3次元的画像表示(1001 )の略図である。表示(1001)の縁部は、境界線(1001)により示され る。表示(1001)は、内視鏡(109)の先端(115)を通過しその軸に 直交した切断平面を有する3次元的断面映像を与えるように処理されたものであ る。上記と同様に、内視鏡の視野(905)が、この表示に指示され、好適な実 施例では、補助的な表示が、視野(905)の内視鏡により見られる実際の画像 、及び視野(905)の同一の領域の3次元的透視画像も 示し、これら補助的な表示は、図10には示されていない。この図は、さらに好 適に、さらに明示、解明を目的とする在来の軸方向(1002)、前額方向(1 003)及び前後方向(1004)の2次元表示も含む。 図11a、11b、12及び13は、本発明の好適な実施例によって生成され る3次元表示をさらに示す。図11a、11bは、ベース部(1102)と、着 脱可能の上部(1101)とを有する頭蓋骨のプラスチック模型を示す。頭蓋骨 (1101)、(1102)は、スタンド(1106)上に固定される。また、 図11aは、本発明に従って表示を生成するためにOTS(図示せず)に接続したL ED(1105)を有する指針(1104)を示す。上部(1101)には複数の ホール(1103)が設けられ、指針(1104)が頭蓋骨の内部に進入できる ようになっている。図11bには、上部(1103)を取り外した頭蓋骨が示さ れる。内部構造(1107)のプラスチック模型が頭蓋骨の内部に作られ、これ ら内部構造は、図示のように、簡単に確認できる配置構成の固体である。 図11a、11bの頭蓋骨は、図12、13に示す表示を生成するために使用 される“pre-op”画像データを生成する ためにスキャンされる。図12、13の表示の縁部は、それぞれ、境界線(12 00)、(1300)で示される。図12は、図1に示す指針の一及び方向と同 様に、指針(1104)を上部中央の外部から頭蓋骨に向けた頭蓋骨の二つの表 示(1201)、(1202)の合成画である。表示(1201)は、この指針 の一からの3次元的透視映像である。表示(1202)は、これと同一の映像で あるが、頭蓋骨物質の表示不透明度が減衰されている。この不透明度の減衰によ り、図示のように、内部構造(1107)が鮮明に可視化される。実際に使用し ている間、システムは、外科医がこの不透明度を変えて実時間で画像を調整でき るようにし、頭蓋骨構造及び内部構造の両方を様々な態様で表示装置に可視化で きる。 ここで、表示(1201)に示す表面等高線は、有限サイズの描出化レイヤー (layer)又はボクセル(voxel)によって生成される。これら等高線は、データ をスムーシング(smoothing)したり、ボクセル又はレイヤーのサイズを小さく することによって小さくできる。 図13は、開口部(1103)のうちの一つを通じて進入させた指針(110 4)おる二つの表示の合成画である。 表示(1302)は、頭蓋骨内部の指針の先端からの映像である。表示(130 1)は、指針の軸に沿った頭蓋骨の外側からの構造全体の映像である。すなわち 、表示(1302)は表示(1301)の一部を実質的に拡大したものである。 表示(1301)は、指針の軸に垂直な指針の先端を通じる切断面で一部を切断 した頭蓋骨を示す。これら表示の両方は、本発明によって生成される3次元表示 の透視画法的特徴を鮮明に示す。 最後に、図14は、実際の人の頭部の、システムによって生成された表示の簡 単な合成画である。表示(1401)は、図示のように直交する切断面によって 定義された部分を切断した頭部全体の透視映像である。図14の表示の縁部は、 境界線(1400)で示される。この表示は、二つの切断面の交差線に沿って頭 部に向けて指向した内視鏡の視野も示し、内視鏡の先端は、円錐の頂点にある。 表示(1402)は、垂直方向の切断面によって生成された2次元断面映像であ り、表示(1403)は、水平方向の切断面によって生成された、これに対応す る断面映像である。さらに、表示(1402)、(1403)の画像はまた、表 示(1401)の3次元画像上で変換(回転及び拡大)され、重ね合わ される。 これら表示の両方は、円錐形の視野と切断面との交差部も指示する。表示(1 404)は、内視鏡で見られる実際の画像である。表示(1405)は、本発明 に従って立体的描出化によりスキャンデータから再構成された内視鏡画像の仮想 透視映像である。表示(1406)は、本発明に従って平面的描出化によりスキ ャンデータから再構成された、狭い視野を有する内視鏡の視点からの画像の仮想 透視映像である。この表示(1406)は、外科手術的な軌道を計画立てる際に 、外科用プローブと一緒に使用できる。表示(1407)は、表示(1406) (狭い視野)を拡大したものであり、顕微鏡を通じて見られ得る仮想画像を示す 。最後に、表示(1408)は、平面的描出化を使用するスキャンデータからの 頭部全体の分割3次元透視映像であり、表示(1409)は、現有のシステムで 可能な表示の潤沢な多様性及び可転性を示す。これら全ての表示は、実時間で同 時に外科医に提供され、オンラインで変えることができる。 以上の説明から明らかなように、本発明は、実際の外科的処置の間、人体組織 構造をわたってナビゲーションを行うための改良した手段を提供する。システム により、外科医は、 余分な手作業を要することなく、処置を行うのに使用する同一の器具と一緒に表 示を選択し、調節することができる。表示が実時間で直ちに与えられることから 、画像が、処置の中断を一切必要としない。また、このシステムによって与えら れる仮想画像は、在来の手段を通じて得られる画像と連続的に相互的に関連され る。 さらに、本発明が神経外科応用や他の外科的又は医学的診療応用に限定されな いことは、当業者には明らかであろう。例えば、本発明を具体化するシステムは 、“pre-op”スキャンデータが得られるように、人工衛星からの情報を利用する 実際の航海又は航空ナビゲーションにより得られ得る。指針デバイスは、船舶又 は航空機自身に代えられ、ビデオ表示装置は、特殊な画像化ゴーグル又はヘルメ ットに置換できる。 本発明の好適な実施例の以上の説明は、図説を目的として与えられただけのも のであり、開示される精密な形態に限定されない。多数の変更物及び変形物が上 記の教示からなされ得る。本発明の精神及び範囲は、以下の請求の範囲及び全て の等価物の範囲に定義されるべきである。DETAILED DESCRIPTION OF THE INVENTION Stereoscopic image navigation method and apparatus Technical field The present invention Images of three-dimensional objects are used for navigation A method and apparatus for generating In particular, Generate the above images for internal medicine and surgery And a method and apparatus for the same. Background art In the medical and surgical fields, Accurate imaging of each part of human body tissue is increasingly important technology Has become. To reduce patient trauma from invasive surgical procedures, small Techniques have been developed for performing surgical procedures on the body with minimal invasion through the incision. Was. In such a procedure, By the surgeon, You ca n’t see it directly, You see It is necessary to perform surgery on a part of the human body tissue that is difficult. further, Some parts of the body , Including very complex and very small structures, Surgeon giving more delicate procedure So that It is necessary to increase the visibility of such structures is there. Also, When planning such an action, Optimal surgical trajectory Trajectory) Position of such a structure in the body Position and direction need to be evaluated. recent years, A new medical technology has been developed that can obtain images of the internal human tissue structure. Was. This technology is It has significant advantages over traditional X-ray methods. Relatively new Technology Microimpulse Radar (MIR), Ko Computer tomography (CT), Magnetic Resonance Ima ging) (MRI), Position Emission Tomography on Tomography) (PET), Ultrasound (US) scan, And various There are other technologies. These methods are Respectively, Compared to other technologies, Benefits and deficiencies Have a point. For example, MRI technology Useful for generating 3D images, Special Can only be used for certain types of organizations, on the other hand, CT scan Other human body structures Useful for generating images of structures. In contrast, US Scan Relatively quick treatment Can be It is limited to its accuracy and signal-to-noise (SN) ratio. The problem with imaging is In particular, Delicate surgery inside the patient's skull This is a serious problem in the field of neurosurgery in which surgical procedures are performed. The above technology is In the skull Improve surgeon's ability to accurately locate various human tissue features from structural images I let it. But, this is, What the surgeon sees in the two-dimensional image is actually on the operating table Need to match with the 3D patient, Operating room setting ing) only helped. Neurosurgeon still, Neurosurgeon human body You have to rely on your knowledge of anatomy. Years ago, Stereotactic (stereotact) ic)) The technology was developed. In this stereotactic brain surgery, Criteria used for medical images A reference frame that gives points is attached to the patient's head. This device is Surgery Equipment Guide to cut into desired brain tumor along desired trajectory Further included. in this way, With traditional neurosurgery techniques, The surgeon Just like Dark In the fog, Ford, coral reef, Reef, iceberg, In the sea with many obstacles like It's like a captain navigating a ship. for example, The captain is very Even if you have a good map, I have to keep track of the exact location of the ship on the map No, There is an immutable problem. Similarly, Precise image showing brain structure image A neurosurgeon with a scan still, Navigate to the target location without inconvenience In order to do Must be able to accurately position the actual surgical trajectory Absent. When setting up the operating room, Other procedures performed by the surgeon may affect the nerves. Without affecting It is further necessary that this interrelationship takes place. The problem with this navigation is U.S. Pat. No. 5,383,454 (Bucholz) (1) (Issued January 24, 995). This patent includes: Head on head image A system for indicating the position of a surgical probe within a unit is disclosed. This cis The system is Using stereotactic frames, Give a reference point, Professional on these reference points Provides a means for measuring the position of the tip of the probe. This information Computer hand It is converted to an image by the step. No. 5,230,623 (Guthrie), issued July 27, 1993, , Detects the position of the pointer during surgery, Read this on the computer, Graphic It is disclosed to connect to a display device. This guideline Surgeon let go of guidelines It can also be used as a "three-dimensional mouse" so that a computer can be controlled without using it. U.S. Patent No. 5,617,857 (Chader et al.) (Issued April 8, 1997) An image for interactively tracking the position of a medical device by means of a position detection system. An imaging system and method is described. The guidelines are Small light emitting diode (LED) And A fixed array of radiation sensors is provided, This allows LED radiation Pulse is detected, Using this information, The position of the pointer is dynamically detected. For reference, U.S. Patent No. 5,622,170 (Schulz) (April 22, 1997) Issued on a daily basis). This includes A similar system, What is probed for Object (for example, For displaying the guide of the invasive surgical probe on the model image of the brain) It is disclosed to be connected to a computer display device. U.S. Pat. No. 5,531,227 (Schneider) (issued July 2, 1996) Provides real-time display of surgical probes for navigation across the brain Is desirable, Explicitly address the issues found in many other references. ing. This patent includes: Dynamically provide images along the surgeon's gaze in real time A system is disclosed. In this system, The displayed image is 3D day Sliced image from the reconstructed data (a line of sight specified by the user) To Cross-sections or slices perpendicular to this line of sight at various locations along it. Therefore, Gaze The viewpoint is always from outside the object, Used to define virtual images Various slices (or slices) through the object selected by the surgeon Can be constructed. These images are Like a video camera on the surgeon ’s head Superimposed on the actual image obtained by the image recording device oriented along the line of sight Forgotten, A composite image may be displayed. The above system Trying to tackle navigation problems in various ways Yes, These are Identify excerpted visualizations by surgeons during procedures in the operating room It has the common disadvantage of requiring a bell. Towards a tumor or tissue disorder targeted by the surgeon When performing treatment through the brain All structures around the surgical trajectory It is desirable to know. In previous systems, The display device provided is this Without giving all of the information to a single convenient real-time display, The observer Concept to do in head In order to obtain a realistic drawing of the surrounding structure, Gathering fragments, Redirect display information I have to get rid of it. These things are In the setting of the operating room, Real For business use This is a significant disadvantage. What is missing from the old system is: Other features Surgical professionals along the line of sight in the brain in three and two dimensions, including more hidden structures 3 is a three-dimensional display showing, in real time, various structures that can be seen at the front of the probe. Disclosure of the invention The present invention During surgery, To display a three-dimensional image of the human body structure in real time An improved system and method are provided. The surgeon During the surgical procedure, This Navigation across the structure of Also, This system is Surgical procedure Useful for planning. This system is Display device and input device ( For example, Keyboard and mouse). Also, This The stem is Also includes a position tracking system connected to a computer. On the computer Is A surgical probe or instrument used by the surgeon is also connected. Position tracking system Is When using, To indicate the position and orientation of the surgical instrument, Data in real time Give to the computer continuously. Computers have Imaging tools such as CT and MRI A storage device for storing the patient data generated by the scan; Patient de 2D and 3D images of the human body structure are generated from the data. This about the patient Registration of images Alternatively, a registration means is provided. Computer storage devices A program that controls the generation of images of human tissue Give to them. These programs are: Software for dividing scanned images Including Different types of structures and organizations can be identified, Also, Scande 2D and 3D images from the data can be reconstructed. This software is various Can be displayed in size and direction, Also, Slicing plane sliced in various positions and directions Can display various cross-sectional images generated by All of this is controlled by the surgeon it can. This image generation software Change the position and direction of the image, Target video area Various types of organizations in the region, Change the display clarity or opacity of structures and surfaces User control (user controlled) means for Human body structure Generate a three-dimensional image that is a perspective image, It has an important feature. This , The user Efficiently “see through” (or seesell) the surface or structure on the visual axis of the image -(See through)) " Look at other structures lurking in a particular video Can be obtained. further, The image is Using a surgical probe or instrument sometimes, Along its longitudinal axis, Surgical probe seen from its tip or Generated from the perspective of the instrument. Therefore, Invasive surgical instruments (eg, Surgical scalpel , Tweezers) is inserted into the incision in the human body, Human body tissue from inside perspective of human body A three-dimensional perspective image of the structure is displayed on the display device. These images are all, “Daikyu (Or "On the fly" "generated in real time. Therefore , When you move or rotate the instrument, The position tracking system The position and orientation of the device Continuously giving the data to be instructed to the computer, The displayed image is The instrument points As shown in the structure shown, Updated continuously. Also, A probe or instrument that can generate images on its own (eg, Ultrasonic probe , Endoscope, Surgical microscope, Etc.) the system, The image and scan Provide a means to integrate with those generated from data. By software , The user “Real images” generated from these instruments, Scan data The “virtual image” generated from this can be superimposed. The purpose of the present invention is Human anatomy encountered by surgeons during surgical procedures For generating a three-dimensional perspective image of It is to provide a stem and a method. A second object of the present invention is to User for changing the position and direction of the viewpoint corresponding to the image User control means, A system and method for generating the image are provided. Is Rukoto. Another object of the present invention is to The displayed image is Structures and features hidden in ordinary images To be able to show signs Opacity of structures and surfaces in the target image area Having user control means for changing A system for generating the above image and And provide methods. Another object of the present invention is to In the direction along the longitudinal axis of the surgeon's instrument Having a viewpoint located at the tip of the instrument A system for generating the image, and Is to provide a way. Another object of the present invention is to The displayed image is Continuous at the location of the instrument used by the surgeon To respond A system and method for generating the image in real time is provided. Is to provide. Another object of the present invention is to The image generated by the image generator used by the surgeon , Compare with the above image, By providing systems and methods for combining is there. These and other objects of the invention, advantage, Characteristics and characteristics Is By considering the detailed description of the preferred embodiment and the accompanying drawings, better Can be understood. BRIEF DESCRIPTION OF THE FIGURES FIG. During a neurosurgical procedure, Of the device of the present invention used in the operating room It is a conceptual perspective view. FIG. The conceptual block diagram of the computer system and optical tracking system of the present invention. FIG. FIG. Navigator using pre-operative data protected in practicing the method of the present invention FIG. 3 is a conceptual block diagram of an application protocol. FIG. Using Ultrasound Intraoperative Data Protected in Performing the Method of the Invention It is a conceptual block diagram of a navigation protocol. FIG. The conceptual block of the endoscope protocol followed when implementing the method of the present invention. It is a lock figure. FIG. Of a pre-operative computer program with the pre-operative protocol of the present invention. It is a conceptual flowchart. FIG. Pre-operative ultrasound computer program with ultrasound protocol of the present invention It is a conceptual flowchart of a RAM. FIG. Intraoperative endoscope computer program with endoscopic protocol of the present invention It is a conceptual flowchart of a RAM. FIG. FIG. 6 shows a display generated in accordance with the present invention; 3D of head from outside viewpoint Perspective images, Axial direction of the head, Forehead direction, And a cross-sectional image in the front-rear direction. FIG. FIG. 6 shows a display generated in accordance with the present invention; Head 3 from inside view Dimensional perspective images, Axial direction of the head, Forehead direction, And a cross-sectional image in the front-rear direction. FIG. The surgical probe used to practice the invention and the human skull 3 shows a plastic model. FIG. In order to show the internal structure of the model to be implemented, Remove the top of the skull 11b shows another form of the skull model of FIG. 11a. FIG. The skull model shown in FIGS. 11a and 11b, Generated by the present invention Here is a simple copy of the two displays. FIG. 11a and 11b of the skull, Simple two other indications of the present invention It is a perfect copy. FIG. Of a real human skull, In copying the composite display generated by the present invention is there. BEST MODE FOR CARRYING OUT THE INVENTION FIG. As used in performing or planning neurosurgery 1 shows the device of the invention. In this figure, Tumor or tissue damage on the patient's head (112) (117) This is, This is the target of surgery. Functions known to those skilled in the art Image generated by scan data obtained in advance according to the same technology as To be able to register or register images Reference point marker Car (113), (114) is attached to the head. Surgery held by surgeon Probe or instrument (109) for Aimed at the target organization. Computer (1 01) User input device including keyboard (103) and mouse (104) chair, And a video display device (preferably, Color monitor). display The device (102) Placed where it can be easily seen by the surgeon during surgery And Also, User input device (103), (104) Performing a surgical procedure While It is located within easy reach. This device is further, Location tracking Further includes a system. This location tracking system Preferably, Overlooking the operating table A detection unit (105) attached to the rollers, And attached to surgical instruments (109) At least Two light emitting diodes (LED) (110), Optical tracking system having (111) (Hereafter, OTS). These LEDs are Preferably, Continuously emits infrared pulse signals Shoot, This infrared pulse signal Visible from surgical instrument (109) A plurality of infrared detectors (106) attached to the detection unit (105), (107 ), It is detected at (108). The instrument (109) and the detection unit (105) both, Connected to the computer (101), The computer (101) LE Timing and synchronization of pulse emission from D, With detectors (106) to (108) It controls the recording and processing of the received infrared signal. OTS Process these signals hand, Software for generating data indicating the position and orientation of the instrument (109) Further included. OTS Generate position detection data continuously in real time, Surgical When the instrument (109) moves, The position and direction are By the detection unit (105) Tracked continuously It is recorded on the computer (101). OTS US Patent No. 5617857 (Schulz), No. 5,622,170 (Schulz). Commercially available “Flashpoint 3-D Optical Localizer” (trade name) ) "(Image Guided Technologies, Boulder, Known colorado) Of Those are preferred. But, The present invention Not limited to such specific OTS, sound Other position tracking systems, such as a wave position detection system, can also be used. As shown in FIG. The surgical instrument (109) Tapered, With a longitudinal axis , A tip (115) directed to the tissue of interest. This instrument Broken in Figure 1 It may be an endoscope having a conical field of view (116) indicated by lines. The illustrated device is Suffering Held outside of the person's head. When an incision (118) is formed in the skull If The equipment is It can be inserted through this incision. This position is shown by a broken line in FIG. In both these positions, The equipment is LED (110), (111) and the detection unit ( 105) so that the line of sight is not obstructed Will be retained. Endoscopes and other optical projection In the application of the imaging method, The equipment is To shine a strong light on the area under consideration , A laser targeting system (not shown) may be included. FIG. A conceptual block diagram of a computer system connected to a position tracking system. Fig. The computer (101) Central Processing Unit (CPU) (20 1) In this CPU (201), Storage device (202), Video display device ( 102), Keyboard and mouse (103), (10 4), Optical detectors (106) to (108), And attached to surgical instruments (109) LED is connected. Computer storage devices Create a location tracking system Move Contains software means for control. Modified preferred embodiment Then The components (105) to (109) of the OTS are Connect to computer (101) Continuously providing data indicating the position and orientation of the surgical instrument (109). Connected to another computer or controller Can be controlled. The device of the present invention described above, Procedures to perform the surgical protocol shown in FIGS. Made. FIG. To generate images during performing a surgical procedure according to the present invention , Concept of protocol for processing preoperative data (“pre-op protocol”) FIG. The three-dimensional (3D) image data of the patient's head is For those skilled in the art, Obtained in advance from one or more of the known conventional medical imaging techniques Assume that Preferably, This data is For example, Compared to the ultrasound scan data High precision, CT for obtaining high-definition images, Obtained from MIR and / or MRI scanning techniques It is. Scan data is Additional, such as a disk drive or tape drive To the computer storage device (202) through various input means (not shown) Load, It is stored (reference numeral 301). Patient data is Registered according to generally known techniques (sign 302). This step is Three-dimensional registration of all data sets, Or order Subsequent two-dimensional registration can be sliced. Three-dimensional registration According to the solution, afterwards, The image is Array of three-dimensional voxel data (Or volumetric) or planar to generate Reconstructed on storage using rendering (rendering) No. 303). next, Using one or more known segmentation techniques, These days Data (symbol 304), Different types of head matter (bones, Brain tissue, Vasculature Construction and ventricular structure, ) And various body tissue characteristics such as their surface location You. Preferably, The splitting process is Specify different display colors for different types of structures And This allows Easy identification of these on color video displays Can be. For example, The vascular system is shown in blue, Showing bones in brown, And so on. Good In a preferred embodiment, These color specifications are Keyboard (103) and mouse (104) ) Means User can change. Also, In a preferred embodiment, Display opacity The degree is Keyboard (103), A mouse (104) or other input device (eg, , Voice input device) can be changed by the user, This , Identification of features hidden in the video display can be performed more easily. Two-dimensional In a variant protocol where a strong registration is performed, 2D image sump Is performed (reference numeral 309). next, Three-dimensional data Slicing of divided data (Or 310). This variant protocol is , This is indicated by a broken line in the figure. Referring to FIG. The next phase of the pre-op protocol is The image to be displayed To define Determining the position and direction of the video vector (reference numeral 30) 5). This video vector is Protrude the current position and orientation of the surgical instrument (109) To stop Obtained by asking OTS. next, With this information To 3D scan data Positioning and positioning of the resulting three-dimensional perspective image And direction, Direct this video, The cut surface and reference mark of the displayed image to be clear To define the It is processed (reference numeral 306). next, Did this processing The three-dimensional perspective image is Displayed on the video display device (102) (reference numeral 307) . Also, Off any Other two-dimensional images, such as two-dimensional (2D) cross-sectional images of the cross section, Preferably, Purpose of elucidation As It is displayed together with the three-dimensional perspective display. Finally, The pre-op protocol is It is a continuous loop process, Surgical instruments (10 9) Regarding the change in the position of the video vector corresponding to the position and direction, OTS, Repetition A question is asked again (reference numeral 308). Therefore, The displayed image is Surgical procedure During Continuously updated, The resulting display is New supply constantly in real time Is done. Also, Image data is also stored or temporarily stored, Continued protocol Accordingly, it can be used for other uses (reference numeral 311). The surgical instrument (109) Including an ultrasonic transducer located at its tip (105) , Touching the patient ’s head, On its own, Scan the ultrasound imaging data, Detect You. FIG. Conceptual block of intra-op (“intra-op”) ultrasound (“US”) protocol It is a lock diagram, Process US image data during surgery. Typically, Ultrasonic conversion The vessel is A phased collection that generates data from a planar sector of a region of interest in human tissue A bundle array, The central axis of the transducer (here, Length of surgical instrument (109) On the axis of the direction) Lies in the plane of the scan area. This axis By rotating the surgical instrument and the transducer with respect to Cone of the area of interest US scan data of volume is collected, Stored (401) . This cone is Define the "field of view" of the transducer scan. The position and orientation of the transducer Tracked by OTS, Is determined (reference numeral 402), U Using S data Reconstruct 3D intra-op image data of the target area No. 403). This data is Processing is performed in the same manner as the processing of pre-op data (306). (404) next, 2D image of any desired corresponding ultrasound data Is used to generate a three-dimensional image together with (405). These intra- The op image is Fused with pre-op image generated by pre-op protocol (311) (Reference numeral 406), The composite image is further displayed. Finally, OTS Continuously It is strobed (reference numeral 407), Ultrasound images New supply continuously Is done. FIG. An endoscope is placed at the tip (115) of the surgical instrument (109); intr It is a conceptual block diagram of an a-op protocol. This protocol also Endoscope position Can be provided for procedures using surgical microscopes. Image data is Endoscope or microscope Mirror line of sight (here, The longitudinal direction of the surgical instrument (109) Using a CCD camera or other known technology to represent a two-dimensional image of a plane perpendicular to the do it, Is obtained (reference numeral 501). The position and orientation of the surgical instrument Added by OTS Traced, Is determined (reference numeral 502), Analog-to-digital ("A / D") conversion Is performed on this data (reference numeral 503). The position of the viewpoint is Determined from OTS data (Reference numeral 504), The endoscope or microscope image data is processed (reference numeral 505), table A desired image for presentation is generated (reference 506). These intra-op images are pre-op Fused with the pre-op image generated by the protocol (reference numeral 311) (reference numeral 50) 8), The composite image is further displayed. Finally, OTS Continuously strobed (Reference number 507), Ultrasound images are constantly being renewed. The protocol described above is Stored in the storage device (202) of the computer (101) Is supplied by a program module. FIG. Provides pre-op protocol It is a conceptual block diagram of the flowchart of the program supplied. The program Is started (reference numeral 601), Patient scan data obtained in advance (for example, MRI or CT Data) is received by the computer, To load. Computer Data from OTS Data is further read (reference numeral 603), Register scanned patient data (Reference numeral 604). For three-dimensional rendering Scan data Use, Reconstructed into three-dimensional image data (reference numeral 605), The split is this reconstruction (Step 606). In an alternative embodiment, shown in broken lines in the figure, Division is two-dimensional It is performed with rice (reference numeral 615), next, These divided slices All 3D image data Restructured into data. The program is next, To allow the user to select a field of view for displaying images, Key The input data from the board (103) or the mouse (104) is read (reference numeral 60). 7). next, Image data is Arbitrarily selected fiducial markers, Material opacity, Kara - Or with other options given to you by the program, Desired To generate the video, Processed It is converted (reference 608). Also, user Is Endoscope, microscope, Ultrasonic transducer, Or other imaging used during the surgical procedure Requesting a three-dimensional view of the entire head, with superimposed cones showing the field of view of the device Wear. next, The resulting processed image is Preferably, Video display device (10 2) It is displayed in color on top (reference numeral 609). Computer next, OTS Day Data (610), It is determined whether the surgical instrument has moved (reference numeral 6). 11). Where surgical instruments have moved If Program control As shown in FIG. Select new field of view (607) and pull It returns to the following work (608)-(610). If the position of the device did not change, I New supply of pre-stored display image of deviation, The displayed image is stored ( 612). The program is Are you a user on whether or not to stop working? Further searching for these requests (reference numeral 613), If there was no such request, work( 611) and (612) are repeated. Therefore, Computer the user Until you request termination, The work loop continues (reference numeral 614). FIG. The flowchart of the program that supplies the ultrasonic intra-op protocol It is a conceptual block diagram. When the program starts (reference numeral 701), Compu Data Receiving data from the US transducer on the tip 9115) of the surgical instrument (109) , To load. Such data, Normal, To locate the area of interest , Generated using polar and spherical coordinates, The program is Preferably, This data It is converted to an orthogonal coordinate system (reference numeral 703). next, OTS data Surgical instruments (10 9) read to determine the position and orientation (reference 704); Aligned data US data from a collection of Use, Reconstruct three-dimensional image data representing US scan data (705) ). This image data is In the same manner as the processing of the pre-op data (reference numeral 608), Processed by the program, Converted (symbol 706), The resulting image Is displayed (reference numeral 707). Like the pre-op program shown in FIG. OTS was asked (reference 709), Determining whether the surgical instrument has moved (reference 713); If the equipment moves, new A new US display image is reconstructed. In a preferred embodiment, The program is Target area The user is asked whether another US scan is to be performed (reference numeral 716). If you do another US scan, Program control is Return to the operation (reference numeral 702) in FIG. And New US data is obtained with the US converter. No other US scan was requested Case (reference numeral 716), The program is Return to operation (reference numeral 705) New 3D The image is reconstructed from the current US scan data. OTS question determined that the surgical instrument did not move from the previous question (Reference numeral 709), US images are Pr obtained by the program shown in FIG. Fused with the e-op image (symbol 710), The combined image is displayed (reference numeral 71). 1). OTS To make a decision as to whether the surgical instrument has moved, again , Ask (reference 712). If the surgical instrument moves, The program is new Return to the question of the user of the scan (reference numeral 716). Otherwise, Professional Grams are Look for a request from the user as to whether or not to No. 714), If there was no such request, The operation is repeated (reference numeral 713). ). Therefore, Computer Like the pre-op program in FIG. 6, End user (715), the operation loop is continued. Endoscope / microscope intra-op program FIG. 8 is a flowchart showing a conceptual block diagram. It is preferably supplied by an endoscope intra-op program having a chart. Blog When the ram starts (reference numeral 801), Computer Receiving image data from the endoscope Believe in Load (reference numeral 802). This data is Digitized (reference numeral 803) ), Preferably, It is displayed on the video display device (102) (reference numeral 804). OTS asks It is done (reference number 805), Receive information that determines the position and direction of the endoscope ( Reference numeral 806). Using this information, Obtained by the pre-op program shown in FIG. The retrieved pre-op data is searched (reference numeral 80). 7), Used to reconstruct a 3D virtual image from the endoscope viewpoint (code 808). This image is Same as 3D image display by pre-op program shown in FIG. In the manner of It is displayed (reference numeral 809). This image is At work (reference numeral 804) The image is fused with the displayed endoscope image (reference numeral 810). next, OTS strobe (Reference number 812), Determine if the endoscope has moved since the last question (Reference numeral 813). If the endoscope moves, Program control is a work (reference numeral 802). Back to The image data received by the endoscope is newly supplied. Otherwise, Step The program is Look for requests from users as to whether they should stop working ( 814), If there was no such request, Work (reference numeral 813) is repeated It is. Therefore, Computer FIG. Same as 7 pre-op and intra-op programs As, The work loop continues until the user requests termination (reference numeral 815). . The above program module is Individually designed, They are, Can be run individually Can be designed to be. Therefore, After the pre-op program ends, intra-op pro One or both of the programs can be executed. But, Preferably, These programs are: Outside During a surgical operation, Operated in parallel, As the surgery continues, pre-op day Data image and intra-op data image all, Newly supplied continuously. Known programs Program parallel processing method, Can be used for this. The above program is Preferably, Cores adapted to computer graphics applications It is performed on the computer (101). Computers compatible with these programs Is Silicon Graphics, Inc. Inc. , Mountain View, Ca lifornia). Most individual pictures in the above program Graphic software modules for performing image processing tasks are also available from other sources. Similarly, it is commercially available from Silicon Graphics. FIG. 9 shows a target tissue disorder or tumor (1) inside the patient's head (112). 17) above with the surgical probe (109) of FIG. 1 directed towards 17) 3 is a schematic diagram of a three-dimensional image display (901) obtained by the above. Edge of display (901) The parts are indicated by the border (900). The display (901) shows the probe (109). It is a fluoroscopic image from the tip (115). This indication will be supplied continuously continuously, When the probe (109) moves, the displayed image (901) changes immediately. Here, all of the probes (109) are shown outside the patient's head. However, the display (901) shows the internals such as the brain and the target tumor (117). 1 shows a human body tissue structure. In the system of the present invention, the display characteristics emphasize the internal structure. And can be adjusted in real time so that it doesn't emphasize too much. These structures are different The different substances can be identified by displaying them in different colors. Also skin The display opacity of the skin, skull and brain cells depends on the target tumor (117). Can be attenuated to give or emphasize other structural details. The display (901) is hidden "X-ray eyes" that allow the user to see the structure through the surface and the object Give to. In this view, the entire internal structure of the head can be considered and studied, before the incision You can plan a surgical trajectory. In addition, surgical instruments (109) If the scalpel is a scalpel, the surgeon will display (901) on the surface prior to the first incision. Any structure drawn is immediately visible. FIG. 9 shows the area under consideration Conventional axial direction (902), forehead direction (903) and front and back for clarification and elucidation A two-dimensional display of direction (904) is also shown. If the surgical instrument (109) is an endoscope or US transducer, the field of view (116) The intersection of the surface of the skin seen from the endoscope (109) and the conical field of view (116) Quasi-circular image to indicate The display (901) is instructed by (905). This conical field of view is also two-dimensional It is completely superimposed on the indications (902) to (904). In the preferred embodiment, the display Is the actual image seen by the endoscope in the field of view (905) and the field of view (905) It is also possible to show a three-dimensional perspective image of a certain area, and these auxiliary images are preferably Suitably included when instrument (109) is a US converter. After an incision (118) is made in the patient's head, the endoscope is inserted and targeted. An internal image of the human anatomy is provided. FIG. 10 shows the target tissue disorder or tumor. The endoscope (109) of FIG. 1 which is directed toward the ulcer (117) (the deformation indicated by a broken line in FIG. 1) Image display (1001) obtained by the above system having FIG. The edge of the display (1001) is indicated by the border (1001) You. The display (1001) passes through the tip (115) of the endoscope (109) and is It has been processed to give a three-dimensional cross-sectional image with orthogonal cutting planes. You. As before, the field of view (905) of the endoscope is indicated on this display and In the example, the auxiliary display is the actual image seen by the endoscope in the field of view (905). , And a three-dimensional perspective image of the same area of the field of view (905) As shown, these auxiliary displays are not shown in FIG. This figure is even better. The conventional axial direction (1002) and the forehead direction (1 003) and the front-back direction (1004). 11a, 11b, 12 and 13 are generated according to a preferred embodiment of the present invention. FIG. 11a and 11b show the base (1102) and the Figure 4 shows a plastic model of a skull with a removable top (1101). skull (1101) and (1102) are fixed on the stand (1106). Also, FIG. 11a shows an L connected to an OTS (not shown) to generate a display in accordance with the present invention. A pointer (1104) having an ED (1105) is shown. The upper part (1101) A hole (1103) is provided so that the pointer (1104) can enter the inside of the skull It has become. FIG. 11b shows the skull with the upper part (1103) removed. It is. A plastic model of the internal structure (1107) is made inside the skull, The internal structure is a solid having a configuration that can be easily confirmed as shown in the figure. The skulls of FIGS. 11a, 11b are used to generate the display shown in FIGS. Generate “pre-op” image data Scanned for The edges of the display in FIGS. 00) and (1300). FIG. 12 is the same as one direction and the direction of the pointer shown in FIG. Of the skull with the pointer (1104) pointing to the skull from the top center outside (1201) and (1202). The display (1201) indicates this guideline. 3 is a three-dimensional perspective image from one of FIG. The display (1202) is the same video However, the display opacity of the skull material has been attenuated. This opacity attenuation As shown, the internal structure (1107) is clearly visualized. Actually use The system allows the surgeon to change this opacity and adjust the image in real time. So that both the skull structure and the internal structure can be visualized on the display in various ways. Wear. Here, the surface contour shown in the display (1201) is a finite-size rendering layer. (Layer) or voxel (voxel). These contours are Smoothing or reducing the size of voxels or layers Can be made smaller. FIG. 13 shows a pointer (110) entered through one of the openings (1103). 4) It is a composite image of the two displays. The display (1302) is an image from the tip of the pointer inside the skull. Display (130 1) is an image of the entire structure from the outside of the skull along the axis of the pointer. Ie , Display (1302) is a substantial enlargement of a portion of display (1301). The display (1301) cuts a part at the cutting plane passing through the tip of the pointer perpendicular to the axis of the pointer. 1 shows a skull that has been removed. Both of these displays are three-dimensional displays generated by the present invention. This clearly shows the perspective features of. Finally, FIG. 14 shows a simplified representation of a real human head generated by the system. It is a simple composite image. The indication (1401) is indicated by a cross section orthogonal to the drawing. It is a fluoroscopic image of the entire head obtained by cutting a defined portion. The edge of the display in FIG. Indicated by the border (1400). The display shows the head along the intersection of the two cutting planes. Also shown is the field of view of the endoscope oriented towards the part, the tip of the endoscope being at the apex of the cone. The display (1402) is a two-dimensional cross-sectional image generated by a vertical cutting plane. In addition, the display (1403) corresponds to this generated by the horizontal cutting plane. This is a cross-sectional image. Further, the images of the display (1402) and (1403) are also displayed in a table. Is transformed (rotated and enlarged) on the three-dimensional image shown in FIG. Is done. Both of these displays also indicate the intersection of the conical field of view and the cutting plane. Display (1 404) is the actual image seen by the endoscope. The display (1405) indicates the present invention. Of endoscopic images reconstructed from scan data by stereoscopic rendering according to It is a fluoroscopic image. The display (1406) is scanned by planar rendering according to the present invention. Of the image from the viewpoint of an endoscope with a narrow field of view reconstructed from scan data It is a fluoroscopic image. This display (1406) is useful when planning a surgical trajectory. , Can be used with surgical probes. The display (1407) is the display (1406) (Narrow field of view) magnification, showing a virtual image that can be seen through a microscope . Finally, the display (1408) displays the data from the scan data using planar rendering. It is a divided 3D fluoroscopic image of the whole head, and the display (1409) is the existing system. It shows a rich variety and rollability of possible indications. All these displays are the same in real time Sometimes offered to surgeons and can be changed online. As is apparent from the above description, the present invention provides a method for treating human tissue during an actual surgical procedure. An improved means for navigating through the structure is provided. system Allows the surgeon to Display with the same equipment used to perform the procedure without extra manual work The indication can be selected and adjusted. Because the display is given immediately in real time , The image does not require any interruption of the procedure. Also given by this system Virtual images are continuously correlated with images obtained through conventional means. You. Further, the present invention is not limited to neurosurgery applications or other surgical or medical practice applications. It will be apparent to those skilled in the art. For example, a system embodying the present invention Uses information from satellites to obtain “pre-op” scan data It can be obtained by actual navigation or air navigation. The pointer device is Is replaced by the aircraft itself, and the video display is equipped with special imaging goggles or Can be replaced with The foregoing description of a preferred embodiment of the invention has been presented for purposes of illustration only. And is not limited to the precise form disclosed. Numerous changes and variants It can be made from the teachings described above. The spirit and scope of the invention is defined by the following claims and all Should be defined within the scope of the equivalent of
【手続補正書】特許法第184条の8第1項 【提出日】平成11年5月4日(1999.5.4) 【補正内容】 請求の範囲 1. 3次元対象物の画像を生成するための方法であって、 対象物の立体的な第一のスキャンデータを得る工程、 前記第一のスキャンデータで構造情報を表す第一の仮想画像データを再構成す るために、前記第一のスキャンデータを使用する工程、 前記第一の仮想画像データに基づいた前記対象物の画像を表示するための視野 及び視点を選択する工程、 前記視野とともに前記視点からの前記対象物の第一の3次元的透視画像を生成 するために、前記第一の仮想画像データを処理する工程、 前記第一の3次元的透視画像を表示する工程、 を含む方法。 2. 請求項1の方法であって、 前記第一のスキャンデータで構造情報を表す第一の仮想画像データを再構成す るために、前記第一のスキャンデータを使用する工程は、 前記対象物の選択した特徴を識別するために、前記第一の仮想画像データを分 割する工程、 を含む、方法。 3. 請求項1の方法であって、 前記第一のスキャンデータで構造情報を表す第一の仮想画像データを再構成す るために、前記第一のスキャンデータを使用する工程は、 前記第一の仮想画像データで表される前記対象物の特徴の位置を決定するため に、前記対象物に関して前記第一の仮想画像データのレジストレーションを行う 工程、 を含む、方法。 4. 請求項1の方法であって、 前記第一の3次元的透視画像を表示する前記工程に続けて、 前記第一の仮想画像データに基づいた前記対象物の画像を表示するための他の 視点及び視野を選択する工程、 前記視野とともに前記他の視点からの前記対象物の第一の3次元的透視画像を 生成するために、前記第一の仮想画像データを処理する工程、及び 前記第一の3次元的透視画像を表示する工程、 を任意の所望とする回数だけ繰り返すことをさらに含む、方法。 5. 請求項1の方法であって、 対象物の立体的な第二のスキャンデータを得る工程、 前記第二のスキャンデータで構造情報を表す第二の仮想画像データを再構成す るために、前記第二のスキャンデータを使用する工程、 前記仮想画像データに基づいた前記対象物の画像を表示するために選択した前 記視点及び視野と一致するように前記第二の仮想画像データに基づいた前記対象 物の画像を表示するための視点及び視野を決定する工程、 前記視野とともに前記視点からの前記対象物の第二の3次元的透視画像を生成 するために、前記第二の仮想画像データを処理する工程、及び 前記第二の3次元的透視画像を表示する工程、 をさらに含む、方法。 6. 請求項5の方法であって、 前記第一の3次元的透視画像と、前記第二の3次元的透視画像とを融合し、組 合せ画像を表示する工程、 をさらに含む、方法。 7. 請求項1の方法であって、 対象物の第三のスキャンデータを得る工程、 前記第三のスキャンデータに基づいた前記対象物の第三の 画像表示するための視点及び視野を選択する工程、 前記第三の画像を表示する工程、 対象物の立体的な第一のスキャンデータを得る工程、 前記第一のスキャンデータで構造情報を表す第一の仮想画像データを再構成す るために、前記第一のスキャンデータを使用する工程、 前記第三のスキャンデータに基づいた前記対象物の前記第三の画像を表示する ために選択した前記視点及び視野と一致するように前記第一の仮想画像に基づい た前記対象物の画像を表示するための視点及び視野を決定する工程、 前記視野とともに前記視点からの前記対象物の第一の画像を生成するために、 前記第一の仮想画像データを処理する工程、及び 前記第一の3次元的透視画像を表示する工程、 をさらに含む、方法。 8. 請求項7の方法であって、 前記第三の画像と前記第一の3次元的透視画像とを融合し、組合せ画像を表示 する工程、 をさらに含む、方法。 9. 3次元対象物の画像を生成するための装置であって、 記憶装置を有するコンピュータ、 前記コンピュータに接続した表示手段、 前記コンピュータに接続した入力手段、 前記コンピュータに接続され、ユーザーによって移動可能の指針手段、及び 前記コンピュータ及び前記指針手段に接続した位置追跡手段であって、この位 置追跡手段が、前記指針の位置及び方向を連続的に検出し、この位置及び方向を 前記コンピュータへ送る、位置追跡手段、 を含み、 前記コンピュータの記憶装置が、立体的な第一のスキャンデータを収納し、さ らに、プログラムを収納し、 このプログラムによって、前記コンピュータが、 前記第一のスキャンデータで構造情報を表す第一の仮想画像データを再構成す るために、前記第一のスキャンデータを使用すること、 前記位置追跡手段によって検出された前記指針手段の位置及び方向であるべき 前記第一の仮想画像データに基づいた前記対象物の画像を表示するための視点を 決定すること、 前記視点からの前記対象物の第一の3次元的透視画像を生 成するために、前記第一の仮想画像データを処理すること、及び 前記第一の3次元的透視画像を表示すること、 を行う、 ところの装置。 10. 請求項9の装置であって、 前記第一のスキャンデータで構造情報を表す第一の仮想画像データを再構成す るために、前記第一のスキャンデータを使用することは、 前記対象物の選択した特徴を識別するために、前記第一の仮想画像データを分 割すること、 を含む、装置。 11. 請求項9の装置であって、 前記第一のスキャンデータで構造情報を表す第一の仮想画像データを再構成す るために、前記第一のスキャンデータを使用することは、 前記第一の仮想画像データで表される前記対象物の特徴の位置を決定するため に、前記対象物に関して前記第一の仮想画像データのレジストレーションを行う こと、 を含む、装置。 12. 請求項9の装置であって、 前記プログラムが、 前記第一の3次元的透視画像を表示することに続けて、 前記第一の仮想画像データに基づいた前記対象物の画像を表示するための他の 視点を選択すること、 前記他の視点からの前記対象物の第一の3次元的透視画像を生成するために、 前記第一の仮想画像データを処理すること、及び 前記第一の3次元的透視画像を表示すること、 を任意の所望とする回数だけ繰り返し、行う、 ところの装置。 13. 請求項9の装置であって、 前記プログラムが、 対象物の立体的な第二のスキャンデータを得ること、 前記第二のスキャンデータで構造情報を表す第二の仮想画像データを再構成す るために、前記第二のスキャンデータを使用すること、 前記仮想画像データに基づいた前記対象物の画像を表示するために選択した前 記視点と一致するように前記第二の仮想画像データに基づいた前記対象物の画像 を表示するための視 点を決定すること、 前記視点からの前記対象物の第二の3次元的透視画像を生成するために、前記 第二の仮想画像データを処理すること、及び 前記第二の3次元的透視画像を表示すること、 をさらに行う、 ところの装置。 14. 請求項13の装置であって、 前記プログラムが、 前記第一の3次元的透視画像と、前記第二の3次元的透視画像とを融合し、組 合せ画像を表示すること、 をを行う、 ところの装置。 15. 請求項9の装置であって、 前記プログラムが、 対象物の第二のスキャンデータを得ること、 前記第二のスキャンデータで構造情報を表す第二の仮想画像データを再構成す るために、前記第二のスキャンデータを使用すること、 前記仮想画像データに基づいた前記対象物の画像を表示す るために選択した前記視点と一致するように前記第二の仮想画像に基づいた前記 対象物の画像を表示するための視点を決定すること、 前記視点からの前記対象物の第二の画像を生成するために、前記第二の仮想画 像データを処理すること、及び 前記第二の画像を表示すること、 を行う、 ところの装置。 16. 請求項15の装置であって、 前記プログラムが、 前記第二の画像と前記第一の3次元的透視画像とを融合し、組合せ画像を表示 すること、 を行う、 ところの装置。 17. 請求項7の方法であって、 前記対象物の第三の画像を表示するための視点及び視野を選択するための工程 に続けて、 前記第三の画像が得られる対象物の領域に光をあて、明るくする工程、 をさらに含む、方法。 18. 請求項7の方法であって、 前記第三のスキャンデータを得る前記工程が、内視鏡によって行われる、 ところの方法。 19. 請求項7の方法であって、 前記第三のスキャンデータを得る前記工程が、顕微鏡によって行われる、 ところの方法。 20. 請求項7の方法であって、 前記第三のスキャンデータを得る前記工程が、CCDカメラによって行われる 、 ところの方法。 21. 請求項1、5又は7の方法であって、 前記視野とともに前記視点からの前記対象物の第一又は第二の3次元的透視画 像を生成するために、第一又は第二の画像データを処理する前記工程が、 前記対象物の断面映像を定義するために、少なくとも一つの切断平面を選択す る工程、及び 前記の少なくとも一つの切断平面によって決定された前記対象物の3次元的透 視切断画像を生成する工程、 を含む、 ところの方法。 22. 請求項1、5又は7の方法であって、 第一又は第二の仮想画像データを再構成するために、第一又は第二のスキャン データを使用する前記工程が、 これらの観察のために、前記3次元的透視画像に示される異なった構造の不透 明度を調節する工程、 を含む、 ところの方法。 23. 請求項1の方法であって、 前記第一のスキャンデータがMIRデータである、 ところの方法。 24. 請求項1の方法であって、 前記第一のスキャンデータがCTデータである、 ところの方法。 25. 請求項1の方法であって、 前記第一のスキャンデータがMRIデータである、 ところの方法。 26. 請求項1の方法であって、 前記第一のスキャンデータがPETデータである、 ところの方法。 27. 請求項1の方法であって、 前記第一のスキャンデータが超音波データである、 ところの方法。 28. 対象物のスキャンデータを使用して前記スキャンデータで構造情報を表 す画像データを再構成するためのプログラムを収納した記憶装置を有するコンピ ュータ、前記コンピュータに接続した表示手段、前記コンピュータに接続した入 力手段、前記コンピュータに接続され、ユーザーによって移動可能の指針手段、 及び前記コンピュータ及び前記指針手段に接続され、前記指針手段の位置及び方 向を検出し、前記位置及び方向を前記コンピュータへ送るための位置追跡手段、 を含む、3次元対象物の画像を生成するためのシステムにおいて、前記画像を生 成するための方法であって、 対象物の立体的な第一のスキャンデータを得る工程、 前記コンピュータの記憶装置に前記立体的な第一のスキャンデータをローディ ングする工程、 前記第一のスキャンデータで構造情報を表す第一の仮想画像データを再構成す るために、前記コンピュータの前記プログラムを使用する工程、 前記第一の仮想画像データに基づいた前記対象物の画像を表示するための視点 を選択するために、前記指針手段を使用する工程、 前記指針手段の位置及び方向を前記位置追跡手段で検出する工程、 前記視sn手段の前記位置及び方向を前記コンピュータへ送る工程、 前記画像を表示するための視野を選択する工程、 前記視野とともに前記視点からの前記対象物の第一の3次元的透視画像を生成 するために、前記第一の仮想画像データを前記コンピュータの手段で処理する工 程、 前記第一の3次元的透視画像を前記表示手段で表示する工程、 を含む方法。 29. 請求項28の方法であって、 前記第一のスキャンデータで構造情報を表す第一の仮想画像データを再構成す るために、前記コンピュータで前記プログラムを使用する前記工程が、 前記対象物の選択した特徴を識別できるように、前記第一の仮想画像データを 分割するために、前記プログラムを使用 する工程、 を含む、 ところの方法。 30. 請求項28の方法であって、 前記第一のスキャンデータで構造情報を表す第一の仮想画像データを再構成す るために、前記コンピュータで前記プログラムを使用する前記工程が、 前記第一の仮想画像データで表される前記対象物の特徴の位置を決定するため に、前記対象物に関して、前記第一の仮想画像データをレジストレーションする 工程、 を含む、 ところの方法。 31.請求項28の方法であって、 前記第一の3次元的透視画像を表示する前記工程に続けて、 前記第一の仮想画像データに基づいた前記対象物の画像を表示するための他の 視点及び視野を選択するために、前記指針手段を使用する工程、 前記指針手段の位置及び方向を前記位置追跡手段で検出する工程、 前記指針手段の前記位置及び方向を前記コンピュータへ送る工程、 前記視野とともに前記他の視点からの前記対象物の第二の3次元的透視画像を 生成するために、前記第一の仮想画像データを前記コンピュータの手段で処理す る工程、及び 前記第二の3次元的透視画像を前記表示手段で表示する工程、 を任意の所望の回数だけ繰り返す、 ところの方法。 32. 請求項28の方法であって、 対象物の立体的な第二のスキャンデータを得る工程、 前記コンピュータの記憶装置に前記立体的なスキャンデータをローディングす る工程、 前記立体的な第二のスキャンデータで構造情報を表す第二の仮想画像データを 再構成するために、前記コンピュータで前記プログラムを使用する工程、 前記第一の仮想画像データに基づいた前記対象物の前記画像を表示するために 選択した前記視点及び視野と一致するように、前記第二の仮想画像データに基づ いた前記対象物の画像を表示するための視点及び視野を決定する工程、 前記視野とともに前記視点からの前記対象物の第二の3次元的透視画像を生成 するために、前記第二の加増画像データを前記コンピュータの手段で処理する工 程、及び 前記第二の3次元的透視画像を前記表示手段で表示する工程、 をさらに含む方法。 33. 請求項33の方法であって、 前記第二の3次元的透視画像と前記第一の3次元的透視画像とを融合し、組合 せ画像を表示する工程、 をさらに含む方法。 34. 対象物のスキャンデータを使用して前記スキャンデータで構造情報を表 す画像データを再構成するためのプログラムを収納した記憶装置を有するコンピ ュータ、前記コンピュータに接続した表示手段、前記コンピュータに接続した入 力手段、前記コンピュータに接続され、ユーザーによって移動可能の指針手段、 及び前記コンピュータ及び前記指針手段に接続され、前記指針手段の位置及び方 向を検出し、前記位置及び方向を前記コンピュータへ送るための位置追跡手段、 を含む、3次元対象物の画像を生成するためのシステムにおいて、3次元退場物 の画像を生成するための方法であっ て、 対象物の第三のスキャンデータを得る工程、 前記コンピュータの記憶装置に前記第二のスキャンデータをローディングする 工程、 前記第三のスキャンデータに基づいた前記対象物の第三の画像を表示するため の視点及び視野を選択する工程、 前記第三の画像を前記表示手段で表示する工程、 対象物の立体的な第一のスキャンデータを得る工程、 前記コンピュータの記憶装置に前記立体的な第一のスキャンデータをローディ ングする工程、 前記第一のスキャンデータで構造情報を表す第一の仮想画像データを再構成す るために、前記コンピュータで前記プログラムを使用する工程、 前記第一の仮想画像データに基づいた前記対象物の画像を表示するための視点 を選択するために、前記指針手段を使用する工程、 前記指針手段の位置及び方向を前記位置追跡手段で検出する工程、 前記指針手段の前記位置及び方向を前記コンピュータへ送る工程、 前記画像を表示するための視野を選択する工程、 前記視野とともに前記視点からの前記対象物の第一の3次元的透視画像を生成 するために、前記第一の仮想画像データを前記コンピュータの手段で処理する工 程、及び 前記第一の3次元的透視画像を前記表示手段で表示する工程、 を含む方法。 35. 請求項34の豊富であって、 前記第三の画像と前記第一の3次元的透視画像とを融合し、組合せ画像を表示 する工程、 をさらに含む方法。 36. 請求項34の方法であって、 前記対象物の第三の画像を表示するための視点及び視野を選択する前記工程に 続けて、 前記第三の画像が得られる対象物の領域に光をあて、明るくする工程、 をさらに含む方法。 37. 請求項34の方法であって、 前記第三のスキャンデータを得るための前記工程が、内視鏡の手段によって行 われる、 ところの方法。 38. 請求項34の方法であって、 前記第三のスキャンデータを得るための前記工程が、顕微鏡の手段によって行 われる、 ところの方法。 39. 請求項34の方法であって、 前記第三のスキャンデータを得るための前記工程が、CCDカメラの手段によ って行われる、 ところの方法。 40. 請求項28、32又は34の方法であって、 前記視野とともに前記視点からの前記対象物の第一又は第二の3次元的透視画 像を生成するために、第一又は第二の仮想画像データを処理する前記工程が、 前記対象物の断面映像を定義するために、少なくとも一つの切断平面を選択す る工程、及び 前記の少なくとも一つの切断平面によって決定された前記対象物の3次元的透 視断面画像を生成する工程、 を含む、 ところの方法。 41. 請求項28、32又は34の方法であって、 第一又は第二の仮想画像データを再構成するために、第一又は第二のスキャン データを使用する前記工程が、 これらの観察を容易に行えるように前記3次元的透視画像に示される異なった 構造の不透明度を調節する工程、 を含む、 ところの方法。 42. 請求項28の方法であって、 前記第一のスキャンデータが、MIRデータである、 ところの方法。 43. 請求項28の方法であって、 前記第一のスキャンデータが、CTデータである、 ところの方法。 44. 請求項28の方法であって、 前記第一のスキャンデータが、MRIデータである、 ところの方法。 45. 請求項28の方法であって、 前記第一のスキャンデータが、PETデータである、 ところの方法。 46. 請求項28の方法であって、 前記第一のスキャンデータが、超音波データである、 ところの方法。[Procedure of Amendment] Article 184-8, Paragraph 1 of the Patent Act [Submission Date] May 4, 1999 (1999.5.4) [Correction contents] The scope of the claims 1. A method for generating an image of a three-dimensional object, comprising: Obtaining three-dimensional first scan data of the object; Reconstructing first virtual image data representing structural information with the first scan data Using the first scan data for: A field of view for displaying an image of the object based on the first virtual image data And a process of selecting a viewpoint, Generating a first three-dimensional perspective image of the object from the viewpoint together with the field of view Processing the first virtual image data to perform Displaying the first three-dimensional perspective image; A method that includes 2. The method of claim 1, wherein Reconstructing first virtual image data representing structural information with the first scan data In order to use the first scan data, Separating the first virtual image data to identify selected features of the object; Cracking process, Including, methods. 3. The method of claim 1, wherein Reconstructing first virtual image data representing structural information with the first scan data In order to use the first scan data, To determine the position of the feature of the object represented by the first virtual image data And performing registration of the first virtual image data with respect to the object. Process, Including, methods. 4. The method of claim 1, wherein Following the step of displaying the first three-dimensional perspective image, Another for displaying an image of the object based on the first virtual image data Selecting a viewpoint and a field of view, A first three-dimensional perspective image of the object from the other viewpoint together with the visual field; Processing the first virtual image data to generate; and Displaying the first three-dimensional perspective image; Further comprising repeating the step any desired number of times. 5. The method of claim 1, wherein Obtaining three-dimensional second scan data of the object; Reconstructing second virtual image data representing structural information with the second scan data Using the second scan data for: Before selecting to display an image of the object based on the virtual image data The object based on the second virtual image data so as to match the viewpoint and the visual field Determining a viewpoint and a field of view for displaying an image of an object, Generating a second three-dimensional perspective image of the object from the viewpoint with the field of view Processing the second virtual image data to perform Displaying the second three-dimensional perspective image; The method further comprising: 6. The method of claim 5, wherein Fusing the first three-dimensional perspective image with the second three-dimensional perspective image; A process of displaying a combined image, The method further comprising: 7. The method of claim 1, wherein Obtaining third scan data of the object; A third of the object based on the third scan data; A step of selecting a viewpoint and a visual field for displaying an image, Displaying the third image, Obtaining three-dimensional first scan data of the object; Reconstructing first virtual image data representing structural information with the first scan data Using the first scan data for: Displaying the third image of the object based on the third scan data Based on the first virtual image to match the viewpoint and field of view selected for Determining a viewpoint and a field of view for displaying an image of the object, To generate a first image of the object from the viewpoint with the field of view, Processing the first virtual image data; and Displaying the first three-dimensional perspective image; The method further comprising: 8. The method of claim 7, wherein Fusing the third image and the first three-dimensional perspective image to display a combined image Process, The method further comprising: 9. An apparatus for generating an image of a three-dimensional object, comprising: A computer having a storage device, Display means connected to the computer, Input means connected to the computer, Pointer means connected to the computer and movable by a user; and Position tracking means connected to the computer and the pointer means; The position tracking means continuously detects the position and direction of the pointer, and determines the position and direction. Position tracking means for sending to the computer, Including A storage device of the computer for storing the first three-dimensional scan data; In addition, storing the program, With this program, the computer Reconstructing first virtual image data representing structural information with the first scan data Using the first scan data to: Should be the position and direction of the pointer means detected by the position tracking means A viewpoint for displaying an image of the object based on the first virtual image data; To decide, Generating a first three-dimensional perspective image of the object from the viewpoint; Processing the first virtual image data to produce Displaying the first three-dimensional perspective image; I do, The device. 10. The device of claim 9, Reconstructing first virtual image data representing structural information with the first scan data In order to use the first scan data, Separating the first virtual image data to identify selected features of the object; Cracking, An apparatus, including: 11. The device of claim 9, Reconstructing first virtual image data representing structural information with the first scan data In order to use the first scan data, To determine the position of the feature of the object represented by the first virtual image data And performing registration of the first virtual image data with respect to the object. thing, An apparatus, including: 12. The device of claim 9, The program is Continuing with displaying the first three-dimensional perspective image, Another for displaying an image of the object based on the first virtual image data Choosing a viewpoint, In order to generate a first three-dimensional perspective image of the object from the other viewpoint, Processing the first virtual image data; and Displaying the first three-dimensional perspective image; Is repeated any desired number of times, and The device. 13. The device of claim 9, The program is Obtaining three-dimensional second scan data of the object; Reconstructing second virtual image data representing structural information with the second scan data Using the second scan data to: Before selecting to display an image of the object based on the virtual image data An image of the object based on the second virtual image data so as to match the viewpoint View for viewing Determining points, In order to generate a second three-dimensional perspective image of the object from the viewpoint, Processing the second virtual image data; and Displaying the second three-dimensional perspective image; Do more, The device. 14. 14. The device of claim 13, wherein The program is Fusing the first three-dimensional perspective image with the second three-dimensional perspective image; Displaying the combined image, Do the The device. 15. The device of claim 9, The program is Obtaining a second scan of the object; Reconstructing second virtual image data representing structural information with the second scan data Using the second scan data to: Displaying an image of the object based on the virtual image data Based on the second virtual image to match the viewpoint selected for Determining a viewpoint for displaying an image of the object, The second virtual image to generate a second image of the object from the viewpoint. Processing the image data; and Displaying the second image; I do, The device. 16. The device of claim 15, wherein The program is Fusing the second image with the first three-dimensional perspective image and displaying a combined image To do, I do, The device. 17. The method of claim 7, wherein Step of selecting a viewpoint and a field of view for displaying a third image of the object Followed by Illuminating the area of the object where the third image is obtained with a step of brightening; The method further comprising: 18. The method of claim 7, wherein The step of obtaining the third scan data is performed by an endoscope, Where way. 19. The method of claim 7, wherein The step of obtaining the third scan data is performed by a microscope, Where way. 20. The method of claim 7, wherein The step of obtaining the third scan data is performed by a CCD camera , Where way. 21. The method of claim 1, 5 or 7, wherein First or second three-dimensional perspective view of the object from the viewpoint with the field of view Processing the first or second image data to generate an image, Selecting at least one cutting plane to define a cross-sectional image of the object; Steps, and A three-dimensional transparency of the object determined by the at least one cutting plane; Generating a visual cut image, including, Where way. 22. The method of claim 1, 5 or 7, wherein First or second scan to reconstruct the first or second virtual image data The step of using the data comprises: For these observations, the opacity of the different structures shown in the three-dimensional perspective image was Adjusting the brightness, including, Where way. 23. The method of claim 1, wherein The first scan data is MIR data, Where way. 24. The method of claim 1, wherein The first scan data is CT data, Where way. 25. The method of claim 1, wherein The first scan data is MRI data, Where way. 26. The method of claim 1, wherein The first scan data is PET data, Where way. 27. The method of claim 1, wherein The first scan data is ultrasound data, Where way. 28. Using the scan data of the object, the structure information is represented by the scan data. Computer having a storage device in which a program for reconstructing image data is stored. Computer, display means connected to the computer, and input means connected to the computer. Force means, pointer means connected to the computer and movable by a user, And the position and direction of the pointer means connected to the computer and the pointer means. Position tracking means for detecting direction and sending the position and direction to the computer; A system for generating an image of a three-dimensional object, comprising: A method for achieving Obtaining three-dimensional first scan data of the object; Load the three-dimensional first scan data into the storage device of the computer. The process of Reconstructing first virtual image data representing structural information with the first scan data Using the program of the computer for: Viewpoint for displaying an image of the object based on the first virtual image data Using the pointer means to select A step of detecting the position and direction of the pointer means by the position tracking means, Sending the position and direction of the viewing sn means to the computer; Selecting a field of view for displaying the image, Generating a first three-dimensional perspective image of the object from the viewpoint together with the field of view To process the first virtual image data by means of the computer, About Displaying the first three-dimensional perspective image on the display unit; A method that includes 29. 29. The method of claim 28, wherein Reconstructing first virtual image data representing structural information with the first scan data The step of using the program on the computer to The first virtual image data so that the selected feature of the object can be identified; Use the above program to split Process, including, Where way. 30. 29. The method of claim 28, wherein Reconstructing first virtual image data representing structural information with the first scan data The step of using the program on the computer to To determine the position of the feature of the object represented by the first virtual image data Registering the first virtual image data with respect to the object Process, including, Where way. 31. 29. The method of claim 28, wherein Following the step of displaying the first three-dimensional perspective image, Another for displaying an image of the object based on the first virtual image data Using the pointer means to select a viewpoint and a field of view, A step of detecting the position and direction of the pointer means by the position tracking means, Sending the position and orientation of the pointer means to the computer; A second three-dimensional perspective image of the object from the other viewpoint together with the field of view Processing the first virtual image data by means of the computer to generate Steps, and Displaying the second three-dimensional perspective image on the display unit; Is repeated any desired number of times, Where way. 32. 29. The method of claim 28, wherein Obtaining three-dimensional second scan data of the object; Loading the three-dimensional scan data into the storage device of the computer; Process, The second virtual image data representing the structural information is represented by the stereoscopic second scan data. Using the program on the computer to reconfigure, To display the image of the object based on the first virtual image data Based on the second virtual image data, match the selected viewpoint and field of view. Determining a viewpoint and a field of view for displaying the image of the object that was, Generating a second three-dimensional perspective image of the object from the viewpoint with the field of view To process the second augmented image data by the means of the computer. And Displaying the second three-dimensional perspective image on the display unit; A method further comprising: 33. 34. The method of claim 33, wherein Fusing the second three-dimensional perspective image with the first three-dimensional perspective image, A process of displaying an image A method further comprising: 34. Using the scan data of the object, the structure information is represented by the scan data. Computer having a storage device in which a program for reconstructing image data is stored. Computer, display means connected to the computer, and input means connected to the computer. Force means, pointer means connected to the computer and movable by a user, And the position and direction of the pointer means connected to the computer and the pointer means. Position tracking means for detecting direction and sending the position and direction to the computer; A system for generating an image of a three-dimensional object, comprising: A method for generating images hand, Obtaining third scan data of the object; Loading the second scan data into a storage device of the computer Process, Displaying a third image of the object based on the third scan data; Selecting the viewpoint and field of view of the Displaying the third image on the display means, Obtaining three-dimensional first scan data of the object; Load the three-dimensional first scan data into the storage device of the computer. The process of Reconstructing first virtual image data representing structural information with the first scan data Using the program on the computer for: Viewpoint for displaying an image of the object based on the first virtual image data Using the pointer means to select A step of detecting the position and direction of the pointer means by the position tracking means, Sending the position and orientation of the pointer means to the computer; Selecting a field of view for displaying the image, Generating a first three-dimensional perspective image of the object from the viewpoint together with the field of view To process the first virtual image data by means of the computer, And Displaying the first three-dimensional perspective image on the display unit; A method that includes 35. Claim 34 rich, Fusing the third image and the first three-dimensional perspective image to display a combined image Process, A method further comprising: 36. 35. The method of claim 34, wherein In the step of selecting a viewpoint and a visual field for displaying a third image of the object, continue, Illuminating the area of the object where the third image is obtained with a step of brightening; A method further comprising: 37. 35. The method of claim 34, wherein The step of obtaining the third scan data is performed by means of an endoscope. To be Where way. 38. 35. The method of claim 34, wherein The step of obtaining the third scan data is performed by means of a microscope. To be Where way. 39. 35. The method of claim 34, wherein The step of obtaining the third scan data is performed by means of a CCD camera. It is done, Where way. 40. 35. The method of claim 28, 32 or 34, First or second three-dimensional perspective view of the object from the viewpoint with the field of view Processing the first or second virtual image data to generate an image, Selecting at least one cutting plane to define a cross-sectional image of the object; Steps, and A three-dimensional transparency of the object determined by the at least one cutting plane; A step of generating a visual section image, including, Where way. 41. 35. The method of claim 28, 32 or 34, First or second scan to reconstruct the first or second virtual image data The step of using the data comprises: To facilitate these observations, the different three-dimensional perspective images Adjusting the opacity of the structure, including, Where way. 42. 29. The method of claim 28, wherein The first scan data is MIR data, Where way. 43. 29. The method of claim 28, wherein The first scan data is CT data, Where way. 44. 29. The method of claim 28, wherein The first scan data is MRI data, Where way. 45. 29. The method of claim 28, wherein The first scan data is PET data, Where way. 46. 29. The method of claim 28, wherein The first scan data is ultrasound data, Where way.
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) A61B 8/00 A61B 19/00 502 19/00 502 5/05 380 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) A61B 8/00 A61B 19/00 502 19/00 502 5/05 380
Claims (1)
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US88428997A | 1997-06-27 | 1997-06-27 | |
US08/884,289 | 1997-06-27 | ||
PCT/US1998/013391 WO1999000052A1 (en) | 1997-06-27 | 1998-06-26 | Method and apparatus for volumetric image navigation |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002510230A true JP2002510230A (en) | 2002-04-02 |
Family
ID=25384329
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP50581699A Ceased JP2002510230A (en) | 1997-06-27 | 1998-06-26 | Stereoscopic image navigation method and apparatus |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP0999785A4 (en) |
JP (1) | JP2002510230A (en) |
WO (1) | WO1999000052A1 (en) |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005518854A (en) * | 2002-02-28 | 2005-06-30 | ヒユーストン・ステレオタクテイク・コンセプツ・インコーポレーテツド | Audible feedback from positional guidance system |
JP2005211531A (en) * | 2004-01-30 | 2005-08-11 | Olympus Corp | Virtual image display system |
JP2005529701A (en) * | 2002-06-18 | 2005-10-06 | ボストン サイエンティフィック リミテッド | Computer generated display of imaging pattern of imaging device |
JP2007050254A (en) * | 2005-08-17 | 2007-03-01 | General Electric Co <Ge> | Real-time integration and recording of surgical image data |
JP2007304269A (en) * | 2006-05-10 | 2007-11-22 | Kawasumi Lab Inc | Head model |
JP2008093438A (en) * | 2006-10-12 | 2008-04-24 | General Electric Co <Ge> | System and method for calibration of endoscope |
JP2008541859A (en) * | 2005-05-23 | 2008-11-27 | ザ ペン ステイト リサーチ ファンデーション | 3D-CT registration with guidance method based on 3D-2D pose estimation and application to raw bronchoscopy |
JP2008284144A (en) * | 2007-05-17 | 2008-11-27 | Hitachi Medical Corp | Reference image display method in ultrasonic treatment, and ultrasonic apparatus |
JP2009018184A (en) * | 2001-02-13 | 2009-01-29 | Mediguide Ltd | Medical imaging and navigation system |
JP2009273521A (en) * | 2008-05-12 | 2009-11-26 | Niigata Univ | Navigation system for arthroscopical surgery |
JP2010503439A (en) * | 2006-09-13 | 2010-02-04 | ネクスティム リミテッド | Method and apparatus for correcting errors in the mutual display of a coordinate system used to display an object presented during navigation brain stimulation |
JP2010099471A (en) * | 2008-10-21 | 2010-05-06 | Humanscan Co Ltd | Patient position monitoring device |
JP2011092687A (en) * | 2009-09-30 | 2011-05-12 | Fujifilm Corp | Diagnosis support system, diagnostic support program and diagnostic support method |
JP4728456B1 (en) * | 2010-02-22 | 2011-07-20 | オリンパスメディカルシステムズ株式会社 | Medical equipment |
JP2011193885A (en) * | 2010-03-17 | 2011-10-06 | Fujifilm Corp | System, method, apparatus and program for supporting endoscope observation |
WO2013027571A1 (en) * | 2011-08-19 | 2013-02-28 | 株式会社 東芝 | Diagnostic ultrasound equipment, medical image processing equipment and medical image processing method |
JP2013509273A (en) * | 2009-10-30 | 2013-03-14 | ザ・ジョンズ・ホプキンス・ユニバーシティー | Visual tracking / annotation of clinically important anatomical landmarks for surgical intervention |
JP2015501183A (en) * | 2011-10-26 | 2015-01-15 | コーニンクレッカ フィリップス エヌ ヴェ | Endoscopic registration of blood vessel tree images |
JP2017086917A (en) * | 2015-11-16 | 2017-05-25 | バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. | Locally applied transparency for ct image |
KR20190024196A (en) * | 2017-08-31 | 2019-03-08 | (주)레벨소프트 | Medical Image Processing Apparatus and Medical Image Processing Method for Surgical Navigator |
KR20200026850A (en) * | 2020-02-26 | 2020-03-11 | (주)레벨소프트 | Medical Image Processing Apparatus and Medical Image Processing Method for Surgical Navigator |
US11183295B2 (en) | 2017-08-31 | 2021-11-23 | Gmeditec Co., Ltd. | Medical image processing apparatus and medical image processing method which are for medical navigation device |
JP2022502194A (en) * | 2018-10-04 | 2022-01-11 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | Graphical user interface for defining anatomical boundaries |
JP2022521171A (en) * | 2019-02-12 | 2022-04-06 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | Systems and methods that facilitate the optimization of imaging device perspectives during surgical sessions of computer-assisted surgical systems |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6556695B1 (en) | 1999-02-05 | 2003-04-29 | Mayo Foundation For Medical Education And Research | Method for producing high resolution real-time images, of structure and function during medical procedures |
CA2370960C (en) * | 1999-04-20 | 2006-06-13 | Synthes (U.S.A.) | Device for the percutaneous obtainment of 3d-coordinates on the surface of a human or animal organ |
US9572519B2 (en) | 1999-05-18 | 2017-02-21 | Mediguide Ltd. | Method and apparatus for invasive device tracking using organ timing signal generated from MPS sensors |
US7386339B2 (en) | 1999-05-18 | 2008-06-10 | Mediguide Ltd. | Medical imaging and navigation system |
JP4633210B2 (en) * | 1999-11-02 | 2011-02-16 | オリンパス株式会社 | Surgical microscope equipment |
US6442417B1 (en) | 1999-11-29 | 2002-08-27 | The Board Of Trustees Of The Leland Stanford Junior University | Method and apparatus for transforming view orientations in image-guided surgery |
DE19958407A1 (en) * | 1999-12-02 | 2001-06-07 | Philips Corp Intellectual Pty | Arrangement to display layered images during treatment of patient; has measurement devices to determine position of medical instrument, which has adjustment devices projecting from patient |
DE60022544T2 (en) * | 1999-12-10 | 2006-07-13 | Iscience Corp., San Francisco | TREATMENT OF EYE DISEASES |
US20010025183A1 (en) | 2000-02-25 | 2001-09-27 | Ramin Shahidi | Methods and apparatuses for maintaining a trajectory in sterotaxi for tracking a target inside a body |
FR2807549B1 (en) * | 2000-04-06 | 2004-10-01 | Ge Med Sys Global Tech Co Llc | IMAGE PROCESSING METHOD AND ASSOCIATED DEVICE |
JP2001293006A (en) * | 2000-04-11 | 2001-10-23 | Olympus Optical Co Ltd | Surgical navigation apparatus |
DE1154380T1 (en) * | 2000-05-11 | 2002-05-23 | Mtt Medical Technology Transfer Ag, Freiburg | Method for simulating a flight through voxel volume |
AU2001287126A1 (en) | 2000-09-07 | 2002-03-22 | Cbyon, Inc. | Virtual fluoroscopic system and method |
US6907281B2 (en) | 2000-09-07 | 2005-06-14 | Ge Medical Systems | Fast mapping of volumetric density data onto a two-dimensional screen |
US6850794B2 (en) | 2000-09-23 | 2005-02-01 | The Trustees Of The Leland Stanford Junior University | Endoscopic targeting method and system |
JP2002119507A (en) * | 2000-10-17 | 2002-04-23 | Toshiba Corp | Medical device and medical image collecting and displaying method |
US6573891B1 (en) * | 2000-10-23 | 2003-06-03 | Siemens Corporate Research, Inc. | Method for accelerating the generation and display of volume-rendered cut-away-views of three-dimensional images |
JP5030335B2 (en) * | 2001-03-06 | 2012-09-19 | オリンパス株式会社 | Medical image display device |
JP2003079637A (en) * | 2001-09-13 | 2003-03-18 | Hitachi Medical Corp | Operation navigating system |
US6892090B2 (en) * | 2002-08-19 | 2005-05-10 | Surgical Navigation Technologies, Inc. | Method and apparatus for virtual endoscopy |
DE10252837B4 (en) | 2002-11-13 | 2005-03-24 | Carl Zeiss | Examination system and examination procedure |
WO2005020148A1 (en) * | 2003-08-21 | 2005-03-03 | Philips Intellectual Property & Standards Gmbh | Device and method for combined display of angiograms and current x-ray images |
WO2006067676A2 (en) * | 2004-12-20 | 2006-06-29 | Koninklijke Philips Electronics N.V. | Visualization of a tracked interventional device |
US9789608B2 (en) * | 2006-06-29 | 2017-10-17 | Intuitive Surgical Operations, Inc. | Synthetic representation of a surgical robot |
DE102005051405B4 (en) * | 2005-10-27 | 2007-08-23 | Forschungszentrum Dresden - Rossendorf E.V. | measuring sensor |
US8401620B2 (en) | 2006-10-16 | 2013-03-19 | Perfint Healthcare Private Limited | Needle positioning apparatus and method |
US8989842B2 (en) | 2007-05-16 | 2015-03-24 | General Electric Company | System and method to register a tracking system with intracardiac echocardiography (ICE) imaging system |
JP5859431B2 (en) | 2009-06-08 | 2016-02-10 | エムアールアイ・インターヴェンションズ,インコーポレイテッド | MRI guided intervention system capable of tracking flexible internal devices and generating dynamic visualization in near real time |
WO2010148083A2 (en) | 2009-06-16 | 2010-12-23 | Surgivision, Inc. | Mri-guided devices and mri-guided interventional systems that can track and generate dynamic visualizations of the devices in near real time |
US20120190970A1 (en) | 2010-11-10 | 2012-07-26 | Gnanasekar Velusamy | Apparatus and method for stabilizing a needle |
US11617623B2 (en) * | 2014-01-24 | 2023-04-04 | Koninklijke Philips N.V. | Virtual image with optical shape sensing device perspective |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4722056A (en) * | 1986-02-18 | 1988-01-26 | Trustees Of Dartmouth College | Reference display systems for superimposing a tomagraphic image onto the focal plane of an operating microscope |
CA2260688A1 (en) * | 1989-11-21 | 1991-05-21 | I.S.G. Technologies, Inc. | Probe-correlated viewing of anatomical image data |
US5261404A (en) * | 1991-07-08 | 1993-11-16 | Mick Peter R | Three-dimensional mammal anatomy imaging system and method |
DE69431875T2 (en) * | 1993-04-22 | 2003-05-28 | Image Guided Technologies, Inc. | ARRANGEMENT FOR DETERMINING THE MUTUAL POSITION OF BODIES |
EP0951874A3 (en) * | 1994-09-15 | 2000-06-14 | Visualization Technology, Inc. | Position tracking and imaging system for use in medical applications using a reference unit secured to a patients head |
US5776050A (en) * | 1995-07-24 | 1998-07-07 | Medical Media Systems | Anatomical visualization system |
-
1998
- 1998-06-26 JP JP50581699A patent/JP2002510230A/en not_active Ceased
- 1998-06-26 WO PCT/US1998/013391 patent/WO1999000052A1/en active Application Filing
- 1998-06-26 EP EP98931672A patent/EP0999785A4/en not_active Withdrawn
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009018184A (en) * | 2001-02-13 | 2009-01-29 | Mediguide Ltd | Medical imaging and navigation system |
JP2005518854A (en) * | 2002-02-28 | 2005-06-30 | ヒユーストン・ステレオタクテイク・コンセプツ・インコーポレーテツド | Audible feedback from positional guidance system |
JP2005529701A (en) * | 2002-06-18 | 2005-10-06 | ボストン サイエンティフィック リミテッド | Computer generated display of imaging pattern of imaging device |
JP4533638B2 (en) * | 2004-01-30 | 2010-09-01 | オリンパス株式会社 | Virtual image display system |
JP2005211531A (en) * | 2004-01-30 | 2005-08-11 | Olympus Corp | Virtual image display system |
JP2008541859A (en) * | 2005-05-23 | 2008-11-27 | ザ ペン ステイト リサーチ ファンデーション | 3D-CT registration with guidance method based on 3D-2D pose estimation and application to raw bronchoscopy |
JP2007050254A (en) * | 2005-08-17 | 2007-03-01 | General Electric Co <Ge> | Real-time integration and recording of surgical image data |
JP2007304269A (en) * | 2006-05-10 | 2007-11-22 | Kawasumi Lab Inc | Head model |
JP2010503439A (en) * | 2006-09-13 | 2010-02-04 | ネクスティム リミテッド | Method and apparatus for correcting errors in the mutual display of a coordinate system used to display an object presented during navigation brain stimulation |
JP2008093438A (en) * | 2006-10-12 | 2008-04-24 | General Electric Co <Ge> | System and method for calibration of endoscope |
JP2008284144A (en) * | 2007-05-17 | 2008-11-27 | Hitachi Medical Corp | Reference image display method in ultrasonic treatment, and ultrasonic apparatus |
JP2009273521A (en) * | 2008-05-12 | 2009-11-26 | Niigata Univ | Navigation system for arthroscopical surgery |
JP2010099471A (en) * | 2008-10-21 | 2010-05-06 | Humanscan Co Ltd | Patient position monitoring device |
JP2011092687A (en) * | 2009-09-30 | 2011-05-12 | Fujifilm Corp | Diagnosis support system, diagnostic support program and diagnostic support method |
US9814392B2 (en) | 2009-10-30 | 2017-11-14 | The Johns Hopkins University | Visual tracking and annotaton of clinically important anatomical landmarks for surgical interventions |
JP2013509273A (en) * | 2009-10-30 | 2013-03-14 | ザ・ジョンズ・ホプキンス・ユニバーシティー | Visual tracking / annotation of clinically important anatomical landmarks for surgical intervention |
JP4728456B1 (en) * | 2010-02-22 | 2011-07-20 | オリンパスメディカルシステムズ株式会社 | Medical equipment |
JP2011193885A (en) * | 2010-03-17 | 2011-10-06 | Fujifilm Corp | System, method, apparatus and program for supporting endoscope observation |
WO2013027571A1 (en) * | 2011-08-19 | 2013-02-28 | 株式会社 東芝 | Diagnostic ultrasound equipment, medical image processing equipment and medical image processing method |
JP2013059610A (en) * | 2011-08-19 | 2013-04-04 | Toshiba Corp | Ultrasonic diagnostic apparatus, medical image processor, and medical image processing program |
US10456106B2 (en) | 2011-08-19 | 2019-10-29 | Toshiba Medical Systems Corporation | Ultrasonic diagnostic apparatus, medical image processing apparatus, and medical image processing method |
JP2015501183A (en) * | 2011-10-26 | 2015-01-15 | コーニンクレッカ フィリップス エヌ ヴェ | Endoscopic registration of blood vessel tree images |
JP2017086917A (en) * | 2015-11-16 | 2017-05-25 | バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. | Locally applied transparency for ct image |
JP7051286B2 (en) | 2015-11-16 | 2022-04-11 | バイオセンス・ウエブスター・(イスラエル)・リミテッド | Transparency method applied locally to CT images |
KR20190024196A (en) * | 2017-08-31 | 2019-03-08 | (주)레벨소프트 | Medical Image Processing Apparatus and Medical Image Processing Method for Surgical Navigator |
KR102084251B1 (en) * | 2017-08-31 | 2020-03-03 | (주)레벨소프트 | Medical Image Processing Apparatus and Medical Image Processing Method for Surgical Navigator |
US11676706B2 (en) | 2017-08-31 | 2023-06-13 | Gmeditec Co., Ltd. | Medical image processing apparatus and medical image processing method which are for medical navigation device |
US11183295B2 (en) | 2017-08-31 | 2021-11-23 | Gmeditec Co., Ltd. | Medical image processing apparatus and medical image processing method which are for medical navigation device |
JP2022502194A (en) * | 2018-10-04 | 2022-01-11 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | Graphical user interface for defining anatomical boundaries |
JP7478143B2 (en) | 2018-10-04 | 2024-05-02 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | Graphical User Interface for Defining Anatomical Boundaries - Patent application |
JP2022521171A (en) * | 2019-02-12 | 2022-04-06 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | Systems and methods that facilitate the optimization of imaging device perspectives during surgical sessions of computer-assisted surgical systems |
JP7494196B2 (en) | 2019-02-12 | 2024-06-03 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | SYSTEM AND METHOD FOR FACILITATING OPTIMIZATION OF IMAGING DEVICE VIEWPOINT DURING A SURGERY SESSION OF A COMPUTER-ASSISTED SURGERY SYSTEM - Patent application |
KR102208577B1 (en) | 2020-02-26 | 2021-01-27 | (주)레벨소프트 | Medical Image Processing Apparatus and Medical Image Processing Method for Surgical Navigator |
KR20200026850A (en) * | 2020-02-26 | 2020-03-11 | (주)레벨소프트 | Medical Image Processing Apparatus and Medical Image Processing Method for Surgical Navigator |
Also Published As
Publication number | Publication date |
---|---|
EP0999785A4 (en) | 2007-04-25 |
WO1999000052A1 (en) | 1999-01-07 |
EP0999785A1 (en) | 2000-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2002510230A (en) | Stereoscopic image navigation method and apparatus | |
US6591130B2 (en) | Method of image-enhanced endoscopy at a patient site | |
US11464575B2 (en) | Systems, methods, apparatuses, and computer-readable media for image guided surgery | |
US20230233264A1 (en) | Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures | |
US6690960B2 (en) | Video-based surgical targeting system | |
US10398513B2 (en) | Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures | |
EP0741540B1 (en) | Imaging device and method | |
US6049622A (en) | Graphic navigational guides for accurate image orientation and navigation | |
EP2951779B1 (en) | Three-dimensional image segmentation based on a two-dimensional image information | |
RU2707369C1 (en) | Method for preparing and performing a surgical operation using augmented reality and a complex of equipment for its implementation | |
EP1011424A1 (en) | Imaging device and method | |
JP2003509145A (en) | How to draw medical images in real time | |
JPH08280710A (en) | Real time medical device,and method to support operator to perform medical procedure on patient | |
Adams et al. | An optical navigator for brain surgery | |
Stetten et al. | C-Mode Real-time Tomographic Reflection for a Matrix Array Ultrasound Sonic Flashlight1 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050331 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080408 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080708 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20081008 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20081117 |
|
A313 | Final decision of rejection without a dissenting response from the applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A313 Effective date: 20090217 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090421 |