DE102005022541A1 - Verfahren und Gerät zur Darstellung von Strukturen auf einem 2D-Durchleuchtungsbild - Google Patents
Verfahren und Gerät zur Darstellung von Strukturen auf einem 2D-Durchleuchtungsbild Download PDFInfo
- Publication number
- DE102005022541A1 DE102005022541A1 DE200510022541 DE102005022541A DE102005022541A1 DE 102005022541 A1 DE102005022541 A1 DE 102005022541A1 DE 200510022541 DE200510022541 DE 200510022541 DE 102005022541 A DE102005022541 A DE 102005022541A DE 102005022541 A1 DE102005022541 A1 DE 102005022541A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- data set
- image data
- fluoroscopic
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000002059 diagnostic imaging Methods 0.000 claims abstract 3
- 239000003550 marker Substances 0.000 claims description 26
- 238000002594 fluoroscopy Methods 0.000 claims description 5
- 210000000013 bile duct Anatomy 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 claims description 3
- 230000002792 vascular Effects 0.000 claims description 3
- 206010028980 Neoplasm Diseases 0.000 claims description 2
- 238000002591 computed tomography Methods 0.000 claims description 2
- 238000002604 ultrasonography Methods 0.000 claims description 2
- 238000012800 visualization Methods 0.000 description 5
- 210000004185 liver Anatomy 0.000 description 3
- 238000010968 computed tomography angiography Methods 0.000 description 2
- CWHBCTLVWOCMPQ-UHFFFAOYSA-L disodium;2-[(3,5-diiodo-4-oxidophenyl)-(3,5-diiodo-4-oxocyclohexa-2,5-dien-1-ylidene)methyl]benzoate Chemical compound [Na+].[Na+].[O-]C(=O)C1=CC=CC=C1C(C=1C=C(I)C([O-])=C(I)C=1)=C1C=C(I)C(=O)C(I)=C1 CWHBCTLVWOCMPQ-UHFFFAOYSA-L 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 208000016853 pontine tegmental cap dysplasia Diseases 0.000 description 2
- 210000003240 portal vein Anatomy 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000011477 surgical intervention Methods 0.000 description 2
- 208000032843 Hemorrhage Diseases 0.000 description 1
- 206010027476 Metastases Diseases 0.000 description 1
- 238000002583 angiography Methods 0.000 description 1
- 208000034158 bleeding Diseases 0.000 description 1
- 230000000740 bleeding effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 239000002872 contrast media Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000005562 fading Methods 0.000 description 1
- 210000002989 hepatic vein Anatomy 0.000 description 1
- 210000005228 liver tissue Anatomy 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000008155 medical solution Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/037—Emission tomography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/46—Arrangements for interfacing with the operator or the patient
- A61B6/461—Displaying means of special interest
- A61B6/466—Displaying means of special interest adapted to display 3D data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5229—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
- A61B6/5235—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/48—Diagnostic techniques
- A61B8/483—Diagnostic techniques involving the acquisition of a 3D volume of data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5215—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
- A61B8/5238—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Physics & Mathematics (AREA)
- Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- High Energy & Nuclear Physics (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Pulmonology (AREA)
- Theoretical Computer Science (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Die Erfindung betrifft ein Verfahren und ein Gerät zur Darstellung von Strukturen (1), die in einem 3-D-Bilddatensatz (4) eines Objektes (22) enthalten sind, auf einem 2-D-Durchleuchtungsbild (6) des Objektes. Hierbei wird innerhalb des 3-D-Bilddatensatzes (4) eine aus Punkten, Linien oder geometrischen Figuren bestehende Positionsmarkierung (2) festgelegt, welche die Position eines anatomischen Landmarks markiert. Diese Positionsmarkierung wird dann positionsgenau auf das 2-D-Durchleutungsbild (6) übertragen.
Description
- Die Erfindung betrifft ein Verfahren und ein Gerät zur Darstellung von Strukturen, die in einem 3-D Bilddatensatz eines Objektes enthalten sind, auf einem 2-D Durchleuchtungsbild des Objektes.
- Heutzutage werden zahlreiche medizinische Eingriffe mittels intra-operativ gewonnener Röntgenbilder gesteuert. Beispielsweise werden zur Navigation der Instrumente bei neurochirurgischen oder anderen bildgesteuerten minimalinvasiven Eingriffen mit Hilfe von fluoroskopischer Durchleuchtung Echtzeitbilder gewonnen. Diese zweidimensionalen Durchleuchtungsbilder weisen zwar keine Tiefeninformation auf und zeigen daher keine räumlichen Details, im Gegensatz zu dreidimensionalen durch tomographische Verfahren gewonnenen Bildern sie sind jedoch schneller verfügbar und minimieren die Strahlenbelastung für Patient und Arzt. Die in den intra-operativ gewonnenen Durchleuchtungsbildern fehlende räumliche Information wird im Stand der Technik dadurch kompensiert, dass präoperativ aufgenommene dreidimensionale Bilder (3D-Bilder) mit den zweidimensionalen Durchleuchtungsbildern (2D-Bildern) registriert werden und mit diesen gemeinsam betrachtet werden. Diese Kombination von co-registrierten, aktuellen 2D-Bildern und räumlich aufgelösten 3D-Bildern erlaubt dem Arzt nun eine bessere Orientierung im Volumen während des Eingriffs.
- Diese so genannte 2D3D-Registrierung umfasst im Wesentlichen zwei Schritte:
- 1. Bildregistrierung: Zunächst muss der prä-operative 3D-Bilddatensatz zu dem intra-operativen Koordinatensystem des Patienten bzw. zu einem intra-operativen 2D-Durchleuchtungsbild registriert werden. Das bedeutet, dass eine Transformationsmatrix gefunden werden muss, mit der ein Objekt aus dem Koordinatensystem des 3D-Bildes in das des 2D-Durchleuchtungsbildes übertragen werden kann. Dadurch kann bestimmt werden, aus welcher Richtung der 3D-Bilddatensatz projiziert werden muss, um mit einem intra-operativen 2D-Durchleuchtungsbild in Deckung gebracht zu werden. Derartige Bildregistrierungsverfahren sind im Stand der Technik bekannt und z. B. beschrieben im Artikel von J. Weese, T.M. Buzug, G.P. Penny, P. Desmedt: „2D/3D Registration and Motion Tracking for Surgical Interventions", Philips Journal of Research 51 (1998) 299–316.
- 2. Visualisierung: Das zweite Problem ist die Visualisierung der co-registrierten Bilder, d.h. die gemeinsame Darstellung vom aktuellen 2D-Durchleuchtungsbild und einer dieser Ansicht entsprechenden Projektion des prä-operativen 3D-Bildes. Hierfür sind im Stand der Technik verschiedene Methoden bekannt. Gemäß der „Overlay-Methode" werden die beiden Bilder einfach übereinander gelegt. Der Anteil, den jedes der beiden Einzelbilder am fusionierten Bild haben soll („blending"), lässt sich einstellen. Diese Methode wird am häufigsten verwendet, hat jedoch den Nachteil, dass wichtige Objekte im einen Bild durch das andere Bild überblendet werden können. Dies betrifft insbesondere niederkontrastige Objekte im 2D-Durchleuchtungsbild z. B. Katheterspitzen, Stents etc, welche beim Überblenden durch die hochkontrastige 3D-Aufnahme überdeckt werden können.
- Eine weitere Methode zur gemeinsamen Darstellung der registrierten Bilder ist die so genannte „Linked Cursor" Methode, bei welcher die Bilder in separaten Fenstern dargestellt werden, wobei beide Fenster einen gemeinsamen Cursor haben. Cursorbewegungen im 2D-Fenster werden dabei in das 3D-Fenster übertragen und umgekehrt. Diese Methode hat zwar nicht das Problem der Überblendungen, dafür muss jedoch mit zwei Fenstern gearbeitet werden, was wiederum die Visualisierung erschwert und insbesondere während einer Operation keine gute Orientierung im 3D-Datensatz verschafft.
- Die Erfindung hat sich daher die Aufgabe gestellt, ein weiteres Verfahren zur Visualisierung von co-registrierten Bildern bereitzustellen, welches eine gute Orientierung ohne das Problem der Überlagerung von Objekten liefert.
- Diese Aufgabe löst die Erfindung durch das Verfahren gemäß Anspruch 1 und das Gerät nach Anspruch 8. Bevorzugte Ausführungsformen der Erfindung sind in den jeweiligen abhängigen Ansprüchen angegeben.
- Das Verfahren setzt voraus, dass der 3D-Bilddatensatz und das 2D-Durchleuchtungsbild co-registriert sind. Dies kann zum einen der Fall sein, wenn der 3D-Bilddatensatz auf dem gleichen Gerät gewonnen wurde wie die 2D-Durchleuchtungsbilder, vorzugsweise bei gleicher Lage des Patienten. Dann ist die Orientierung des 3D-Bilddatensatzes im Bezug auf ein mit dem gleichen Gerät gewonnenes 2D-Durchleuchtungsbild automatisch bekannt. Es kann jedoch auch ein aus einem anderen Gerät oder gar mit einem anderen Bildgebungsverfahren gewonnener 3D-Bilddatensatz verwendet werden, welcher dann mit Hilfe eines der bekannten Verfahren zu dem 2D-Durchleuchtungsbild registriert wird.
- Die Erfindung beruht auf der Erkenntnis, dass zur Visualisierung nicht der gesamte Bildinhalt des 3D-Bilddatensatzes auf das 2D-Durchleuchtungsbild übertragen werden braucht, sondern nur bestimmte Strukturen bzw. „landmarks", welche zur Orientierung auf den 2D-Durchleuchtungsbildern notwendig sind.
- Während eines Eingriffs sind dies insbesondere gewisse anatomische Landmarks, welche der Benutzer vorzugsweise selbst im 3D-Volumen ausgewählt hat. Die Position dieser Struktur innerhalb des 3D-Bilddatensatzes wird durch eine so genannte Positionsmarkierung markiert, welche bevorzugt aus Punkten, Linien, Flächen oder anderen, vorzugsweise einfachen, geometrischen Figuren besteht. Die Punkte können beispielsweise durch den Benutzer mit Hilfe einer Maus im 3D-Bilddatensatz angewählt werden, oder der Benutzer kann Linien, Dreiecke, Ellipsen oder andere geometrische Figuren im 3D-Bilddatensatz aufspannen, welche ein für ihn interessierendes anatomisches Landmark umreißen. Alternativ kann die Positionsmarkierung auch voll- oder halb automatisch durch einen Rechner festgelegt werden.
- Gemäß dem erfindungsgemäßen Verfahren wird dann die theoretische Position der Positionsmarkierung auf dem 2D-Druchleuchtungsbild berechnet und das 2D-Durchleuchtungsbild überlagert von der Positionsmarkierung dargestellt. Da es sich bei der Positionsmarkierung vorzugsweise um eine aus Punkten und Linien bestehende, also nicht flächige Struktur handelt, werden durch die Positionsmarkierung keine Objekte auf dem 2D-Durchleuchtungsbild überdeckt.
- Vorzugsweise wird mehrmals pro Sekunde ein neues 2D-Durchleuchtungsbild aufgenommen und die Berechnung und Darstellung der Positionsmarkierung für jedes 2D-Durchleuchtungsbild wiederholt. Damit kann die Positionsmarkierung auch auf Fluoroskopiebilder übertragen werden und dabei in Echtzeit an Änderungen der Projektionsgeometrie angepasst werden. Die hierfür verwendete Röntgenanlage ist vorzugsweise derart kalibriert, dass wenn der 3D-Bilddatensatz einmal auf ein 2D-Durchleuchtungsbild registriert ist, auch die Registrierung zu anderen 2D-Durchleuchtungsbildern aus anderen Angulationen bekannt ist. Somit ist dann auch jede weitere Registrierung des 3D-Bilddatensatzes zu den 2D-Bildern bestimmt.
- Die durch die Positionsmarkierung markierte Struktur ist vorzugsweise eine Gefäßverzweigung, ein Gefäß, ein Gallengang oder ein Tumor. In einer bevorzugten Ausführungsform wird die Art (Punkt, Linie, aus Linien aufgespannte geometrische Figur) und die Position der Positionsmarkierung innerhalb des 3D-Bilddatensatzes mit einer Maus oder einem anderen Cursor-Steuerungsgerät durch einen Benutzer festgelegt, während der 3D-Bilddatensatz auf einem Bildschirm dargestellt wird. Die markierte Struktur kann auch durch Zielpunkte für Punktionen, Metastasen, Gefäße in der Leber etc. gebildet sein.
- Die Erfindung ist auch auf ein Gerät zur Ausführung des Verfahrens gerichtet.
- Mit Bezug auf die beiliegenden Zeichnungen werden nunmehr bevorzugte Ausführungsformen der Erfindung beschrieben.
- In den Zeichnungen zeigen
-
1 zwei Ansichten eines 3D-Bilddatensatzes (schematisch); -
2 eine Ansicht eines 2D-Durchleuchtungsbildes mit eingeblendeter Positionsmarkierung (schematisch); -
3 ein Flussdiagram eines Ausführungsbeispiels des erfindungsgemäßen Verfahrens; und -
4 eine schematische Darstellung eines Röntgengerätes umfassend ein Gerät gemäß einem Ausführungsbeispiel der Erfindung. - In
1 sind zwei Ansichten eines fiktiven 3-dimensionalen Datensatzes gezeigt, welcher einen Gefäßbaum1 enthält. Die beiden Ansichten sind z. B. „maximum intensity projection" (MIP) Bilder des Datensatzes, welche den gleichen Abschnitt des Gefäßbaumes aus 2 verschiedenen Blickrichtungen zeigen. Der 3D-Bilddatensatz kann durch ein beliebiges Verfahren aufgenommen sein, welches eine ausreichend kontrastierte Darstellung der Gefäße bzw. der interessierenden Struktur erlaubt, z. B. 3D-Angiographie, MRT (Magnetresonanztomographie) oder 3D-Ultraschall. Soll der 3D-Bilddatensatz noch andere Strukturen als Gefäße darstellen, können die hierfür jeweils geeigneten Bildgebungsverfahren verwendet werden, z. B. die Röntgencomputertomographie, MRT, PET usw. Vorzugsweise wird es sich um ein CT- oder MRT-Bild handeln, welches vor dem geplanten Eingriff akquiriert wurde. - In dem Flussdiagramm der
3 ist die Akquirierung des 3D-Bildes als Schritt40 dargestellt. Dieser Schritt kann beispielsweise am Vortag des geplanten Eingriffs erfolgen. Ist der Patient dann im Fall einer Fluoroskopie-gesteuerten Intervention für den Eingriff in der Röntgen-Anlage gelagert, wird das 3D-Bild auf ein 2D-Durchleuchtungsbild dieser Anlage registriert (Schritt42 ). - Der die Operation durchführende Arzt wählt nun eine bestimmte Struktur im 3D-Bilddatensatz aus, welche er auf den 2D-Durchleuchtungsbildern dargestellt haben möchte. In
1 sind als Beispiel hierfür die Punkte P1 und P2 gezeigt, die jeweils eine Gefäßverzweigung markieren. Diese Punkte kann der Arzt mit Hilfe der Maus in den beiden MIP-Bildern solange verschieben, bis ihre Position im 3D-Bilddatensatz mit der des gewünschten anatomischen Landmarks übereinstimmt. Im Beispiel der1 sind die Punkte P1 und P2 darüber hinaus durch eine gekrümmte Linie verbunden, welche dem Gefäßverlauf folgt. Die Linie und die Punkte P1 und P2 bilden gemeinsam die Positionsmarkierung2 . - Als nächstes wird gemäß Schritt
46 in3 ein 2D-Durchleuchtungsbild aufgenommen und auf Grund der bekannten Registrierung die Position der Positionsmarkierung2 auf dem 2D-Bild berechnet (Schritt48 ). Hierfür wird z. B. eine Projektion der Positionsmarkierung in der Projektionsrichtung des Fluoroskopiebildes berechnet. Die Positionsmarkierung kann nun korrekt auf das Fluoroskopiebild6 übertragen werden (Schritt50 ), wie in2 gezeigt. Auf dem Fluoroskopiebild ist der Gefäßbaum mangels Kontrastmittel zunächst nicht zu sehen. Dafür ist ein für den Eingriff eingeführtes Instrument, hier ein Katheter8 mit einer Katheterspitze10 , auf dem Fluoroskopiebild6 zu erkennen. Darüber hinaus wird die Position des vom Arzt markierten Gefäßes durch die Positionsmarkierung2 gezeigt. Der Arzt kann sich so auf dem intra-operativen Fluoroskopiebild hervorragend orientieren, ohne dass der Kontrast des Bildes durch die Überlagerung des gesamten 3D-Bildes geschwächt wird. - Die Schritte
46 bis50 werden vorzugsweise in Echtzeit, d.h. bis zu 15 mal pro Sekunde wiederholt, um so den operativen Eingriff bildgesteuert vornehmen zu können. - Die Positionsmarkierung kann aus Punkten, geraden und gekrümmten Linien bestehen, möglich sind auch 3-dimensionale geometrische Strukturen, z. B. ein kugelförmiger oder ellipsoider Körper, welcher ebenfalls mit Hilfe einer Maus im 3-dimensionalen Volumen aufgespannt werden könnte. Eine weitere Alternative ist eines oder mehrere Dreiecke oder Rechtecke, welche beliebig im Raum orientiert sein können und gemeinsam eine Oberfläche aufspannen, die einer entsprechenden anatomischen Grenzfläche im 3D-Bilddatensatz folgt.
- In
4 ist ein Beispiel für eine Röntgen-Anlage mit einem angeschlossenen Gerät gezeigt, mit dem eine Ausführungsform des erfindungsgemäßen Verfahrens ausgeführt werden kann. Bei dem Röntgengerät14 handelt es sich im gezeigten Beispiel um ein C-Bogengerät mit einem C-Bogen18 , an dessen Armen eine Röntgenröhre16 und ein Röntgendetektor20 angebracht sind. Hierbei kann es sich z. B. um das Gerät Axiom Artis dFC der Siemens AG, Medical Solutions, Erlangen, Deutschland, handeln. In das Sichtfeld der Röntgen-Anlage ist der Patient24 gebettet. Mit22 ist ein Objekt innerhalb des Patienten24 bezeichnet, welches das Ziel des Eingriffs sein soll, z. B. die Leber, das Herz oder das Gehirn. An die Röntgenanlage angeschlossen ist ein Rechner25 , welcher im gezeigten Beispiel sowohl die Röntgenanlage steuert, als auch die Bildverarbeitung übernimmt. Diese beiden Funktionen können jedoch auch getrennt realisiert sein. Im gezeigten Beispiel wird durch das Steuerungsmodul26 die C-Bogenbewegung und Aufnahme von intra-operativen Röntgenbildern gesteuert. Im Speicher28 ist der prä-operative Bilddatensatz gespeichert. Geeignete Ansichten dieses Bilddatensatzes werden auf dem Bildschirm32 dargestellt, und der Benutzer wählt mit der Maus34 die Art und die Position einer Positionsmarkierung aus. Im Rechenmodul30 wird dann die Position der Positionsmarkierung auf dem 2D-Durchleuchtungsbild berechnet und das von der Positionsmarkierung2 überlagerte Durchleuchtungsbild6 wird am Bildschirm32 angezeigt. - Mögliche Anwendungen des erfindungsgemäßen Verfahrens sind durchleuchtungsgesteuerte Punktionen von Gallengängen (PTCD) oder Gefäßen (TIPPS) in der Leber. Bei der PTCD kann der zu punktierende Gallengang im durch MRT oder Computertomographie-Angiographie (CTA) erhaltenen 3D-Bilddatensatz vom Benutzer markiert werden, um so die perkutan durchgeführte Punktion zu steuern. Bei einem TIPPS-Eingriff wird von der Lebervene ein Zugang zur Pfortader geschaffen, was bei den herkömmlichen Verfahren „blind" geschieht. Dies birgt Gefahren, da die Punktion unbedingt innerhalb des Lebergewebes erfolgen muss, da sonst die Gefahr einer Blutung entsteht. Hier kann ebenfalls der Zielpunkt auf der Pfortader im 3D-Bilddatensatz markiert werden und diese Markierung im Fluoroskopiebild dargestellt werden, um so die Punktion zu unterstützen.
- Das erfindungsgemäße Verfahren und Gerät erlauben somit dem Benutzer, bestimmte Strukturen, die er im Fluoroskopiebild sehen möchte, mit einfachem Mittel zu markieren, ohne hierbei eine Kontrastverschlechterung des Fluoroskopiebildes in Kauf nehmen zu müssen.
Claims (10)
- Verfahren zur Darstellung von Strukturen, die in einem dreidimensionalen Bilddatensatz (
4 ) eines Objektes (22 ) enthalten sind, auf einem zweidimensionalen Durchleuchtungsbild (6 ) des Objektes, umfassend die folgenden Schritte: a) Zugreifen auf einen 3D-Bilddatensatz (4 ) eines Objekts (22 ), wobei der 3D-Bilddatensatz mit einem medizinischen Bildgebungsverfahren aufgenommen wurde; b) Festlegen einer insbesondere aus Punkten, Linien, Flächen oder sonstigen geometrischen Figuren bestehenden Positionsmarkierung (2 ) innerhalb des 3D-Bilddatensatzes (4), wobei die Positionsmarkierung die Position einer Struktur (1 ), insbesondere eines anatomischen Landmarks, innerhalb des Objektes markiert; c) Aufnehmen eines 2D-Durchleuchtungsbildes (6) des Objekts; d) Berechnen der theoretischen Position der Positionsmarkierung auf dem 2D-Durchleuchtungsbild; und e) Darstellen des 2D-Durchleuchtungsbildes (6) überlagert von der Positionsmarkierung (2 ). - Verfahren nach Anspruch 1, bei welchem die Schritte c) bis e) bis zu mehrmals pro Sekunde wiederholt werden, so dass die Position der Positionsmarkierung im 2D-Durchleuchtungsbild (
6 ) in Echtzeit an eine Änderung der Durchleuchtungsgeometrie angepasst wird. - Verfahren nach einem der vorhergehenden Ansprüche, bei welchem das 2D-Durchleuchtungsbild (
6 ) ein Röntgenbild ist und der 3D-Bilddatensatz mit einem beliebigen bildgebenden Verfahren wie MRT, CT, PET oder Ultraschall gewonnen wurde. - Verfahren nach Anspruch 3, bei welchem vor Schritt e) eine Registrierung des 3D-Bilddatensatzes (
4 ) in Bezug auf die Röntgenanlage (14 ) erfolgt, mit der das 2D-Röntgenbild aufgenommen wird. - Verfahren nach einem der Ansprüche 1 bis 3, bei welchem das 2D-Durchleuchtungsbild (
6 ) ein Röntgenbild ist und der 3D-Bilddatensatz (4 ) mittels Computertomographie auf dem gleichen Röntgengerät aufgenommen wurde wie das Röntgenbild. - Verfahren nach einem der vorhergehenden Ansprüche, bei welchem die durch die Positionsmarkierung (
2 ) markierte Struktur eine Gefäßverzweigung, ein Gefäß, ein Gallengang oder ein Tumor ist. - Verfahren nach einem der vorhergehenden Ansprüche, wobei die Art und Position der Positionsmarkierung (
2 ) innerhalb des 3D-Bilddatensatzes (6 ) durch einen Benutzer festgelegt wird, während der 3D-Bilddatensatz auf einem Bildschirm (32 ) dargestellt wird. - Gerät zur Darstellung von Strukturen (
1 ), die in einem dreidimensionalen Bilddatensatz (4 ) eines Objektes enthalten sind, auf einem zweidimensionalen Durchleuchtungsbild (6 ) des Objektes, mit – einem ersten Datenspeicher (28 ) zum Speichern eines 3D-Bilddatensatzes eines Objektes, wobei der 3D-Bilddatensatz mit einem medizinischen Bildgebungsverfahren aufgenommen wurde; – einem Mittel (34 ) zum Festlegen einer insbesondere aus Punkten (P1, P2), Linien oder geometrischen Figuren bestehenden Positionsmarkierung (2 ) innerhalb des 3D-Bilddatensatzes, wobei die Positionsmarkierung die Position einer Struktur (1 ), insbesondere eines anatomischen Landmarks, innerhalb des Objektes markiert; – einem zweiten Datenspeicher (28 ) zum Speichern eines 2D-Durchleuchtungsbildes des Objektes; – einem Rechner (30 ) zur Berechnung der theoretischen Position der Positionsmarkierung auf dem 2D-Durchleuchtungsbild; und – einem Bildschirm (32 ) zum Darstellen des 2D-Durchleuchtungsbildes (6 ) überlagert von der Positionsmarkierung (2 ). - Gerät nach Anspruch 8, ferner umfassend ein Röntgengerät (
14 ) zur Aufnahme von 2D-Durchleuchtungsbildern des Objekts (22 ), insbesondere von Fluoroskopiebildern. - Gerät nach Anspruch 8 oder 9, welches zur Ausführung des Verfahrens nach einem der Ansprüche 1 bis 7 geeignet ist.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE200510022541 DE102005022541A1 (de) | 2005-05-17 | 2005-05-17 | Verfahren und Gerät zur Darstellung von Strukturen auf einem 2D-Durchleuchtungsbild |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE200510022541 DE102005022541A1 (de) | 2005-05-17 | 2005-05-17 | Verfahren und Gerät zur Darstellung von Strukturen auf einem 2D-Durchleuchtungsbild |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102005022541A1 true DE102005022541A1 (de) | 2006-12-07 |
Family
ID=37401667
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE200510022541 Ceased DE102005022541A1 (de) | 2005-05-17 | 2005-05-17 | Verfahren und Gerät zur Darstellung von Strukturen auf einem 2D-Durchleuchtungsbild |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102005022541A1 (de) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007053756A1 (de) * | 2007-11-12 | 2009-05-20 | Siemens Ag | Verfahren zur Anzeige eines kardiologischen Gefäßbereichs |
DE102008045276A1 (de) * | 2008-09-01 | 2010-03-11 | Siemens Aktiengesellschaft | Verfahren zur Ansteuerung einer medizintechnischen Anlage |
DE102010022526A1 (de) * | 2010-03-31 | 2011-10-06 | Siemens Aktiengesellschaft | Verfahren und Vorrichtung zur Verbesserung einer CT-Bild-Darstellung von zumindest einem medizinischen Instrument in einem nahezu nicht kontrastierbaren Ziel-Bereich |
US9129366B2 (en) | 2008-09-11 | 2015-09-08 | Carl Zeiss Meditec Ag | Medical systems and methods |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001034051A2 (en) * | 1999-10-28 | 2001-05-17 | Medtronic Surgical Navigation Technologies | Navigation information overlay onto ultrasound imagery |
DE10243162A1 (de) * | 2002-09-17 | 2004-03-25 | Siemens Ag | Rechnergestütztes Darstellungsverfahren für ein 3D-Objekt |
WO2004110271A1 (en) * | 2003-06-16 | 2004-12-23 | Philips Intellectual Property & Standards Gmbh | Imaging system for interventional radiology |
DE10333543A1 (de) * | 2003-07-23 | 2005-02-24 | Siemens Ag | Verfahren zur gekoppelten Darstellung intraoperativer sowie interaktiv und iteraktiv re-registrierter präoperativer Bilder in der medizinischen Bildgebung |
US20050065424A1 (en) * | 2003-06-06 | 2005-03-24 | Ge Medical Systems Information Technologies, Inc. | Method and system for volumemetric navigation supporting radiological reading in medical imaging systems |
-
2005
- 2005-05-17 DE DE200510022541 patent/DE102005022541A1/de not_active Ceased
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001034051A2 (en) * | 1999-10-28 | 2001-05-17 | Medtronic Surgical Navigation Technologies | Navigation information overlay onto ultrasound imagery |
DE10243162A1 (de) * | 2002-09-17 | 2004-03-25 | Siemens Ag | Rechnergestütztes Darstellungsverfahren für ein 3D-Objekt |
US20050065424A1 (en) * | 2003-06-06 | 2005-03-24 | Ge Medical Systems Information Technologies, Inc. | Method and system for volumemetric navigation supporting radiological reading in medical imaging systems |
WO2004110271A1 (en) * | 2003-06-16 | 2004-12-23 | Philips Intellectual Property & Standards Gmbh | Imaging system for interventional radiology |
DE10333543A1 (de) * | 2003-07-23 | 2005-02-24 | Siemens Ag | Verfahren zur gekoppelten Darstellung intraoperativer sowie interaktiv und iteraktiv re-registrierter präoperativer Bilder in der medizinischen Bildgebung |
Non-Patent Citations (2)
Title |
---|
SIBOMANA, M. u.a.:"Volumic image analysis appli- cation bundle for UNIX workstations". IEEE Nuclear Science Symposium and Medical Imaging Conference Record, 1995, Vol. 3, 21.-28. Okt. 1995, Seiten 1488-1492 * |
WEESE J. u.a.:"2D/3D REGISTRATION AND MOTION TRACKING FOR SURGICAL INTERVENTIONS". In: Philips Journal of Research Vol. 51, No. 2, 1998, Seiten 299-316 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007053756A1 (de) * | 2007-11-12 | 2009-05-20 | Siemens Ag | Verfahren zur Anzeige eines kardiologischen Gefäßbereichs |
DE102007053756B4 (de) * | 2007-11-12 | 2017-06-01 | Siemens Healthcare Gmbh | Verfahren zur Anzeige eines kardiologischen Gefäßbereichs |
DE102008045276A1 (de) * | 2008-09-01 | 2010-03-11 | Siemens Aktiengesellschaft | Verfahren zur Ansteuerung einer medizintechnischen Anlage |
DE102008045276B4 (de) * | 2008-09-01 | 2010-08-05 | Siemens Aktiengesellschaft | Verfahren zur Ansteuerung einer medizintechnischen Anlage, medizintechnische Anlage und Computerprogramm |
US9129366B2 (en) | 2008-09-11 | 2015-09-08 | Carl Zeiss Meditec Ag | Medical systems and methods |
US9320438B2 (en) | 2008-09-11 | 2016-04-26 | Carl Zeiss Meditec Ag | Medical systems and methods |
US9351644B2 (en) | 2008-09-11 | 2016-05-31 | Carl Zeiss Meditec Ag | Medical systems and methods |
US9357931B2 (en) | 2008-09-11 | 2016-06-07 | Carl Zeiss Meditec Ag | Medical systems and methods |
DE102010022526A1 (de) * | 2010-03-31 | 2011-10-06 | Siemens Aktiengesellschaft | Verfahren und Vorrichtung zur Verbesserung einer CT-Bild-Darstellung von zumindest einem medizinischen Instrument in einem nahezu nicht kontrastierbaren Ziel-Bereich |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102005030646B4 (de) | Verfahren zur Kontur-Visualisierung von zumindest einer interessierenden Region in 2D-Durchleuchtungsbildern | |
DE102007013807B4 (de) | Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene | |
DE19963440C2 (de) | Verfahren und System zur Visualisierung eines Gegenstandes | |
DE102005023167B4 (de) | Verfahren und Vorrichtung zur Registrierung von 2D-Projektionsbildern relativ zu einem 3D-Bilddatensatz | |
DE102007013407B4 (de) | Verfahren und Vorrichtung zur Bereitstellung einer Korrekturinformation | |
DE102005007893B4 (de) | Verfahren zur Positionsbestimmung eines Instrumentes mit einem Röntgensystem | |
DE102005059804A1 (de) | Verfahren und Vorrichtung zur Bewegungskorrektur bei der Bildgebung während einer medizinischen Intervention | |
DE10136709B4 (de) | Vorrichtung zum Durchführen von operativen Eingriffen sowie Verfahren zum Darstellen von Bildinformationen während eines solchen Eingriffs an einem Patienten | |
DE102006003126A1 (de) | Verfahren und Vorrichtung zum Visualisieren von 3D-Objekten | |
DE10333543A1 (de) | Verfahren zur gekoppelten Darstellung intraoperativer sowie interaktiv und iteraktiv re-registrierter präoperativer Bilder in der medizinischen Bildgebung | |
DE10210646A1 (de) | Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments | |
DE10210647A1 (de) | Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments | |
DE10325003A1 (de) | Visualisierung von 2D/ 3D-fusionierten Bilddaten für die Katheterangiografie | |
DE102004004620A1 (de) | Verfahren zur Registrierung und Überlagerung von Bilddaten bei Serienaufnahmen in der medizinischen Bildgebung | |
DE102008030244A1 (de) | Verfahren zur Unterstützung von perkutanen Interventionen | |
DE102005035430A1 (de) | Verfahren zur verbesserten Darstellung co-registrierter 2D-3D-Bilder in der medizinischen Bildgebung | |
DE102005027678A1 (de) | Verfahren und Vorrichtung zur Markierung von dreidimensionalen Strukturen auf zweidimensionalen Projektionsbildern | |
DE102012224057B4 (de) | Verfahren und Vorrichtung zur Bildunterstützung | |
DE102006056679B4 (de) | Verfahren und Vorrichtung zum Visualisieren von 3D-Objekten, insbesondere in Echtzeit | |
DE102005035929A1 (de) | Verfahren zur Darstellung mehrerer Bilder sowie ein Bildsystem zur Durchführung des Verfahrens | |
DE102005045602A1 (de) | Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs | |
DE102007051479B4 (de) | Verfahren und Vorrichtung zur Darstellung von Bilddaten mehrerer Bilddatensätze während einer medizinischen Intervention | |
DE102007021061A1 (de) | Verfahren zur gekoppelten Darstellung von Röntgen-Durchleuchtungs-sowie intraoperativer Ultraschallbilder in der medizinischen Bildgebung | |
DE102005022541A1 (de) | Verfahren und Gerät zur Darstellung von Strukturen auf einem 2D-Durchleuchtungsbild | |
DE10210644B4 (de) | Verfahren zum Erstellen einer Sequenz |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8120 | Willingness to grant licenses paragraph 23 | ||
8131 | Rejection |