[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE102005022541A1 - Verfahren und Gerät zur Darstellung von Strukturen auf einem 2D-Durchleuchtungsbild - Google Patents

Verfahren und Gerät zur Darstellung von Strukturen auf einem 2D-Durchleuchtungsbild Download PDF

Info

Publication number
DE102005022541A1
DE102005022541A1 DE200510022541 DE102005022541A DE102005022541A1 DE 102005022541 A1 DE102005022541 A1 DE 102005022541A1 DE 200510022541 DE200510022541 DE 200510022541 DE 102005022541 A DE102005022541 A DE 102005022541A DE 102005022541 A1 DE102005022541 A1 DE 102005022541A1
Authority
DE
Germany
Prior art keywords
image
data set
image data
fluoroscopic
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE200510022541
Other languages
English (en)
Inventor
Jan Dr. Boese
Marcus Dr. Pfister
Andreas Meyer
Norbert Rahn
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE200510022541 priority Critical patent/DE102005022541A1/de
Publication of DE102005022541A1 publication Critical patent/DE102005022541A1/de
Ceased legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/037Emission tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Pulmonology (AREA)
  • Theoretical Computer Science (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren und ein Gerät zur Darstellung von Strukturen (1), die in einem 3-D-Bilddatensatz (4) eines Objektes (22) enthalten sind, auf einem 2-D-Durchleuchtungsbild (6) des Objektes. Hierbei wird innerhalb des 3-D-Bilddatensatzes (4) eine aus Punkten, Linien oder geometrischen Figuren bestehende Positionsmarkierung (2) festgelegt, welche die Position eines anatomischen Landmarks markiert. Diese Positionsmarkierung wird dann positionsgenau auf das 2-D-Durchleutungsbild (6) übertragen.

Description

  • Die Erfindung betrifft ein Verfahren und ein Gerät zur Darstellung von Strukturen, die in einem 3-D Bilddatensatz eines Objektes enthalten sind, auf einem 2-D Durchleuchtungsbild des Objektes.
  • Heutzutage werden zahlreiche medizinische Eingriffe mittels intra-operativ gewonnener Röntgenbilder gesteuert. Beispielsweise werden zur Navigation der Instrumente bei neurochirurgischen oder anderen bildgesteuerten minimalinvasiven Eingriffen mit Hilfe von fluoroskopischer Durchleuchtung Echtzeitbilder gewonnen. Diese zweidimensionalen Durchleuchtungsbilder weisen zwar keine Tiefeninformation auf und zeigen daher keine räumlichen Details, im Gegensatz zu dreidimensionalen durch tomographische Verfahren gewonnenen Bildern sie sind jedoch schneller verfügbar und minimieren die Strahlenbelastung für Patient und Arzt. Die in den intra-operativ gewonnenen Durchleuchtungsbildern fehlende räumliche Information wird im Stand der Technik dadurch kompensiert, dass präoperativ aufgenommene dreidimensionale Bilder (3D-Bilder) mit den zweidimensionalen Durchleuchtungsbildern (2D-Bildern) registriert werden und mit diesen gemeinsam betrachtet werden. Diese Kombination von co-registrierten, aktuellen 2D-Bildern und räumlich aufgelösten 3D-Bildern erlaubt dem Arzt nun eine bessere Orientierung im Volumen während des Eingriffs.
  • Diese so genannte 2D3D-Registrierung umfasst im Wesentlichen zwei Schritte:
    • 1. Bildregistrierung: Zunächst muss der prä-operative 3D-Bilddatensatz zu dem intra-operativen Koordinatensystem des Patienten bzw. zu einem intra-operativen 2D-Durchleuchtungsbild registriert werden. Das bedeutet, dass eine Transformationsmatrix gefunden werden muss, mit der ein Objekt aus dem Koordinatensystem des 3D-Bildes in das des 2D-Durchleuchtungsbildes übertragen werden kann. Dadurch kann bestimmt werden, aus welcher Richtung der 3D-Bilddatensatz projiziert werden muss, um mit einem intra-operativen 2D-Durchleuchtungsbild in Deckung gebracht zu werden. Derartige Bildregistrierungsverfahren sind im Stand der Technik bekannt und z. B. beschrieben im Artikel von J. Weese, T.M. Buzug, G.P. Penny, P. Desmedt: „2D/3D Registration and Motion Tracking for Surgical Interventions", Philips Journal of Research 51 (1998) 299–316.
    • 2. Visualisierung: Das zweite Problem ist die Visualisierung der co-registrierten Bilder, d.h. die gemeinsame Darstellung vom aktuellen 2D-Durchleuchtungsbild und einer dieser Ansicht entsprechenden Projektion des prä-operativen 3D-Bildes. Hierfür sind im Stand der Technik verschiedene Methoden bekannt. Gemäß der „Overlay-Methode" werden die beiden Bilder einfach übereinander gelegt. Der Anteil, den jedes der beiden Einzelbilder am fusionierten Bild haben soll („blending"), lässt sich einstellen. Diese Methode wird am häufigsten verwendet, hat jedoch den Nachteil, dass wichtige Objekte im einen Bild durch das andere Bild überblendet werden können. Dies betrifft insbesondere niederkontrastige Objekte im 2D-Durchleuchtungsbild z. B. Katheterspitzen, Stents etc, welche beim Überblenden durch die hochkontrastige 3D-Aufnahme überdeckt werden können.
  • Eine weitere Methode zur gemeinsamen Darstellung der registrierten Bilder ist die so genannte „Linked Cursor" Methode, bei welcher die Bilder in separaten Fenstern dargestellt werden, wobei beide Fenster einen gemeinsamen Cursor haben. Cursorbewegungen im 2D-Fenster werden dabei in das 3D-Fenster übertragen und umgekehrt. Diese Methode hat zwar nicht das Problem der Überblendungen, dafür muss jedoch mit zwei Fenstern gearbeitet werden, was wiederum die Visualisierung erschwert und insbesondere während einer Operation keine gute Orientierung im 3D-Datensatz verschafft.
  • Die Erfindung hat sich daher die Aufgabe gestellt, ein weiteres Verfahren zur Visualisierung von co-registrierten Bildern bereitzustellen, welches eine gute Orientierung ohne das Problem der Überlagerung von Objekten liefert.
  • Diese Aufgabe löst die Erfindung durch das Verfahren gemäß Anspruch 1 und das Gerät nach Anspruch 8. Bevorzugte Ausführungsformen der Erfindung sind in den jeweiligen abhängigen Ansprüchen angegeben.
  • Das Verfahren setzt voraus, dass der 3D-Bilddatensatz und das 2D-Durchleuchtungsbild co-registriert sind. Dies kann zum einen der Fall sein, wenn der 3D-Bilddatensatz auf dem gleichen Gerät gewonnen wurde wie die 2D-Durchleuchtungsbilder, vorzugsweise bei gleicher Lage des Patienten. Dann ist die Orientierung des 3D-Bilddatensatzes im Bezug auf ein mit dem gleichen Gerät gewonnenes 2D-Durchleuchtungsbild automatisch bekannt. Es kann jedoch auch ein aus einem anderen Gerät oder gar mit einem anderen Bildgebungsverfahren gewonnener 3D-Bilddatensatz verwendet werden, welcher dann mit Hilfe eines der bekannten Verfahren zu dem 2D-Durchleuchtungsbild registriert wird.
  • Die Erfindung beruht auf der Erkenntnis, dass zur Visualisierung nicht der gesamte Bildinhalt des 3D-Bilddatensatzes auf das 2D-Durchleuchtungsbild übertragen werden braucht, sondern nur bestimmte Strukturen bzw. „landmarks", welche zur Orientierung auf den 2D-Durchleuchtungsbildern notwendig sind.
  • Während eines Eingriffs sind dies insbesondere gewisse anatomische Landmarks, welche der Benutzer vorzugsweise selbst im 3D-Volumen ausgewählt hat. Die Position dieser Struktur innerhalb des 3D-Bilddatensatzes wird durch eine so genannte Positionsmarkierung markiert, welche bevorzugt aus Punkten, Linien, Flächen oder anderen, vorzugsweise einfachen, geometrischen Figuren besteht. Die Punkte können beispielsweise durch den Benutzer mit Hilfe einer Maus im 3D-Bilddatensatz angewählt werden, oder der Benutzer kann Linien, Dreiecke, Ellipsen oder andere geometrische Figuren im 3D-Bilddatensatz aufspannen, welche ein für ihn interessierendes anatomisches Landmark umreißen. Alternativ kann die Positionsmarkierung auch voll- oder halb automatisch durch einen Rechner festgelegt werden.
  • Gemäß dem erfindungsgemäßen Verfahren wird dann die theoretische Position der Positionsmarkierung auf dem 2D-Druchleuchtungsbild berechnet und das 2D-Durchleuchtungsbild überlagert von der Positionsmarkierung dargestellt. Da es sich bei der Positionsmarkierung vorzugsweise um eine aus Punkten und Linien bestehende, also nicht flächige Struktur handelt, werden durch die Positionsmarkierung keine Objekte auf dem 2D-Durchleuchtungsbild überdeckt.
  • Vorzugsweise wird mehrmals pro Sekunde ein neues 2D-Durchleuchtungsbild aufgenommen und die Berechnung und Darstellung der Positionsmarkierung für jedes 2D-Durchleuchtungsbild wiederholt. Damit kann die Positionsmarkierung auch auf Fluoroskopiebilder übertragen werden und dabei in Echtzeit an Änderungen der Projektionsgeometrie angepasst werden. Die hierfür verwendete Röntgenanlage ist vorzugsweise derart kalibriert, dass wenn der 3D-Bilddatensatz einmal auf ein 2D-Durchleuchtungsbild registriert ist, auch die Registrierung zu anderen 2D-Durchleuchtungsbildern aus anderen Angulationen bekannt ist. Somit ist dann auch jede weitere Registrierung des 3D-Bilddatensatzes zu den 2D-Bildern bestimmt.
  • Die durch die Positionsmarkierung markierte Struktur ist vorzugsweise eine Gefäßverzweigung, ein Gefäß, ein Gallengang oder ein Tumor. In einer bevorzugten Ausführungsform wird die Art (Punkt, Linie, aus Linien aufgespannte geometrische Figur) und die Position der Positionsmarkierung innerhalb des 3D-Bilddatensatzes mit einer Maus oder einem anderen Cursor-Steuerungsgerät durch einen Benutzer festgelegt, während der 3D-Bilddatensatz auf einem Bildschirm dargestellt wird. Die markierte Struktur kann auch durch Zielpunkte für Punktionen, Metastasen, Gefäße in der Leber etc. gebildet sein.
  • Die Erfindung ist auch auf ein Gerät zur Ausführung des Verfahrens gerichtet.
  • Mit Bezug auf die beiliegenden Zeichnungen werden nunmehr bevorzugte Ausführungsformen der Erfindung beschrieben.
  • In den Zeichnungen zeigen
  • 1 zwei Ansichten eines 3D-Bilddatensatzes (schematisch);
  • 2 eine Ansicht eines 2D-Durchleuchtungsbildes mit eingeblendeter Positionsmarkierung (schematisch);
  • 3 ein Flussdiagram eines Ausführungsbeispiels des erfindungsgemäßen Verfahrens; und
  • 4 eine schematische Darstellung eines Röntgengerätes umfassend ein Gerät gemäß einem Ausführungsbeispiel der Erfindung.
  • In 1 sind zwei Ansichten eines fiktiven 3-dimensionalen Datensatzes gezeigt, welcher einen Gefäßbaum 1 enthält. Die beiden Ansichten sind z. B. „maximum intensity projection" (MIP) Bilder des Datensatzes, welche den gleichen Abschnitt des Gefäßbaumes aus 2 verschiedenen Blickrichtungen zeigen. Der 3D-Bilddatensatz kann durch ein beliebiges Verfahren aufgenommen sein, welches eine ausreichend kontrastierte Darstellung der Gefäße bzw. der interessierenden Struktur erlaubt, z. B. 3D-Angiographie, MRT (Magnetresonanztomographie) oder 3D-Ultraschall. Soll der 3D-Bilddatensatz noch andere Strukturen als Gefäße darstellen, können die hierfür jeweils geeigneten Bildgebungsverfahren verwendet werden, z. B. die Röntgencomputertomographie, MRT, PET usw. Vorzugsweise wird es sich um ein CT- oder MRT-Bild handeln, welches vor dem geplanten Eingriff akquiriert wurde.
  • In dem Flussdiagramm der 3 ist die Akquirierung des 3D-Bildes als Schritt 40 dargestellt. Dieser Schritt kann beispielsweise am Vortag des geplanten Eingriffs erfolgen. Ist der Patient dann im Fall einer Fluoroskopie-gesteuerten Intervention für den Eingriff in der Röntgen-Anlage gelagert, wird das 3D-Bild auf ein 2D-Durchleuchtungsbild dieser Anlage registriert (Schritt 42).
  • Der die Operation durchführende Arzt wählt nun eine bestimmte Struktur im 3D-Bilddatensatz aus, welche er auf den 2D-Durchleuchtungsbildern dargestellt haben möchte. In 1 sind als Beispiel hierfür die Punkte P1 und P2 gezeigt, die jeweils eine Gefäßverzweigung markieren. Diese Punkte kann der Arzt mit Hilfe der Maus in den beiden MIP-Bildern solange verschieben, bis ihre Position im 3D-Bilddatensatz mit der des gewünschten anatomischen Landmarks übereinstimmt. Im Beispiel der 1 sind die Punkte P1 und P2 darüber hinaus durch eine gekrümmte Linie verbunden, welche dem Gefäßverlauf folgt. Die Linie und die Punkte P1 und P2 bilden gemeinsam die Positionsmarkierung 2.
  • Als nächstes wird gemäß Schritt 46 in 3 ein 2D-Durchleuchtungsbild aufgenommen und auf Grund der bekannten Registrierung die Position der Positionsmarkierung 2 auf dem 2D-Bild berechnet (Schritt 48). Hierfür wird z. B. eine Projektion der Positionsmarkierung in der Projektionsrichtung des Fluoroskopiebildes berechnet. Die Positionsmarkierung kann nun korrekt auf das Fluoroskopiebild 6 übertragen werden (Schritt 50), wie in 2 gezeigt. Auf dem Fluoroskopiebild ist der Gefäßbaum mangels Kontrastmittel zunächst nicht zu sehen. Dafür ist ein für den Eingriff eingeführtes Instrument, hier ein Katheter 8 mit einer Katheterspitze 10, auf dem Fluoroskopiebild 6 zu erkennen. Darüber hinaus wird die Position des vom Arzt markierten Gefäßes durch die Positionsmarkierung 2 gezeigt. Der Arzt kann sich so auf dem intra-operativen Fluoroskopiebild hervorragend orientieren, ohne dass der Kontrast des Bildes durch die Überlagerung des gesamten 3D-Bildes geschwächt wird.
  • Die Schritte 46 bis 50 werden vorzugsweise in Echtzeit, d.h. bis zu 15 mal pro Sekunde wiederholt, um so den operativen Eingriff bildgesteuert vornehmen zu können.
  • Die Positionsmarkierung kann aus Punkten, geraden und gekrümmten Linien bestehen, möglich sind auch 3-dimensionale geometrische Strukturen, z. B. ein kugelförmiger oder ellipsoider Körper, welcher ebenfalls mit Hilfe einer Maus im 3-dimensionalen Volumen aufgespannt werden könnte. Eine weitere Alternative ist eines oder mehrere Dreiecke oder Rechtecke, welche beliebig im Raum orientiert sein können und gemeinsam eine Oberfläche aufspannen, die einer entsprechenden anatomischen Grenzfläche im 3D-Bilddatensatz folgt.
  • In 4 ist ein Beispiel für eine Röntgen-Anlage mit einem angeschlossenen Gerät gezeigt, mit dem eine Ausführungsform des erfindungsgemäßen Verfahrens ausgeführt werden kann. Bei dem Röntgengerät 14 handelt es sich im gezeigten Beispiel um ein C-Bogengerät mit einem C-Bogen 18, an dessen Armen eine Röntgenröhre 16 und ein Röntgendetektor 20 angebracht sind. Hierbei kann es sich z. B. um das Gerät Axiom Artis dFC der Siemens AG, Medical Solutions, Erlangen, Deutschland, handeln. In das Sichtfeld der Röntgen-Anlage ist der Patient 24 gebettet. Mit 22 ist ein Objekt innerhalb des Patienten 24 bezeichnet, welches das Ziel des Eingriffs sein soll, z. B. die Leber, das Herz oder das Gehirn. An die Röntgenanlage angeschlossen ist ein Rechner 25, welcher im gezeigten Beispiel sowohl die Röntgenanlage steuert, als auch die Bildverarbeitung übernimmt. Diese beiden Funktionen können jedoch auch getrennt realisiert sein. Im gezeigten Beispiel wird durch das Steuerungsmodul 26 die C-Bogenbewegung und Aufnahme von intra-operativen Röntgenbildern gesteuert. Im Speicher 28 ist der prä-operative Bilddatensatz gespeichert. Geeignete Ansichten dieses Bilddatensatzes werden auf dem Bildschirm 32 dargestellt, und der Benutzer wählt mit der Maus 34 die Art und die Position einer Positionsmarkierung aus. Im Rechenmodul 30 wird dann die Position der Positionsmarkierung auf dem 2D-Durchleuchtungsbild berechnet und das von der Positionsmarkierung 2 überlagerte Durchleuchtungsbild 6 wird am Bildschirm 32 angezeigt.
  • Mögliche Anwendungen des erfindungsgemäßen Verfahrens sind durchleuchtungsgesteuerte Punktionen von Gallengängen (PTCD) oder Gefäßen (TIPPS) in der Leber. Bei der PTCD kann der zu punktierende Gallengang im durch MRT oder Computertomographie-Angiographie (CTA) erhaltenen 3D-Bilddatensatz vom Benutzer markiert werden, um so die perkutan durchgeführte Punktion zu steuern. Bei einem TIPPS-Eingriff wird von der Lebervene ein Zugang zur Pfortader geschaffen, was bei den herkömmlichen Verfahren „blind" geschieht. Dies birgt Gefahren, da die Punktion unbedingt innerhalb des Lebergewebes erfolgen muss, da sonst die Gefahr einer Blutung entsteht. Hier kann ebenfalls der Zielpunkt auf der Pfortader im 3D-Bilddatensatz markiert werden und diese Markierung im Fluoroskopiebild dargestellt werden, um so die Punktion zu unterstützen.
  • Das erfindungsgemäße Verfahren und Gerät erlauben somit dem Benutzer, bestimmte Strukturen, die er im Fluoroskopiebild sehen möchte, mit einfachem Mittel zu markieren, ohne hierbei eine Kontrastverschlechterung des Fluoroskopiebildes in Kauf nehmen zu müssen.

Claims (10)

  1. Verfahren zur Darstellung von Strukturen, die in einem dreidimensionalen Bilddatensatz (4) eines Objektes (22) enthalten sind, auf einem zweidimensionalen Durchleuchtungsbild (6) des Objektes, umfassend die folgenden Schritte: a) Zugreifen auf einen 3D-Bilddatensatz (4) eines Objekts (22), wobei der 3D-Bilddatensatz mit einem medizinischen Bildgebungsverfahren aufgenommen wurde; b) Festlegen einer insbesondere aus Punkten, Linien, Flächen oder sonstigen geometrischen Figuren bestehenden Positionsmarkierung (2) innerhalb des 3D-Bilddatensatzes (4), wobei die Positionsmarkierung die Position einer Struktur (1), insbesondere eines anatomischen Landmarks, innerhalb des Objektes markiert; c) Aufnehmen eines 2D-Durchleuchtungsbildes (6) des Objekts; d) Berechnen der theoretischen Position der Positionsmarkierung auf dem 2D-Durchleuchtungsbild; und e) Darstellen des 2D-Durchleuchtungsbildes (6) überlagert von der Positionsmarkierung (2).
  2. Verfahren nach Anspruch 1, bei welchem die Schritte c) bis e) bis zu mehrmals pro Sekunde wiederholt werden, so dass die Position der Positionsmarkierung im 2D-Durchleuchtungsbild (6) in Echtzeit an eine Änderung der Durchleuchtungsgeometrie angepasst wird.
  3. Verfahren nach einem der vorhergehenden Ansprüche, bei welchem das 2D-Durchleuchtungsbild (6) ein Röntgenbild ist und der 3D-Bilddatensatz mit einem beliebigen bildgebenden Verfahren wie MRT, CT, PET oder Ultraschall gewonnen wurde.
  4. Verfahren nach Anspruch 3, bei welchem vor Schritt e) eine Registrierung des 3D-Bilddatensatzes (4) in Bezug auf die Röntgenanlage (14) erfolgt, mit der das 2D-Röntgenbild aufgenommen wird.
  5. Verfahren nach einem der Ansprüche 1 bis 3, bei welchem das 2D-Durchleuchtungsbild (6) ein Röntgenbild ist und der 3D-Bilddatensatz (4) mittels Computertomographie auf dem gleichen Röntgengerät aufgenommen wurde wie das Röntgenbild.
  6. Verfahren nach einem der vorhergehenden Ansprüche, bei welchem die durch die Positionsmarkierung (2) markierte Struktur eine Gefäßverzweigung, ein Gefäß, ein Gallengang oder ein Tumor ist.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Art und Position der Positionsmarkierung (2) innerhalb des 3D-Bilddatensatzes (6) durch einen Benutzer festgelegt wird, während der 3D-Bilddatensatz auf einem Bildschirm (32) dargestellt wird.
  8. Gerät zur Darstellung von Strukturen (1), die in einem dreidimensionalen Bilddatensatz (4) eines Objektes enthalten sind, auf einem zweidimensionalen Durchleuchtungsbild (6) des Objektes, mit – einem ersten Datenspeicher (28) zum Speichern eines 3D-Bilddatensatzes eines Objektes, wobei der 3D-Bilddatensatz mit einem medizinischen Bildgebungsverfahren aufgenommen wurde; – einem Mittel (34) zum Festlegen einer insbesondere aus Punkten (P1, P2), Linien oder geometrischen Figuren bestehenden Positionsmarkierung (2) innerhalb des 3D-Bilddatensatzes, wobei die Positionsmarkierung die Position einer Struktur (1), insbesondere eines anatomischen Landmarks, innerhalb des Objektes markiert; – einem zweiten Datenspeicher (28) zum Speichern eines 2D-Durchleuchtungsbildes des Objektes; – einem Rechner (30) zur Berechnung der theoretischen Position der Positionsmarkierung auf dem 2D-Durchleuchtungsbild; und – einem Bildschirm (32) zum Darstellen des 2D-Durchleuchtungsbildes (6) überlagert von der Positionsmarkierung (2).
  9. Gerät nach Anspruch 8, ferner umfassend ein Röntgengerät (14) zur Aufnahme von 2D-Durchleuchtungsbildern des Objekts (22), insbesondere von Fluoroskopiebildern.
  10. Gerät nach Anspruch 8 oder 9, welches zur Ausführung des Verfahrens nach einem der Ansprüche 1 bis 7 geeignet ist.
DE200510022541 2005-05-17 2005-05-17 Verfahren und Gerät zur Darstellung von Strukturen auf einem 2D-Durchleuchtungsbild Ceased DE102005022541A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE200510022541 DE102005022541A1 (de) 2005-05-17 2005-05-17 Verfahren und Gerät zur Darstellung von Strukturen auf einem 2D-Durchleuchtungsbild

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE200510022541 DE102005022541A1 (de) 2005-05-17 2005-05-17 Verfahren und Gerät zur Darstellung von Strukturen auf einem 2D-Durchleuchtungsbild

Publications (1)

Publication Number Publication Date
DE102005022541A1 true DE102005022541A1 (de) 2006-12-07

Family

ID=37401667

Family Applications (1)

Application Number Title Priority Date Filing Date
DE200510022541 Ceased DE102005022541A1 (de) 2005-05-17 2005-05-17 Verfahren und Gerät zur Darstellung von Strukturen auf einem 2D-Durchleuchtungsbild

Country Status (1)

Country Link
DE (1) DE102005022541A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007053756A1 (de) * 2007-11-12 2009-05-20 Siemens Ag Verfahren zur Anzeige eines kardiologischen Gefäßbereichs
DE102008045276A1 (de) * 2008-09-01 2010-03-11 Siemens Aktiengesellschaft Verfahren zur Ansteuerung einer medizintechnischen Anlage
DE102010022526A1 (de) * 2010-03-31 2011-10-06 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Verbesserung einer CT-Bild-Darstellung von zumindest einem medizinischen Instrument in einem nahezu nicht kontrastierbaren Ziel-Bereich
US9129366B2 (en) 2008-09-11 2015-09-08 Carl Zeiss Meditec Ag Medical systems and methods

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001034051A2 (en) * 1999-10-28 2001-05-17 Medtronic Surgical Navigation Technologies Navigation information overlay onto ultrasound imagery
DE10243162A1 (de) * 2002-09-17 2004-03-25 Siemens Ag Rechnergestütztes Darstellungsverfahren für ein 3D-Objekt
WO2004110271A1 (en) * 2003-06-16 2004-12-23 Philips Intellectual Property & Standards Gmbh Imaging system for interventional radiology
DE10333543A1 (de) * 2003-07-23 2005-02-24 Siemens Ag Verfahren zur gekoppelten Darstellung intraoperativer sowie interaktiv und iteraktiv re-registrierter präoperativer Bilder in der medizinischen Bildgebung
US20050065424A1 (en) * 2003-06-06 2005-03-24 Ge Medical Systems Information Technologies, Inc. Method and system for volumemetric navigation supporting radiological reading in medical imaging systems

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001034051A2 (en) * 1999-10-28 2001-05-17 Medtronic Surgical Navigation Technologies Navigation information overlay onto ultrasound imagery
DE10243162A1 (de) * 2002-09-17 2004-03-25 Siemens Ag Rechnergestütztes Darstellungsverfahren für ein 3D-Objekt
US20050065424A1 (en) * 2003-06-06 2005-03-24 Ge Medical Systems Information Technologies, Inc. Method and system for volumemetric navigation supporting radiological reading in medical imaging systems
WO2004110271A1 (en) * 2003-06-16 2004-12-23 Philips Intellectual Property & Standards Gmbh Imaging system for interventional radiology
DE10333543A1 (de) * 2003-07-23 2005-02-24 Siemens Ag Verfahren zur gekoppelten Darstellung intraoperativer sowie interaktiv und iteraktiv re-registrierter präoperativer Bilder in der medizinischen Bildgebung

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SIBOMANA, M. u.a.:"Volumic image analysis appli- cation bundle for UNIX workstations". IEEE Nuclear Science Symposium and Medical Imaging Conference Record, 1995, Vol. 3, 21.-28. Okt. 1995, Seiten 1488-1492 *
WEESE J. u.a.:"2D/3D REGISTRATION AND MOTION TRACKING FOR SURGICAL INTERVENTIONS". In: Philips Journal of Research Vol. 51, No. 2, 1998, Seiten 299-316 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007053756A1 (de) * 2007-11-12 2009-05-20 Siemens Ag Verfahren zur Anzeige eines kardiologischen Gefäßbereichs
DE102007053756B4 (de) * 2007-11-12 2017-06-01 Siemens Healthcare Gmbh Verfahren zur Anzeige eines kardiologischen Gefäßbereichs
DE102008045276A1 (de) * 2008-09-01 2010-03-11 Siemens Aktiengesellschaft Verfahren zur Ansteuerung einer medizintechnischen Anlage
DE102008045276B4 (de) * 2008-09-01 2010-08-05 Siemens Aktiengesellschaft Verfahren zur Ansteuerung einer medizintechnischen Anlage, medizintechnische Anlage und Computerprogramm
US9129366B2 (en) 2008-09-11 2015-09-08 Carl Zeiss Meditec Ag Medical systems and methods
US9320438B2 (en) 2008-09-11 2016-04-26 Carl Zeiss Meditec Ag Medical systems and methods
US9351644B2 (en) 2008-09-11 2016-05-31 Carl Zeiss Meditec Ag Medical systems and methods
US9357931B2 (en) 2008-09-11 2016-06-07 Carl Zeiss Meditec Ag Medical systems and methods
DE102010022526A1 (de) * 2010-03-31 2011-10-06 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Verbesserung einer CT-Bild-Darstellung von zumindest einem medizinischen Instrument in einem nahezu nicht kontrastierbaren Ziel-Bereich

Similar Documents

Publication Publication Date Title
DE102005030646B4 (de) Verfahren zur Kontur-Visualisierung von zumindest einer interessierenden Region in 2D-Durchleuchtungsbildern
DE102007013807B4 (de) Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene
DE19963440C2 (de) Verfahren und System zur Visualisierung eines Gegenstandes
DE102005023167B4 (de) Verfahren und Vorrichtung zur Registrierung von 2D-Projektionsbildern relativ zu einem 3D-Bilddatensatz
DE102007013407B4 (de) Verfahren und Vorrichtung zur Bereitstellung einer Korrekturinformation
DE102005007893B4 (de) Verfahren zur Positionsbestimmung eines Instrumentes mit einem Röntgensystem
DE102005059804A1 (de) Verfahren und Vorrichtung zur Bewegungskorrektur bei der Bildgebung während einer medizinischen Intervention
DE10136709B4 (de) Vorrichtung zum Durchführen von operativen Eingriffen sowie Verfahren zum Darstellen von Bildinformationen während eines solchen Eingriffs an einem Patienten
DE102006003126A1 (de) Verfahren und Vorrichtung zum Visualisieren von 3D-Objekten
DE10333543A1 (de) Verfahren zur gekoppelten Darstellung intraoperativer sowie interaktiv und iteraktiv re-registrierter präoperativer Bilder in der medizinischen Bildgebung
DE10210646A1 (de) Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments
DE10210647A1 (de) Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments
DE10325003A1 (de) Visualisierung von 2D/ 3D-fusionierten Bilddaten für die Katheterangiografie
DE102004004620A1 (de) Verfahren zur Registrierung und Überlagerung von Bilddaten bei Serienaufnahmen in der medizinischen Bildgebung
DE102008030244A1 (de) Verfahren zur Unterstützung von perkutanen Interventionen
DE102005035430A1 (de) Verfahren zur verbesserten Darstellung co-registrierter 2D-3D-Bilder in der medizinischen Bildgebung
DE102005027678A1 (de) Verfahren und Vorrichtung zur Markierung von dreidimensionalen Strukturen auf zweidimensionalen Projektionsbildern
DE102012224057B4 (de) Verfahren und Vorrichtung zur Bildunterstützung
DE102006056679B4 (de) Verfahren und Vorrichtung zum Visualisieren von 3D-Objekten, insbesondere in Echtzeit
DE102005035929A1 (de) Verfahren zur Darstellung mehrerer Bilder sowie ein Bildsystem zur Durchführung des Verfahrens
DE102005045602A1 (de) Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs
DE102007051479B4 (de) Verfahren und Vorrichtung zur Darstellung von Bilddaten mehrerer Bilddatensätze während einer medizinischen Intervention
DE102007021061A1 (de) Verfahren zur gekoppelten Darstellung von Röntgen-Durchleuchtungs-sowie intraoperativer Ultraschallbilder in der medizinischen Bildgebung
DE102005022541A1 (de) Verfahren und Gerät zur Darstellung von Strukturen auf einem 2D-Durchleuchtungsbild
DE10210644B4 (de) Verfahren zum Erstellen einer Sequenz

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8120 Willingness to grant licenses paragraph 23
8131 Rejection