DE102005030646B4 - Verfahren zur Kontur-Visualisierung von zumindest einer interessierenden Region in 2D-Durchleuchtungsbildern - Google Patents
Verfahren zur Kontur-Visualisierung von zumindest einer interessierenden Region in 2D-Durchleuchtungsbildern Download PDFInfo
- Publication number
- DE102005030646B4 DE102005030646B4 DE102005030646A DE102005030646A DE102005030646B4 DE 102005030646 B4 DE102005030646 B4 DE 102005030646B4 DE 102005030646 A DE102005030646 A DE 102005030646A DE 102005030646 A DE102005030646 A DE 102005030646A DE 102005030646 B4 DE102005030646 B4 DE 102005030646B4
- Authority
- DE
- Germany
- Prior art keywords
- interest
- region
- contour
- image
- fluoroscopic image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000012800 visualization Methods 0.000 title claims abstract description 4
- 238000003384 imaging method Methods 0.000 claims description 5
- 239000003550 marker Substances 0.000 claims description 3
- 206010028980 Neoplasm Diseases 0.000 description 6
- 239000002872 contrast media Substances 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 210000001519 tissue Anatomy 0.000 description 6
- 210000003484 anatomy Anatomy 0.000 description 4
- 238000011282 treatment Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000002595 magnetic resonance imaging Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000002583 angiography Methods 0.000 description 2
- 238000001574 biopsy Methods 0.000 description 2
- 238000002324 minimally invasive surgery Methods 0.000 description 2
- 206010002329 Aneurysm Diseases 0.000 description 1
- 208000031481 Pathologic Constriction Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 229940039231 contrast media Drugs 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000002594 fluoroscopy Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000010859 live-cell imaging Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000001717 pathogenic effect Effects 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000002603 single-photon emission computed tomography Methods 0.000 description 1
- 210000004872 soft tissue Anatomy 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 208000037804 stenosis Diseases 0.000 description 1
- 230000036262 stenosis Effects 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N23/00—Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
- G01N23/02—Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
- G01N23/04—Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/12—Arrangements for detecting or locating foreign bodies
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/46—Arrangements for interfacing with the operator or the patient
- A61B6/461—Displaying means of special interest
- A61B6/463—Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/46—Arrangements for interfacing with the operator or the patient
- A61B6/461—Displaying means of special interest
- A61B6/466—Displaying means of special interest adapted to display 3D data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/54—Control of apparatus or devices for radiation diagnosis
- A61B6/547—Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/38—Registration of image sequences
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
- G06T2207/10121—Fluoroscopy
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
- G06T2207/10124—Digitally reconstructed radiograph [DRR]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30016—Brain
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- Pathology (AREA)
- Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- Heart & Thoracic Surgery (AREA)
- High Energy & Nuclear Physics (AREA)
- Biophysics (AREA)
- Optics & Photonics (AREA)
- Radiology & Medical Imaging (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- Immunology (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Verfahren
zur Kontur-Visualisierung von zumindest einer interessierenden Region
(6) in 2D-Durchleuchtungsbildern (15), aufweisend die folgenden Schritte:
S1: Erzeugen eines zumindest die eine interessierende Region (6) aufweisenden 3D-Rohdatensatzes, in dem die Kontur der interessierenden Region (6) ersichtlich ist,
S2: Automatisiertes Erzeugen eines segmentierten 3D-Datensatzes aus dem 3D-Rohdatensatz (12), in dem die Kontur bei der zumindest einen interessierenden Region (6) eindeutig abgegrenzt ist,
S3: Erzeugen eines 2D-Durchleuchtungsbildes (15) welches die zumindest eine interessierende Region (6) enthält,
S4: Erzeugen einer 2D-Projektion (14) aus dem segmentierten 3D-Datensatz, die deckungsgleich mit dem 2D-Durchleuchtungsbild (15) ist,
S5: Automatisiertes Bestimmen der Kontur (17) der zumindest einen interessierenden Region (6) in der 2D-Projektion (14), und
S6: Überlagern der Kontur (17) mit dem 2D-Durchleuchtungsbild (15).
S1: Erzeugen eines zumindest die eine interessierende Region (6) aufweisenden 3D-Rohdatensatzes, in dem die Kontur der interessierenden Region (6) ersichtlich ist,
S2: Automatisiertes Erzeugen eines segmentierten 3D-Datensatzes aus dem 3D-Rohdatensatz (12), in dem die Kontur bei der zumindest einen interessierenden Region (6) eindeutig abgegrenzt ist,
S3: Erzeugen eines 2D-Durchleuchtungsbildes (15) welches die zumindest eine interessierende Region (6) enthält,
S4: Erzeugen einer 2D-Projektion (14) aus dem segmentierten 3D-Datensatz, die deckungsgleich mit dem 2D-Durchleuchtungsbild (15) ist,
S5: Automatisiertes Bestimmen der Kontur (17) der zumindest einen interessierenden Region (6) in der 2D-Projektion (14), und
S6: Überlagern der Kontur (17) mit dem 2D-Durchleuchtungsbild (15).
Description
- Die vorliegende Erfindung betrifft ein Verfahren, welches bspw. einem Arzt die Orientierung in 2D-Durchleuchtungsbildern erleichtert. Dabei bezieht sich die vorliegende Erfindung auf ein Verfahren welches insbesondere bei Interventionen unter Röntgenkontrolle eine graphisch klare und eindeutige Orientierungshilfe gibt.
- In zunehmendem Maß erfolgen Untersuchungen oder Behandlungen eines (erkrankten) Patienten minimal-invasiv, d.h. mit möglichst geringem operativen Aufwand. Als Beispiel sind Behandlungen mit Endoskop, Laparoskop, Katheter oder Biopsie-Nadeln zu nennen, die jeweils über eine kleine Körperöffnung zu dem Untersuchungsbereich – im weiteren Verlauf als "interessierende Region" oder als "interessierender Bereich" bezeichnet – des Patienten eingeführt werden. Katheter beispielsweise kommen häufig im Rahmen angiographischer oder kardiologischer Untersuchungen zum Einsatz.
- Das Problem aus medizinisch-technischer Sicht besteht zunächst darin, in einem 2D-Durchleuchtungsbild – beispielsweise aufgenommen mit einem konventionellen Röntgengerät oder mit einem Röntgen-C-Bogen – eine interessierende Region (z.B. einen Tumor) eindeutig zu identifizieren d.h. deren Grenzen zu erkennen. Die vorliegende Erfindung beschäftigt sich mit der Lösung dieses Problems.
- Die geschilderte Problematik tritt insbesondere dann in den Vordergrund, wenn die interessierende Region im Rahmen eines Eingriffs (Operation oder Untersuchung) mit einem medizinischen Instrument angefahren werden muss. Zu denken ist hierbei – ohne Beschränkung der Allgemeinheit – an eine Biopsienadel oder an einen Katheter der zwar durch eine intraoperative Röntgenkontrolle, z.B. mit dem so genannten C-Bogen, sehr exakt und hoch aufgelöst in einem oder mehreren 2D-Durchleuchtungsbildern visualisiert werden kann, wobei aber bei derartigen Kontroll-Aufnahmen die Darstellung der Anatomie des Patienten, insbesondere die Darstellung der pathogenen interessierenden Region (Tumor, Aneurysma, Stenose etc.) ungenügend ist und nicht geeignet ist, dem Arzt eine Orientierungshilfe zu geben. Eine genaue Lokalisation der betroffenen Körperstelle ist daher sehr schwierig.
- Im Stand der Technik gibt es zahlreiche Ansätze, dem Arzt unter intraoperativer Röntgenkontrolle die Orientierung im Körperinneren zu erleichtern.
- Die älteste und daher auch bekannteste Methode besteht darin, Kontrastmittel zu injizieren, eine Röntgen-Momentaufnahme zu machen, diese als Referenzbild zu speichern und einer aktuellen (intraoperativen) Durchleuchtung zu unterlegen. Wiederum nachteilig ist jedoch, dass dieser Vorgang bei jeder Neu-Angulation des C-Bogens oder anderen Änderungen der (Angiographie-)Anlage (z. B. Veränderungen durch Zoom, SID = Source Image Distance, Tischverschiebung usw.) wiederholt werden muss.
- Eine weitere Methode besteht darin, zunächst einen Volumendatensatz des betreffenden Körperbereiches zu akquirieren, der die interessierende Region bzw. das erkrankte oder zu diagnostizierende Organ oder Gewebe vollständig enthält. Dies erfolgt beispielsweise durch (Kontrastmittel-basierte) Spiral-Computertomographie oder anderen 3D-Bildgebungsmodalitäten. (In MRT-Aufnahmen sind z.B. Tumore auch ohne Kontrastmittel sichtbar.) Im weiteren wird auf Basis des 3D-Datensatzes ein künstliches 3D-Volumen-Projektionsbild erzeugt, das unter der gleichen Perspektive zu sehen ist, wie das aktuelle Durchleuchtungsbild und diesem ebenfalls unterlegt wird. Man spricht in diesem Zusammenhang auch von "künstlicher Projektion" des 3D-Volumens.
- Ferner existieren externe (Infrarot-basierte, magnetische etc.) Navigations-Systeme, die die 3D-Position eines medizinischen Instrumentes (Katheter, Nadel) durch externe Positionssensoren bestimmen und auf Basis dieser Information eine Orientierung einem zuvor aufgenommenen 3D-Volumendatensatz ermöglichen. Vgl. hierzu die Druckschrift
DE 103 22 738 A1 . - Allen 3D-basierten Verfahren gemeinsam ist ein photorealistisches Unterlegen eines (3D-)Referenzbildes bezüglich eines aktuellen (intraoperativen) Durchleuchtungsbildes mit dem Nachteil einer in hohem Maße unübersichtlichen Darstellung der Anatomie, die den Arzt eher verunsichert als ihn unterstützt.
- In der Druckschrift
DE 102 14 254 A1 ist ein Verfahren offenbart, zwei hinsichtlich der Auflösung unterschiedliche Tomographieverfahren (z.B. SPECT oder PET mit CT oder MRT) zu verknüpfen, um bei gering auflösenden Tomographieverfahren höhere Abbildungsqualitäten zu erreichen. Dazu werden nur segmentierte Bildbereiche rückprojiziert, wobei diese Einschränkung des Bildbereiches die Bereichs- oder Bildregistrierung beschleunigt und das Signal-Rausch-Verhältnis erhöht. - Aufgabe der vorliegenden Erfindung ist es, in Durchleuchtungsbildern, bspw. bei minimal-invasiven Eingriffen unter Röntgenkontrolle eine klare, einfache und daher übersichtliche Orientierungshilfe zu geben, die die Navigation erleichtert.
- Diese Aufgabe wird gemäß der vorliegenden Erfindung durch die gegenständlichen Merkmale des Anspruchs 1 gelöst. Die abhängigen Ansprüche bilden den zentralen Gedanken der Erfindung in besonders vorteilhafter Weise weiter.
- Es wird ein Verfahren beansprucht zur Kontur-Visualisierung von zumindest einer interessierenden Region in 2D-Durchleuchtungsbildern, aufweisend die folgenden Schritte:
S1: Erzeugen eines zumindest eine interessierende Region aufweisenden 3D-Rohdatensatzes, in dem die Kontur der interessierenden Region ersichtlich ist,
S2: Automatisiertes Erzeugen eines segmentierten 3D-Datensatzes aus dem 3D-Rohdatensatz in dem die Kontur bei zumindest einer interessierenden Region eindeutig abgegrenzt ist,
S3: Erzeugen eines 2D-Durchleuchtungsbildes welches die zumindest eine interessierende Region enthält,
S4: Erzeugen einer 2D-Projektion aus dem segmentierten 3D-Datensatz, die deckungsgleich mit dem 2D-Durchleuchtungsbild ist,
S5: Automatisiertes Bestimmen der Kontur der zumindest einen interessierenden Region in der 2D-Projektion, und
S6: Überlagern der Kontur mit dem 2D-Durchleuchtungsbild. - In einer besonders vorteilhaften Ausgestaltung des erfindungsgemäßen Verfahrens wird das 2D-Durchleuchtungsbild intraoperativ erhalten, möglicherweise auf eine intraoperative Veränderung hin überwacht und im Falle einer intraoperativen Veränderung des 2D-Durchleuchtungsbildes die Schritte S4 bis S6 wiederholt.
- Der anfangs ermittelte 3D-Rohdatensatz kann mit beliebiger Bildgebungsmodalität präoperativ erfolgen.
- Die 2D-Projektion wird vorteilhafterweise durch eine 2D-3D-Registrierung erzeugt, wobei diese 2D-3D-Registrierung bildbasiert oder markerbasiert erfolgt.
- Das Bestimmen der Kontur erfolgt erfindungsgemäß durch automatische Segmentierung und wird gegebenenfalls weiterhin vorteilhaft durch Grafikprimitive wie Linien, Kurven, Splines etc. approximiert.
- Weitere Vorteile, Merkmale und Eigenschaften der vorliegenden Erfindung werden nun anhand von Ausführungsbeispielen bezug nehmend auf die begleitenden Zeichnungen näher erläutert. Es zeigen:
-
1 schematisch eine Prinzipskizze einer für das erfindungsgemäße Verfahren möglichen Untersuchungs- und/oder Behandlungseinrichtung; -
2 ein Flussdiagramm des erfindungsgemäßen Verfahrens und -
3 die erfindungsgemäßen bildverarbeitenden Schritte an den beteiligten Bilddatensätzen. - Das erfindungsgemäße Verfahren kann auf beliebige existierende 2D-Durchleuchtungsbilder angewendet werden, unabhängig von einem ärztlichen Eingriff, wird jedoch im Folgenden anhand einer intraoperativen minimal-invasiven Maßnahme unter Röntgenkontrolle erläutert, da eine solche den wichtigsten Anwendungsfall des erfindungsgemäßen Verfahrens darstellt.
-
1 zeigt eine Prinzipskizze einer im Rahmen des erfindungsgemäßen Verfahrens eingesetzten möglichen Untersuchungs- und/oder Behandlungseinrichtung1 für minimal-invasive Eingriffe unter Röntgenkontrolle. Die Einrichtung1 besteht aus einem C-Bogen3 zur Aufnahme zweidimensionaler Durchleuchtungsbilder (2D-Durchleuchtungsbilder bzw. 2D-Fluoro-Bilder), an dem eine Röntgenstrahlenquelle4 und ein Strahlendetektor5 , z.B. ein Festkörperbilddetektor und eine Toolplatte TP angeordnet sind. Der Untersuchungsbereich6 eines Patienten7 befindet sich vorzugsweise im Isozentrum des C-Bogens, so dass er vollständig in den aufgenommenen Durchleuchtungsbildern zu sehen ist. - In unmittelbarer Nähe des C-Bogens
3 befindet sich ein Navigationssensor S, durch den die aktuelle Position der Toolplatte TP, und damit die des C-Bogens3 , sowie die Position und Lage eines für den Eingriff verwendeten medizinischen Instrumentes11 und des Patienten selbst erfasst werden kann. - Der Betrieb der Einrichtung
1 wird über eine Steuerungs- und Verarbeitungseinrichtung8 gesteuert, die u.a. auch den Bildaufnahmebetrieb steuert. - Sie umfasst ferner eine nicht näher gezeigte Bildverarbeitungseinrichtung mit einem oder mehreren Bildschirmen
10 , auf dem bzw. denen die Durchleuchtungsbilder dargestellt werden. - In der Bildverarbeitungseinrichtung ist unter anderem ein 3D-Rohdatensatz
9 vorhanden, der vorzugsweise präoperativ aufgenommen wurde und insbesondere die interessierende Region (pathologischer Bereich) derart vollständig enthält, dass diese gegenüber dem umliegenden Gewebe eindeutig abgegrenzt erscheint bzw. abgrenzbar ist. Dieser 3D-Rohdatensatz9 kann mit einer beliebigen Bildgebungsmodalität aufgenommen worden sein, sofern diese eine eindeutige Abgrenzung gewährleistet. - Im Falle einer computertomographischen Aufnahme sollte diese zur Darstellung von Weichgewebe (Tumor) daher Kontrastmittel-basiert erfolgen.
- MRT-Aufnahmen erfordern in der Regel keine spezifischen Aufnahmebedingungen, obwohl in manchen Fällen auch diese Kontrastmittel-basiert zu besseren Bildern führen. Der 3D-Rohdatensatz
9 kann auch mit der eigenen Bildaufnahmeeinrichtung2 aufgenommen worden sein, also unmittelbar vor der eigentlichen Intervention, wobei die Bildaufnahmeeinrichtung2 dann im 3D-Angiographiemodus betrieben werden muss. - Die vorliegende Erfindung stellt nun ein Verfahren bereit, bei dem einem bei beliebiger C-Bogenposition aufgenommenen intraoperativen aktuellen 2D-Durchleuchtungsbild, welches im wesentlichen nur das medizinische Instrument in deutlicher Weise abbildet, der Untersuchungsbereich
6 (also die interessierende Region) in klarer und ausgesprochen deutlicher Weise überlagert wird. - Es hat sich herausgestellt, dass der behandelnde Arzt in den meisten Fällen an einer realistischen Überlagerung nicht interessiert ist und eine Orientierungshilfe wünscht, die beispielsweise nur die Grenzen oder Konturen eines Tumors zeigen.
- Um dies zu Realisieren wird folgendes erfindungsgemäße Vorgehen vorgeschlagen (siehe Verfahrenflussdiagramm von
2 in Verbindung mit3 ):
Dem Verfahren liegt ein (präoperativer) 3D-Rohdatensatz12 zugrunde, der die interessierende Region6 , eingebettet in umliegendes Gewebe13 , enthält. In3 besitzt solch umliegendes Gewebe13 eine angiographische Struktur. - In einem ersten Verfahrensschritt S1 wird der 3D-Rohdatensatz
12 dergestalt akquiriert, dass die interessierende Region6 (beispielsweise der Tumor) vom umliegenden Gewebe13 eindeutig abgegrenzt werden kann. In einem zweiten Verfahrensschritt S2 erfolgt eine solche Abgrenzung durch automatische Segmentierung, wodurch ein segmentierter 3D-Datensatz13 erhalten wird, der nur noch die interessierende Region enthält und insofern eine Begrenzung erfährt. In einem dritten Verfahrensschritt S3 wird ein 2D-Durchleuchtungsbild (beispielsweise mit dem C-Bogen) aufgenommen. In einem weiteren bildverarbeitenden Verfahrensschritt S4 wird aus dem segmentierten 3D-Datensatz rein rechnerisch eine 2D-Projektion14 erzeugt, die entsprechend Größe und räumlicher Orientierung zu dem aktuellen intraoperativen 2D-Durchleuchtungsbild15 entsprechend der aktuellen C-Bogenstellung kongruent, also deckungsgleich ist. - Die Erzeugung dieser 2D-Projektion aus dem segmentierten 3D-Datensatz erfolgt automatisch mittels bekannter 2D/3D-Registrier-Verfahren nach dem Stand der Technik, beispielsweise Bild-basiert oder Marker-basiert.
- In einem fünften Verfahrensschritt S5 werden mit bekannten Segmentierverfahren die Konturen der sichtbaren Volumenbestandteile der 2D-Projektion bestimmt und gegebenenfalls durch Graphikprimitive (Linien, Kurvensegmente, Splines etc.) approximiert, um eine reduzierte 2D-Projektion
16 zu erhalten. Diese reduzierte 2D-Projektion16 ist gemäß ihrer Geometrie mit dem 2D-Durchleuchtungsbild identisch, nur dass sie als einzige Bildinformation die Kontur17 der interessierenden Region6 in dieser Perspektive enthält. - In einem sechsten und vorläufig letzten Verfahrensschritt S6 wird die reduzierte 2D-Projektion
16 und damit die Kontur17 der interessierenden Region6 dem 2D-Durchleuchtungsbild15 überlagert. - Letztlich führt dies auf dem Bildschirm
10 der Bildverarbeitungseinrichtung gemäß1 zu einem Summenbild18 , in dem bei der aktuellen C-Bogenposition das medizinische Instrument11 relativ zu der scharf begrenzten Kontur der interessierenden Region dargestellt ist. Die Anatomie des umliegenden (Hintergrund-)Gewebes (beispielsweise der Kopf7 in1 ) wird nur schwach-kontrastiert dargestellt. - In einer besonders vorteilhaften Ausgestaltung des erfindungsgemäßen Verfahrens wird (beispielsweise über das Navigationssysem S) in einem weiteren siebten Verfahrensschritt S7 eine Änderung der Angulation des C-Bogens bzw. weitere Änderungen von Anlagenparametern oder auch Patientenbewegungen überwacht und in einem achten Verfahrensschritt S8 die überlagerte Grafik gelöscht, wenn die dargestellte Kontur nicht mehr gültig ist. In diesem Fall beginnt das Verfahren erneut bei Schritt S4, wodurch eine neue, der neuen C-Bogenkonfiguration entsprechende reduzierte 2D-Projektion ermittelt wird. Die Geschwindigkeit des Verfahrens ist abhängig von der Rechnerleistung der Steuerungs- und Verarbeitungseinrichtung
8 , die aber erwartungsgemäß so schnell ist, dass der Anwender mit einer Konturüberlagerung in Echtzeit rechnen darf. - Zusammengefasst ergeben sich durch das erfindungsgemäße Verfahren folgende Vorteile:
- – Durch das Segmentieren des präoperativen 3D-Rohdatensatz können eng definierte, anatomisch sinnvolle Grenzen in der Gestalt scharfer Konturen beschrieben werden.
- – Diese Grenzen werden durch die Überlagerung dieser Konturen mit den 2D-Durchleuchtungsbildern (intraoperative- bzw. live-Aufnahme-Bilder) wesentlich besser visualisiert, als bei einer Überlagerung eines kompletten 3D-Rohdatensatzes mit dem aktuellen Durchleuchtungsbild. Durch die erfindungsgemäße Darstellung der Konturen mit Grafikprimitiven werden die Grenzen schärfer und klarer abgegrenzt, als es durch derzeit zur Verfügung stehende Verfahren möglich ist.
- – Bei intraoperativen Änderungen des 2D-Durchleuchtungsbildes (z.B. durch Bewegung des C-Bogens bzw. Änderungen von Anlagenparametern wie z.B. Zoom, SID, Tischbewegung oder Patientenbewegung) können die Konturen automatisch und kontinuierlich aktualisiert werden, so dass beim Betrachter auf dem überlagerten 2D-Durchleuchtungsbild ein räumlicher Eindruck der anatomischen Struktur während der Parameteränderung entsteht. Dies hat bei Kontrastmitteleinsatz den Vorteil, dass für eine neue Angulation kein zusätzliches Kontrastmittel verabreicht werden muss und zum anderen die Konturen sofort und ohne weitere Interaktion Seitens des Anwenders zur Verfügung stehen.
Claims (9)
- Verfahren zur Kontur-Visualisierung von zumindest einer interessierenden Region (
6 ) in 2D-Durchleuchtungsbildern (15 ), aufweisend die folgenden Schritte: S1: Erzeugen eines zumindest die eine interessierende Region (6 ) aufweisenden 3D-Rohdatensatzes, in dem die Kontur der interessierenden Region (6 ) ersichtlich ist, S2: Automatisiertes Erzeugen eines segmentierten 3D-Datensatzes aus dem 3D-Rohdatensatz (12 ), in dem die Kontur bei der zumindest einen interessierenden Region (6 ) eindeutig abgegrenzt ist, S3: Erzeugen eines 2D-Durchleuchtungsbildes (15 ) welches die zumindest eine interessierende Region (6 ) enthält, S4: Erzeugen einer 2D-Projektion (14 ) aus dem segmentierten 3D-Datensatz, die deckungsgleich mit dem 2D-Durchleuchtungsbild (15 ) ist, S5: Automatisiertes Bestimmen der Kontur (17 ) der zumindest einen interessierenden Region (6 ) in der 2D-Projektion (14 ), und S6: Überlagern der Kontur (17 ) mit dem 2D-Durchleuchtungsbild (15 ). - Verfahren nach Anspruch 1, bei dem das 2D-Durchleuchtungsbild (
15 ) intraoperativ erhalten wird. - Verfahren nach Anspruch 2, bei dem das 2D-Durchleuchtungsbild (
15 ) auf eine intraoperative Veränderung hin überwacht wird. - Verfahren nach Anspruch 2 oder 3, bei dem im Falle einer intraoperativen Veränderung des 2D-Durchleuchtungsbildes (
15 ) die Schritte S4 bis S6 wiederholt werden. - Verfahren nach einem der Ansprüche 1 bis 4, bei dem die Bestimmung des 3D-Rohdatensatzes (
12 ) mit beliebiger Bildgebungsmodalität präoperativ erfolgt. - Verfahren nach einem der Ansprüche 1 bis 5, bei dem die 2D-Projektion (
14 ) durch eine 2D-3D-Registrierung erzeugt wird. - Verfahren nach Anspruch 6, bei dem die 2D-3D-Registrierung bildbasiert oder markerbasiert erfolgt.
- Verfahren nach einem der Ansprüche 1 bis 7, bei dem die Kontur (
17 ) durch Grafikprimitive approximiert wird. - Verfahren nach Anspruch 8, bei dem die Grafikprimitive Linien, Kurven oder Splines darstellen.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102005030646A DE102005030646B4 (de) | 2005-06-30 | 2005-06-30 | Verfahren zur Kontur-Visualisierung von zumindest einer interessierenden Region in 2D-Durchleuchtungsbildern |
CN200610106485A CN100581467C (zh) | 2005-06-30 | 2006-06-30 | 用于二维透视图像中感兴趣区域轮廓可视化的方法和装置 |
US11/479,182 US7689042B2 (en) | 2005-06-30 | 2006-06-30 | Method for contour visualization of regions of interest in 2D fluoroscopy images |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102005030646A DE102005030646B4 (de) | 2005-06-30 | 2005-06-30 | Verfahren zur Kontur-Visualisierung von zumindest einer interessierenden Region in 2D-Durchleuchtungsbildern |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102005030646A1 DE102005030646A1 (de) | 2007-01-11 |
DE102005030646B4 true DE102005030646B4 (de) | 2008-02-07 |
Family
ID=37562378
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102005030646A Active DE102005030646B4 (de) | 2005-06-30 | 2005-06-30 | Verfahren zur Kontur-Visualisierung von zumindest einer interessierenden Region in 2D-Durchleuchtungsbildern |
Country Status (3)
Country | Link |
---|---|
US (1) | US7689042B2 (de) |
CN (1) | CN100581467C (de) |
DE (1) | DE102005030646B4 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008028024A1 (de) * | 2008-06-12 | 2009-12-24 | Siemens Aktiengesellschaft | Verfahren zum Anzeigen von dreidimensionalen medizinischen Bilddaten, Computerprogrammprodukt zur Durchführung des Verfahrens und System zum Anzeigen von dreidimensionalen medizinischen Bilddaten |
Families Citing this family (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006051467A2 (en) * | 2004-11-15 | 2006-05-18 | Philips Intellectual Property & Standards Gmbh | Ct method for the examination of a cyclically moving object |
DE102005030646B4 (de) * | 2005-06-30 | 2008-02-07 | Siemens Ag | Verfahren zur Kontur-Visualisierung von zumindest einer interessierenden Region in 2D-Durchleuchtungsbildern |
EP2018119A2 (de) * | 2006-05-11 | 2009-01-28 | Koninklijke Philips Electronics N.V. | System und verfahren zum erzeugen von intraoperativen dreidimensionalen bildern unter verwendung von nicht-kontrast-bilddaten |
US8411914B1 (en) * | 2006-11-28 | 2013-04-02 | The Charles Stark Draper Laboratory, Inc. | Systems and methods for spatio-temporal analysis |
DE102006058906B4 (de) * | 2006-12-13 | 2016-12-15 | Siemens Healthcare Gmbh | Verfahren zur Darstellung von tomographischen Aufnahmen und Tomographiesystem oder Tomographiesystemverbund zur Durchführung dieses Verfahrens |
DE102007013625A1 (de) | 2007-03-21 | 2008-09-25 | Siemens Ag | Verfahren und Vorrichtung zur Visualisierung eines Objekts |
DE102007021717A1 (de) * | 2007-05-09 | 2008-10-02 | Siemens Ag | Bronchopulmonales Diagnose- und Therapiesystem und Bildgebungsverfahren für bronchopulmonale Diagnose und Therapie |
DE102007053756B4 (de) * | 2007-11-12 | 2017-06-01 | Siemens Healthcare Gmbh | Verfahren zur Anzeige eines kardiologischen Gefäßbereichs |
JP5464799B2 (ja) * | 2007-11-16 | 2014-04-09 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
EP2082686B1 (de) * | 2008-01-22 | 2015-01-21 | Brainlab AG | Orientierte Wiedergabe von Aufnahmen |
DE102008023053A1 (de) * | 2008-05-09 | 2009-11-26 | Siemens Aktiengesellschaft | Auswertungsverfahren für zweidimensionale Durchleuchtungsbilder eines Untersuchungsobjekts mit zeitcodierter Darstellung dreidimensionaler Rekonstruktionen |
JP5675056B2 (ja) * | 2008-07-04 | 2015-02-25 | 株式会社東芝 | X線撮影装置および画像処理装置 |
DE102008045276B4 (de) * | 2008-09-01 | 2010-08-05 | Siemens Aktiengesellschaft | Verfahren zur Ansteuerung einer medizintechnischen Anlage, medizintechnische Anlage und Computerprogramm |
JP2010068929A (ja) * | 2008-09-17 | 2010-04-02 | Fujifilm Corp | 乳房x線透過平面画像断層画像撮影装置 |
DE102008050572A1 (de) * | 2008-10-06 | 2010-04-15 | Siemens Aktiengesellschaft | Verfahren zur Positionierung eines medizinischen Bildgebungsgerätes an einem Patienten sowie Vorrichtung zur medizinischen Bildgebung und Bildgebungssystem |
US9138163B2 (en) * | 2009-09-25 | 2015-09-22 | Ortho Kinematics, Inc. | Systems and devices for an integrated imaging system with real-time feedback loop and methods therefor |
CN102713976B (zh) * | 2010-01-12 | 2017-05-24 | 皇家飞利浦电子股份有限公司 | 对介入装置进行导航 |
US9265468B2 (en) | 2011-05-11 | 2016-02-23 | Broncus Medical, Inc. | Fluoroscopy-based surgical device tracking method |
US8754888B2 (en) * | 2011-05-16 | 2014-06-17 | General Electric Company | Systems and methods for segmenting three dimensional image volumes |
JP2012249960A (ja) * | 2011-06-06 | 2012-12-20 | Toshiba Corp | 医用画像処理装置 |
US9510771B1 (en) | 2011-10-28 | 2016-12-06 | Nuvasive, Inc. | Systems and methods for performing spine surgery |
US8983156B2 (en) * | 2012-11-23 | 2015-03-17 | Icad, Inc. | System and method for improving workflow efficiences in reading tomosynthesis medical image data |
US9875544B2 (en) | 2013-08-09 | 2018-01-23 | Broncus Medical Inc. | Registration of fluoroscopic images of the chest and corresponding 3D image data based on the ribs and spine |
US9848922B2 (en) | 2013-10-09 | 2017-12-26 | Nuvasive, Inc. | Systems and methods for performing spine surgery |
CN105637402A (zh) * | 2013-10-17 | 2016-06-01 | 奥林巴斯株式会社 | 内窥镜装置 |
DE102013223786B3 (de) * | 2013-11-21 | 2014-12-24 | Siemens Aktiengesellschaft | Angiographisches Untersuchungsverfahren eines Untersuchungsobjekts zur Durchführung von Rotationsangiographien |
KR20150124262A (ko) * | 2014-04-28 | 2015-11-05 | 주식회사 코어라인소프트 | 의료용 영상 장치의 씨암의 회전 각도를 제어하는 방법 및 장치 |
US9986983B2 (en) | 2014-10-31 | 2018-06-05 | Covidien Lp | Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same |
GB2536650A (en) | 2015-03-24 | 2016-09-28 | Augmedics Ltd | Method and system for combining video-based and optic-based augmented reality in a near eye display |
US10702226B2 (en) | 2015-08-06 | 2020-07-07 | Covidien Lp | System and method for local three dimensional volume reconstruction using a standard fluoroscope |
US10674982B2 (en) | 2015-08-06 | 2020-06-09 | Covidien Lp | System and method for local three dimensional volume reconstruction using a standard fluoroscope |
US10716525B2 (en) | 2015-08-06 | 2020-07-21 | Covidien Lp | System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction |
US11172895B2 (en) | 2015-12-07 | 2021-11-16 | Covidien Lp | Visualization, navigation, and planning with electromagnetic navigation bronchoscopy and cone beam computed tomography integrated |
US11051886B2 (en) | 2016-09-27 | 2021-07-06 | Covidien Lp | Systems and methods for performing a surgical navigation procedure |
CN110177492A (zh) | 2016-11-18 | 2019-08-27 | 斯特赖克公司 | 用于治疗关节的方法和设备,包括髋关节中的凸轮型股骨髋臼撞击症和髋关节中的钳夹型股骨髋臼撞击症的治疗 |
US10699448B2 (en) | 2017-06-29 | 2020-06-30 | Covidien Lp | System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data |
EP3694412A4 (de) | 2017-10-10 | 2021-08-18 | Covidien LP | System und verfahren zur identifizierung und markierung eines ziels in einer fluoroskopischen dreidimensionalen rekonstruktion |
US11464569B2 (en) | 2018-01-29 | 2022-10-11 | Stryker Corporation | Systems and methods for pre-operative visualization of a joint |
US10905498B2 (en) | 2018-02-08 | 2021-02-02 | Covidien Lp | System and method for catheter detection in fluoroscopic images and updating displayed position of catheter |
US11373330B2 (en) * | 2018-03-27 | 2022-06-28 | Siemens Healthcare Gmbh | Image-based guidance for device path planning based on penalty function values and distances between ROI centerline and backprojected instrument centerline |
US11980507B2 (en) | 2018-05-02 | 2024-05-14 | Augmedics Ltd. | Registration of a fiducial marker for an augmented reality system |
US11766296B2 (en) | 2018-11-26 | 2023-09-26 | Augmedics Ltd. | Tracking system for image-guided surgery |
DE102019200786A1 (de) * | 2019-01-23 | 2020-07-23 | Siemens Healthcare Gmbh | Bildgebendes medizinisches Gerät, Verfahren zum Unterstützen von medizinischem Personal, Computerprogrammprodukt und computerlesbares Speichermedium |
US11980506B2 (en) | 2019-07-29 | 2024-05-14 | Augmedics Ltd. | Fiducial marker |
DE102019214556B4 (de) * | 2019-09-24 | 2022-12-22 | Siemens Healthcare Gmbh | Fluoroskopieverfahren mit einem Röntgengerät und Röntgengerät |
US11382712B2 (en) | 2019-12-22 | 2022-07-12 | Augmedics Ltd. | Mirroring in image guided surgery |
CN111325766B (zh) * | 2020-02-20 | 2023-08-25 | 腾讯科技(深圳)有限公司 | 三维边缘检测方法、装置、存储介质和计算机设备 |
CN111728627A (zh) * | 2020-06-02 | 2020-10-02 | 北京昆仑医云科技有限公司 | 辅助诊断方法和辅助诊断装置 |
CN112541907A (zh) * | 2020-12-17 | 2021-03-23 | 推想医疗科技股份有限公司 | 一种图像识别方法、装置、服务器及介质 |
US11896445B2 (en) | 2021-07-07 | 2024-02-13 | Augmedics Ltd. | Iliac pin and adapter |
WO2024057210A1 (en) | 2022-09-13 | 2024-03-21 | Augmedics Ltd. | Augmented reality eyewear for image-guided medical intervention |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003059166A2 (en) * | 2001-12-28 | 2003-07-24 | Koninklijke Philips Electronics N.V. | Medical examination apparatus having means for performing correction of settings |
DE10214254A1 (de) * | 2002-03-30 | 2003-10-16 | Philips Intellectual Property | Organspezifische Rückprojektion |
DE10356011A1 (de) * | 2002-11-27 | 2004-06-09 | GE Medical Systems Global Technology Company, LLC, Waukesha | Verfahren und Vorrichtung zur Quantifizierung des Gewebefettgehalts |
DE10322738A1 (de) * | 2003-05-20 | 2004-12-16 | Siemens Ag | Verfahren zur markerlosen automatischen Fusion von 2D-Fluoro-C-Bogen-Bildern mit präoperativen 3D-Bildern unter Verwendung eines intraoperativ gewonnenen 3D-Datensatzes |
WO2005024721A2 (en) * | 2003-08-29 | 2005-03-17 | Accuray, Inc. | 2d/3d image registration in image-guided radiosurgery |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6856827B2 (en) * | 2000-04-28 | 2005-02-15 | Ge Medical Systems Global Technology Company, Llc | Fluoroscopic tracking and visualization system |
BR0116855B1 (pt) * | 2001-02-07 | 2012-06-12 | processo para estabelecer uma representaÇço tridimensional virtual de um osso ou fragmento de osso a partir de imagens de raios-x. | |
DE10210646A1 (de) * | 2002-03-11 | 2003-10-09 | Siemens Ag | Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments |
DE10210647A1 (de) * | 2002-03-11 | 2003-10-02 | Siemens Ag | Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments |
US7542791B2 (en) * | 2003-01-30 | 2009-06-02 | Medtronic Navigation, Inc. | Method and apparatus for preplanning a surgical procedure |
US7570791B2 (en) * | 2003-04-25 | 2009-08-04 | Medtronic Navigation, Inc. | Method and apparatus for performing 2D to 3D registration |
US7835778B2 (en) * | 2003-10-16 | 2010-11-16 | Medtronic Navigation, Inc. | Method and apparatus for surgical navigation of a multiple piece construct for implantation |
US7103136B2 (en) * | 2003-12-22 | 2006-09-05 | General Electric Company | Fluoroscopic tomosynthesis system and method |
DE102004035980A1 (de) * | 2004-07-23 | 2006-03-16 | Siemens Ag | Verfahren zur Bildgebung bei einem interventionellen Eingriff |
US7734119B2 (en) * | 2004-09-21 | 2010-06-08 | General Electric Company | Method and system for progressive multi-resolution three-dimensional image reconstruction using region of interest information |
US7327872B2 (en) * | 2004-10-13 | 2008-02-05 | General Electric Company | Method and system for registering 3D models of anatomical regions with projection images of the same |
US7344307B2 (en) * | 2004-11-12 | 2008-03-18 | General Electric Company | System and method for integration of a calibration target into a C-arm |
US7453983B2 (en) * | 2005-01-20 | 2008-11-18 | Carestream Health, Inc. | Radiation therapy method with target detection |
DE102005030646B4 (de) * | 2005-06-30 | 2008-02-07 | Siemens Ag | Verfahren zur Kontur-Visualisierung von zumindest einer interessierenden Region in 2D-Durchleuchtungsbildern |
US20090105579A1 (en) * | 2007-10-19 | 2009-04-23 | Garibaldi Jeffrey M | Method and apparatus for remotely controlled navigation using diagnostically enhanced intra-operative three-dimensional image data |
-
2005
- 2005-06-30 DE DE102005030646A patent/DE102005030646B4/de active Active
-
2006
- 2006-06-30 US US11/479,182 patent/US7689042B2/en active Active
- 2006-06-30 CN CN200610106485A patent/CN100581467C/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003059166A2 (en) * | 2001-12-28 | 2003-07-24 | Koninklijke Philips Electronics N.V. | Medical examination apparatus having means for performing correction of settings |
DE10214254A1 (de) * | 2002-03-30 | 2003-10-16 | Philips Intellectual Property | Organspezifische Rückprojektion |
DE10356011A1 (de) * | 2002-11-27 | 2004-06-09 | GE Medical Systems Global Technology Company, LLC, Waukesha | Verfahren und Vorrichtung zur Quantifizierung des Gewebefettgehalts |
DE10322738A1 (de) * | 2003-05-20 | 2004-12-16 | Siemens Ag | Verfahren zur markerlosen automatischen Fusion von 2D-Fluoro-C-Bogen-Bildern mit präoperativen 3D-Bildern unter Verwendung eines intraoperativ gewonnenen 3D-Datensatzes |
WO2005024721A2 (en) * | 2003-08-29 | 2005-03-17 | Accuray, Inc. | 2d/3d image registration in image-guided radiosurgery |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008028024A1 (de) * | 2008-06-12 | 2009-12-24 | Siemens Aktiengesellschaft | Verfahren zum Anzeigen von dreidimensionalen medizinischen Bilddaten, Computerprogrammprodukt zur Durchführung des Verfahrens und System zum Anzeigen von dreidimensionalen medizinischen Bilddaten |
Also Published As
Publication number | Publication date |
---|---|
US7689042B2 (en) | 2010-03-30 |
CN1891153A (zh) | 2007-01-10 |
DE102005030646A1 (de) | 2007-01-11 |
CN100581467C (zh) | 2010-01-20 |
US20070003016A1 (en) | 2007-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102005030646B4 (de) | Verfahren zur Kontur-Visualisierung von zumindest einer interessierenden Region in 2D-Durchleuchtungsbildern | |
DE19963440C2 (de) | Verfahren und System zur Visualisierung eines Gegenstandes | |
DE10210645B4 (de) | Verfahren zur Erfassung und Darstellung eines in einen Untersuchungsbereich eines Patienten eingeführten medizinischen Katheters | |
DE102005007893B4 (de) | Verfahren zur Positionsbestimmung eines Instrumentes mit einem Röntgensystem | |
DE102008030244A1 (de) | Verfahren zur Unterstützung von perkutanen Interventionen | |
DE102007010806B4 (de) | Verfahren zum Schaffen erweiterter Möglichkeiten bei der Verwendung von für den Einsatz von Registrierungsverfahren ungeeigneten Bilddaten eines Patienten und Röntgenangiographiesystem | |
DE10210650A1 (de) | Verfahren zur dreidimensionalen Darstellung eines Untersuchungsbereichs eines Patienten in Form eines 3D-Rekonstruktionsbilds | |
DE102006013476B4 (de) | Verfahren zur positionsgenauen Darstellung von interessierenden Gewebebereichen | |
DE10333543A1 (de) | Verfahren zur gekoppelten Darstellung intraoperativer sowie interaktiv und iteraktiv re-registrierter präoperativer Bilder in der medizinischen Bildgebung | |
DE102008037453A1 (de) | Verfahren und System zur Visualisierung von registrierten Bildern | |
DE102006003126A1 (de) | Verfahren und Vorrichtung zum Visualisieren von 3D-Objekten | |
DE102005044405A1 (de) | Verfahren zur bildlichen Darstellung eines in ein Untersuchungsobjekt mindestens teilweise eingeführten, medizinischen Instruments | |
DE102005059804A1 (de) | Verfahren und Vorrichtung zur Bewegungskorrektur bei der Bildgebung während einer medizinischen Intervention | |
EP3598948B1 (de) | Bildgebendes system und verfahren zum erzeugen einer stereoskopischen darstellung, computerprogramm und datenspeicher | |
DE102005035430A1 (de) | Verfahren zur verbesserten Darstellung co-registrierter 2D-3D-Bilder in der medizinischen Bildgebung | |
DE102008045276B4 (de) | Verfahren zur Ansteuerung einer medizintechnischen Anlage, medizintechnische Anlage und Computerprogramm | |
DE102006008509A1 (de) | Verfahren und Vorrichtung zur verbesserten automatischen Detektion von Auffälligkeiten in medizinischen Bilddaten | |
DE102006056679B4 (de) | Verfahren und Vorrichtung zum Visualisieren von 3D-Objekten, insbesondere in Echtzeit | |
DE102005035929A1 (de) | Verfahren zur Darstellung mehrerer Bilder sowie ein Bildsystem zur Durchführung des Verfahrens | |
DE102007051479B4 (de) | Verfahren und Vorrichtung zur Darstellung von Bilddaten mehrerer Bilddatensätze während einer medizinischen Intervention | |
DE102018211381B4 (de) | Gültigkeit eines Bezugssystems | |
DE102012200686A1 (de) | Verfahren und Vorrichtung zur Positionierung einer Röntgenvorrichtung | |
DE10015824C2 (de) | System und Verfahren zur Erzeugung eines Bilddatensatzes | |
WO2012025081A2 (de) | Verfahren zur simultanen, parallelen, kontinuierlichen darstellung von gespeicherten, hochaufgelösten diagnostischen 3-d-bilddaten und 2-d-echtzeitschnittbilddaten während einer medizinischen intervention eines patienten und anordnung zur durchführung dieses verfahrens | |
DE102008020657A1 (de) | Verfahren zur Anzeige einer Position in einem Herzuntersuchungsbereich |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8364 | No opposition during term of opposition | ||
8320 | Willingness to grant licences declared (paragraph 23) | ||
R081 | Change of applicant/patentee |
Owner name: SIEMENS HEALTHCARE GMBH, DE Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE |