[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE102020214319B3 - Bereitstellen eines optimalen Subtraktionsdatensatzes - Google Patents

Bereitstellen eines optimalen Subtraktionsdatensatzes Download PDF

Info

Publication number
DE102020214319B3
DE102020214319B3 DE102020214319.6A DE102020214319A DE102020214319B3 DE 102020214319 B3 DE102020214319 B3 DE 102020214319B3 DE 102020214319 A DE102020214319 A DE 102020214319A DE 102020214319 B3 DE102020214319 B3 DE 102020214319B3
Authority
DE
Germany
Prior art keywords
image
odiff
optimal
data set
subtraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102020214319.6A
Other languages
English (en)
Inventor
Michael Manhart
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Siemens Healthcare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthcare GmbH filed Critical Siemens Healthcare GmbH
Priority to DE102020214319.6A priority Critical patent/DE102020214319B3/de
Priority to US17/510,935 priority patent/US11455711B2/en
Priority to CN202111338735.1A priority patent/CN114469145B/zh
Application granted granted Critical
Publication of DE102020214319B3 publication Critical patent/DE102020214319B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7221Determining signal validity, reliability or quality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • A61B5/748Selection of a region of interest, e.g. using a graphics tablet
    • A61B5/7485Automatic selection of region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/481Diagnostic techniques involving the use of contrast agents
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/504Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of blood vessels, e.g. by angiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • A61B6/5241Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT combining overlapping images of the same imaging modality, e.g. by stitching
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/507Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for determination of haemodynamic parameters, e.g. perfusion CT
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Physiology (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)
  • Evolutionary Computation (AREA)
  • Vascular Medicine (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Bereitstellen eines optimalen Subtraktionsdatensatzes, umfassend:a) Empfangen von ersten Bilddatensätzen, welche mittels eines medizinischen Bildgebungsgeräts aufgenommen sind und ein Untersuchungsobjekt innerhalb einer ersten zeitlichen Phase abbilden,b) Empfangen zumindest eines zweiten Bilddatensatzes, welcher mittels desselben oder eines weiteren medizinischen Bildgebungsgeräts aufgenommenen ist und eine Veränderung an dem Untersuchungsobjekt innerhalb einer zweiten zeitlichen Phase abbildet,c) Aufteilen des zumindest einen zweiten Bilddatensatzes in mehrere räumliche Bildbereiched) Erzeugen von Subtraktionsbildbereichen zu den mehreren Bildbereichen,e) Bestimmen jeweils eines Bildqualitätsparameters für die Subtraktionsbildbereiche,f) Bestimmen jeweils eines optimalen Subtraktionsbildbereichs für die mehreren Bildbereiche des zumindest einen zweiten Bilddatensatzes durch Vergleich der Bildqualitätsparameter,g) Erzeugen des optimalen Subtraktionsdatensatzes aus den optimalen Subtraktionsbildbereichen,h) Bereitstellen des optimalen Subtraktionsdatensatzes.Die Erfindung betrifft weiterhin ein medizinisches Bildgebungsgerät und ein Computerprogrammprodukt.

Description

  • Die Erfindung betrifft ein Verfahren zum Bereitstellen eines optimalen Subtraktionsdatensatzes, ein medizinisches Bildgebungsgerät und ein Computerprogrammprodukt.
  • Für eine Erfassung von zeitlichen Veränderungen an einem Untersuchungsbereich eines Untersuchungsobjekts, beispielsweise einem menschlichen und/oder tierischen Patienten, werden häufig röntgenbasierte Bildgebungsverfahren eingesetzt. Die zu erfassende zeitliche Veränderung kann beispielsweise eine Ausbreitungsbewegung und/oder Fließbewegung eines Kontrastmittels, insbesondere eines Kontrastmittelflusses und/oder eines Kontrastmittelbolus, in einem Hohlorgan, beispielsweise einem Gefäßabschnitt, des Untersuchungsobjekts umfassen.
  • Die röntgenbasierten Bildgebungsverfahren umfassen dabei häufig eine digitale Subtraktionsangiographie (DSA), wobei zumindest zwei in zeitlicher Abfolge aufgenommene Röntgenbilder, welche zumindest teilweise den gemeinsamen Untersuchungsbereich abbilden, voneinander subtrahiert werden. Bei einer DSA wird zudem häufig in eine Maskenphase zur Aufnahme wenigstens eines Maskenbildes und in eine Füllphase zur Aufnahme wenigstens eines Füllbildes unterschieden. Dabei kann das Maskenbild häufig den Untersuchungsbereich ohne Kontrastmittel abbilden. Ferner kann das Füllbild den Untersuchungsbereich abbilden, während das Kontrastmittel darin angeordnet ist. Als Ergebnis der DSA wird häufig ein Differenzbild durch Subtraktion von Masken- und Füllbild bereitgestellt. Hierdurch können die für eine Behandlung und/oder Diagnostik irrelevanten und/oder störenden Bestandteile in dem Differenzbild, welche insbesondere zeitlich unveränderlich sind, oftmals reduziert und/oder entfernt werden.
  • Durch Bewegungen des Untersuchungsobjekts, insbesondere zwischen der Masken- und Füllphase, kann es nachteilig zu Bewegungsartefakten im Differenzbild kommen.
  • Die Druckschrift US 2018 / 0 279 983 A1 offenbart eine medizinische Bildverarbeitungseinrichtung, welche dazu ausgebildet ist, mehrere DSA-Bilder durch Subtraktion von jeweils einem Kontrastbild und einem Maskenbild aus mehreren Kontrastbildern und mehreren Maskenbildern zu erzeugen und aus den mehreren DSA-Bildern ein optimales DSA-Bild aufweisend eine minimale Anzahl von Pixeln mit positiver Polarität zu bestimmen. Ferner offenbart die Druckschrift DE 10 2019 202 514 A1 ein DSA-Verfahren, wobei eine Eignung wenigstens eines Maskenbildes zur Subtraktion von jeweils einem von mehreren Füllbildern im Hinblick auf unterschiedliche Bewegungszustände im Aufnahmebereich bei der Aufnahme des wenigstens einen Maskenbildes und bei wenigstens einem Teil der mehreren Füllungsbilder überprüft wird. Des Weiteren offenbart die Druckschrift US 2010 / 0 128 991 A1 ein Verfahren zum Vergleich medizinischer Bilder eines Patienten, wobei eines der zu vergleichenden Bilder zumindest teilweise eine Zusammenstellung mehrerer verschiedener vorerfasster Bilder des Patienten umfasst.
  • Es ist daher die Aufgabe der vorliegenden Erfindung, eine verbesserte Bildqualität bei einer Abbildung von Veränderungen an einem Untersuchungsobjekt zu ermöglichen.
  • Die Aufgabe wird erfindungsgemäß gelöst durch den jeweiligen Gegenstand der unabhängigen Ansprüche. Vorteilhafte Ausführungsformen mit zweckmäßigen Weiterbildungen sind Gegenstand der Unteransprüche.
  • Die Erfindung betrifft in einem ersten Aspekt ein Verfahren zum Bereitstellen eines optimalen Subtraktionsdatensatzes. In einem ersten Schritt a) werden erste Bilddatensätze empfangen. Dabei bilden die ersten Bilddatensätze ein Untersuchungsobjekt innerhalb einer ersten zeitlichen Phase ab.
  • Ferner sind die ersten Bilddatensätze mittels eines medizinischen Bildgebungsgeräts aufgenommen. In einem zweiten Schritt b) wird zumindest ein zweiter Bilddatensatz empfangen. Dabei bildet der zumindest eine zweite Bilddatensatz das Untersuchungsobjekt innerhalb einer zweiten zeitlichen Phase ab. Ferner ist der zumindest eine zweite Bilddatensatz mittels desselben oder eines weiteren medizinischen Bildgebungsgeräts aufgenommen. Des Weiteren bildet der zumindest eine zweite Bilddatensatz eine Veränderung an dem Untersuchungsobjekt gegenüber der ersten zeitlichen Phase ab. In einem dritten Schritt c) wird der zumindest eine zweite Bilddatensatz in mehrere räumliche Bildbereiche aufgeteilt. Ferner werden in einem vierten Schritt d) Subtraktionsbildbereiche zu den mehreren Bildbereichen erzeugt, indem von jeweils einem der Bildbereiche des zumindest einen zweiten Bilddatensatzes korrespondierende Bildbereiche der ersten Bilddatensätze subtrahiert werden. In einem fünften Schritt e) wird jeweils ein Bildqualitätsparameter für die Subtraktionsbildbereiche bestimmt. Ferner wird in einem sechsten Schritt f) jeweils ein optimaler Subtraktionsbildbereich für die mehreren Bildbereiche des zumindest einen zweiten Bilddatensatzes durch einen Vergleich der Bildqualitätsparameter bestimmt. In einem siebten Schritt g) wird der optimale Subtraktionsdatensatz aus den optimalen Subtraktionsbildbereichen erzeugt. Ferner wird der optimale Subtraktionsdatensatz in einem achten Schritt h) bereitgestellt.
  • Das Empfangen der ersten Bilddatensätze und/oder des zumindest einen zweiten Bilddatensatzes kann insbesondere ein Erfassen und/oder Auslesen eines computerlesbaren Datenspeichers und/oder ein Empfangen aus einer Datenspeichereinheit, beispielsweise einer Datenbank, umfassen. Ferner können die ersten Bilddatensätze von einer Bereitstellungseinheit des medizinischen Bildgebungsgeräts bereitgestellt werden. Zudem kann der zumindest eine zweite Bilddatensatz von einer Bereitstellungseinheit desselben und/oder eines weiteren medizinischen Bildgebungsgeräts bereitgestellt werden.
  • Das Untersuchungsobjekt kann beispielsweise ein menschlicher und/oder tierischer Patient sein. Ferner kann das Untersuchungsobjekt einen Untersuchungsbereich aufweisen. Der Untersuchungsbereioch kann insbesondere einen räumlichen Abschnitt, insbesondere ein Volumen, des Untersuchungsobjekts umfassen, welcher ein Hohlorgan aufweist. Das Hohlorgan kann beispielsweise eine Lunge und/oder einen Gefäßabschnitt, beispielsweise eine Arterie und/oder Vene, und/oder ein Herz umfassen.
  • Die ersten Bilddatensätze können vorteilhafterweise eine zweidimensionale (2D) und/oder dreidimensionale (3D) Abbildung des Untersuchungsobjekts, insbesondere des Untersuchungsbereichs, umfassen. Ferner können die ersten Bilddatensätze das Untersuchungsobjekt zeitaufgelöst abbilden. Insbesondere können die ersten Bilddatensätze das Untersuchungsobjekt jeweils zu verschiedenen Zeitpunkten abbilden. Die ersten Bilddatensätze können ferner jeweils aus mehreren ersten Einzelbildern, insbesondere mehreren ersten Projektionsabbildungen, welche jeweils eine Abbildung zumindest eines Ausschnitts des Untersuchungsobjekts aufweisen, rekonstruiert sein. Ferner können die ersten Bilddatensätze Metadaten aufweisen, wobei die Metadaten beispielsweise eine Information zu einem Aufnahmeparameter und/oder Betriebsparameter des medizinischen Bildgebungsgeräts umfassen können.
  • Die ersten Bilddatensätze können das Untersuchungsobjekt vorteilhafterweise innerhalb einer ersten zeitlichen Phase, insbesondere einer Maskenphase, abbilden. Hierfür können die ersten Bilddatensätze vorteilhafterweise innerhalb eines vordefinierten ersten Zeitraums aufgenommen sein.
  • Der zumindest eine zweite Bilddatensatz kann vorteilhafterweise eine zweidimensionale (2D) und/oder dreidimensionale (3D) Abbildung des Untersuchungsobjekts, insbesondere des Untersuchungsbereichs, umfassen. Ferner kann der zumindest eine zweite Bilddatensatz das Untersuchungsobjekt zeitaufgelöst abbilden. Der zumindest eine zweite Bilddatensatz kann ferner jeweils aus mehreren zweiten Einzelbildern, insbesondere mehreren zweiten Projektionsabbildungen, welche jeweils eine Abbildung zumindest eines Ausschnitts des Untersuchungsobjekts aufweisen, rekonstruiert sein. Ferner kann der zumindest eine zweite Bilddatensatz Metadaten aufweisen, wobei die Metadaten beispielsweise eine Information zu einem Aufnahmeparameter und/oder Betriebsparameter des medizinischen Bildgebungsgeräts umfassen können.
  • Der zumindest eine zweite Bilddatensatz kann das Untersuchungsobjekt vorteilhafterweise innerhalb einer zweiten zeitlichen Phase, insbesondere einer Füllphase, abbilden. Hierfür kann der zumindest eine zweite Bilddatensatz vorteilhafterweise innerhalb eines vordefinierten zweiten Zeitraums aufgenommen sein. Vorteilhafterweise kann die zweite zeitliche Phase der ersten zeitlichen Phase nachgelagert sein.
  • Ferner kann der zumindest eine zweite Bilddatensatz eine Veränderung an dem Untersuchungsobjekt gegenüber der ersten zeitlichen Phase abbilden. Dabei kann die Veränderung an dem Untersuchungsobjekt beispielsweise ein Kontrastmittel, insbesondere ein Kontrastmittelfluss, und/oder ein medizinisches Objekt, insbesondere ein diagnostisches und/oder chirurgisches Instrument, sein, welches während der zweiten zeitlichen Phase zumindest teilweise in dem Untersuchungsobjekt angeordnet ist. Insbesondere kann die Veränderung an dem Untersuchungsobjekt eine zeitliche und/oder räumliche Veränderung umfassen.
  • Die ersten Bilddatensätze und/oder der zumindest eine zweite Bilddatensatz können vorteilhafterweise jeweils mehrere Bildpunkte, insbesondere Pixel und/oder Voxel, aufweisen. Sofern die ersten Bilddatensätze und/oder der zumindest eine zweite Bilddatensatz zeitaufgelöst sind, können die Bildpunkte ferner jeweils eine Zeitintensitätskurve aufweisen.
  • Im Schritt c) wird der zumindest eine zweite Bilddatensatz in mehrere räumliche Bildbereiche aufgeteilt. Vorteilhafterweise können die Bildbereiche zumindest teilweise aneinander angrenzen, insbesondere ohne sich zu überschneiden, und/oder sich zumindest teilweise überschneiden. Dabei kann ein Bildbereich (engl. patch) jeweils zumindest einen, insbesondere mehrere, Bildpunkte des zumindest einen zweiten Bilddatensatzes aufweisen. Das Aufteilen des zumindest einen zweiten Bilddatensatzes in die mehreren Bildbereiche kann vorteilhafterweise gleichmäßig und/oder ungleichmäßig bezüglich einer räumlichen Ausdehnung der Bildbereiche erfolgen. Beispielsweise kann der zumindest eine zweite Bilddatensatz gitterförmig in die mehreren Bildbereiche aufgeteilt werden. Dabei können die Bildbereiche jeweils vorzugsweise eine gleiche Anzahl von Bildpunkten des zumindest einen zweiten Bilddatensatzes aufweisen.
  • Vorteilhafterweise können im Schritt d) Subtraktionsbildbereiche zu den mehreren Bildbereichen erzeugt werden, indem von jeweils einem der Bildbereiche des zumindest einen zweiten Bilddatensatzes, insbesondere räumlich, korrespondierende Bildbereiche der ersten Bilddatensätze subtrahiert werden. Vorteilhafterweise kann es zu jedem der Bildbereiche des zumindest einen zweiten Bilddatensatzes einen, insbesondere räumlich, korrespondierenden Bildbereich in jeweils einem der ersten Bilddatensätze geben. Dabei kann Schritt d) ein Identifizieren der mit den Bildbereichen des zumindest einen zweiten Bilddatensatzes korrespondierenden Bildbereiche der ersten Bilddatensätze umfassen.
  • Sofern die ersten Bilddatensätze und der zumindest eine zweite Bilddatensatz mittels desselben medizinischen Bildgebungsgeräts aufgenommen sind, können diese jeweils bezüglich eines gemeinsamen Koordinatensystems, insbesondere inhärent, registriert sein. Alternativ oder zusätzlich kann Schritt d) ein Registrieren, insbesondere eine Bewegungskorrektur, der ersten Bilddatensätze und/oder des zumindest einen zweiten Bilddatensatzes umfassen. Die korrespondierenden Bildbereiche der ersten Bilddatensätze können, insbesondere analog zu den Bildbereichen des zumindest einen zweiten Bilddatensatzes, jeweils zumindest einen, insbesondere mehrere, Bildpunkte des jeweiligen ersten Bilddatensatzes aufweisen. Ferner können die Bildbereiche der ersten Bilddatensätze, welche mit den Bildbereichen des zumindest einen zweiten Bilddatensatzes korrespondieren, anhand der räumlichen Anordnung der jeweiligen Bildpunkte, insbesondere in dem gemeinsamen Koordinatensystem, identifiziert werden. Alternativ oder zusätzlich können die korrespondierenden Bildbereiche anhand von geometrischen und/oder anatomischen Merkmalen, welche in den ersten Bilddatensätzen und dem zumindest einen zweiten Bilddatensatz abgebildet sind, identifiziert werden.
  • Zum Erzeugen der Subtraktionsbildbereiche können vorteilhafterweise von den, insbesondere allen, Bildbereichen des zumindest einen zweiten Bilddatensatzes die jeweils korrespondierenden Bildbereiche der, insbesondere aller, ersten Bilddatensätze subtrahiert werden. Somit können zu den, insbesondere allen, Bildbereichen des zumindest einen zweiten Bilddatensatzes jeweils mehrere Subtraktionsbildbereiche erzeugt werden. Vorteilhafterweise können die Subtraktionsbildbereiche jeweils die Unterschiede, insbesondere die Veränderung, zwischen der ersten und der zweiten zeitlichen Phase, an dem Untersuchungsobjekt abbilden. Des Weiteren können die Subtraktionsbildbereiche Bildartefakte aufweisen, welche Bildartefakte durch eine Bewegung des Untersuchungsobjekts zwischen der Aufnahme der ersten Bilddatensätze und/oder des zumindest einen zweiten Bilddatensatzes hervorgerufen werden können.
  • Im Schritt e) kann jeweils ein Bildqualitätsparameter für die Subtraktionsbildbereiche, insbesondere für jeden der Subtraktionsbildbereiche, bestimmt werden. Dabei können die Bildqualitätsparameter vorteilhafterweise ein Artefaktlevel, insbesondere eine Ausprägung von Bildartefakten, und/oder ein Signal-zu-Rauschen-Verhältnis (engl. signal-to-noise-ratio, SNR) in dem jeweiligen Subtraktionsbildbereich bewerten. Die Bildqualitätsparameter können folglich einen, insbesondere normierten, Wert aufweisen, welcher die Bildqualität des jeweiligen Subtraktionsbildbereichs bewertet.
  • Hiernach können im Schritt f) die Bildqualitätsparameter der Subtraktionsbildbereiche, die mit jeweils einem gemeinsamen Bildbereich des zumindest einen zweiten Bilddatensatzes korrespondieren, verglichen werden. Vorteilhafterweise kann durch den Vergleich der Bildqualitätsparameter aus den mehreren Subtraktionsbildbereichen für jeweils einen der Bildbereiche des zumindest einen zweiten Bilddatensatzes der Subtraktionsbildbereich ausgewählt werden, welcher einen hinsichtlich der Bildqualität optimalen Bildqualitätsparameter aufweist. Dieser Subtraktionsbildbereich kann anschließend als der optimale Subtraktionsbildbereich für den jeweiligen Bildbereich des zumindest einen zweiten Bilddatensatzes bereitgestellt werden.
  • Durch den Vergleich der Bildqualitätsparameter zur Auswahl des jeweils optimalen Subtraktionsbildbereich zu den, insbesondere allen, Bildbereichen des zumindest einen zweiten Bilddatensatzes, aus den jeweils mehreren Subtraktionsbildbereichen, können vorteilhafterweise die Subtraktionsbildbereiche ausgeschlossen werden, welche Bildartefakte, insbesondere Bewegungsartefakte und/oder Metallartefakte, und/oder Rauschen aufweisen.
  • Folglich können die optimalen Subtraktionsbildbereiche jeweils in Schritt d) erzeugt worden sein, indem von dem jeweiligen Bildbereich des zumindest einen zweiten Bilddatensatzes der, insbesondere räumlich, korrespondierende Bildbereich des ersten Bilddatensatzes subtrahiert wurde, welcher korrespondierende Bildbereich hinsichtlich einer Positionierung des Untersuchungsobjekts eine größtmögliche Übereinstimmung mit dem Bildbereich des zumindest einen zweiten Bilddatensatzes und/oder ein minimales Rauschen und/oder minimale Bildartefakte aufweist.
  • Das Erzeugen des optimalen Subtraktionsdatensatz im Schritt g) kann insbesondere ein Zusammenfügen und/oder Zusammensetzen der optimalen Subtraktionsbildbereiche zu dem optimalen Subtraktionsdatensatz umfassen. Dabei kann das Zusammenfügen und/oder Zusammensetzen der optimalen Subtraktionsbildbereiche zu dem optimalen Subtraktionsdatensatz insbesondere entsprechend einer räumlichen Positionierung des jeweils in den optimalen Subtraktionsbildbereichen abgebildeten Ausschnitts des Untersuchungsbereichs erfolgen. Vorteilhafterweise kann der optimale Subtraktionsdatensatz die Unterschiede, insbesondere die Veränderung, zwischen der ersten und der zweiten zeitlichen Phase, an dem Untersuchungsobjekt abbilden.
  • Des Weiteren kann das Bereitstellen des optimalen Subtraktionsdatensatzes im Schritt h) beispielsweise ein Speichern auf einem computerlesbaren Speichermedium und/oder ein Anzeigen auf einer Darstellungseinheit und/oder ein Übertragen an eine Bereitstellungseinheit umfassen. Insbesondere kann eine graphische Darstellung des optimalen Subtraktionsdatensatzes auf der Darstellungseinheit angezeigt werden.
  • Die vorgeschlagene Ausführungsform ermöglicht eine Verbesserung der Bildqualität von Subtraktionsdatensätzen. Im Falle einer Bewegung des Untersuchungsobjekts während und/oder zwischen der Aufnahme der ersten Bilddatensätze und/oder des zumindest einen zweiten Bilddatensatzes, können Bewegungsartefakte in dem optimalen Subtraktionsdatensatz durch das vorgeschlagene Verfahren vorteilhaft minimiert werden. Insbesondere kann mittels des vorgeschlagenen Verfahrens eine verbesserte Perfusionsbildgebung ermöglicht werden, wobei aus dem optimalen Subtraktionsdatensatz Perfusionskarten berechnet werden können.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens kann Schritt f) weiterhin einen Schritt f.2) umfassen, wobei in Schritt f.2) überprüft werden kann, ob eine Anzahl von ersten Bilddatensätzen, welche ersten Bilddatensätze zum Erzeugen der optimalen Subtraktionsbildbereiche verwendet wurden, einen vorgegebenen Schwellwert übersteigt. Dabei kann bejahendenfalls der erste Bilddatensatz, welcher am seltensten zum Erzeugen der optimalen Subtraktionsbildbereiche verwendet wurde, identifiziert werden. Ferner kann der zumindest eine optimale Subtraktionsbildbereich, welcher mittels des identifizierten ersten Bilddatensatzes erzeugt wurde, durch den Subtraktionsbildbereich ersetzt werden, welcher einen nächstbesten Bildqualitätsparameter aufweist. Dabei kann Schritt f.2) bis zum Erreichen oder Unterschreiten des vorgegebenen Schwellwerts wiederholt ausgeführt werden.
  • Die optimalen Subtraktionsbildbereiche können jeweils in Schritt d) erzeugt worden sein, indem von den Bildbereichen des zumindest einen zweiten Bilddatensatzes der jeweils, insbesondere räumlich, korrespondierende Bildbereich des ersten Bilddatensatzes subtrahiert wurde, welcher korrespondierende Bildbereich hinsichtlich einer Positionierung des Untersuchungsobjekts eine größtmögliche Übereinstimmung mit dem Bildbereich des zumindest einen zweiten Bilddatensatzes und/ oder ein minimales Rauschen und/oder minimale Bildartefakte aufweist. Dies kann insbesondere durch den Vergleich der Bildqualitätsparameter zum Bestimmen der optimalen Subtraktionsbildbereiche im Schritt f) sichergestellt werden. Dabei können die optimalen Subtraktionsbereiche in Schritt d) aus korrespondierenden Bildbereichen von einem oder mehreren der ersten Bilddatensätze erzeugt worden sein.
  • Vorteilhafterweise können die Subtraktionsbildbereiche zu jeweils einem der Bildbereiche des zumindest einen zweiten Bilddatensatzes gemäß ihrer Bildqualitätsparameter geordnet werden, beispielsweise durch Anordnung in einer entsprechenden Datenstruktur und/oder durch Zuordnung einer Ordnungszahl.
  • Vorteilhafterweise kann Schritt f.2) einen Vergleich der Anzahl der ersten Bilddatensätze, deren korrespondierende Bildbereiche zum Erzeugen der optimalen Subtraktionsbildbereiche, insbesondere auch zum Erzeugen des optimalen Subtraktionsdatensatzes, verwendet wurden, mit dem vorgegebenen Schwellwert umfassen. Der Schwellwert kann beispielsweise durch eine Nutzereingabe von einem Nutzer mittels einer Eingabeeinheit vorgegeben und/oder angepasst werden. Ferner kann der Schwellwert in Abhängigkeit der Anzahl der Bildbereiche vorgegeben werden. Alternativ oder zusätzlich kann der vorgegebene Schwellwert in Abhängigkeit einer Anzahl und/oder Bildeigenschaft, beispielsweise einer räumlichen Auflösung, der im Schritt a) empfangenen ersten Bilddatensätze und/oder des zumindest einen zweiten Bilddatensatzes vorgegeben werden.
  • Sofern die Überprüfung in Schritt f.2) ein Übersteigen des Schwellwerts ergibt, kann vorteilhafterweise der erste Bilddatensatz identifiziert werden, dessen korrespondierende Bildbereiche am seltensten zum Erzeugen der im Schritt f) als optimal bestimmten Subtraktionsbildbereiche verwendet wurden. Werden im Schritt f.2) mehrere erste Bilddatensätze identifiziert, welche insbesondere gleich häufig zum Erzeugen der im Schritt f) als optimal bestimmten Subtraktionsbildbereiche verwendet wurden, kann der zu ersetzende erste Bilddatensatz durch einen Vergleich der Bildqualitätsparameter der aus den identifizierten ersten Bilddatensätzen jeweils erzeugten optimalen Subtraktionsbereiche identifiziert werden.
  • Vorteilhafterweise kann der zumindest eine optimale Subtraktionsbereich, welcher mittels des identifizierten ersten Bilddatensatzes erzeugt wurde, durch den, insbesondere räumlich korrespondierenden, Subtraktionsbildbereich ersetzt werden, welcher einen nächstbesten Bildqualitätsparameter aufweist. Vorteilhafterweise kann hierdurch die Anzahl der zum Erzeugen der optimalen Subtraktionsbildbereiche verwendeten ersten Bilddatensätze verringert werden.
  • Vorteilhafterweise kann Schritt f.2) bis zum Erreichen oder Unterschreiten des vorgegeben Schwellwerts wiederholt ausgeführt werden. Hierdurch kann vorteilhafterweise sichergestellt werden, dass die Anzahl der zum Erzeugen der optimalen Subtraktionsbildbereiche verwendeten ersten Bilddatensätze den vorgegebenen Schwellwert nicht überschreitet. Ferner kann hierdurch eine Varianz zwischen den optimalen Subtraktionsbildbereichen in dem optimalen Subtraktionsdatensatz vorteilhaft verringert werden.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens kann Schritt f) weiterhin die Schritte f.3) und f.4) umfassen. In Schritt f.3) können die optimalen Subtraktionsbildbereiche in räumlich zusammenhängende und räumlich isolierte optimale Subtraktionsbildbereiche klassifiziert werden. Dabei können räumlich angrenzende optimale Subtraktionsbildbereiche, welche mittels desselben ersten Bilddatensatzes erzeugt wurden, als räumlich zusammenhängend klassifiziert werden. Ferner können optimale Subtraktionsbildbereiche ohne räumlich angrenzenden optimalen Subtraktionsbildbereich, welcher mittels desselben ersten Bilddatensatzes erzeugt wurde, als räumlich isoliert klassifiziert werden. Ferner kann in Schritt f.4) jeweils der räumliche Anteil der klassifizierten optimalen Subtraktionsbildbereiche mit einem Vergleichsanteil verglichen werden. Bei einem Unterschreiten des Vergleichsanteils kann vorteilhafterweise der jeweilige zumindest eine optimale Subtraktionsbildbereich durch den, insbesondere räumlich korrespondierenden, Subtraktionsbildbereich ersetzt werden, welcher einen nächstbesten Bildqualitätsparameter aufweist. Ferner können die Schritte f.3) und f.4) so lange wiederholt ausgeführt werden, bis die räumlichen Anteile der klassifizierten optimalen Subtraktionsbildbereiche den Vergleichsanteil erreichen oder übersteigen.
  • Das Klassifizieren der optimalen Subtraktionsbildbereiche in räumlich zusammenhängende und räumlich isolierte optimale Subtraktionsbildbereiche kann ein, insbesondere binäres, Identifizieren und/oder Maskieren der optimalen Subtraktionsbildbereiche gemäß ihrer jeweiligen räumlichen Anordnung umfassen. Vorteilhafterweise können optimale Subtraktionsbildbereiche, welche unmittelbar aneinander angrenzende Bildpunkte aufweisen, als räumlich angrenzende optimale Subtraktionsbildbereiche betrachtet werden. Analog dazu können optimale Subtraktionsbildbereiche, welche keine angrenzenden Bildpunkte aufweisen, als räumlich nicht angrenzende optimale Subtraktionsbildbereiche betrachtet werden.
  • Die optimalen Subtraktionsbildbereiche können jeweils in Schritt d) erzeugt worden sein, indem von den Bildbereichen des zumindest einen zweiten Bilddatensatzes der jeweils, insbesondere räumlich, korrespondierende Bildbereich des ersten Bilddatensatzes subtrahiert wurde, welcher korrespondierende Bildbereich hinsichtlich einer Positionierung des Untersuchungsobjekts eine größtmögliche Übereinstimmung mit dem Bildbereich des zumindest einen zweiten Bilddatensatzes und/oder ein minimales Rauschen und/oder minimale Bildartefakte aufweist. Dies kann insbesondere durch den Vergleich der Bildqualitätsparameter zum Bestimmen der optimalen Subtraktionsbildbereiche im Schritt f) sichergestellt werden. Dabei können die optimalen Subtraktionsbereiche in Schritt d) aus korrespondierenden Bildbereichen von einem oder mehreren der ersten Bilddatensätze erzeugt worden sein. Sofern ein optimaler Subtraktionsbereich an einen weiteren optimalen Subtraktionsbereich räumlich angrenzt, welcher weitere optimale Subtraktionsbereich mittels desselben ersten Bilddatensatzes in Schritt d) erzeugt worden ist, können der optimale Subtraktionsbereich und der weitere optimale Subtraktionsbereich als räumlich zusammenhängend klassifiziert werden. Weist einer der optimalen Subtraktionsbereiche keinen räumlich angrenzenden weiteren optimalen Subtraktionsbereich auf, welcher mittels desselben ersten Bilddatensatzes in Schritt d) erzeugt worden ist, kann dieser optimale Subtraktionsbereich als räumlich isoliert klassifiziert werden.
  • Vorteilhafterweise kann im Schritt f.4) jeweils ein räumlicher Anteil der klassifizierten optimalen Subtraktionsbildbereiche bestimmt werden. Der räumliche Anteil kann insbesondere als Fläche und/oder Volumen der jeweils als räumlich zusammenhängend oder räumlich isoliert klassifizierten optimalen Subtraktionsbildbereiche in Bezug auf eine Gesamtfläche und/oder ein Gesamtvolumen aller optimalen Subtraktionsbildbereiche bestimmt werden. Alternativ oder zusätzlich kann der jeweilige räumliche Anteil der klassifizierten optimalen Subtraktionsbildbereiche in Bezug auf eine Fläche und/oder ein Volumen der ersten Bilddatensätze und/oder des zumindest einen zweiten Bilddatensatzes bestimmt werden.
  • Ferner kann im Schritt f.4) einen Vergleich zwischen den jeweiligen räumlichen Anteilen der klassifizierten optimalen Subtraktionsbildbereichen mit dem Vergleichsanteil umfassen. Der Vergleichsanteil kann beispielsweise durch eine weitere Nutzereingabe von einem Nutzer mittels einer Eingabeeinheit vorgegeben und/oder angepasst werden. Ferner kann der Vergleichsanteil in Abhängigkeit der Anzahl der Bildbereiche vorgegeben werden. Alternativ oder zusätzlich kann der Vergleichsanteil in Abhängigkeit einer Anzahl und/oder einer Bildeigenschaft, beispielsweise einer räumlichen Auflösung, der im Schritt a) empfangenen ersten Bilddatensätze und/oder des zumindest einen zweiten Bilddatensatzes vorgegeben werden.
  • Sofern der Vergleich ergibt, dass der räumliche Anteil zumindest eines der klassifizierten optimalen Subtraktionsbildbereiche den Vergleichsanteil unterschreitet, kann der jeweils zumindest eine optimale Subtraktionsbildbereich durch den, insbesondere räumlich korrespondierenden, Subtraktionsbildbereich ersetzt werden, welcher einen nächstbesten Bildqualitätsparameter aufweist.
  • Insbesondere kann im Schritt f.4) jeweils der räumliche Anteil von als räumlich isoliert klassifizierten optimalen Subtraktionsbildbereichen mit dem Vergleichsanteil verglichen werden. Bei einem Unterschreiten des Vergleichsanteils kann vorteilhafterweise der jeweilige als räumlich isoliert klassifizierte optimale Subtraktionsbildbereich durch den, insbesondere räumlich korrespondierenden, Subtraktionsbildbereich ersetzt werden, welcher einen nächstbesten Bildqualitätsparameter aufweist.
  • Vorteilhafterweise können die Schritte f.3) und f.4) so lange wiederholt ausgeführt werden, bis die räumlichen Anteile der klassifizierten optimalen Subtraktionsbildbereiche den Vergleichsanteil erreichen oder übersteigen. Vorteilhafterweise kann hierdurch eine Kleinteiligkeit (engl. parcellation) von, insbesondere räumlich isolierten, optimalen Subtraktionsbildbereichen, in dem optimalen Subtraktionsdatensatz verringert werden.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens können als räumlich isoliert klassifizierte optimale Subtraktionsbildbereiche durch Anwenden einer morphologischen Operation in einen als räumlich zusammenhängend klassifizierten optimalen Subtraktionsbildbereich integriert werden.
  • Die morphologische Operation kann beispielsweise eine Dilatation eines der als räumlich zusammenhängend klassifizierten optimalen Subtraktionsbildbereiche, welcher an einen als räumlich isoliert klassifizierten optimalen Subtraktionsbildbereich angrenzt, umfassen. Alternativ oder zusätzlich kann die morphologische Operation eine Erosion eines als räumlich isoliert klassifizierten optimalen Subtraktionsbildbereichs umfassen. Dabei kann sich die morphologische Operation beispielsweise auf Bildwerte von Bildpunkten eines als räumlich isoliert klassifizierten optimalen Subtraktionsbildbereichs beziehen. Ferner kann sich die morphologische Operation auf ein, insbesondere bildpunktweises, Ersetzen eines als räumlich isoliert klassifizierten optimalen Subtraktionsbildbereichs durch einen angrenzenden, als räumlich zusammenhängend klassifizierten, optimalen Subtraktionsbildbereich beziehen.
  • Vorteilhafterweise kann hierdurch eine Anzahl von als räumlich isoliert klassifizierten optimalen Subtraktionsbildbereichen verringert werden. Hierdurch kann die Bildqualität des optimalen Subtraktionsdatensatzes weiter verbessert werden.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens können im Schritt f) ferner die optimalen Subtraktionsbildbereiche in räumlich zusammenhängende und räumlich isolierte optimale Subtraktionsbildbereiche klassifiziert werden. Dabei können räumlich angrenzende optimale Subtraktionsbildbereiche, welche mittels desselben ersten Bilddatensatzes erzeugt wurden, als räumlich zusammenhängend klassifiziert werden. Ferner können optimale Subtraktionsbildbereiche ohne räumlich angrenzenden optimalen Subtraktionsbildbereich, welcher mittels desselben ersten Bilddatensatzes erzeugt wurde, als räumlich isoliert klassifiziert werden. Dabei können als räumlich isoliert klassifizierte optimale Subtraktionsbildbereiche durch Anwenden einer morphologischen Operation in einen als räumlich zusammenhängend klassifizierten optimalen Subtraktionsbildbereich integriert werden.
  • Dabei kann die morphologische Operation insbesondere alle Merkmale und Eigenschaften aufweisen, die in Bezug zur vorhergehend beschriebenen vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens beschrieben wurden. Ferner kann das Klassifizieren der optimalen Subtraktionsbildbereiche in räumlich zusammenhängende und räumlich isolierte optimale Subtraktionsbildbereiche insbesondere analog zu Schritt f.3) einer weiter oben beschriebenen weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens erfolgen.
  • Vorteilhafterweise kann hierdurch eine Anzahl von als räumlich isoliert klassifizierten optimalen Subtraktionsbildbereichen verringert werden. Ferner kann hierdurch die Bildqualität des optimalen Subtraktionsdatensatzes weiter verbessert werden.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens kann Schritt d) weiterhin einen Schritt d.2) umfassen, wobei in Schritt d.2) die Bildbereiche des zumindest einen zweiten Bilddatensatzes mit den korrespondierenden Bildbereichen der ersten Bilddatensätze registriert werden können.
  • Das Registrieren der Bildbereiche des zumindest einen zweiten Bilddatensatzes mit den jeweils korrespondierenden Bildbereichen der ersten Bilddatensätze kann vorteilhafterweise eine, insbesondere rigide und/oder nicht-rigide, räumliche Transformation der Bildbereiche und/oder der korrespondierenden Bildbereiche umfassen, beispielsweise eine Translation und/ oder Rotation und/oder Deformation und/oder Skalierung. Insbesondere kann das Registrieren der Bildbereiche des zumindest einen zweiten Bilddatensatzes mit den jeweils korrespondierenden Bildbereichen der ersten Bilddatensätze eine Bewegungskorrektur umfassen. Insbesondere kann das Registrieren auf anatomischen und/oder geometrischen Merkmalen und/oder einem Markerobjekt, welche in den ersten Bilddatensätzen und/ oder dem zumindest einen zweiten Bilddatensatz abgebildet sein können, und/oder Metadaten basieren.
  • Vorteilhafterweise kann durch das Registrieren der Bildbereiche des zumindest einen zweiten Bilddatensatzes mit den korrespondierenden Bildbereichen der ersten Bilddatensätze eine Bildqualität der daraus erzeugten, insbesondere optimalen, Subtraktionsbildbereiche verbessert werden. Hierdurch kann ferner auch eine Bildqualität des optimalen Subtraktionsdatensatzes verbessert werden. Insbesondere können Bildartefakte in dem optimalen Subtraktionsdatensatz verringert werden, welche Bildartefakte beispielsweise durch eine Fehlausrichtung zwischen der Abbildung des Untersuchungsobjekts in den ersten Bilddatensätzen und dem zumindest einen zweiten Bilddatensatz hervorgerufen werden können.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens kann Schritt g) weiterhin eine Kombination jeweils räumlich angrenzender optimaler Subtraktionsbildbereiche in zumindest einem gemeinsamen Randbereich umfassen.
  • Die optimalen Subtraktionsbildbereiche, welche jeweils räumlich aneinander angrenzen, können vorteilhafterweise jeweils zumindest einen Bildpunkt aufweisen, welche Bildpunkte, insbesondere unmittelbar, räumlich aneinander angrenzen. Dieser zumindest eine Bildpunkt kann vorteilhafterweise an einer Grenzlinie und/oder Grenzfläche zwischen den räumlich angrenzenden optimalen Subtraktionsbildbereichen angeordnet sein. Der zumindest eine gemeinsame Randbereich kann dabei insbesondere die Bildpunkte der jeweils angrenzenden optimalen Subtraktionsbildbereiche umfassen, welche Bildpunkte an der gemeinsamen Grenzlinie und/oder Grenzfläche angeordnet sind. Ferner kann der gemeinsame Randbereich weitere Bildpunkte der jeweils räumlich angrenzenden optimalen Subtraktionsbildbereiche umfassen, welche innerhalb eines vorgegebenen räumlichen Abstands, insbesondere streifenförmig, um die gemeinsame Grenzlinie und/oder Grenzfläche herum angeordnet sind.
  • Vorteilhafterweise kann Schritt g) eine Kombination, beispielsweise ein, insbesondere gewichtetes, Mitteln und/oder eine Interpolation, der jeweils räumlich angrenzenden optimalen Subtraktionsbildbereiche, insbesondere der Bildpunkte, welche innerhalb des gemeinsamen Randbereichs angeordnet sind, umfassen. Vorteilhafterweise können hierdurch Kanten und/oder Abstufungen im optimalen Subtraktionsdatensatz, welche durch das Zusammensetzen und/oder Zusammenfügen der optimalen Subtraktionsbildbereiche an den Grenzlinien und/oder Grenzflächen entstehen können, verringert, insbesondere geglättet, werden.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens kann das Aufteilen des zumindest einen zweiten Bilddatensatzes in die mehreren Bildbereiche im Schritt c) basierend auf anatomischen und/oder geometrischen Merkmalen erfolgen, welche in dem zumindest einen zweiten Bilddatensatz abgebildet sind.
  • Die anatomischen und/oder geometrischen Merkmale können beispielsweise eine Abbildung eines Organs, insbesondere eines Hohlorgans, und/oder eines Gewebes des Untersuchungsobjekts und/oder einer Markerstruktur Kontur umfassen. Insbesondere kann Schritt c) ein Identifizieren, insbesondere ein Segmentieren, der anatomischen und/oder geometrischen Merkmale in dem zumindest einen zweiten Bilddatensatz umfassen. Das Segmentieren kann beispielsweise einen Vergleich von Bildwerten der Bildpunkte des zumindest einen zweiten Bilddatensatzes mit wenigstens einem vorgegebenen Schwellwert umfassen. Alternativ oder zusätzlich kann das Segmentieren mittels eines Anatomieatlas erfolgen. Vorteilhafterweise kann das Aufteilen des zumindest einen zweiten Bilddatensatzes in die mehreren Bildbereiche anhand der identifizierten anatomischen und/oder geometrischen Merkmale erfolgen.
  • Vorteilhafterweise kann hierdurch erreicht werden, dass die Bildbereiche jeweils ein anatomisches und/oder geometrisches Merkmal, welches in dem zumindest einen zweiten Bilddatensatz abgebildet ist, möglichst vollständig umfassen können. Dabei können die Bildbereiche insbesondere jeweils als eine Interessensregion (engl. region-of-interest, ROI) betrachtet werden.
  • Hierdurch kann ein Aufteilen von anatomischen Strukturen und/oder geometrischen Merkmalen, beispielsweise einer Kontur, welche in dem zumindest einen zweiten Bilddatensatz abgebildet sein können, in verschiedene Bildbereiche vorteilhaft vermieden werden.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens kann der zumindest eine zweite Bilddatensatz ein in der zweiten zeitlichen Phase im Untersuchungsobjekt angeordnetes Kontrastmittel als die Veränderung abbilden.
  • Das Kontrastmittel kann beispielsweise ein Röntgenkontrastmittel, insbesondere ein röntgenopakes Kontrastmittel, und/ oder ein Ultraschallkontrastmittel und/oder ein Magnetresonanzkontrastmittel sein. Vorteilhafterweise kann das Kontrastmittel vor Beginn des vorgeschlagenen Verfahrens dem Untersuchungsobjekt appliziert worden sein. Vorteilhafterweise kann das zumindest teilweise in dem Untersuchungsbereich angeordnete Kontrastmittel, insbesondere eine Ausbreitungsbewegung des Kontrastmittels und/oder ein Kontrastmittelbolus, in dem zumindest einen zweiten Bilddatensatz abgebildet sein. Vorteilhafterweise kann das Kontrastmittel, insbesondere selektiv, während er zweiten zeitlichen Phase in dem abzubildenden Hohlorgan des Untersuchungsobjekts angeordnet sein. Hierdurch kann vorteilhafterweise eine kontrastierte Abbildung des Hohlorgans in dem zumindest einen zweiten Bilddatensatz und folglich in den Subtraktionsbildbereichen ermöglicht werden.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens können die Bildqualitätsparameter in Schritt e) durch Anwenden einer Bildqualitätsmetrik auf jeweils einen der Subtraktionsbildbereiche bestimmt werden. Ferner kann die Bildqualitätsmetrik ein Artefaktlevel und/ oder Signal-zu-Rauschen-Verhältnis in dem jeweiligen Subtraktionsbildbereich bewerten.
  • Die Bildqualitätsmetrik kann vorteilhafterweise dazu ausgebildet sein, ein Vorkommen und/oder eine Ausprägung von Bildartefakten, beispielsweise Bewegungsartefakten und/oder Metallartefakten und/oder Rekonstruktionsartefakten, in den Subtraktionsbildbereichen zu bewerten. Vorteilhafterweise kann die Bildqualitätsmetrik zu jedem der Subtraktionsbildbereiche jeweils einen, insbesondere normierten, Bildqualitätsparameter bereitstellen, welcher das Artefaktlevel und/oder Signal-zu-Rauschen-Verhältnis in dem jeweiligen Subtraktionsbildbereich bewertet. Ferner kann die Bildqualitätsmetrik auf einer Entropie und/oder Variation (engl. total variation) in den Subtraktionsbildbereichen basieren. Zudem kann die Bildqualitätsmetrik eine Konsistenzbedingung hinsichtlich der Bildmerkmale, welche in den ersten Bilddatensätzen und/oder in dem zumindest einen zweiten Bilddatensatz und/oder dem jeweiligen Subtraktionsbildbereich enthalten sein können.
  • Hierdurch kann vorteilhafterweise eine einheitliche und/oder normierte Bewertung der Bildqualität der Subtraktionsbildbereiche ermöglicht werden. Des Weiteren kann hierdurch das Bestimmen, insbesondere die Auswahl, des jeweils optimalen Subtraktionsbildbereichs für die mehreren Bildbereiche des zumindest einen zweiten Bilddatensatzes durch den Vergleich der Bildqualitätsparameter ermöglicht werden.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens kann die Bildqualitätsmetrik auf einer künstlichen Intelligenz basieren.
  • Dabei kann die Bildqualitätsmetrik vorteilhafterweise durch ein Verfahren des Maschinenlernens trainiert sein. Insbesondere kann die Bildqualitätsmetrik eine trainierte Funktion umfassen, welche durch ein Verfahren des Maschinenlernens trainiert ist. Die Bildqualitätsmetrik, insbesondere die trainierte Funktion, kann beispielsweise ein neuronales Netzwerk, insbesondere ein faltendes neuronales Netzwerk (engl. convolutional neural network, CNN) bzw. ein Netzwerk umfassend eine Faltungsschicht (engl. convolutional layer) sein.
  • Die trainierte Funktion bildet Eingabedaten auf Ausgabedaten ab. Hierbei können die Ausgabedaten insbesondere weiterhin von einem oder mehreren Parametern der trainierten Funktion abhängen. Der eine oder die mehreren Parameter der trainierten Funktion können durch ein Training bestimmt und/oder angepasst werden. Das Bestimmen und/oder das Anpassen des einen oder der mehreren Parameter der trainierten Funktion kann insbesondere auf einem Paar aus Trainingseingabedaten und zugehörigen Vergleichsausgabedaten basieren, wobei die trainierte Funktion zur Erzeugung von Trainingsabbildungsdaten auf die Trainingseingabedaten angewendet wird. Insbesondere können das Bestimmen und/oder das Anpassen auf einem Vergleich der Trainingsabbildungsdaten und der Vergleichsausgabedaten basieren. Im Allgemeinen wird auch eine trainierbare Funktion, das heißt eine Funktion mit noch nicht angepassten einen oder mehreren Parametern, als trainierte Funktion bezeichnet.
  • Andere Begriffe für trainierte Funktion sind trainierte Abbildungsvorschrift, Abbildungsvorschrift mit trainierten Parametern, Funktion mit trainierten Parametern, Algorithmus basierend auf künstlicher Intelligenz, Algorithmus des maschinellen Lernens. Ein Beispiel für eine trainierte Funktion ist ein künstliches neuronales Netzwerk, wobei die Kantengewichte des künstlichen neuronalen Netzwerks den Parametern der trainierten Funktion entsprechen. Anstatt des Begriffs „neuronales Netzwerk“ kann auch der Begriff „neuronales Netz“ verwendet werden. Insbesondere kann eine trainierte Funktion auch ein tiefes künstliches neuronales Netzwerk sein (engl. deep neural network, deep artificial neural network). Ein weiteres Beispiel für eine trainierte Funktion ist eine „Support Vector Machine“, weiterhin sind auch insbesondere andere Algorithmen des maschinellen Lernens als trainierte Funktion einsetzbar.
  • Die trainierte Funktion kann insbesondere mittels einer Rückpropagation trainiert sein. Zunächst können Trainingsabbildungsdaten durch Anwendung der trainierten Funktion auf Trainingseingabedaten bestimmt werden. Hiernach kann eine Abweichung zwischen den Trainingsabbildungsdaten und den Vergleichsausgabedaten durch Anwendung einer Fehlerfunktion auf die Trainingsabbildungsdaten und die Vergleichsausgabedaten ermittelt werden. Ferner kann zumindest ein Parameter, insbesondere eine Gewichtung, der trainierten Funktion, insbesondere des neuronalen Netzwerks, basierend auf einem Gradienten der Fehlerfunktion bezüglich des zumindest einen Parameters der trainierten Funktion iterativ angepasst werden. Hierdurch kann die Abweichung zwischen den Trainingsabbildungsdaten und den Vergleichsausgabedaten während des Trainings der trainierten Funktion vorteilhafterweise minimiert werden.
  • Vorteilhafterweise weist die trainierte Funktion, insbesondere das neuronale Netzwerk, eine Eingabeschicht und eine Ausgabeschicht auf. Dabei kann die Eingabeschicht zum Empfangen von Eingabedaten ausgebildet sein. Ferner kann die Ausgabeschicht zum Bereitstellen von Abbildungsdaten ausgebildet sein. Dabei kann die Eingabeschicht und/oder die Ausgabeschicht jeweils mehrere Kanäle, insbesondere Neuronen, umfassen.
  • Dabei kann die Bildqualitätsmetrik, insbesondere die trainierte Funktion, dazu ausgebildet sein, einen Subtraktionsbildbereich als Eingabedaten zu verarbeiten und den Bildqualitätsparameter als Ausgabedaten bereitzustellen.
  • Für das Training der Bildqualitätsmetrik, insbesondere der trainierten Funktion, können Trainingseingabedaten aufweisend Trainingssubtraktionsbildbereiche durch Anwenden der Schritte a) bis d) auf erste und zweite Trainingsbilddatensätze bestimmt werden. Dabei können die ersten und zweiten Trainingsbilddatensätze insbesondere alle Merkmale und Eigenschaften der ersten Bilddatensätze und des zumindest einen zweiten Bilddatensatzes aufweisen. Insbesondere können die ersten und/oder zweiten Trainingsbilddatensätze simuliert sein. Des Weiteren kann das Simulieren zumindest eines Teils der ersten und/oder zweiten Bilddatensätze ein Anwenden einer, insbesondere rigiden und/oder nicht-rigiden, Transformation auf einen der ersten und/oder zweiten Bilddatensätze umfassen. Hierdurch können beispielsweise Bewegungsartefakte, welche durch eine Bewegung des Untersuchungsobjekts hervorgerufen werden können, für das Training der trainierten Funktion vorteilhaft simuliert werden.
  • Des Weiteren können die Vergleichsausgabedaten durch Anwenden zumindest einer weiteren Bildqualitätsmetrik auf die Trainingseingabedaten bestimmt werden. Die zumindest eine weitere Bildqualitätsmetrik kann beispielsweise auf einer Entropie und/oder Variation (engl. total variation) der Trainingseingabedaten basieren. Alternativ oder zusätzlich können die Vergleichsausgabedaten durch Annotation der Trainingseingabedaten bestimmt werden, beispielsweise durch eine Eingabe eines Nutzers, welche Eingabe die Bildqualität der Trainingseingabedaten bewertet. Ferner kann das Training insbesondere durch ein überwachtes Training erfolgen.
  • Hierdurch kann ein besonders robustes und präzises Bestimmen der Bildqualitätsparameter im Schritt e) ermöglicht werden.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens kann das medizinische Bildgebungsgerät und/oder das weitere medizinische Bildgebungsgerät als medizinisches Röntgengerät und/oder Computertomographieanlage (CT) und/oder Magnetresonanzanlage (MRT) und/oder Positronenemissionstomographieanlage (PET) und/oder Ultraschallgerät ausgebildet sein.
  • Hierdurch kann eine, insbesondere an die abzubildende Veränderung des Untersuchungsobjekts angepasste, Bildgebungsmodalität zum Aufnehmen und/oder Bereitstellen der ersten Bilddatensätze und/oder des zumindest einen zweiten Bilddatensatzes verwendet werden.
  • Die Erfindung betrifft in einem zweiten Aspekt ein medizinisches Bildgebungsgerät, welches ausgebildet ist, ein vorgeschlagenes Verfahren zum Bereitstellen eines optimalen Subtraktionsdatensatzes auszuführen.
  • Das medizinische Bildgebungsgerät kann beispielsweise als medizinisches Röntgengerät, insbesondere medizinisches C-Bogen-Röntgengerät, und/oder Computertomographieanlage (CT) und/oder Magnetresonanzanlage (MRT) und/oder Positronenemissionstomographieanlage (PET) und/oder Ultraschallgerät ausgebildet sein. Vorteilhafterweise kann das medizinische Bildgebungsgerät eine Bereitstellungseinheit aufweisen, welche zum Ausführen der Schritte des vorgeschlagenen Verfahrens ausgebildet ist.
  • Die Vorteile des vorgeschlagenen medizinischen Bildgebungsgeräts entsprechen im Wesentlichen den Vorteilen des vorgeschlagenen Verfahrens zum Bereitstellen eines optimalen Subtraktionsdatensatzes. Hierbei erwähnte Merkmale, Vorteile oder alternative Ausführungsformen können ebenso auch auf die anderen beanspruchten Gegenstände übertragen werden und umgekehrt.
  • Die Erfindung betrifft in einem dritten Aspekt ein Computerprogrammprodukt mit einem Computerprogramm, welches direkt in einen Speicher einer Bereitstellungseinheit ladbar ist, mit Programmabschnitten, um alle Schritte des vorgeschlagenen Verfahrens zum Bereitstellen eines optimalen Subtraktionsdatensatzes auszuführen, wenn die Programmabschnitte von der Bereitstellungseinheit ausgeführt werden. Das Computerprogrammprodukt kann dabei eine Software mit einem Quellcode, der noch kompiliert und gebunden oder der nur interpretiert werden muss, oder einen ausführbaren Softwarecode umfassen, der zur Ausführung nur noch in die Bereitstellungseinheit zu laden ist. Durch das Computerprogrammprodukt kann das Verfahren zum Bereitstellen eines optimalen Subtraktionsdatensatzes mittels einer Bereitstellungseinheit schnell, identisch wiederholbar und robust ausgeführt werden. Das Computerprogrammprodukt ist so konfiguriert, dass es mittels der Bereitstellungseinheit die erfindungsgemäßen Verfahrensschritte ausführen kann.
  • Das Computerprogrammprodukt ist beispielsweise auf einem computerlesbaren Speichermedium gespeichert oder auf einem Netzwerk oder Server hinterlegt, von wo es in den Prozessor einer Bereitstellungseinheit geladen werden kann, der mit der Bereitstellungseinheit direkt verbunden oder als Teil der Bereitstellungseinheit ausgebildet sein kann. Weiterhin können Steuerinformationen des Computerprogrammprodukts auf einem elektronisch lesbaren Datenträger gespeichert sein. Die Steuerinformationen des elektronisch lesbaren Datenträgers können derart ausgestaltet sein, dass sie bei Verwendung des Datenträgers in einer Bereitstellungseinheit ein erfindungsgemäßes Verfahren durchführen. Beispiele für elektronisch lesbare Datenträger sind eine DVD, ein Magnetband oder ein USB-Stick, auf welchem elektronisch lesbare Steuerinformationen, insbesondere Software, gespeichert ist. Wenn diese Steuerinformationen von dem Datenträger gelesen und in eine Bereitstellungseinheit gespeichert werden, können alle erfindungsgemäßen Ausführungsformen der vorab beschriebenen Verfahren durchgeführt werden.
  • Die Erfindung kann ferner von einem computerlesbaren Speichermedium und/oder elektronisch lesbaren Datenträger ausgehen, auf welchem von einer Bereitstellungseinheit lesbare und ausführbare Programmabschnitte gespeichert sind, um alle Schritte des Verfahrens zum Bereitstellen eines optimalen Subtraktionsdatensatzes auszuführen, wenn die Programmabschnitte von der Bereitstellungseinheit ausgeführt werden.
  • Eine weitgehend softwaremäßige Realisierung hat den Vorteil, dass auch schon bisher verwendete Bereitstellungseinheiten auf einfache Weise durch ein Software-Update nachgerüstet werden können, um auf die erfindungsgemäße Weise zu arbeiten. Ein solches Computerprogrammprodukt kann neben dem Computerprogramm gegebenenfalls zusätzliche Bestandteile, wie z.B. eine Dokumentation und/oder zusätzliche Komponenten, sowie Hardware-Komponenten, wie z.B. Hardware-Schlüssel (Dongles etc.) zur Nutzung der Software, umfassen.
  • Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und werden im Folgenden näher beschrieben. In unterschiedlichen Figuren werden für gleiche Merkmale die gleichen Bezugszeichen verwendet. Es zeigen:
    • 1 bis 4 schematische Darstellungen verschiedener Ausführungsformen eines Verfahrens zum Bereitstellen eines optimalen Subtraktionsdatensatzes,
    • 5 eine schematische Darstellung eines medizinischen C-Bogen-Röntgengeräts beispielhaft für ein vorgeschlagenes medizinisches Bildgebungsgerät.
  • 1 zeigt eine schematische Darstellung einer vorteilhaften Ausführungsform eines vorgeschlagenen Verfahrens zum Bereitstellen eines optimalen Subtraktionsdatensatzes. In einem ersten Schritt a) können erste Bilddatensätze BD1 empfangen werden REC-BD1. Dabei können die ersten Bilddatensätze BD1 ein Untersuchungsobjekt innerhalb einer ersten zeitlichen Phase abbilden. Zudem können die ersten Bilddatensätze BD1 mittels eines medizinischen Bildgebungsgeräts aufgenommen sein. In einem zweiten Schritt b) kann zumindest ein zweiter Bilddatensatz BD2 empfangen werden REC-BD2. Dabei kann der zumindest eine zweite Bilddatensatz BD2 das Untersuchungsobjekt innerhalb einer zweiten zeitlichen Phase abbilden. Zudem kann der zumindest eine zweite Bilddatensatz BD2 mittels desselben oder eines weiteren medizinischen Bildgebungsgeräts aufgenommen sein.
  • Das medizinische Bildgebungsgerät und/oder das weitere medizinische Bildgebungsgerät kann beispielsweise als medizinisches Röntgengerät, insbesondere medizinisches C-Bogen-Röntgengerät, und/oder Computertomographieanlage und/oder Magnetresonanzanlage und/oder Positronenemissionstomographieanlage und/oder Ultraschallgerät ausgebildet sein.
  • Ferner kann der zumindest eine zweite Bilddatensatz BD2 eine Veränderung an dem Untersuchungsobjekt gegenüber der ersten zeitlichen Phase abbilden. Insbesondere kann der zumindest eine zweite Bilddatensatz BD2 ein in der zweiten zeitlichen Phase in dem Untersuchungsobjekt angeordnetes Kontrastmittel als die Veränderung abbilden. In einem dritten Schritt c) kann der zumindest eine zweite Bilddatensatz BD2 in mehrere Bildbereiche BB.j.1 bis BB.j.n aufgeteilt werden DIV-BB. In einem vierten Schritt d) können Subtraktionsbildbereiche DIFF.k.1 bis DIFF.k.n zu den mehreren Bildbereichen BB.j.1 bis BB.j.n erzeugt werden DET-DIFF, indem von jeweils einem der Bildbereiche BB.j.1 bis BB.j.n des zumindest einen zweiten Bilddatensatzes BD2 korrespondierende Bildbereiche cBB.i.1 bis cBB.i.n der ersten Bilddatensätze BD1 subtrahiert werden. Hierfür können zunächst die jeweils korrespondierenden Bildbereiche cBB.i.1 bis cBB.i.n der ersten Bilddatensätze BD1 bestimmt werden DET.cBB. Dabei können die korrespondierenden Bildbereiche cBB.i.1 bis cBB.i.n der ersten Bilddatensätze BD1 beispielsweise anhand der räumlichen Anordnung der jeweiligen Bildpunkte, insbesondere in einem gemeinsamen Koordinatensystem, identifiziert werden. Alternativ oder zusätzlich können die korrespondierenden Bildbereiche cBB.i.1 bis cBB.i.n anhand von geometrischen und/oder anatomischen Merkmalen, welche in den ersten Bilddatensätzen BD1 und dem zumindest einen zweiten Bilddatensatz BD2 abgebildet sind, identifiziert werden.
  • In einem fünften Schritt e) kann jeweils ein Bildqualitätsparameter IQP.k.1 bis IQP.k.n für die Subtraktionsbildbereiche DIFF.k.1 bis DIFF.k.n bestimmt werden. Ferner kann in einem sechsten Schritt f) jeweils ein optimaler Subtraktionsbildbereich ODIFF.1 bis ODIFF.n für die mehreren Bildbereiche BB.j.1 bis BB.j.n des zumindest einen zweiten Bilddatensatzes BD2 durch einen Vergleich COMP-IQP der Bildqualitätsparameter IQP.k.1 bis IQP.k.n bestimmt werden.
  • In einem siebten Schritt g) kann der optimale Subtraktionsdatensatz ODIFF aus den optimalen Subtraktionsbildbereichen ODIFF.1 bis ODIFF.n erzeugt werden GEN-ODIFF. Ferner kann der optimale Subtraktionsdatensatz ODIFF in einem achten Schritt h) bereitgestellt werden PROV-ODIFF.
  • Vorteilhafterweise kann Schritt d) weiterhin einen Schritt d.2) umfassen, wobei die Bildbereiche BB.j.1 bis BB.j.n des zumindest einen zweiten Bilddatensatzes BD2 mit den korrespondierenden Bildbereichen cBB.i.1 bis cBB.i.n der ersten Bilddatensätze registriert werden können.
  • Des Weiteren kann Schritt g) eine Kombination jeweils räumlich angrenzender optimaler Subtraktionsbildbereiche ODIFF.1 bis ODIFF.m in zumindest einem gemeinsamen Randbereich umfassen.
  • Vorteilhafterweise kann das Aufteilen DIV-BB des zumindest einen zweiten Bilddatensatzes BD2 in die mehreren Bildbereiche BB.j.1 bis BB.j.n im Schritt c) basierend auf anatomischen und/oder geometrischen Merkmalen erfolgen, welche in dem zumindest einen zweiten Bilddatensatz BD2 abgebildet sind.
  • Zudem kann der zumindest eine zweite Bilddatensatz BD2 ein in der zweiten zeitlichen Phase im Untersuchungsobjekt angeordnetes Kontrastmittel als die Veränderung abbilden.
  • Des Weiteren können die Bildqualitätsparameter IQP im Schritt e) durch Anwenden einer Bildqualitätsmetrik auf jeweils einen der Subtraktionsbildbereiche DIFF.k.1 bis DIFF.k.n bestimmt werden. Dabei kann die Bildqualitätsmetrik ein Artefaktlevel und/oder Signal-zu-Rauschen-Verhältnis in dem jeweiligen Subtraktionsbildbereich DIFF.k.1 bis DIFF.k.n bewerten. Ferner kann die Bildqualitätsmetrik auf einer künstlichen Intelligenz basieren.
  • In den 1 bis 4 sind die korrespondierenden Bildbereiche cBB.i.1 bis cBB.i.n von einem, insbesondere i-ten, der mehreren ersten Bilddatensätze BD1 stellvertretend für die korrespondierenden Bildbereiche der mehreren ersten Bilddatensätze BD1 dargestellt. Dabei können die ersten Bilddatensätze BD1 beispielsweise jeweils eine Anzahl n von korrespondierenden Bildbereichen aufweisen. Sofern im Schritt b) mehrere zweite Bilddatensätze empfangen werden, sind die Bildbereiche BB.j.1 bis BB.j.n von einem, insbesondere j-ten, der mehreren zweiten Bilddatensätze BD2 stellvertretend für die Bildbereiche der mehreren zweiten Bilddatensätze BD2 dargestellt. Dabei können die zweiten Bilddatensätze BD2, insbesondere analog zu den ersten Bilddatensätzen, jeweils eine Anzahl n von Bildbereichen aufweisen. Zudem sind die Bildqualitätsparameter IQP.k.1 bis IQP.k.n und die Subtraktionsbildbereiche DIFF.k.1 bis DIFF.k.n für eine, insbesondere k-te, Subtraktion korrespondierender Bildbereiche cBB.i.1 bis cBB.i.n eines, insbesondere i-ten, ersten Bilddatensatzes BD1 von jeweils einem der Bildbereiche BB.j.1 bis BB.j.n eines, insbesondere j-ten, zweiten Bilddatensatzes BD2 schematisch dargestellt.
  • In 2 ist eine weitere vorteilhafte Ausführungsform des vorgeschlagenen Verfahrens zum Bereitstellen PROV-ODIFF eines optimalen Subtraktionsdatensatzes ODIFF schematisch dargestellt. Dabei kann eine Anzahl von ersten Bilddatensätzen BD1 bestimmt werden DET-nBD1, welche ersten Bilddatensätze BD1 zum Erzeugen der optimalen Subtraktionsbildbereiche ODIFF.1 bis ODIFF.n verwendet wurden. Ferner kann in einem Schritt f.2) überprüft werden, ob die Anzahl der ersten Bilddatensätze, welche ersten Bilddatensätze BD1 zum Erzeugen der optimalen Subtraktionsbildbereiche ODIFF.1 bis ODIFF.n verwendet wurden, einen vorgegebenen Schwellwert übersteigt. Das Überprüfen kann dabei insbesondere einen Vergleich C1 der Anzahl mit dem vorgegebenen Schwellwert umfassen. Bejahendenfalls Y kann der erste Bilddatensatz BD1, welcher am seltensten zum Erzeugen der optimalen Subtraktionsbildbereiche ODIFF.1 bis ODIFF.n verwendet wurde, identifiziert werden ID-rODIFF. Zudem kann der zumindest eine optimale Subtraktionsbildbereich ODIFF.1 bis ODIFF.n, welcher mittels des identifizierten ersten Bilddatensatzes BD1 erzeugt wurde, durch den Subtraktionsbildbereich DIFF.1 bis DIFF.n ersetzt werden REP-rODIFF, welcher einen nächstbesten Bildqualitätsparameter IQP.1 bis IQP.n aufweist. Ferner kann Schritt f.2) bis zum Erreichen oder Unterschreiten N des Schwellwerts wiederholt ausgeführt werden.
  • 3 zeigt eine schematische Darstellung einer weiteren vorteilhaften Ausführungsform eines vorgeschlagenen Verfahrens zum Bereitstellen PROV-ODIFF eines optimalen Subtraktionsdatensatzes ODIFF. Dabei kann das vorgeschlagene Verfahren weiterhin einen Schritt f.3) umfassen, wobei die optimalen Subtraktionsbildbereiche ODIFF.1 bis ODIFF.n in räumlich zusammenhängende und räumlich isolierte optimale Subtraktionsbildbereiche cl.ODIFF.1 bis cl.ODIFF.1 klassifiziert werden können CL-ODIFF. Beispielsweise können die optimalen Subtraktionsbildbereiche ODIFF.1 bis ODIFF.n in eine Anzahl von 1 räumlich klassifizierten optimalen Subtraktionsbildbereichen cl.ODIFF.1 bis cl.ODIFF.l klassifiziert werden. Dabei können räumlich angrenzende optimale Subtraktionsbildbereiche ODIFF.1 bis ODIFF.n welche mittels desselben ersten Bilddatensatzes BD1 erzeugt wurden, als räumlich zusammenhängend klassifiziert werden CL-ODIFF. Ferner können optimale Subtraktionsbildbereiche ODIFF.1 bis ODIFF.n ohne räumlich angrenzenden optimalen Subtraktionsbildbereich ODIFF.1 bis ODIFF.n, welcher mittels desselben ersten Bilddatensatzes BD1 erzeugt wurde, als räumlich isoliert klassifiziert werden CL-ODIFF. In einem weiteren Schritt f.4) kann jeweils ein räumlicher Anteil A.ODIFF.1 bis A.ODIFF.l der klassifizierten optimalen Subtraktionsbildbereiche CL.ODIFF.1 bis CL.ODIFF.l bestimmt werden DET-A. Ferner kann der jeweilige räumliche Anteil A.ODIFF.1 bis A.ODIFF.l der klassifizierten optimalen Subtraktionsbildbereiche CL.ODIFF.1 bis CL.ODIFF.l mit einem Vergleichsanteil verglichen werden C2. Bei einem Unterschreiten Y des Vergleichsanteils, kann der jeweilige zumindest eine optimale Subtraktionsbildbereich ODIFF.1 bis ODIFF.n durch den Subtraktionsbildbereich DIFF.k.1 bis DIFF.k.n ersetzt werden REP-rODIFF, welcher einen nächstbesten Bildqualitätsparameter IQP.1 bis IQP.n aufweist. Ferner können die Schritte f.3) und f.4) so lange wiederholt ausgeführt werden, bis die räumlichen Anteile A.ODIFF.1 bis A.ODIFF.l der klassifizierten optimalen Subtraktionsbildbereiche CL.ODIFF.1 bis CL.ODIFF.l den Vergleichsanteil erreichen oder übersteigen N.
  • In 4 ist eine weitere vorteilhafte Ausführungsform des vorgeschlagenen Verfahrens zum Bereitstellen PROV-ODIFF eines optimalen Subtraktionsdatensatzes ODIFF schematisch dargestellt. Dabei können im Schritt f) ferner die optimalen Subtraktionsbildbereiche ODIFF.1 bis ODIFF.n in räumlich zusammenhängende und räumlich isolierte optimale Subtraktionsbildbereiche cl.ODIFF.1 bis cl.ODIFF.l klassifiziert werden CL-ODIFF. Ferner können als räumlich isoliert klassifizierte optimale Subtraktionsbildbereiche durch Anwenden einer morphologischen Operation MO in einen als räumlich zusammenhängend klassifizierten optimalen Subtraktionsbildbereich integriert werden. Hierbei können die optimalen Subtraktionsbildbereiche cl.ODIFF.1' bis cl.ODIFF.l', welche durch das Anwenden der morphologischen Operation MO erzeugt wurden, zum Erzeugen GEN-ODIFF des optimalen Subtraktionsdatensatzes ODIFF in Schritt g) bereitgestellt werden.
  • In 5 ist, beispielhaft für ein vorgeschlagenes medizinisches Bildgebungsgerät, ein medizinisches C-Bogen-Röntgengerät 37 schematisch dargestellt. Dabei kann das medizinische C-Bogen-Röntgengerät 37 vorteilhafterweise eine Bereitstellungeinheit PRVS umfassen. Ferner kann das medizinische C-Bogen-Röntgengerät 37, insbesondere die Bereitstellungseinheit PRVS, zur Ausführung eines vorgeschlagenen Verfahrens zum Bereitstellen PROV-ODIFF eines optimalen Subtraktionsdatensatzes ODIFF ausgebildet sein.
  • Hierbei umfasst das medizinische C-Bogen-Röntgengerät 37 vorteilhafterweise einen Detektor 34, insbesondere einen Röntgendetektor, und eine Röntgenquelle 33. Zur Aufnahme der ersten Bilddatensätze BD1 und/oder des zumindest einen zweiten Bilddatensatzes BD2 kann ein Arm 38 des C-Bogen-Röntgengerätes 37 beweglich um ein oder mehrere Achsen herum gelagert sein. Ferner kann das medizinische C-Bogen-Röntgengerät 37 eine Bewegungsvorrichtung 39 umfassen, welche eine Bewegung des C-Bogen-Röntgengerätes 37 im Raum ermöglicht.
  • Zur Aufnahme der ersten Bilddatensätze BD1 und/oder des zumindest einen zweiten Bilddatensatzes BD2 von einem, auf einer Patientenlagerungseinrichtung 32 angeordneten, Untersuchungsobjekts 31, kann die Bereitstellungseinheit PRVS ein Signal 24 an die Röntgenquelle 33 senden. Daraufhin kann die Röntgenquelle 33 ein Röntgenstrahlenbündel aussenden. Beim Auftreffen des Röntgenstrahlenbündels, nach einer Wechselwirkung mit dem Untersuchungsbereich, auf einer Oberfläche des Detektors 34, kann der Detektor 34 ein Signal 21 an die Bereitstellungseinheit PRVS senden. Die Bereitstellungseinheit PRVS kann beispielsweise anhand des Signals 21 die die ersten Bilddatensätze BD1 und/oder den zumindest einen zweiten Bilddatensatz BD2 empfangen REC-BD1, REC-BD2.
  • Des Weiteren kann das medizinische C-Bogen-Röntgengerät 37 eine Eingabeeinheit 42, beispielsweise eine Tastatur, und/ oder eine Darstellungseinheit 41, beispielsweise einen Monitor und/oder Display, umfassen. Die Eingabeeinheit 42 kann vorzugsweise in die Darstellungseinheit 41 integriert sein, beispielsweise bei einem kapazitiven und/oder resistiven Eingabedisplay. Dabei kann durch eine Eingabe des Nutzers an der Eingabeeinheit 42 eine Steuerung des medizinischen C-Bogen-Röntgengeräts 37, insbesondere des vorgeschlagenen Verfahrens zum Bereitstellen PROV-ODIFF eines optimalen Subtraktionsdatensatzes ODIFF, ermöglicht werden. Hierfür kann die Eingabeeinheit 42 beispielsweise ein Signal 26 an die Bereitstellungseinheit PRVS senden.
  • Ferner kann die Darstellungseinheit 41 dazu ausgebildet sein, Informationen und/oder graphische Darstellungen von Informationen des medizinischen C-Bogen-Röntgengeräts 37 und/oder der Bereitstellungseinheit PRVS und/oder weiterer Komponenten anzuzeigen. Hierfür kann die Bereitstellungseinheit PRVS beispielsweise ein Signal 25 an die Darstellungseinheit 41 senden. Insbesondere kann die Darstellungseinheit 41 zur Anzeige einer graphischen Darstellung der ersten Bilddatensätze BD1 und/oder des zumindest einen zweiten Bilddatensatzes BD2 und/ oder des optimalen Subtraktionsdatensatzes ODIFF ausgebildet sein.
  • Die in den beschriebenen Figuren enthaltenen schematischen Darstellungen bilden keinerlei Maßstab oder Größenverhältnis ab.
  • Es wird abschließend noch einmal darauf hingewiesen, dass es sich bei den vorhergehend detailliert beschriebenen Verfahren sowie bei den dargestellten Vorrichtungen lediglich um Ausführungsbeispiele handelt, welche vom Fachmann in verschiedenster Weise modifiziert werden können, ohne den Bereich der Erfindung zu verlassen. Weiterhin schließt die Verwendung der unbestimmten Artikel „ein“ bzw. „eine“ nicht aus, dass die betreffenden Merkmale auch mehrfach vorhanden sein können. Ebenso schließen die Begriffe „Einheit“ und „Element“ nicht aus, dass die betreffenden Komponenten aus mehreren zusammenwirkenden Teil-Komponenten bestehen, die gegebenenfalls auch räumlich verteilt sein können.

Claims (14)

  1. Verfahren zum Bereitstellen (PROV-ODIFF) eines optimalen Subtraktionsdatensatzes (ODIFF), umfassend: a) Empfangen (REC-BD1) von ersten Bilddatensätzen (BD1), wobei die ersten Bilddatensätze (BD1) ein Untersuchungsobjekt (31) innerhalb einer ersten zeitlichen Phase abbilden, wobei die ersten Bilddatensätze (BD1) mittels eines medizinischen Bildgebungsgeräts aufgenommen sind, b) Empfangen (REC-BD2) zumindest eines zweiten Bilddatensatzes (BD2), wobei der zumindest eine zweite Bilddatensatz (BD2) das Untersuchungsobjekt (31) innerhalb einer zweiten zeitlichen Phase abbildet, wobei der zumindest eine zweite Bilddatensatz (BD2) mittels desselben oder eines weiteren medizinischen Bildgebungsgeräts aufgenommenen ist, wobei der zumindest eine zweite Bilddatensatz (BD2) eine Veränderung an dem Untersuchungsobjekt (31) gegenüber der ersten zeitlichen Phase abbildet, c) Aufteilen (DIV-BB) des zumindest einen zweiten Bilddatensatzes (BD2) in mehrere räumliche Bildbereiche (BB.j.1, BB.j.n), d) Erzeugen (DET-DIFF) von Subtraktionsbildbereichen (DIFF.k.1, DIFF.k.n) zu den mehreren Bildbereichen (BB.j.1, BB.j.n), indem von jeweils einem der Bildbereiche (BB.j.1, BB.j.n) des zumindest einen zweiten Bilddatensatzes (BD2) korrespondierende Bildbereiche (cBB.i.1, cBB.i.n) der ersten Bilddatensätze (BD1) subtrahiert werden, e) Bestimmen (DET-IQP) jeweils eines Bildqualitätsparameters (IQP.k.1, IQP.k.n) für die Subtraktionsbildbereiche (DIFF.k.1, DIFF.k.n), f) Bestimmen jeweils eines optimalen Subtraktionsbildbereichs (ODIFF.1, ODIFF.n) für die mehreren Bildbereiche (BB.j.1, BB.j.n) des zumindest einen zweiten Bilddatensatzes (BD2) durch einen Vergleich (COMP-IQP) der Bildqualitätsparameter (IQP.k.1, IQP.k.n), g) Erzeugen (GEN-ODIFF) des optimalen Subtraktionsdatensatzes (ODIFF) aus den optimalen Subtraktionsbildbereichen (ODIFF.1, ODIFF.n), h) Bereitstellen (PROV-ODIFF) des optimalen Subtraktionsdatensatzes (ODIFF).
  2. Verfahren nach Anspruch 1, wobei Schritt f) weiterhin umfasst: f.2) Überprüfen (C1), ob eine Anzahl von ersten Bilddatensätzen, welche ersten Bilddatensätze zum Erzeugen der optimalen Subtraktionsbildbereiche (ODIFF.1, ODIFF.n) verwendet wurden, einen vorgegebenen Schwellwert übersteigt, wobei bejahendenfalls (Y) der erste Bilddatensatz, welcher am seltensten zum Erzeugen der optimalen Subtraktionsbildbereiche (ODIFF.1, ODIFF.n) verwendet wurde, identifiziert wird (ID-rODIFF), wobei der zumindest eine optimale Subtraktionsbildbereich, welcher mittels des identifizierten ersten Bilddatensatzes erzeugt wurde, durch den Subtraktionsbildbereich ersetzt wird (REP-rODIFF), welcher einen nächstbesten Bildqualitätsparameter aufweist, wobei Schritt f.2) bis zum Erreichen oder Unterschreiten (N) des Schwellwerts wiederholt ausgeführt wird.
  3. Verfahren nach einem der vorangehenden Ansprüche, wobei Schritt f) weiterhin umfasst: f.3) Klassifizieren (CL-ODIFF) der optimalen Subtraktionsbildbereiche (ODIFF.1, ODIFF.n) in räumlich zusammenhängende und räumlich isolierte optimale Subtraktionsbildbereiche (cl.ODIFF.1, cl.ODIFF.1), wobei räumlich angrenzende optimale Subtraktionsbildbereiche, welche mittels desselben ersten Bilddatensatzes erzeugt wurden, als räumlich zusammenhängend klassifiziert werden, wobei optimale Subtraktionsbildbereiche ohne räumlich angrenzenden optimalen Subtraktionsbildbereich, welcher mittels desselben ersten Bilddatensatzes erzeugt wurde, als räumlich isoliert klassifiziert werden, f.4) Vergleich (C2) jeweils eines räumlichen Anteils (A.ODIFF.1, A.ODIFF.l) der klassifizierten optimalen Subtraktionsbildbereiche (cl.ODIFF.1, cl.ODIFF.l) mit einem Vergleichsanteil, wobei bei einem Unterschreiten (Y) des Vergleichsanteils der jeweilige zumindest eine optimale Subtraktionsbildbereich durch den Subtraktionsbildbereich ersetzt wird (REP-rODIFF), welcher einen nächstbesten Bildqualitätsparameter aufweist, wobei die Schritte f.3) und f.4) so lange wiederholt ausgeführt wird, bis die räumlichen Anteile (A.ODIFF.1, A.ODIFF.l) der klassifizierten optimalen Subtraktionsbildbereiche (cl.ODIFF.1, cl.ODIFF.l) den Vergleichsanteil erreichen oder übersteigen (N).
  4. Verfahren nach Anspruch 3, wobei als räumlich isoliert klassifizierte optimale Subtraktionsbildbereiche durch Anwenden einer morphologischen Operation (MO) in einen als räumlich zusammenhängend klassifizierten optimalen Subtraktionsbildbereich integriert werden.
  5. Verfahren nach Anspruch 1 oder 2, wobei Schritt f) weiterhin umfasst: Klassifizieren (CL-ODIFF) der optimalen Subtraktionsbildbereiche (ODIFF.1, ODIFF.n) in räumlich zusammenhängende und räumlich isolierte optimale Subtraktionsbildbereiche (cl.ODIFF.1, cl.ODIFF.l), wobei räumlich angrenzende optimale Subtraktionsbildbereiche, welche mittels desselben ersten Bilddatensatzes erzeugt wurden, als räumlich zusammenhängend klassifiziert werden, wobei optimale Subtraktionsbildbereiche ohne räumlich angrenzenden optimalen Subtraktionsbildbereich, welcher mittels desselben ersten Bilddatensatzes erzeugt wurde, als räumlich isoliert klassifiziert werden, wobei als räumlich isoliert klassifizierte optimale Subtraktionsbildbereiche durch Anwenden einer morphologischen Operation (MO) in einen als räumlich zusammenhängend klassifizierten optimalen Subtraktionsbildbereich integriert werden.
  6. Verfahren nach einem der vorangehenden Ansprüche, wobei Schritt d) weiterhin umfasst: d.2) Registrieren der Bildbereiche (BB.j.1, BB.j.n) des zumindest einen zweiten Bilddatensatzes (BD2) mit den korrespondierenden Bildbereichen (cBB.i.1, cBB.i.n) der ersten Bilddatensätze (BD1).
  7. Verfahren nach einem der vorangehenden Ansprüche, wobei Schritt g) weiterhin eine Kombination jeweils räumlich angrenzender optimaler Subtraktionsbildbereiche (ODIFF.1, ODIFF.n) in zumindest einem gemeinsamen Randbereich umfasst.
  8. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Aufteilen (DIV-BB) des zumindest einen zweiten Bilddatensatzes (BD2) in die mehreren Bildbereiche (BB.j.1, BB.j.n) im Schritt c) basierend auf anatomischen und/oder geometrischen Merkmalen erfolgt, welche in dem zumindest einen zweiten Bilddatensatz (BD2) abgebildet sind.
  9. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der zumindest eine zweite Bilddatensatz (BD2) ein in der zweiten zeitlichen Phase im Untersuchungsobjekt (31) angeordnetes Kontrastmittel als die Veränderung abbildet.
  10. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Bildqualitätsparameter (IQP.k.1, IQP.k.n) im Schritt e) durch Anwenden einer Bildqualitätsmetrik auf jeweils einen der Subtraktionsbildbereiche (DIFF.k.1, DIFF.k.n) bestimmt werden (DET-IQP), wobei die Bildqualitätsmetrik ein Artefaktlevel und/oder Signal-zu-Rauschen-Verhältnis in dem jeweiligen Subtraktionsbildbereich (DIFF.k.1, DIFF.k.n) bewertet.
  11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass die Bildqualitätsmetrik auf einer künstlichen Intelligenz basiert.
  12. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das medizinische Bildgebungsgerät und/oder das weitere medizinische Bildgebungsgerät als medizinisches Röntgengerät und/oder Computertomographieanlage und/oder Magnetresonanzanlage und/oder Positronenemissionstomographieanlage und/oder Ultraschallgerät ausgebildet ist.
  13. Medizinisches Bildgebungsgerät, ausgebildet ein Verfahren nach einem der Ansprüche 1 bis 12 auszuführen.
  14. Computerprogrammprodukt, welches ein Programm umfasst und direkt in einen Speicher einer programmierbaren Recheneinheit einer Bereitstellungseinheit (PRVS) ladbar ist, mit Programmmitteln, um ein Verfahren nach einem der Ansprüche 1 bis 12 auszuführen, wenn das Programm in der Recheneinheit der Bereitstellungseinheit (PRVS) ausgeführt wird.
DE102020214319.6A 2020-11-13 2020-11-13 Bereitstellen eines optimalen Subtraktionsdatensatzes Active DE102020214319B3 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102020214319.6A DE102020214319B3 (de) 2020-11-13 2020-11-13 Bereitstellen eines optimalen Subtraktionsdatensatzes
US17/510,935 US11455711B2 (en) 2020-11-13 2021-10-26 Providing an optimum subtraction data set
CN202111338735.1A CN114469145B (zh) 2020-11-13 2021-11-12 提供最佳减影数据组

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020214319.6A DE102020214319B3 (de) 2020-11-13 2020-11-13 Bereitstellen eines optimalen Subtraktionsdatensatzes

Publications (1)

Publication Number Publication Date
DE102020214319B3 true DE102020214319B3 (de) 2022-01-20

Family

ID=79021415

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020214319.6A Active DE102020214319B3 (de) 2020-11-13 2020-11-13 Bereitstellen eines optimalen Subtraktionsdatensatzes

Country Status (3)

Country Link
US (1) US11455711B2 (de)
CN (1) CN114469145B (de)
DE (1) DE102020214319B3 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021208272A1 (de) 2021-07-30 2023-02-02 Siemens Healthcare Gmbh Optimale Gewichtung von DSA-Maskenbildern

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230215008A1 (en) * 2022-01-05 2023-07-06 GE Precision Healthcare LLC System and method for follow-up local feature matching based on multiple functional-anatomical feature layers

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100128991A1 (en) 2007-04-23 2010-05-27 Koninklijke Philips Electronics N.V. Spatial-temporal warping of different pre-captured medical images
US20180279983A1 (en) 2017-03-28 2018-10-04 Canon Medical Systems Corporation Medical image processing apparatus, medical image processing method, and x-ray diagnostic apparatus
DE102019202514A1 (de) 2019-02-25 2020-08-27 Siemens Healthcare Gmbh Verfahren zur digitalen Subtraktionsangiographie, Röntgeneinrichtung, Computerprogramm und elektronisch lesbarer Datenträger

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL8603059A (nl) * 1986-12-01 1988-07-01 Philips Nv Inrichting en werkwijze met bewegingsartefactreductie voor verschilbeeldbepaling.
JP4294880B2 (ja) * 2000-03-06 2009-07-15 富士フイルム株式会社 画像の位置合わせ方法および装置
DE10317367B4 (de) * 2003-04-15 2007-01-11 Siemens Ag Verfahren zur Durchführung der digitalen Subtraktionsangiographie unter Verwendung nativer Volumendatensätze
JP5100145B2 (ja) * 2006-06-20 2012-12-19 株式会社東芝 磁気共鳴イメージング装置
US8463012B2 (en) * 2011-10-14 2013-06-11 Siemens Medical Solutions Usa, Inc. System for comparison of medical images
DE102015200850B4 (de) * 2015-01-20 2019-08-22 Siemens Healthcare Gmbh Verfahren zur Auswertung von medizinischen Bilddaten
DE102016221220B4 (de) * 2016-10-27 2023-09-28 Siemens Healthcare Gmbh Verfahren zur Ermittlung eines darzustellenden Überlagerungsbildes, Darstellungseinrichtung, Computerprogramm und Datenträger
TW201903708A (zh) * 2017-06-06 2019-01-16 國立陽明大學 數位減影血管攝影圖像的分析方法與系統

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100128991A1 (en) 2007-04-23 2010-05-27 Koninklijke Philips Electronics N.V. Spatial-temporal warping of different pre-captured medical images
US20180279983A1 (en) 2017-03-28 2018-10-04 Canon Medical Systems Corporation Medical image processing apparatus, medical image processing method, and x-ray diagnostic apparatus
DE102019202514A1 (de) 2019-02-25 2020-08-27 Siemens Healthcare Gmbh Verfahren zur digitalen Subtraktionsangiographie, Röntgeneinrichtung, Computerprogramm und elektronisch lesbarer Datenträger

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021208272A1 (de) 2021-07-30 2023-02-02 Siemens Healthcare Gmbh Optimale Gewichtung von DSA-Maskenbildern

Also Published As

Publication number Publication date
US20220156904A1 (en) 2022-05-19
CN114469145B (zh) 2023-05-26
CN114469145A (zh) 2022-05-13
US11455711B2 (en) 2022-09-27

Similar Documents

Publication Publication Date Title
EP3185215B1 (de) Automatisierte ermittlung von konturen auf basis einer iterativen rekonstruktion
DE102011087127B4 (de) Bestimmung von Aufnahmeparametern bei einer Dual-Energy Tomosynthese
DE102008014710A1 (de) Multimodalitätsmammographie - Rekonstrukionsverfahren und System
DE102011087337A1 (de) Verfahren zur Rekonstruktion eines zweidimensionale virtuelle Röntgenbilder enthaltenden Rekonstruktionsdatensatzes
DE102011083647A1 (de) Verfahren, Rechensystem und CT-System zur Erzeugung eines bewegungskompensierten CT-Bilddatensatzes eines sich teilweise und zyklisch bewegenden Untersuchungsobjektes
DE102019212929A1 (de) Registrieren eines 2D Bildes mit einem 3D Bild
DE102020214319B3 (de) Bereitstellen eines optimalen Subtraktionsdatensatzes
DE102017200930A1 (de) Verfahren zur Ermittlung eines dreidimensionalen Bilddatensatzes
DE102010013498B4 (de) Verfahren zum Ermitteln von dreidimensionalen Volumendaten, Bildgebungsvorrichtung und Datenträger
DE102013202313A1 (de) Verfahren und Vorrichtung zur Korrektur von Bewegungsartefakten bei einem computertomographischen Bild
EP3797692B1 (de) Verfahren und vorrichtung zur ansteuerung eines medizinischen bildgebungsgeräts
DE102015210912A1 (de) Rekonstruktion eines Ergebnisbildes unter Berücksichtigung von Kontur-Signifikanz-Daten
DE102016215105A1 (de) Verfahren und Datenverarbeitungseinheit zum Ermitteln eines Akquisitionsdatenverarbeitungsalgorithmus
DE102020216017A1 (de) Bereitstellen von korrigierten medizinischen Bilddaten
DE102020201928A1 (de) Verfahren zur Deformationskorrektur
DE102019216745A1 (de) Anonymisierung von medizinischen Bilddaten
DE102019209790A1 (de) Verfahren zur Bereitstellung eines Bewertungsdatensatzes von einem ersten medizinischen dreidimensionalen Computertomographiedatensatz
DE69911958T2 (de) Selbst segmentierung/konturgewinnungsverfahren
DE102019217576B4 (de) Identifizieren und Bereitstellen von Fehlausrichtungsbildmerkmalen
DE102020205039B3 (de) Bereitstellen eines dynamischen Maskenbildes
EP3637365B1 (de) Verfahren zum bewerten einer verlässlichkeit eines ct-volumenbildes, computerprogramm und computerlesbares speichermedium
DE102021210283A1 (de) Erzeugen eines Zwischenbildes
DE102021201809A1 (de) Erzeugen von Röntgenbilddaten auf Basis einer ortsabhängig variierenden Gewichtung von Basismaterialien
DE102020214323A1 (de) Bereitstellen eines optimalen Subtraktionsdatensatzes
DE102019218770A1 (de) Bereitstellen eines Gefäßbilddatensatzes

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0005000000

Ipc: A61B0006020000

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE