[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE19611990C2 - Verfahren und Vorrichtung zur Erzeugung von großen, zusammengesetzten Ultraschallbildern - Google Patents

Verfahren und Vorrichtung zur Erzeugung von großen, zusammengesetzten Ultraschallbildern

Info

Publication number
DE19611990C2
DE19611990C2 DE19611990A DE19611990A DE19611990C2 DE 19611990 C2 DE19611990 C2 DE 19611990C2 DE 19611990 A DE19611990 A DE 19611990A DE 19611990 A DE19611990 A DE 19611990A DE 19611990 C2 DE19611990 C2 DE 19611990C2
Authority
DE
Germany
Prior art keywords
image
motion vectors
image motion
local
local image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE19611990A
Other languages
English (en)
Other versions
DE19611990A1 (de
Inventor
Lee Weng
Arun P Tirumalai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Medical Solutions USA Inc
Original Assignee
Siemens Medical Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Medical Systems Inc filed Critical Siemens Medical Systems Inc
Publication of DE19611990A1 publication Critical patent/DE19611990A1/de
Application granted granted Critical
Publication of DE19611990C2 publication Critical patent/DE19611990C2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52074Composite displays, e.g. split-screen displays; Combination of multiple images or of images and alphanumeric tabular information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0866Detecting organic movements or changes, e.g. tumours, cysts, swellings involving foetal diagnosis; pre-natal or peri-natal diagnosis of the baby
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8979Combined Doppler and pulse-echo imaging systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • G06T7/238Analysis of motion using block-matching using non-full search, e.g. three-step search
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/50Systems of measurement, based on relative movement of the target
    • G01S15/52Discriminating between fixed and moving objects or between objects moving at different speeds
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8993Three dimensional imaging systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/5206Two-dimensional coordinated display of distance and direction; B-scan display
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52068Stereoscopic displays; Three-dimensional displays; Pseudo 3D displays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52073Production of cursor lines, markers or indicia by electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Pregnancy & Childbirth (AREA)
  • Gynecology & Obstetrics (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Length Measuring Devices Characterised By Use Of Acoustic Means (AREA)
  • Investigating Or Analyzing Materials By The Use Of Ultrasonic Waves (AREA)

Description

Die Erfindung bezieht sich auf eine Ultraschall-Bildgabe zu Diagnosezwecken und insbesondere auf ein Ultraschall-Abbildungssystem, das ein Bild mit einem erweiterten Gesichtsfeld dadurch erzeugt, daß die Bewegung zwischen aufeinanderfolgenden Bildrah­ men bzw. Einzelbildern korrigiert wird.
Methoden zur Ultraschall-Bildgabe werden üblicherweise zur Erzeugung von zweidimen­ sionalen, diagnostischen Bildern von internen Merkmalen bzw. Zuständen eines Objekts, wie etwa einer menschlichen Anatomie, eingesetzt. Ein für medizinische Zwecke ausgeleg­ tes Diagnosesystem mit Ultraschall-Bildgabe erzeugt Bilder von internen Geweben eines menschlichen Körpers, indem ein akustisches Wandlerelement oder eine Anordnung von akustischen Wandlerelementen zur Erzeugung von kurzen Ultraschallimpulsen, die in den Körper wandern, angeregt werden. Die Ultraschall-Impulse rufen Echos hervor, wenn sie von Körpergeweben, die für die sich fortpflanzenden Ultraschallimpulse als Diskontinuitä­ ten oder Änderungen der Impedanz erscheinen, zurückreflektiert werden. Diese Echos kehren zu dem Wandler zurück und werden in elektrische Signale rückumgewandelt, die zur Erzeugung eines Querschnittsbilds der Gewebe verstärkt und dekodiert werden. Diese Ultraschall-Bildgabesysteme sind für das medizinische Gebiet von großer Bedeutung, da sie für die Ärzte Bilder von den internen Gestaltungsmerkmalen eines menschlichen Körpers mit hoher Auflösung und in Echtzeit bereitstellen, ohne daß zu invasiven Unter­ suchungsmethoden, wie etwa chirurgischen Eingriffen, Zuflucht genommen werden muß.
Der akustische Wandler, der die Ultraschallimpulse aussendet, weist typischerweise ein piezoelektrisches Element oder eine Matrix aus piezoelektrischen Elementen auf. Es ist bekannt, daß sich ein piezoelektrisches Element bei dem Anlegen eines elektrischen Signals verformt, wodurch die Ultraschallimpulse erzeugt werden. In gleichartiger Weise rufen die empfangenen Echos eine Verformung des piezoelektrischen Elements und die Erzeugung des entsprechenden, elektrischen Signals durch dieses hervor. Der akustische Wandler ist häufig in einer in der Hand zu haltenden Einrichtung untergebracht, die dem Arzt große Freiheit zur einfachen Handhabung bzw. Bewegung des Wandlers in einem interessieren­ den Flächenbereich gibt. Der Wandler kann dann über ein Kabel elektrisch mit einer zentralen Steuereinrichtung verbunden werden, die die elektrischen Signale erzeugt und verarbeitet. Die Steuereinrichtung gibt ihrerseits die Bildinformation an eine Sichtstation zur Echtzeitbetrachtung, wie etwa ein Video-Anzeigeterminal, ab. Die Bildinformation kann auch gespeichert werden, so daß weitere Ärzte die diagnostischen Bilder zu einem späteren Zeitpunkt betrachten können.
Die einzelnen Bilder, die durch derartige Ultraschall-Abbildungssysteme erzeugt werden, weisen diskrete Einzelbilder auf, wobei jedes dieser Einzel­ bilder ein Gesichtsfeld oder einen Ansichtsbereich aufweist, das bzw. der durch die relativ schmale Region begrenzt ist, die durch die Ultraschallimpulse überquert wird. Wenn der Wandler entlang der Oberfläche des Körpers von Hand bewegt wird, um Bilder einer benachbarten Region in dem menschlichen Körper zu erhalten, wird jedes vorhergehende Bild auf der Sichtstation durch ein neues Bild ersetzt, das durch das begrenzte Gesichtsfeld des Wandlers definiert ist. Auch wenn ein erfahrener Arzt üblicherweise die diskreten Einzelbilder dahingehend interpretieren kann, daß er ein klares, mentales Bild der gesamten Region erhält, die von dem Wandler überquert wird, können die einzelnen Einzelbilder nicht in einfacher Weise zusammengefügt werden, um ein einziges, zusammenhängendes Bild zu erzeugen. Dies kann einen erheblichen Nachteil bei herkömmlichen Systemen mit Ultraschallbildgabe darstellen, da es dem Arzt nicht stets möglich sein wird, den gesamten Zustand des Körpers lediglich durch Betrachtung allein der einzelnen Einzelbilder vollstän­ dig zu erkennen. In manchen extremen Fällen kann eine wichtige Information, die den Zustand der Körpergewebe betrifft, übersehen werden, was möglicherweise ernsthafte Konsequenzen für den Patienten haben kann.
Es wurde bereits früher gezeigt, daß ein zusammengesetztes Ultraschallbild in Echtzeit dadurch erzeugt werden kann, daß sogenannte zusammengesetzte B-Scanner bzw. B- Verbundscanner eingesetzt werden. Diese B-Scanner arbeiten mit einem Wandler, der an einer Armanordnung angebracht ist, die erzwingt, daß sich der Wandler entlang einer einzigen Ebene oder Achse bewegt. Es kann entweder die Armanordnung oder das Wandlerelement selbst mit Fühleinrichtungen versehen sein, die die präzise Position des Wandlers erfassen. Diese positionsmäßige Information kann dann dazu eingesetzt werden, jedes der diskreten Einzelbilder miteinander zu einem einzelnen, zusammengesetzten Bild ausgerichtet zusammenzufassen. In der US-4 431 007 mit dem Titel "Referenced Real- Time Ultrasonic Image Display", erteilt für Amazeen et al., ist ein Beispiel eines B- Verbundscanners offenbart, der mit Winkelerfassungselementen arbeitet, die an einer Armanordnung vorgesehen sind. Trotz dieser möglichen Verbesserung in der Technik sind herkömmliche B-Verbundscanner umständlich und unflexibel zu bedienen, und zwar hauptsächlich aufgrund der relativ sperrigen, mechanischen Armanordnung. Weiterhin werden durch die Erfassungseinrichtungen die Komplexität und die Kosten des Ultraschall- Bildgabesystems beträchtlich erhöht. Es ist offensichtlich, daß der Einsatz solcher bekann­ ter Techniken bei modernen, in der Hand gehaltenen Ultraschallwandlern im Hinblick auf diese erheblichen Nachteile völlig unpraktisch wäre.
Es ist daher ein starkes Bedürfnis hinsichtlich eines Verfahrens vorhanden, mit dem jedes der diskreten Einzelbilder, die durch ein Ultraschall-Bildgabesystem erzeugt werden, zu einem einzigen Bild zusammengefaßt werden kann. Das Verfahren sollte mit modernen, in der Hand gehaltenen Ultraschallwandlern kompatibel sein, ohne die in der Hand gehaltenen Wandler mit Positionserfassungselementen zu belasten, die die Kosten, das Gewicht und die Komplexität von solchen Bildgabesystemen erhöhen.
Mit der vorliegenden Erfindung wird ein Verfahren und eine Vorrichtung zur Erzeugung eines großen, zusammengesetzten Ultraschallbilds bzw. eines großen Ultraschall-Ver­ bundbilds geschaffen, das im folgenden auch als Bild mit erweitertem oder verbreitertem Gesichtsfeld bzw. Betrachtungsbereich (XFOV-Bild = "Extended Field of View"-Bild) bezeichnet wird. Bei dem Verfahren und der Vorrichtung wird ein Bild mit verbreitertem Gesichtsfeld unter Bildregistrierung bzw. Bildausrichtung eingesetzt (IR-XFOV = "Image Registration"-XFOV), um die Notwendigkeit hinsichtlich Positionserfassungseinrichtun­ gen insgesamt zu beseitigen. Bei dem Verfahren und der Vorrichtung zur Bildausrichtung werden aufeinanderfolgende, sich bewegende Einzelbilder bzw. Einzelbilder mit Bewe­ gungsbild korreliert, um eine Information hinsichtlich der Wandlerbewegung für die Erzeugung des Bilds mit verbreitertem Gesichtsfeld zu gewinnen.
Insbesondere wird bei dem erfindungsgemäßen Verfahren und der erfindungsgemäßen Vorrichtung die erfindungsgemäß erkannte Tatsache ausgenutzt, daß Ultraschallbilder, die bei in Echtzeit durchgeführten Abtastvorgängen erhalten werden, von einem zum nächsten Einzelbild jeweils stark korreliert sind. Auf der Grundlage dieser Erkenntnis werden die einzelnen Bilder in mehrere kleinere Unter-Bildregionen (Sub-Bildbereiche) unterteilt, und es wird ein sehr schneller und robuster bzw. störunanfälliger Algorithmus zur Erfassung einer Bildbewegung eingesetzt, um die Bewegung des Unterbilds zu messen. Bei diesem Algorithmus wird eine Suchstrategie mit schneller, adaptiver, grober Suche/feiner Suche mit Minimal-Summe-Absolut-Differenz-Strategie (MSAD = minimum-sum-absolute- difference) eingesetzt, um eine anfängliche Schätzung der lokalen Bewegungsvektoren bzw. Vektoren für die lokale Bewegung zu berechnen. Die anfängliche Schätzung wird mit zwei Meßparametern unter Einsatz einer Fuzzy-Logik-Technik bzw. mit unscharfer Logik arbei­ tender Technik zusammengefaßt, um eine abschließende Schätzung der lokalen Bewegungs­ vektoren zu gewinnen. Die abschließenden, lokalen Bewegungsvektoren werden einem Prozeß mit kleinsten Quadraten (Least-Squares-Prozeß) bzw. einer Verarbeitung unter Ermittlung der kleinsten Quadrate unterzogen, um eine globale Bildbewegung zu schätzen. Schließlich werden durch eine schnelle Anzeigetechnik zusammengesetzte Bilder mit erweitertem Gesichtsfeld auf der Grundlage der ermittelten, globalen Bildbewegung er­ zeugt.
Die Erfindung wird nachstehend anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen näher beschrieben. Es zeigen:
Fig. 1 stellt eine partielle, perspektivische Ansicht eines Ultraschall-Bildgabesystems dar, das für eine in Echtzeit erfolgende Anzeige eines als Beispiel dienenden fötalen Körpers in einer klinischen Umgebung ausgelegt ist,
Fig. 2 zeigt ein Blockschaltbild, das eine Bildausrichtung auf der Grundlage des Ver­ fahrens zur Erweiterung des Gesichtsfelds bzw. Betrachtungswinkels in Über­ einstimmung mit dieser Erfindung darstellt,
Fig. 3 zeigt ein Blockschaltbild, das eine Suche hinsichtlich der Minimal-Summe- Absoluter-Differenz bei dem Verfahren zur Bildausrichtung veranschaulicht,
Fig. 4 ist ein Blockschaltbild, das eine alternative Ausführungsform der Suche der Minimal-Summe-Absoluter-Differenz veranschaulicht,
Fig. 5 zeigt eine dreidimensionale, graphische Darstellung, in der die Gewinnung eines Qualitätsfaktors bezüglich der Suche der Minimal-Summe-Absoluter-Differenz veranschaulicht ist,
Fig. 6 ist ein Blockschaltbild, das eine Gewinnung eines Faktors der Abweichung des lokalen Vektors für die Suche der Minimal-Summe-Absoluter-Differenz ver­ anschaulicht, und
Fig. 7A bis 7D sind graphische Darstellungen, die auf Unschärfelogik (Fuzzy-Logik) be­ ruhende Mitglieder- bzw. Zuordnungsfunktionen für den Qualitätsfaktor und den Abweichungsfaktor zur Gewinnung eines Steuerwerts und eines einzigen numerischen Ausgangswerts veranschaulichen.
Die vorliegende Erfindung befriedigt das erhebliche Bedürfnis hinsichtlich eines Ver­ fahrens und einer Vorrichtung, durch das bzw. durch die jedes von diskreten bzw. einzel­ nen Einzelbildern, die durch ein mit Ultraschall arbeitendes Bildgabesystem erzeugt werden, zu einem einzigen, zusammengesetzten Bild zusammengefaßt werden können. Bei dem Verfahren zur Bildausrichtung und der Bildausrichtungsvorrichtung gemäß der vorliegenden Erfindung werden aufeinanderfolgende Bildrahmen bzw. Einzelbilder mitein­ ander korreliert, um eine Information hinsichtlich der Wandlerbewegung für eine Bildgabe mit erweitertem Gesichtsfeld zu gewinnen. Hierbei ist von Bedeutung, daß die Bewegungs­ information gewonnen wird, ohne den in der Hand gehaltenen Wandler mit Positions­ erfassungseinrichtungen zu belasten, die andernfalls die Kosten, das Gewicht und den Komplexitätsgrad von derartigen Ultraschall-Bildgabesystemen vergrößern würden. In der nachstehenden, detaillierten Beschreibung werden gleiche Bezugszeichen zur Bezeichnung von gleichen, in einer oder mehrerer der Figuren dargestellten Elemente verwendet.
Es wird zunächst auf Fig. 1 Bezug genommen. Dort ist ein herkömmliches, mit Ultraschall arbeitendes Bildgabesystem beschrieben, das für eine in Echtzeit erfolgende Anzeige in einer klinischen Umgebung ausgelegt ist. Eine Patientin 10, die einen Fötus 12 trägt, liegt in einer supinalen Position bzw. Rückenposition, so daß ein Arzt oder ein anderer Techni­ ker bzw. Assistent 14 einen Ultraschall-Abbildungsvorgang durchführen kann. Das Bildgabesystem (Abbildungssystem) weist einen Abtastkopf 16 auf, der mit einem Ul­ traschall-Scanner (Ultraschall-Abtasteintrichtung) 18 gekoppelt ist. Zur Durchführung des Bildgabevorgangs zieht der Arzt 14 den Abtastkopf 16 entlang der Hautoberfläche der Patientin in einer Richtung, die parallel zu der Ebene der Ultraschallabtastung liegt. Ein akustisch leitendes Gleitmittel kann auf die Haut aufgetragen werden, bevor der Abtastkopf 16 mit der Haut in Berührung gebracht wird, damit die akustische Kopplung zwischen dem Abtastkopf und der Patientin verbessert ist.
Der Abtastkopf 16 weist einen Ultraschallwandler auf, der an einer seiner Oberflächen angeordnet ist und ein piezoelektrisches Element oder eine Matrix aus einzelnen piezoelek­ trischen Elementen aufweist. Der Ultraschall-Scanner 18 gibt elektrische Signale an den Abtastkopf 16 ab, die den Abtastkopf zur Erzeugung von Ultraschallimpulsen veranlassen. Die Ultraschallimpulse 24 pflanzen sich in der Abtastebene durch die Haut des Patienten 10 hindurch fort und werden von den anatomischen Gestaltungsmerkmalen des Fötus 12 als Echos reflektiert. Die Echos kehren durch die Haut zu dem Abtastkopf 16 zurück, der die Echos in elektrische Signale rückumwandelt, die durch den Ultraschall-Scanner 18 empfangen werden. Die empfangenen elektrischen Signale werden dann von dem Ul­ traschall-Scanner 18 an einen Bildprozessor 20 geleitet. Der Bildprozessor 20 dekodiert die elektrischen Signale zu einem zweidimensionalen Querschnittsbild, das auf einem Video- Anzeigeterminal 22 angezeigt wird. Die Bildinformation kann auch elektronisch in einem Speichermedium gespeichert werden, das ein permanentes Speichermedium (Permanent­ speicher), wie etwa eine Platte oder einen Bandantrieb, ein Zwischenspeichermedium, wie etwa einen Festkörperspeicher, enthält, oder kann auf ein Hartkopiebild bzw. als dauerhaf­ tes Bild, wie etwa eine Photographie, ausgedruckt werden.
Das Ultraschallbild, das auf dem Video-Anzeigeterminal 22 angezeigt wird (oder mit Hilfe der weiteren, unterschiedlichen Speichermedien, die vorstehend erläutert wurden, gespei­ chert wird), enthält lediglich die Information, die für den relativ schmalen Bereich re­ präsentativ ist, der von den Ultraschallimpulsen 24 überquert wurde. Wie in Fig. 1 dargestellt ist, wird lediglich ein Teil der anatomischen Merkmale des Fötus 12 auf dem Video-Anzeigeterminal 22 angezeigt. Die Region außerhalb des Sektors der Ultraschall­ impulse 24 (in Fig. 1 in Phantomdarstellung gezeigt) erscheint auf dem Anzeigegerät 22 tatsächlich als Leerbereich. Wie vorstehend festgestellt, ist es sehr wünschenswert, ein Bild zu erzeugen, das ein ausgedehntes Gesichtsfeld bzw. einen erweiterten Betrachtungs­ bereich aufweist (XFOV), wie etwa ein einzelnes Bild, das die gesamte Bildregion 26 enthält.
Es wird nun auf Fig. 2 Bezug genommen. Dort ist in Form eines Blockschaltbilds eine Bildregistrierung oder eine Bildausrichtung auf der Grundlage des Verfahrens zur Erweite­ rung des Gesichtsfelds bzw. Betrachtungsfelds (IR-XFOV) in Übereinstimmung mit der vorliegenden Erfindung dargestellt. Zwei aufeinanderfolgende Einzel­ bilder 31, 32 sind jeweils als Einzelbild n - 1 (das vorgehende Einzelbild) bzw. als Einzel­ bild n (das aktuelle Einzelbild) bezeichnet. Das vorhergehende Einzelbild n - 1 wird als ein Referenzbild behandelt. Das aktuelle Einzelbild n, das durch Bewegung des Wandlers 16 gemäß Fig. 1 entlang der Hautoberfläche erhalten wird, wird mit dem vorhergehenden Einzelbild n - 1 verglichen, um eine Bewegung des Wandlers zu schätzen bzw. zu bewerten. Damit die Bildbewegung von dem Einzelbild n - 1 zu dem Einzelbild n bewertet werden kann, wird das Einzelbild n in eine Mehrzahl von Unter-Einzelbildregionen 34 unterteilt, und es wird die lokale Bewegung von jeder der Unter-Einzelbildregionen bewertet. Bei einer Gesamtzahl von I Blöcken wird der i-te Block des Einzelbilds n als n(i) definiert.
Die jeweilige Größe und die Anzahl der Blöcke 34 wird unter Berücksichtigung von verschiedenartigen Faktoren ausgewählt. Die Größe der Blöcke sollte sich der Größe der speziellen Merkmale des Bilds annähern. Als Beispiel erfordern Bildmerkmale, wie etwa die Grenzen von Geweben und Blutgefäße, eine relativ kleine Größe der Blöcke. Jedoch ist eine derartig kleine Blockgröße für eine Bewertung der Bewegung nicht geeignet, da die geringe Blockgröße bei einer verhältnismäßig großen Größe der Bewegung sehr rasch außer Korrelation gelangt. Weiterhin wäre eine kleine Blockgröße bei in-vivo erhaltenen Bildern, bei denen eine Bewegung des Gewebes in geringem Maßstab vorhanden ist, nicht stabil. Wenn aber auf der anderen Seite die Größe der Blöcke zu groß ist, sind wiederum zu wenig Blöcke je Einzelbild für eine Bewertung der Bewegung vorhanden und es wird die Bewegungsbewertung instabil. Weiterhin kann eine große Größe der Blöcke dazu führen, daß ein Bilddrehungsfehler in die Bewertung der lokalen Bewegung eingeführt wird, bei dem fehlerhaft angenommen wird, daß der Block eine translatorische Kom­ ponente, jedoch keine Drehungskomponente, aufweist.
Bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung wird eine Block­ größe von ungefähr 48 × 48 Bildelementen (Pixel) zur Bewertung der Bewegung als akzeptabel betrachtet, und zwar im Hinblick auf diese Faktoren in Relation zu einer Größe eines Einzelbilds von ungefähr 200 × 400 Bildelementen. Eine minimale Blockgröße von 32 × 32 Bildelementen könnte auch in Bezug zu einer kleineren Bildgröße eingesetzt werden. Diese Blockgrößen führen zu einer Anzahl I der Blöcke zwischen ungefähr 8 und 20, wodurch sich die besten Ergebnisse erzielen lassen.
Wie in Fig. 3 dargestellt ist, wird eine lokale Bewegung jedes Blocks n(i) des Bilds n dadurch bewertet bzw. abgeschätzt, daß der Block n(i) (wie etwa der als Beispiel dienende Block 34) um das n-te Einzelbild herum bewegt wird, um die beste Übereinstimmung zu finden. Die Größe 33 der Suchregion auf bzw. in dem (n - 1)-ten Einzelbild ist kleiner als die gesamte Fläche des Einzelbilds 31 und sollte auch mit der erwarteten Geschwindigkeit der Bildbewegung und der Rate der Einzelbilder in Beziehung stehen. Als Beispiel sollte eine große Größe 33 der Suchregion eingesetzt werden, wenn die Geschwindigkeit des Wandlers hoch ist, und auch dann, wenn die Rate der Einzelbilder niedrig ist. Bei einem bevorzugten Ausführungsbeispiel ist eine Größe der Suchregion von 32 Bildelementen in jeder der vier Suchrichtungen für einen Einsatz bei einer Rate der angegebenen Bild­ elemente angemessen, die als 7,5 Einzelbilder/je Sekunde gewählt ist (wobei eines von jeweils vier Video-Einzelbildern bzw. Video-Rahmen berechnet wird), was zu einer Größe der Suchregion von 64 × 64 Bildelementen führt.
Die "beste Übereinstimmung" wird dadurch bestimmt, daß die Methode der Minimal- Summe-Absoluter-Differenz (Minimumsumme-Absolutdifferenz = MSAD) eingesetzt wird, um den Block 34 n(i) an die Suchregion 33 des Einzelbilds n - 1 anzupassen. Die Summe absoluter Differenzen (SAD) ist die Summe der absoluten Differenzen bzw. Absolutwerte der Differenzen zwischen entsprechenden Bildelementwerten zwischen jedem Block 34 und der Suchregion 33. Die "beste Übereinstimmung" zwischen dem Block 34 und der Suchregion 33 tritt dann auf, wenn der Wert der Summe der absoluten Differenzen (Wert von SAD) ein Minimum besitzt. Fig. 5 zeigt eine graphische Darstellung des Verlaufs der Summe der absoluten Differenzen, wobei diese Werte aufweist, die sich in den Richtungen X und Y erstrecken. Die im allgemeinen gleichförmige, graphische Dar­ stellung bzw. Kennliniendarstellung der Summe der absoluten Differenzen SAD weist ein Tal auf, bei dem die Werte der Summe der absoluten Differenzen unter den Mittelwert absinken, was die Position des minimalen Werts der Summe der absoluten Differenzen (MSAD) repräsentiert. Die Methode der minimalen Summe absoluter Differenzen (MSAD) wird dazu eingesetzt, eine erste Schätzung eines Vektors v(i) der lokalen Bewegung zu gewinnen, der eine Richtung und eine Größe besitzt, die anzeigen, wie sich der Block n(i) von dem Einzelbild n - 1 zu dem Einzelbild n verschoben hat. Die Richtung des Vektors v(i) der lokalen Bewegung ist in Fig. 3 durch den Pfeil angezeigt.
Es ist ersichtlich, daß die Berechnung der minimalen Summe der absoluten Differenzen ein sehr langsamer Berechnungsvorgang sein könnte, wenn die Anzahl von Blöcken groß ist, die Größe der Blöcke groß ist und auch die Suchregion groß ist. Wenn z. B. ein Einzelbild n, das sechzehn Blöcke 34 mit einer Blockgröße von 48 × 48 Bildelementen aufweist, und eine Suchregion von 64 × 64 Bildelementen eingesetzt werden, sind ungefähr 300 Millio­ nen separate Additionen/Subtraktionen und ungefähr 65.000 Vergleiche notwendig, um eine einzige Berechnung der minimalen Summe absoluter Differenzen abzuschließen. Selbst bei den mit relativ hoher Geschwindigkeit arbeitenden, herkömmlichen Prozessoren würde dies dennoch einen zu großen Berechnungsumfang erfordern, um noch bei einer Anwendung in Echtzeit realisiert werden zu können. Demgemäß werden verschiedenartige Suchmethoden eingesetzt, um die Größe der Berechnung der minimalen Summe absoluter Differenzen zu realisieren.
Bei einer derartigen Methode zur Berechnung der minimalen Summe absoluter Differenzen wird ein herkömmlicher MPEG-Kodierer eingesetzt. MPEG (oder "Moving Picture Expert Group" = Bewegungsbild-Expertengruppe) ist ein von der Industrie akzeptierter Standard für die Datenkomprimierung zur Digitalisierung von graphischer Information. MPEG- Kodierer sind im Handel erhältlich und können dazu eingesetzt werden, eine grobe Bewertung der Position der minimalen Summe absoluter Differenzen auf der Grundlage einer historischen bzw. bisherigen Bewegung des Bilds durchführen. Eine "beste Überein­ stimmung" wird zwischen einem Bildcharakteristikum in einem Block 34 und einer Suchregion dadurch gesucht, daß innerhalb einer lokalen Nähe gesucht wird, die einen begrenzten Abmessungsbereich aufweist, beispielsweise innerhalb von 10 Bildelementen in den Richtungen X und Y relativ zu dem Bildcharakteristikum. In Fig. 4 ist die Position der minimalen Summe absoluter Differenzen MSAD durch den Einsatz des MPEG-Kodie­ rers und einen lokalen Bewegungsvektor identifiziert, der zu dem Block 34 zugeordnet ist. Ein Nachteil bei dem Einsatz eines MPEG-Kodierers besteht darin, daß er zu einem starken Anfall von ungenauen Vektoren der lokalen Bewegung führt, die ausgefiltert werden müssen.
Die Genauigkeit der Bestimmung des lokalen Bewegungsvektors kann dadurch noch weiter verbessert werden, daß gewisse eigene Beschränkungen der Ultraschallabbildung mit erweitertem Gesichtsfeld berücksichtigt werden. Eine Bewegung in der Richtung Y (vertikale Richtung) von einem Einzelbild zu einem weiteren Einzelbild ist fast immer kleiner als die Bewegung in der Richtung X (horizontal), da sich der Ultraschallwandler 16 im allgemeinen lediglich entlang der Kontur (Umriß) des Patientenkörpers bewegt. Diese Wandlerbewegung kann dahingehend charakterisiert werden, daß sie eher eine horizontale Erstreckung als eine Faltung bzw. Verschiebung nach oben/unten ist. Weiter­ hin erfolgt die Bewegung des Wandlers am wahrscheinlichsten in einer Richtung und ist zusammenhängend; plötzliche Umkehrungen der Richtung der Bewegung sind nicht sehr wahrscheinlich. Aus einer großen Anzahl von Experimenten wurde ermittelt, daß graphi­ sche Darstellungen der minimalen Summe absoluter Differenzen (MSAD-maps) oftmals recht sanft bzw. glatt und zusammenhängend sind, selbst bei Blöcken, in denen eine große Anzahl von Störungen vorhanden sind und keine Bildmerkmale vorliegen.
Im Hinblick auf diese Einschränkungen kann eine Suchstrategie mit schneller, adaptiver grober/feiner MSAD-Suche (feine Suche der minimalen Summe der absoluten Differenzen) entwickelt werden, die den gesamten Umfang der Berechnungen beträchtlich verringert. Die Suchstrategie erfordert, daß der Suchbereich in der Richtung X größer ist als derjenige in der Richtung Y, und es sollte der Suchbereich und die Richtung hinsichtlich der gesam­ ten Bewegungshistorie bzw. des gesamten bisherigen Bewegungsablaufs adaptiv sein. Wenn z. B. die Historie bzw. der bisherige Ablauf zeigt, daß die Bewegung des Bildes in der Richtung +X erfolgt, ist es sehr wahrscheinlich, daß sich auch das nachfolgende Einzelbild in der gleichen Richtung bewegt. Da die graphische Darstellung bzw. Kennlinie der minimalen Summe absoluter Differenzen glatt und kontinuierlich ist, kann zunächst eine grobe Suche durchgeführt werden, um die Suchregion 33 auf eine kleinere Fläche zu beschränken, woran sich eine feine Suche innerhalb des kleineren Bereichs anschließt. Da die Bewegung in der Richtung Y üblicherweise sehr klein (und üblicherweise 0) ist, kann die zweidimensionale Suche nach der minimalen Summe absoluter Differenzen auf zwei eindimensionale Suchen in den Richtungen X bzw. Y reduziert werden. Die erste Suche sollte in der Richtung X durchgeführt werden, um die Suchregion rasch einzuschränken, woran sich nachfolgende, alternierende Suchen in einer Dimension sowohl in der Richtung X als auch in der Richtung Y anschließen, um die Position der minimalen Summe ab­ soluter Differenzen rasch aufzufinden. Punkte, die während der Kurvensuche gesucht bzw. überprüft worden sind oder die in der anderen Richtung gesucht worden sind, können während der feinen Suche übersprungen werden. Auf der Grundlage der vorstehend erläuterten Suchstrategie kann die Position der minimalen Summe absoluter Differenzen in den meisten Fällen nach einer groben und einer mittleren Suche in der Richtung X, einer groben Suche in der Richtung Y und einer kleinen, feinen, zweidimensionalen Suche in beiden Richtungen identifiziert werden. Bei dem gleichen, vorstehend erläuterten Beispiel kann die gesamte Anzahl von Berechnungen auf 2.600.000 Additionen/Subtraktionen und 560 Vergleiche verringert werden, was eine Verringerung der gesamten Anzahl der Berechnungen um grob das 115-fache repräsentiert.
Aufgrund des Einflusses von Bildstörungen, einer Bewegung des Gewebes und anderen Bildartefakten ist die erste Bewertung der Bewegung auf der Grundlage der minimalen Summe absoluter Differenzen nicht stets sehr zuverlässig. Daher werden zwei Maße für die Qualität und die Zuverlässigkeit der ersten Abschätzung v(i) des lokalen Bewegungs­ vektors gebildet, die mit S1(i) und S2(i) bezeichnet werden. Unter Bezugnahme auf Fig. 5 bezeichnet S1(i) einen Qualitätsfaktor für die Minimalsumme absoluter Differenzen und mißt den Unterschied zwischen dem Wert der minimalen Summe absoluter Differenzen und dem Mittelwert der Summe absoluter Differenzen. Die Qualität der minimalen Summe absoluter Differenzen erhöht sich mit dem Wert von S1(i), d. h. je tiefer das Tal der Summe absoluter Differenzen ist, desto besser ist die Qualität der minimalen Summe absoluter Differenzen. Wenn eine starke Bildstörung (Bildrauschen) vorhanden ist, oder wenn es an Bildmerkmalen mangelt, wird die Karte bzw. Kennlinie der Summe absoluter Differenzen flacher, so daß S1(i) kleiner wird. In diesem Fall ist die Abschätzung bzw. die Bewertung von v(i) weniger zuverlässig.
Es wird nun auf Fig. 6 Bezug genommen. Der zweite Parameter S2(i) mißt, wie stark v(i) von seinem zurückliegenden Verlauf abweicht. Die Bewegungsgeschichte bzw. der zeitli­ che Bewegungsablauf 42 des i-ten Blocks, d. h. h(i) (in Fig. 2 ebenfalls gezeigt), stellt die rekursiv gewichtete Mittelwertbildung von vorhergehenden Ausgaben des abschließenden, lokalen Bewegungsvektors für den i-ten Block dar. S2(i) ist der Vektorunterschied zwi­ schen v(i) und h(i). Im allgemeinen ist die Bewegung des Bilds sowohl bei erfahrenen als auch bei nicht erfahrenen Ultraschallbenutzern ziemlich sanft und reproduzierbar. Falls ein Wert von v(i) eine stark unterschiedliche Richtung und Größe aufweist, verglichen mit seinem bisherigen zeitlichen Verlauf, ist es sehr wahrscheinlich, daß diese Bewertung unter dem Einfluß von Störungen oder einer lokalen Bewegung des Gewebes steht und die wahre lokale Bewegung des Bilds nicht korrekt widerspiegelt. In diesem Fall ist die Abschätzung von v(i) nicht sehr zuverlässig. Folglich zeigt ein großer Wert von S2(i) an, daß das geschätzte v(i) weniger zuverlässig ist.
Auch wenn das vorstehend erläuterte Konzept der Steuerung der Bewertungsqualität leicht zu verstehen ist, ist es in der Praxis schwierig zu realisieren, da Bildänderungen, die durch die Bewegung des Wandlers hervorgerufen werden, recht komplex sein können. Demge­ mäß kann die Qualität und die Zuverlässigkeit der Abschätzung der Bewegung wirksam durch einen Satz der Unschärfenlogik (Fuzzy-Logik) quantisiert werden. Es wird nun erneut auf Fig. 2 Bezug genommen. Ein mit Fuzzy-Logik arbeitender Steuerblock 46 empfängt S1(i) und S2(i) als Eingänge, faßt diese unter Einsatz von Fuzzy-Regeln (diese werden nachstehend erläutert) zusammen und erzeugt eine einzige numerische Ausgangs­ größe w(i), die ein Maß für die Genauigkeit von v(i) darstellt. Die numerische Ausgangs­ größe w(i) reicht von null bis eins, wobei sich die Bewertungsgenauigkeit von v(i) ver­ größert, wenn sich w(i) eins annähert.
Die Eingänge bzw. Eingangssignale S1(i) und S2(i) werden zunächst in die sprachlichen Ausdrücke oder Etiketten "hoch", "mittel" und "niedrig" mittels Fuzzy-Verarbeitung eingeordnet. Auch die Ausgangsgröße w(i) wird als Fuzzy-Ausdruck als "sehr hoch", "hoch", "mittel", "niedrig" und "sehr niedrig" ausgedrückt. Die Mitgliederfunktionen von S1(i), S2(i) und w(i) werden aus einer großen Anzahl von experimentellen Ergebnissen bestimmt und sind jeweils in den Fig. 7A bis 7C dargestellt. Die Mitgliederfunktion (Membership Function) von S1(i) ist in Fig. 7A graphisch derart gezeigt, daß sie drei Regionen aufweist, die mit L (niedrig), M (mittel) und H (hoch) bezeichnet sind. Die Regionen überlappen sich in einem gewissen Ausmaß; genauer gesagt, überlappen sich die Regionen L und M, und es überlappen sich die Regionen M und H. Die horizontale Achse der graphischen Darstellung der Mitgliederfunktion definiert den gemessenen Wert von S1(i), und die Vertikalachse definiert das Ausmaß der Mitgliedschaft des gemessenen Werts innerhalb des definierten bzw. festgelegten Etiketts bzw. des hierfür definierten Bereichs.
Die Mitgliedsfunktion von S2(i) ist in Fig. 7 graphisch dargestellt und ist in gleichartiger Weise wie die Mitgliedsfunktion bzw. Zuordnungsfunktion von S1(i) aufgebaut. In gleich­ artiger Weise ist die Mitgliedsfunktion bzw. Zuordnungsfunktion von w(i) in Fig. 7C graphisch dargestellt und ist ähnlich wie die Zuordnungsfunktionen S1(i) und S2(i) aufge­ baut, auch wenn sie fünf überlappende Regionen enthält, die mit VL (sehr niedrig), L (niedrig), M (mittel), H (hoch) und VH (sehr hoch) bezeichnet sind.
Es werden sieben Fuzzy-Regeln eingesetzt, um die Beziehung zwischen S1(i), S2(i) und w(i) zu definieren. Diese Fuzzy-Regeln enthalten:
  • 1. Wenn S1(i) niedrig (L) ist und S2(i) ebenfalls niedrig (L) ist, ist w(i) mittel bzw. mittelgroß (M);
  • 2. Wenn S1(i) mittleren Wert (M) aufweist und S2(i) niedrig (L) ist, ist w(i) hoch (H);
  • 3. Wenn S1(i) hoch (H) ist und S2(i) niedrig (L) ist, ist w(i) sehr hoch (VH);
  • 4. Wenn S1(i) niedrig (L) ist und S2(i) mittleren Wert (M) aufweist, ist w(i) niedrig (L);
  • 5. Wenn S1(i) mittleren Wert (M) hat und S2(i) ebenfalls mittleren Wert (M) aufweist, erhält w(i) mittleren Wert (M);
  • 6. Wenn S1(i) hoch (H) ist und S2(i) mittleren Wert (M) aufweist, ist w(i) hoch (H), und
  • 7. Wenn S2(i) hoch (H) ist, ist w(i) sehr niedrig (VL).
Die Fuzzy-Regeln werden parallell eingesetzt, um die Wahrheit bzw. Richtigkeit der Regeln zu bestimmen. Es sei z. B. angenommen, daß die gemessenen Werte von S1(i) und S2(i) 0,3 bzw. 0,1 sind. In Fig. 7A bezieht sich ein gemessener Wert von 0,3 auf ein Ausmaß der Mitgliedschaft bzw. Zuordnung von ungefähr 0,65 in dem Etikett bzw. Feld L und von ungefähr 0,25 in dem Etikett bzw. in dem Feld M. In Fig. 7B bezieht sich ein gemessener Wert von 0,1 auf ein Ausmaß der Zuordnung von ungefähr 0,75 lediglich bei dem Feld L. Als Ergebnis sind lediglich die ersten beiden Fuzzy-Regeln wahr bzw. richtig, auch wenn sie zu nicht übereinstimmenden Ergebnissen dahingehend führen, daß gemäß der ersten Fuzzy-Regeln beurteilt wird, daß w(i) mittleren Wert hat, und die zweite Fuzzy-Regel folgert, daß w(i) hoch ist. Die Ausgangsgröße w(i) muß dann in einen numerischen Wert zurück umgewandelt werden, und es müssen die nicht übereinstimmen­ den Ergebnisse zusammengeführt bzw. vereinigt werden.
Gemäß der ersten Fuzzy-Regel wird der niedrige Wert von S1(i) unter Heranziehung einer logischen UND-Verknüpfung mit dem niedrigen Wert von S2(i) verknüpft, um den mittleren Wert von w(i) zu erzeugen. Bei der logischen UND-Verknüpfung wird der minimale Wert der Wahrheit der Ausdrücke als der Wahrheitspegel der Regel genommen. Anders ausgedrückt, ist das Ausmaß der Zuordnung von S1(i) von 0,65 kleiner als das Ausmaß der Zuordnung von S2(i) von 0,75, und es wird folglich der erstere Wert als der Wahrheitspegel für die erste Fuzzy-Regel herangezogen. In ähnlicher Weise wird gemäß der zweiten Fuzzy-Regel der mittlere Wert von S1(i) unter Heranziehung einer logischen UND-Verknüpfung mit dem niedrigen Wert von S2(i) zusammengefaßt, um den hohen Wert von w(i) bereitzustellen. Das 0,25 betragende Ausmaß der Zuordnung von S1(i) ist kleiner als das 0,75 betragende Ausmaß der Zuordnung von S2(i) und wird daher als der Wahrheitspegel für die zweite Fuzzy-Regel herangezogen. Die Etiketten bzw. Felder M und H der Zuordnungsfunktion von w(i) werden dann bei den Wahrheitspegeln abge­ schnitten, die durch die Fuzzy-Regeln definiert sind, wie es graphisch in Fig. 7D darge­ stellt ist.
Schließlich wird eine Schwerpunkts-Fuzzy-Rückbildungs-Methode (Centroid Defuzzifica­ tion Technique) eingesetzt, um die Fuzzy-Ausgangsgröße in eine numerische Zahl w(i) zurück umzuwandeln. Bei Einsatz dieser Methode wird eine Schätzung der Mitte des Schwergewichts für die gesamte Region, die als "wahr" bzw. zutreffend bestimmt worden ist (in Fig. 7D als schraffierte Region dargestellt), bereitgestellt. Gemäß Fig. 7D ist die Mitte des Schwergewichts bzw. der Schwerpunkt der schraffierten Region ungefähr 0,6, wodurch ein numerischer Wert für w(i) bereitgestellt ist. Nach dem Erhalt des Zuverlässig­ keitsparamters w(i) besteht der nächste Schritt darin, w(i) zur Verbesserung der Schätzung v(i) der lokalen Bewertung einzusetzen. Falls w(i) groß ist, wird v(i) direkt als der abschließende, lokale Bewegungsvektor lmv(i) eingesetzt. Wenn im Unterschied hierzu w(i) sehr klein ist, wird der bisherige zeitliche Verlauf (Historie) h(i) der durchschnittlichen Rahmenbewegung als das geschätzte lmv(i) eingesetzt, da der bisherige zeitliche Bewe­ gungsverlauf mit größerer Wahrscheinlichkeit eine bessere Schätzung darstellt, als das weniger zuverlässige kleine v(i). Falls w(i) weder sehr groß noch sehr klein ist, wird es als ein Gewichtsfaktor zur Mittelwertbildung von v(i) und h(i) eingesetzt. Falls z. B. w(i) = 0,6 ist, wie es bei dem vorstehend beschriebenen Beispiel der Fall ist, gilt lmv(i) = 0,6­ .v(i) + (1 - 0,6).h(i).
Die Bewegungsgeschichte bzw. der bisherige, zeitliche Bewegungsverlauf h(i) wird eben­ falls rekursiv durch Gewichtung von lmv(i) erneuert. Das Gewicht wird so ausgewählt, daß es zwischen Null und Eins liegt; ein größerer Gewichtswert führt dazu, daß die sehr kurz zurückliegende Bewegungsbewertung stärker zu dem zeitlichen Verlauf h(i) beiträgt. Falls das Gewicht z. B. gleich 0,5 ist, gilt h(i) = 0,5.lmv(i) + (1 - 0,5).h(i).
Sobald alle Ausgangswerte lmv(i) für den lokalen Bewegungsvektor bezüglich des n-ten Einzelbilds geschätzt sind, werden die Ausgangswerte bei 48 in Fig. 2 zusammengefaßt, um den globalen Bewegungsvektor gmv(i) des Einzelbilds zu bewerten bzw. abzuschätzen. Es wird eine Anpassung des Parameters des minimalen Fehlers kleinster Quadrate (mini­ mum least-squares error parameter) eingesetzt, um die Ausgangswerte des Bewegungs­ vektors unter Heranziehung von drei Optimierungsparametern einschließlich der Trans­ lation (Xn, Yn) des Einzelbilds und der Drehung θn zu verknüpfen. Die gewichteten, kleinsten Quadrate verleihen dem lokalen Bewährungsvektor v(i), der ein größeres w(i) aufweist, größeres Gewicht als denjenigen, die ein kleineres w(i) haben. Auf diese Weise tragen die zuverlässigeren, lokalen Bewegungsvektoren v(i) stärker zu dem Optimierungs­ prozeß bei. Die geometrisch korrigierten Einzelbilder werden bei 54 in Fig. 2 zusammen­ gefaßt, um ein Bild mit erweitertem Gesichtsfeld zu erzeugen. Drei Techniken können zur Verknüpfung der korrigierten Einzelbilder eingesetzt werden, die ein "Wachsen des Bilds", bei dem lediglich neue Bildelementdaten in dem nicht überlappenden Teil an den Puffer für das Bild mit erweitertem Gesichtsfeld gegeben werden, ein "rekursives, räumli­ ches Verbinden", bei dem das neue Einzelbild mit dem vorhandenen Bild mit erweitertem Gesichtsfeld in rekursiver Weise einer Mittelwertbildung unterzogen wird, und ein "Ram­ penverbinden" enthalten, bei dem Gewichtsrampen sowohl für das neue Einzelbild als auch für das vorhandene Bild erweiterten Gesichtsfeld in dem überlappenden Bereich bereitge­ stellt werden. Bei der zuletzt genannten Methode wird eine lokale Unstetigkeit des Bilds erarbeiteten Gesichtsfelds, das durch Bewegungs-Zitter-Erscheinungen (Bewegungs-Jitter) hervorgerufen wird, erfolgreich verringert. Schließlich wird das Bild erweiterten Gesichts­ felds auf einem Video-Anzeigeterminal 56 oder einer anderen, derartigen Einrichtung angezeigt, wodurch das vollständige Bild, das in Phantomdarstellung wiedergegeben ist, auf dem Terminal 22 gemäß Fig. 1 bereitgestellt wird, wie es vorstehend erläutert ist.
Es ist offensichtlich, daß das vorstehend beschriebene Verfahren und die Vorrichtung zur Erzeugung eines Bilds mit erweitertem Gesichtsfeld sowohl bei einer in Echtzeit erfolgen­ den Abbildung als auch bei der erneuten Generierung von aufgezeichneter Bildinformation einsetzbar ist. Bei der Anwendung kann ein Arzt ein herkömmliches Ultraschall-Bildgabe­ system zur Erzeugung von Bildrahmen bzw. Einzelbildern einsetzen, die auf einem permanenten Speichermedium, wie etwa einem Band, aufgezeichnet werden. Nachfolgend können die Einzelbilder zu einem Bild mit erweitertem Gesichtsfeld für eine spätere Betrachtung durch den Arzt verarbeitet werden, indem die aufgezeichneten Einzelbilddaten in eine Betrachtungsstation gebracht werden. Die Betrachtungsstation verarbeitet dann die Einzelbilddaten unter Heranziehung des vorstehend erläuterten Verfahrens zur Erzeugung eines Bilds mit erweitertem Gesichtsfeld. Es versteht sich weiterhin, daß das Verfahren und die Vorrichtung gemäß der vorliegenden Erfindung nicht auf die Verarbeitung von Ultraschallbildern beschränkt sind, sondern in gleicher Weise auch bei anderen Bildgabe­ modalitäten, wie etwa bei Radar oder photographischer Abbildung, einsetzbar sind.
Bei dem beschriebenen, mit Bildausrichtung arbeitenden Verfahren und Gerät zur Erzeu­ gung von Bildern mit verbreitetem Gesichtsfeld werden aufeinanderfolgende Ultraschall­ bilder zur Gewinnung einer Wandlerbewegungsinformation korreliert. Da Ultraschallbilder bei Echtzeit-Abtastvorgängen bei aufeinanderfolgenden Bildern stark miteinander korreliert sind, können die einzelnen Bilder in mehrere kleinere Unter-Bildregionen unterteilt werden, und es kann ein sehr schneller und störunanfälliger Algorithmus zur Erfassung und Messung der Unter-Bildbewegung eingesetzt werden. Bei diesem Algorithmus wird eine Suchstrategie mit rascher, adaptiver, grober/feiner Minimal-Summe-Absoluter-Differenzen eingesetzt, um eine anfängliche Schätzung der lokalen Bewegungsvektoren zu berechnen. Die anfängliche Schätzung wird mit zwei Meßparametern unter Einsatz einer Fuzzy-Logik- Technik zur Gewinnung einer abschließenden Bewertung der lokalen Bewegungsvektoren verknüpft. Die abschließenden, lokalen Bewegungsvektoren werden einer Kleinste-Quadra­ te-Verarbeitung zur Schätzung der globalen Bildbewegung unterzogen. Schließlich werden durch eine schnelle Anzeigemethode zusammengesetzte Bilder mit erweitertem Gesichtsfeld auf der Grundlage der ermittelten, globalen Bildbewegung erzeugt.

Claims (20)

1. Vorrichtung zur Erzeugung eines Ultraschall-Bilds mit erweitertem Gesichtsfeld, mit:
einem Ultraschall-Scanner (16, 18), der eine Mehrzahl von Ultraschall-Einzel­ bildern erzeugt,
einer Einrichtung (20) zur Unterteilung der Einzelbilder in eine Mehrzahl von Unter-Bildregionen,
einer Einrichtung zum Vergleichen der Unter-Bildregionen des jeweils aktuellen Einzel­ bilds mit einem Abschnitt eines unmittel­ bar vorhergehenden Einzelbilds,
einer Einrichtung zur Schätzung von lokalen Bild-Bewegungsvektoren der jeweiligen Unter-Bildregionen bei aufeinanderfolgenden Einzelbildern durch Berechnen der besten Übereinstimmung zwischen der Ausrichtung der Unter-Bild­ regionen des aktuellen Einzelbilds und des vorhergehenden Einzelbilds, auf der Basis minimaler Summe absoluter Differenzen,
einer Einrichtung zur Schätzung der globalen Bildbewegung auf der Grundlage der geschätzten, lokalen Bild-Bewegungsvektoren, und
einer Einrichtung (22, 56) zur Anzeige eines zusammengesetzten Bilds erweiterten Gesichtsfelds aus aufeinanderfolgenden Einzelbildern auf der Grundlage der geschätzten, globalen Bildbewegung.
2. Vorrichtung nach Anspruch 1, bei der die Ein­ richtung zur Schätzung der lokalen Bild-Bewegungsvektoren
eine Einrichtung (33) zur Berechnung einer anfänglichen Schätzung der lokalen Bild-Bewegungsvektoren unter Einsatz einer schnellen, adaptiven, groben/feinen Suche der minimalen Summe von Differenzenbeträgen, und
eine Gewinnungseinrichtung (44) zur abschließenden Bewertung der lokalen Bild-Bewegungsvektoren aus der anfänglichen Schätzung der lokalen Bild-Bewegungsvektoren unter Einsatz einer Fuzzy-Logik-Technik
aufweist.
3. Vorrichtung nach Anspruch 2, bei der die Gewinnungseinrichtung (44) eine Einrichtung zur Festlegung eines ersten Qualitätsfaktors (S1(i)) für die minimale Summe von Differenzbeträgen durch Messung des Unterschieds zwischen dem Wert der minimalen Summe von Differenzbeträgen und der mittleren Summe von Differenzbeträgen aufweist.
4. Vorrichtung nach Anspruch 2 oder 3, bei der die Gewinnungseinrichtung (44) eine Einrichtung zur Festlegung eines zweiten Qualitätsfaktors (S2(i)) für die minimale Summe von Differenzbeträgen durch Messung der Abweichung der anfänglichen Schätzung des lokalen Bild-Bewegungsvektors von einer früheren Messung des lokalen Bild-Bewegungsvektors aufweist.
5. Vorrichtung nach Anspruch 4, bei der die Gewinnungseinrichtung (44) eine Einrichtung zur Festlegung von Zuordnungsfunktionen (MF(S1), MF(S2)) für den ersten und den zweiten Qualitätsfaktor aufweist.
6. Vorrichtung nach Anspruch 4 oder 5, dadurch gekennzeichnet, daß die Gewinnungseinrichtung (44) eine Einrichtung zur Bestimmung eines Zuordnungswerts für den ersten und den zweiten Qualitätsfaktor aufweist.
7. Vorrichtung nach Anspruch 6, bei der die Gewinnungseinrichtung weiterhin eine Einrichtung zur Verknüpfung der Zuordnungswerte für den ersten und den zweiten Qualitätsfaktor in Abhängigkeit von vorbestimmten Fuzzy- Regeln zur Erzeugung eines Ausgangswerts aufweist.
8. Vorrichtung nach einem der Ansprüche 1 bis 7, bei der die Gewinnungseinrichtung (44) eine Einrichtung zur Mittelwertbildung der anfänglichen Schätzung der lokalen Bild-Bewegungsvektoren und der früheren Schätzung der lokalen Bild-Bewe­ gungsvektoren unter Heranziehung des Ausgangswerts als Gewicht aufweist.
9. Verfahren zur Erzeugung eines Ultraschall-Bilds mit erweitertem Gesichtsfeld aus einer Mehrzahl von Ultraschall-Einzelbildern, mit den Schritten:
Unterteilen der Einzelbilder in eine Mehrzahl von Unter-Bildregionen,
Vergleichen der Unter-Bildregionen des jeweils aktuellen Einzelbilds mit einem Abschnitt eines unmittelbar vorhergehenden Einzelbilds,
Schätzen von lokalen Bild-Bewegungsvektoren für die jeweiligen Unter-Bildregionen bei aufeinanderfolgenden, einzelnen Bildern durch Berechnen der besten Überein­ stimmung zwischen der Ausrichtung der Unter-Bildregionen des aktuellen Einzelbilds und des vorhergehenden Einzelbilds,
Schätzen einer globalen Bildbewegung auf der Grundlage der geschätzten, lokalen Bild-Bewegungsvektoren und
Anzeigen eines zusammengesetzten Bilds mit erweitertem Gesichtsfeld aus aufeinanderfolgenden Einzelbildern auf der Grundlage der geschätzten, globalen Bildbewegung.
10. Verfahren nach Anspruch 9, bei dem der Schritt der Schätzung der lokalen Bild-Bewegungsvektoren die Schritte:
Berechnen einer anfänglichen Schätzung der lokalen Bild-Bewegungsvektoren unter Heranziehung einer schnellen adaptiven, groben/feinen Suche der minimalen Summe von Differenz­ beträgen und
abschließende Bewertung der lokalen Bild-Bewegungsvektoren aus der anfänglichen Schätzung der lokalen Bild-Bewegungsvektoren unter Einsatz einer Fuzzy-Logik- Technik,
aufweist.
11. Verfahren nach Anspruch 10, bei dem der Schritt der abschließenden Bewertung den Schritt des Definierens eines ersten Qualitätsfaktors für die minimale Summe von Differenzbeträgen durch Messung des Unterschieds zwischen dem Wert der minimalen Summe von Differenzbeträgen und dem Mittelwert der Summe von Differenzbeträgen aufweist.
12. Verfahren nach Anspruch 9 oder 10, bei dem der Schritt der abschließenden Bewertung den Schritt des Bestimmens eines zweiten Qualitätsfaktors der minimalen Summe von Differenzbeträgen durch Messung der Abweichung der anfänglichen Schätzung des lokalen Bild-Bewegungsvektors von einer früheren Messung des lokalen Bild-Bewegungsvektors aufweist.
13. Verfahren nach Anspruch 12, bei dem der Schritt der abschließenden Bewertung den Schritt des Festlegens von Zuordnungsfunktionen (MF(S1), MF(S2)) für den ersten und zweiten Qualitätsfaktor aufweist.
14. Verfahren nach Anspruch 12 oder 13, bei dem der Schritt der abschließenden Bewertung den Schritt des Bestimmens eines Zuordnungswerts für den ersten und den zweiten Qualitätsfaktor aufweist.
15. Verfahren nach Anspruch 14, bei dem der Schritt der abschließenden Bewertung den Schritt des Verknüpfens der Zuordnungswerte für den ersten und zweiten Qualitätsfaktor in Abhängigkeit von vorbestimmten Fuzzy-Regeln zur Erzeugung eines Ausgangswerts aufweist.
16. Verfahren nach einem der Ansprüche 9 bis 15, bei dem der Schritt der abschließenden Bewertung den Schritt der Mittelwertbil­ dung der anfänglichen Schätzung der lokalen Bild-Bewegungsvektoren und der früheren Schätzung der lokalen Bild-Bewegungsvektoren unter Heranziehung des Ausgangswerts als Gewicht aufweist.
17. Verfahren nach einem der Ansprüche 10 bis 16, bei dem der Schritt des Berechnens einer anfänglichen Schätzung der lokalen Bild-Bewegungsvektoren die Schritte des Durchführens einer eindimensionalen Suche in einer ersten axialen Richtung und mindestens einer weiteren eindimensionalen Suche in einer zweiten axialen Richtung, die rechtwinklig zu der ersten axialen Richtung verläuft, aufweist.
18. Verfahren nach Anspruch 17, bei dem der Schritt des Berechnens einer anfänglichen Schätzung der lokalen Bild-Bewegungsvektoren den Schritt des Festlegens einer Suchregion aufweist, die eine größere Fläche als eine zugeordnete der Unter-Bildregionen aufweist, wobei das eindimensionale Suchen in­ nerhalb der Suchregionen durchgeführt wird.
19. Verfahren nach einem der Ansprüche 9 bis 18, bei dem der Schritt des Schätzens der globalen Bildbewegung den Schritt des Durchführens einer Verarbeitung der minimalen Fehlerquadrate der geschätzten, lokalen Bild-Bewegungsvektoren aufweist.
20. Verfahren nach einem der Ansprüche 9 bis 19, bei dem der Schritt der Unterteilung der Einzelbilder in eine Mehrzahl von Unter-Bildregionen den Schritt des Unterteilens der Einzelbilder in einen Bereich von ungefähr acht bis zwanzig Unter-Bildregionen aufweist.
DE19611990A 1995-03-31 1996-03-26 Verfahren und Vorrichtung zur Erzeugung von großen, zusammengesetzten Ultraschallbildern Expired - Lifetime DE19611990C2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US08/414,978 US5575286A (en) 1995-03-31 1995-03-31 Method and apparatus for generating large compound ultrasound image

Publications (2)

Publication Number Publication Date
DE19611990A1 DE19611990A1 (de) 1996-10-02
DE19611990C2 true DE19611990C2 (de) 2003-08-28

Family

ID=23643828

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19611990A Expired - Lifetime DE19611990C2 (de) 1995-03-31 1996-03-26 Verfahren und Vorrichtung zur Erzeugung von großen, zusammengesetzten Ultraschallbildern

Country Status (3)

Country Link
US (1) US5575286A (de)
JP (1) JP3345257B2 (de)
DE (1) DE19611990C2 (de)

Families Citing this family (132)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5899861A (en) * 1995-03-31 1999-05-04 Siemens Medical Systems, Inc. 3-dimensional volume by aggregating ultrasound fields of view
US5782766A (en) * 1995-03-31 1998-07-21 Siemens Medical Systems, Inc. Method and apparatus for generating and displaying panoramic ultrasound images
WO1997032277A1 (en) 1996-02-29 1997-09-04 Acuson Corporation Multiple ultrasound image registration system, method and transducer
US5956418A (en) * 1996-12-10 1999-09-21 Medsim Ltd. Method of mosaicing ultrasonic volumes for visual simulation
US5876345A (en) * 1997-02-27 1999-03-02 Acuson Corporation Ultrasonic catheter, system and method for two dimensional imaging or three-dimensional reconstruction
US6045508A (en) 1997-02-27 2000-04-04 Acuson Corporation Ultrasonic probe, system and method for two-dimensional imaging or three-dimensional reconstruction
US6095976A (en) * 1997-06-19 2000-08-01 Medinol Ltd. Method for enhancing an image derived from reflected ultrasound signals produced by an ultrasound transmitter and detector inserted in a bodily lumen
US5876342A (en) * 1997-06-30 1999-03-02 Siemens Medical Systems, Inc. System and method for 3-D ultrasound imaging and motion estimation
US6511426B1 (en) 1998-06-02 2003-01-28 Acuson Corporation Medical diagnostic ultrasound system and method for versatile processing
US6116244A (en) * 1998-06-02 2000-09-12 Acuson Corporation Ultrasonic system and method for three-dimensional imaging with opacity control
DE19838140C1 (de) * 1998-08-21 2000-04-20 Tomtec Imaging Syst Gmbh Verfahren und Vorrichtung zur Aufnahme von Ultraschallbildern
US6547732B2 (en) 1998-10-01 2003-04-15 Koninklijke Philips Electronics N.V. Adaptive image processing for spatial compounding
US6544177B1 (en) 1998-10-01 2003-04-08 Atl Ultrasound, Inc. Ultrasonic diagnostic imaging system and method with harmonic spatial compounding
US6117081A (en) * 1998-10-01 2000-09-12 Atl Ultrasound, Inc. Method for correcting blurring of spatially compounded ultrasonic diagnostic images
US6283917B1 (en) 1998-10-01 2001-09-04 Atl Ultrasound Ultrasonic diagnostic imaging system with blurring corrected spatial compounding
US6224552B1 (en) 1998-10-01 2001-05-01 Atl Ultrasound Ultrasonic diagnostic imaging system with reduced spatial compounding seam artifacts
US6126598A (en) * 1998-10-01 2000-10-03 Atl Ultrasound, Inc. Ultrasonic diagnostic imaging system with adaptive spatial compounding
US6159152A (en) * 1998-10-26 2000-12-12 Acuson Corporation Medical diagnostic ultrasound system and method for multiple image registration
US7837624B1 (en) * 1998-11-20 2010-11-23 Siemens Medical Solutions Usa, Inc. Medical diagnostic ultrasound imaging methods for extended field of view
US6554770B1 (en) * 1998-11-20 2003-04-29 Acuson Corporation Medical diagnostic ultrasound imaging methods for extended field of view
US6364835B1 (en) 1998-11-20 2002-04-02 Acuson Corporation Medical diagnostic ultrasound imaging methods for extended field of view
US6101238A (en) * 1998-11-25 2000-08-08 Siemens Corporate Research, Inc. System for generating a compound x-ray image for diagnosis
US7756304B2 (en) * 1998-12-30 2010-07-13 Siemens Medical Solutions Usa, Inc. Medical diagnostic ultrasonic imaging method and system for displaying multi-phase, multi-frame images
US6193657B1 (en) * 1998-12-31 2001-02-27 Ge Medical Systems Global Technology Company, Llc Image based probe position and orientation detection
JP3645727B2 (ja) 1999-01-28 2005-05-11 株式会社日立製作所 超音波診断装置およびパノラマ画像を合成するプログラムおよびその記録媒体
US6234968B1 (en) 1999-06-15 2001-05-22 Acuson Corporation 3-D diagnostic medical ultrasound imaging using a 1-D array
US6299579B1 (en) * 1999-06-30 2001-10-09 Atl Ultrasound Extended field of view ultrasonic diagnostic imaging with image reacquisition
US6238345B1 (en) 1999-06-30 2001-05-29 Atl Ultrasound Image memory for extended field of view ultrasonic diagnostic imaging
US6442289B1 (en) * 1999-06-30 2002-08-27 Koninklijke Philips Electronics N.V. Extended field of view ultrasonic diagnostic imaging
JP3556129B2 (ja) * 1999-07-09 2004-08-18 松下電器産業株式会社 超音波診断装置
EP1075147A1 (de) 1999-08-02 2001-02-07 Koninklijke Philips Electronics N.V. Bewegungsschätzung
US6254539B1 (en) 1999-08-26 2001-07-03 Acuson Corporation Transducer motion compensation in medical diagnostic ultrasound 3-D imaging
US6567469B1 (en) 2000-03-23 2003-05-20 Koninklijke Philips Electronics N.V. Motion estimation algorithm suitable for H.261 videoconferencing applications
US6390981B1 (en) 2000-05-23 2002-05-21 Koninklijke Philips Electronics N.V. Ultrasonic spatial compounding with curved array scanheads
US6423004B1 (en) * 2000-05-30 2002-07-23 Ge Medical Systems Global Technology Company, Llc Real-time ultrasound spatial compounding using multiple angles of view
US6416477B1 (en) * 2000-08-22 2002-07-09 Koninklijke Philips Electronics N.V. Ultrasonic diagnostic systems with spatial compounded panoramic imaging
JP4659974B2 (ja) * 2000-12-12 2011-03-30 株式会社東芝 超音波診断装置
US6872181B2 (en) * 2001-04-25 2005-03-29 Siemens Medical Solutions Usa, Inc. Compound image display system and method
JP4785105B2 (ja) * 2001-08-03 2011-10-05 株式会社日立メディコ 超音波画像処理装置
US6605042B2 (en) 2001-08-10 2003-08-12 Ge Medical Systems Global Technology Company, Llc Method and apparatus for rotation registration of extended field of view ultrasound images
JP4958348B2 (ja) * 2001-09-06 2012-06-20 株式会社日立メディコ 超音波撮像装置
JP4704630B2 (ja) * 2001-09-14 2011-06-15 アロカ株式会社 超音波パノラマ画像形成装置
JP2003093382A (ja) * 2001-09-26 2003-04-02 Matsushita Electric Ind Co Ltd 超音波診断装置
US6503201B1 (en) 2001-10-03 2003-01-07 Koninklijke Philips Electronics N.V. Correction of extended field of view images for distortion due to scanhead motion
US6589176B2 (en) 2001-12-05 2003-07-08 Koninklijke Philips Electronics N.V. Ultrasonic image stabilization system and method
US6572549B1 (en) 2001-12-18 2003-06-03 Koninklijke Philips Electronics Nv High frame rate extended field of view ultrasound imaging system and method
US8221322B2 (en) 2002-06-07 2012-07-17 Verathon Inc. Systems and methods to improve clarity in ultrasound images
US7744534B2 (en) * 2002-06-07 2010-06-29 Verathon Inc. 3D ultrasound-based instrument for non-invasive measurement of amniotic fluid volume
US7520857B2 (en) * 2002-06-07 2009-04-21 Verathon Inc. 3D ultrasound-based instrument for non-invasive measurement of amniotic fluid volume
US7819806B2 (en) 2002-06-07 2010-10-26 Verathon Inc. System and method to identify and measure organ wall boundaries
US8221321B2 (en) 2002-06-07 2012-07-17 Verathon Inc. Systems and methods for quantification and classification of fluids in human cavities in ultrasound images
US6676605B2 (en) * 2002-06-07 2004-01-13 Diagnostic Ultrasound Bladder wall thickness measurement system and methods
GB2391625A (en) 2002-08-09 2004-02-11 Diagnostic Ultrasound Europ B Instantaneous ultrasonic echo measurement of bladder urine volume with a limited number of ultrasound beams
KR100490564B1 (ko) * 2002-07-23 2005-05-19 주식회사 메디슨 초음파 영상 신호로부터 장기를 인식하는 장치 및 방법
EP1543773B1 (de) * 2002-09-12 2013-12-04 Hitachi Medical Corporation Verfahren zur verfolgung der bewegung von biologischem gewebe und bilddiagnosevorrichtung unter verwendung der verfolgungsmethode
US7356172B2 (en) * 2002-09-26 2008-04-08 Siemens Medical Solutions Usa, Inc. Methods and systems for motion tracking
US6867753B2 (en) * 2002-10-28 2005-03-15 University Of Washington Virtual image registration in augmented display field
EP3239930B1 (de) * 2003-01-13 2019-04-17 Koninklijke Philips N.V. Verfahren zur bildregistrierung und vorrichtung zur verarbeitung medizinischer bilddaten
US6858010B2 (en) 2003-05-06 2005-02-22 Siemens Medical Solutions Usa, Inc. Identifying clinical markers in spatial compounding ultrasound imaging
US7033320B2 (en) * 2003-08-05 2006-04-25 Siemens Medical Solutions Usa, Inc. Extended volume ultrasound data acquisition
US7658714B2 (en) * 2003-10-31 2010-02-09 Siemens Medical Solutions Usa, Inc. Intelligent ultrasound examination storage system
TWI240214B (en) * 2004-05-18 2005-09-21 Sunplus Technology Co Ltd Optimized correlation matching method and system for determining track behavior
US7386183B2 (en) * 2004-07-09 2008-06-10 Aloka Co., Ltd. Method and apparatus for image processing
US7684628B2 (en) * 2004-08-12 2010-03-23 Industrial Technology Research Institute System and method for non-iterative global motion estimation
US7365856B2 (en) 2005-01-21 2008-04-29 Carl Zeiss Meditec, Inc. Method of motion correction in optical coherence tomography imaging
CN100455266C (zh) * 2005-03-29 2009-01-28 深圳迈瑞生物医疗电子股份有限公司 宽景成像处理方法
US7805009B2 (en) 2005-04-06 2010-09-28 Carl Zeiss Meditec, Inc. Method and apparatus for measuring motion of a subject using a series of partial images from an imaging system
EP2474268B1 (de) 2005-05-06 2013-07-10 Vasonova, Inc. Vorrichtung zum Führen und Positionieren einer endovaskulären Vorrichtung
US20090118612A1 (en) 2005-05-06 2009-05-07 Sorin Grunwald Apparatus and Method for Vascular Access
KR100869497B1 (ko) * 2005-07-01 2008-11-21 주식회사 메디슨 계층적 움직임 추정방법 및 이를 적용한 초음파 영상장치
ATE509329T1 (de) * 2005-11-10 2011-05-15 Microsoft Corp Entdeckung biologischer merkmale unter verwendung zusammengesetzter bilder
US20070255137A1 (en) * 2006-05-01 2007-11-01 Siemens Medical Solutions Usa, Inc. Extended volume ultrasound data display and measurement
US20080021317A1 (en) * 2006-07-24 2008-01-24 Siemens Medical Solutions Usa, Inc. Ultrasound medical imaging with robotic assistance for volume imaging
US8167803B2 (en) 2007-05-16 2012-05-01 Verathon Inc. System and method for bladder detection using harmonic imaging
US8133181B2 (en) 2007-05-16 2012-03-13 Verathon Inc. Device, system and method to measure abdominal aortic aneurysm diameter
US7780601B2 (en) 2007-06-05 2010-08-24 Siemens Medical Solutions Usa, Inc. Adaptive clinical marker preservation in spatial compound ultrasound imaging
CA2691211C (en) 2007-06-26 2017-03-21 Sorin Grunwald Apparatus and method for endovascular device guiding and positioning using physiological parameters
JP5002397B2 (ja) 2007-09-28 2012-08-15 株式会社東芝 超音波診断装置及びプログラム
US8539838B2 (en) * 2008-06-05 2013-09-24 Koninklijke Philips N.V. Extended field of view ultrasonic imaging with a two dimensional array probe
JP5271029B2 (ja) * 2008-10-16 2013-08-21 株式会社東芝 超音波診断装置
CN101744639A (zh) * 2008-12-19 2010-06-23 Ge医疗系统环球技术有限公司 超声成像方法及设备
US9445780B2 (en) 2009-12-04 2016-09-20 University Of Virginia Patent Foundation Tracked ultrasound vessel imaging
JP4709937B2 (ja) * 2010-10-01 2011-06-29 株式会社東芝 超音波診断装置及び画像処理装置
EP2637568B1 (de) 2010-11-08 2017-04-12 Vasonova, Inc. Endovaskuläres navigationssystem
KR101760346B1 (ko) * 2011-02-21 2017-07-21 삼성전자주식회사 초음파 빔포밍 방법 및 장치
US9033510B2 (en) 2011-03-30 2015-05-19 Carl Zeiss Meditec, Inc. Systems and methods for efficiently obtaining measurements of the human eye using tracking
WO2013004801A1 (en) 2011-07-07 2013-01-10 Carl Zeiss Meditec Ag Improved data acquisition methods for reduced motion artifacts and applications in oct angiography
TWI446897B (zh) * 2011-08-19 2014-08-01 Ind Tech Res Inst 超音波影像對齊裝置及其方法
US9101294B2 (en) 2012-01-19 2015-08-11 Carl Zeiss Meditec, Inc. Systems and methods for enhanced accuracy in OCT imaging of the cornea
US8891840B2 (en) 2012-02-13 2014-11-18 Siemens Medical Solutions Usa, Inc. Dynamic steered spatial compounding in ultrasound imaging
US9081097B2 (en) 2012-05-01 2015-07-14 Siemens Medical Solutions Usa, Inc. Component frame enhancement for spatial compounding in ultrasound imaging
EP2846686B1 (de) 2012-05-07 2018-01-03 Vasonova, Inc. System zum nachweis der vena cava superior und des cavoatrialen übergangs
WO2014117096A1 (en) * 2013-01-25 2014-07-31 Davey Sonya Novel algorithms for feature detection and hiding from ultrasound images
JP6139186B2 (ja) * 2013-03-11 2017-05-31 東芝メディカルシステムズ株式会社 超音波診断装置、画像処理装置及び画像処理プログラム
US9213901B2 (en) * 2013-09-04 2015-12-15 Xerox Corporation Robust and computationally efficient video-based object tracking in regularized motion environments
US10315222B2 (en) 2016-05-04 2019-06-11 Invensense, Inc. Two-dimensional array of CMOS control elements
US10670716B2 (en) 2016-05-04 2020-06-02 Invensense, Inc. Operating a two-dimensional array of ultrasonic transducers
US10656255B2 (en) 2016-05-04 2020-05-19 Invensense, Inc. Piezoelectric micromachined ultrasonic transducer (PMUT)
US10445547B2 (en) 2016-05-04 2019-10-15 Invensense, Inc. Device mountable packaging of ultrasonic transducers
US10325915B2 (en) 2016-05-04 2019-06-18 Invensense, Inc. Two-dimensional array of CMOS control elements
US10562070B2 (en) 2016-05-10 2020-02-18 Invensense, Inc. Receive operation of an ultrasonic sensor
US10632500B2 (en) 2016-05-10 2020-04-28 Invensense, Inc. Ultrasonic transducer with a non-uniform membrane
US10600403B2 (en) 2016-05-10 2020-03-24 Invensense, Inc. Transmit operation of an ultrasonic sensor
US11673165B2 (en) 2016-05-10 2023-06-13 Invensense, Inc. Ultrasonic transducer operable in a surface acoustic wave (SAW) mode
US10706835B2 (en) 2016-05-10 2020-07-07 Invensense, Inc. Transmit beamforming of a two-dimensional array of ultrasonic transducers
US10408797B2 (en) 2016-05-10 2019-09-10 Invensense, Inc. Sensing device with a temperature sensor
US10441975B2 (en) 2016-05-10 2019-10-15 Invensense, Inc. Supplemental sensor modes and systems for ultrasonic transducers
US10539539B2 (en) 2016-05-10 2020-01-21 Invensense, Inc. Operation of an ultrasonic sensor
US10452887B2 (en) 2016-05-10 2019-10-22 Invensense, Inc. Operating a fingerprint sensor comprised of ultrasonic transducers
WO2018002004A1 (en) * 2016-06-30 2018-01-04 Koninklijke Philips N.V. Intertial device tracking system and method of operation thereof
CN109937370A (zh) * 2016-09-09 2019-06-25 皇家飞利浦有限公司 超声图像的稳定
US10891461B2 (en) 2017-05-22 2021-01-12 Invensense, Inc. Live fingerprint detection utilizing an integrated ultrasound and infrared sensor
US10474862B2 (en) * 2017-06-01 2019-11-12 Invensense, Inc. Image generation in an electronic device using ultrasonic transducers
US10643052B2 (en) 2017-06-28 2020-05-05 Invensense, Inc. Image generation in an electronic device using ultrasonic transducers
US10984209B2 (en) 2017-12-01 2021-04-20 Invensense, Inc. Darkfield modeling
US10936841B2 (en) 2017-12-01 2021-03-02 Invensense, Inc. Darkfield tracking
US10997388B2 (en) 2017-12-01 2021-05-04 Invensense, Inc. Darkfield contamination detection
US11151355B2 (en) 2018-01-24 2021-10-19 Invensense, Inc. Generation of an estimated fingerprint
US10755067B2 (en) 2018-03-22 2020-08-25 Invensense, Inc. Operating a fingerprint sensor comprised of ultrasonic transducers
US10936843B2 (en) 2018-12-28 2021-03-02 Invensense, Inc. Segmented image acquisition
EP3711677A1 (de) 2019-03-18 2020-09-23 Koninklijke Philips N.V. Verfahren und systeme zur erfassung von 3d-ultraschallbildern
US11188735B2 (en) 2019-06-24 2021-11-30 Invensense, Inc. Fake finger detection using ridge features
WO2020264046A1 (en) 2019-06-25 2020-12-30 Invensense, Inc. Fake finger detection based on transient features
US11216632B2 (en) 2019-07-17 2022-01-04 Invensense, Inc. Ultrasonic fingerprint sensor with a contact layer of non-uniform thickness
US11176345B2 (en) 2019-07-17 2021-11-16 Invensense, Inc. Ultrasonic fingerprint sensor with a contact layer of non-uniform thickness
US11232549B2 (en) 2019-08-23 2022-01-25 Invensense, Inc. Adapting a quality threshold for a fingerprint image
US11392789B2 (en) 2019-10-21 2022-07-19 Invensense, Inc. Fingerprint authentication using a synthetic enrollment image
CN115551650A (zh) 2020-03-09 2022-12-30 应美盛公司 具有非均匀厚度的接触层的超声指纹传感器
US11243300B2 (en) 2020-03-10 2022-02-08 Invensense, Inc. Operating a fingerprint sensor comprised of ultrasonic transducers and a presence sensor
US11328165B2 (en) 2020-04-24 2022-05-10 Invensense, Inc. Pressure-based activation of fingerprint spoof detection
US11995909B2 (en) 2020-07-17 2024-05-28 Tdk Corporation Multipath reflection correction
CN112012062B (zh) * 2020-09-01 2023-01-10 天津动网信息科技有限公司 轨道与路基偏移三坐标监测装置及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4431007A (en) * 1981-02-04 1984-02-14 General Electric Company Referenced real-time ultrasonic image display
US4649927A (en) * 1984-09-25 1987-03-17 Kontron Holding Ag Real time display of an ultrasonic compound image
DE4224568A1 (de) * 1991-07-24 1993-01-28 Toshiba Kawasaki Kk Verfahren und vorrichtung zum aufbau der anzeige eines dreidimensionalen oberflaechen-schattierungsbildes

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4580219A (en) * 1983-05-02 1986-04-01 General Electric Company Method for reducing image artifacts due to projection measurement inconsistencies
JP2732650B2 (ja) * 1989-02-28 1998-03-30 株式会社東芝 垂直エッジ検出回路
JP2578984B2 (ja) * 1989-07-06 1997-02-05 松下電器産業株式会社 映像信号変換回路
US5107837A (en) * 1989-11-17 1992-04-28 Board Of Regents, University Of Texas Method and apparatus for measurement and imaging of tissue compressibility or compliance
US5474070A (en) * 1989-11-17 1995-12-12 The Board Of Regents Of The University Of Texas System Method and apparatus for elastographic measurement and imaging
US5293870A (en) * 1989-11-17 1994-03-15 Board Of Regents The University Of Texas System Method and apparatus for elastographic measurement and imaging
US5247937A (en) * 1989-11-17 1993-09-28 Board Of Regents, The University Of Texas System Transaxial compression technique for sound velocity estimation
GB9025431D0 (en) * 1990-11-22 1991-01-09 Advanced Tech Lab Three dimensional ultrasonic imaging
US5257626A (en) * 1990-11-26 1993-11-02 Board Of Trustees Of The Leland Stanford Junior University Method of noninvasive myocardial motion analysis using bidirectional motion intergration in phase contrast MRI maps of myocardial velocity
US5262856A (en) * 1992-06-04 1993-11-16 Massachusetts Institute Of Technology Video image compositing techniques
US5305104A (en) * 1992-07-27 1994-04-19 The Trustees Of Columbia University In The City Of New York Digitally assisted motion compensated deinterlacing for enhanced definition television

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4431007A (en) * 1981-02-04 1984-02-14 General Electric Company Referenced real-time ultrasonic image display
US4649927A (en) * 1984-09-25 1987-03-17 Kontron Holding Ag Real time display of an ultrasonic compound image
DE4224568A1 (de) * 1991-07-24 1993-01-28 Toshiba Kawasaki Kk Verfahren und vorrichtung zum aufbau der anzeige eines dreidimensionalen oberflaechen-schattierungsbildes

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
US-Z.: IEEE Engineering in Medicine and Biology, Nov./Dez.1994, S.671-677 *
US-Z.: IEEE Transactions on Ultrasonics, Ferroelectrics and Frequency Control, Vol.41, 1994, S.105-122 *

Also Published As

Publication number Publication date
JPH08280688A (ja) 1996-10-29
DE19611990A1 (de) 1996-10-02
US5575286A (en) 1996-11-19
JP3345257B2 (ja) 2002-11-18

Similar Documents

Publication Publication Date Title
DE19611990C2 (de) Verfahren und Vorrichtung zur Erzeugung von großen, zusammengesetzten Ultraschallbildern
DE69807575T2 (de) Ultraschall-Bildaufnahmesystem mit Doppler Verfolgung der Gewebebewegung
DE69732511T2 (de) Verarbeitungsverfahren für Signale von Objekten mit sich bewegenden Teilen und Echographie-Vorrichtung dafür
DE69931647T2 (de) Zoom- ultraschall- bilderzeugung mit verwendung von unabhängigen bearbeitungs- kanälen
DE60038382T2 (de) Intravaskuläre ultraschallbildanalyse unter verwendung einer aktiven konturmethode
DE19531419B4 (de) Verfahren zur Erzeugung anatomischer M-Modus-Anzeigebilder
DE19746939B4 (de) Verfahren zur Messung des Herzmuskels in Herzbildern
DE60012310T2 (de) Ultraschallbildverarbeitungsverfahren und -system zur darstellung einer farbkodierten ultraschallbilsequenz eines körpers mit beweglichen teilen
DE10141516B4 (de) Medizinische Diagnostische Ultraschallabbildungsverfahren für ein erweitertes Betrachtungsfeld
DE69935228T2 (de) Verfahren und vorrichtung zur räumlichen und zeitlichen filterung der intravaskulären ultraschallbilddaten
DE19828947B4 (de) System und Verfahren zur dreidimensionalen (3-D) Ultraschallbildgabe und Bewegungsabschätzung
DE60012305T2 (de) Ultraschallbildverarbeitungsverfahren und -system zur darstellung einer kompositbildsequenz eines arteriensegments
DE69118109T2 (de) Gerät für Gewebemessungen
DE69217335T2 (de) Ultraschall-Diagnosengerät mit synthetischer Apparatur
DE69827857T2 (de) Verarbeitung von mittels Ultraschall erzeugten und verbesserten intravaskulären Abbildungen und Signalen
EP1757955B1 (de) Vorrichtung und Verfahren zum Bearbeiten eines Ultraschallbildes
DE19819892B4 (de) Verfahren und Einrichtung zum Segmentieren von B-Mode-Intensitätsdaten unter Verwendung von Doppler-Verschiebungsdaten bei dreidimensionaler Ultraschall-Bildgebung
DE60302794T2 (de) Verfahren zur Bestimmung von Gewebedeformation und Gewebegeschwindigkeitsvektoren mittels Ultraschallbilddarstellung
EP1904973B1 (de) Verfahren, vorrichtung und computerprogrammprodukt zum auswerten von bildern einer kavität
DE60122991T2 (de) Verfahren und Gerät zur Verriegelung des abgetasteten Volumens auf einem beweglichen Blutgefäss in Doppler- Impuls- Ultrachallbilderzeugung
DE69522844T2 (de) Bildverarbeitungsverfahren zur örtlichen Bestimmung des Zentrums und der Objekte, die sich gegen einen Hintergrund abheben, und Vorrichtung zur Durchführung des Verfahrens
DE112007001982T5 (de) Impuls-Echogerät
DE4236757C2 (de) Ultraschalldiagnosegerät
DE112012003583T5 (de) Verfahren zur Erfassung und Verfolgung einer Nadel
DE69131798T2 (de) Verfahren zur automatischen qantisierung von digitalisierten bilddaten

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8304 Grant after examination procedure
8364 No opposition during term of opposition
8328 Change in the person/name/address of the agent

Representative=s name: KRAMER - BARSKE - SCHMIDTCHEN, 81245 MUENCHEN

8327 Change in the person/name/address of the patent owner

Owner name: SIEMENS MEDICAL SOLUTIONS USA,INC.(N.D.GES.D.S, US

R071 Expiry of right